Está en la página 1de 45

Filosofía de la ciencia

Perspectiva histórica.

Derek de Solla Price dice, en uno de sus artículos, que la mecánica, la astronomía, etc. son
anticipaciones a la gran explosión de la ciencia, que no es en el siglo xviii, sino en el xix.

David Knight hace referencia al siglo xix que “empieza” con la revolución francesa (1789) y
“termina” con la primera guerra mundial (1914), siglo donde aparece la química moderna, la
biología y Darwin, la biología de Mendel que enriquece la visión darwiniana, la psicología
moderna, etc. Es un siglo extraordinario para la ciencia, que es donde la ciencia se diferencia
de otros campos académicos. Este silgo también es donde la filosofía de la ciencia se postula
como campo de reflexión, aunque aún no como un campo propio profesionalizado hasta el
siglo xx. En el xix aparecen ciertos científicos con vocación filosófica cuya obra se basa en
reflexionar filosóficamente sobre la ciencia, nuevo hasta el siglo xix. La ciencia o episteme es
objeto de interés ya en Platón y Aristóteles, pero la ciencia como objeto único o fundamental
de reflexión no aparece hasta el siglo xix en obras de científicos como el astrónomo John
Herschel o William Whewell, que hacen de la ciencia el objeto fundamental de su reflexión
filosófica. Pero tal reflexión es peculiar, pues hacen una reconstrucción por medio de la
historia (sociología, filosofía e historia de la ciencia están conectados).

En el siglo xix tiene lugar una especie de transmutación. Comienza a haber autores que
desligan la ciencia de su reflexión filosófica de la ciencia. Herschel y Whewell son autores que
están aislados que no trabajan en escuelas o universidades, pero hasta el silgo XX no se
diferencia claramente el aislamiento de la filosofía de la ciencia como campo diferenciado y
profesionalizado. La sociología de la ciencia también surge en los años 30, después de la
filosofía de la ciencia. La filosofía, la historia y la sociología de la ciencia habían formado parte
del mismo espacio de análisis sobre la ciencia, pero a partir del xix, se diferencian como
campos profesionalizados independientes.

En esta asignatura se tendrá a Rudolf Carnap como referente en la filosofía de la ciencia, a


George Sarton como referente en la historia de la ciencia y a Robert Merton como referente
en la sociología de la ciencia. Son campos complementarios, no confrontados, mientras que en
siglos anteriores no se diferenciaban estos campos.

Carnap fue miembro del Círculo de Viena, que alimenta la principal corriente de esta época, el
empirismo lógico, conocido también como la concepción heredada de la ciencia. Esta visión
clásica de la ciencia se propagó desde los años 20 hasta los 70. El principal referente de la
filosofía de la ciencia desde que nació como tal es el empirismo lógico, ya que todo lo siguiente
ha sido o bien una ampliación o bien una reacción del pensamiento del empirismo lógico.

Hay excepciones, pues en Francia se pensó de manera divergente la filosofía de la ciencia,


como Foucault, etc., y en Alemania con la Escuela de Frankfurt, pero la filosofía del círculo de
Viena fue mucho más influyente que estas excepciones.

La visión de la ciencia del empirismo lógico recoge dos corrientes clásicas: el empirismo de
Hume y el logicismo, tratando de avanzar en la comprensión filosófica del método que
generaba las teorías científicas. El saber científico, para ser estudiado, debía dividirse en
saberes (física, química, biología, etc.), y determinar sus subdivisiones (física de partículas,
física cuántica…) y analizar sus teorías, y después, seguir analizando tales teorías mediante la
determinación de sus diferentes relaciones lógicas.
En los años 50 y 60 entró en crisis el empirismo lógico con la reacción antipositivista, y esto fue
debido a que ciertos autores mostraban sus malestares en cuanto a la corriente: había muchas
partes del empirismo lógico que no tenían aplicaciones prácticas. A partir de los 80, aparecen
otras orientaciones para la filosofía de la ciencia.

La mayor parte de la reacción, como Quine (Dos dogmas del empirismo), es por pequeñas
grietas que se van viendo, S. Toulmin, W. Sellars, etc. Muchas críticas van haciendo cada vez
más grandes las grietas pero no consiguen dar una salida a ello. Es Kuhn el responsable último
del giro naturalista de la filosofía de la ciencia y que rompe con el empirismo lógico y la visión
clásica de la ciencia, y lo hace en 1962 con su libro La estructura de las revoluciones científicas.
Acaba con la fe ilustrada del progreso que se mantenía hasta entonces. Kuhn marcó un punto
de inflexión en la ciencia, olvidando la fe ilustrada y prestando atención a los productores
(científicos) y sus interacciones sociales, que es lo que realmente importa previamente a los
productos. Los positivistas tenían una idea no de revoluciones, sino de evolución en cuanto a la
ciencia, de manera progresiva. Pero Kuhn dio una imagen más de tipo de revolucionario, pues
los procesos no son de acumulación, sino de conformación con la sociedad, momentos
histórico-políticos, etc. No se puede hacer ningún tipo de filosofía sin la historia, la sociología,
etc. Hay que prestar atención a la ciencia real. Los empiristas lógicos no usaban la historia para
construir la ciencia; peor Kuhn dice que hay que hacer caso y analizar la historia antes de la
reflexión filosófica. Además, Kuhn dice que esta atención a la ciencia real, a la textura de la
ciencia real, nos obliga a ir más allá de la filosofía para entender los problemas filosóficos
(objetividad, contrastabilidad…), pues se necesitan la sociología de la ciencia, una psicología de
la ciencia… Es decir, se necesita un marco explicativo naturalizado y no formal, que haga uso
de otros recursos. Después de la difusión de la obra de Kuhn, ya nada fue como era, y todos los
académicos de la ciencia reflejan la importancia de Kuhn. Después de Kuhn, por el marco
explicativo naturalizado, ya poco importa que seas filósofo si no se tienen estudios en historia,
sociología y demás campos. Tras la obra de Kuhn, se pueden distinguir dos grandes corrientes
en el estudio académico de la ciencia: los kuhnianos de izquierdas, más radicales, que
pensaban que Kuhn se había quedado demasiado corto y que la se debía hacer una ciencia de
la ciencia, es decir, el estudio de las causas de las revoluciones científicas, hay que centrarse en
la ciencia real, olvidándose de criterios teleológicos de la búsqueda de la verdad y centrándose
en las partes más reales de la ciencia, como las relaciones sociales, etc., donde se sitúan
muchos sociólogos e historiadores, aunque pocos filósofo (autobiografía de Feyerabend,
Matando el tiempo), y kuhnianos de derechas, más conservadores, quienes pensaban que
Kuhn había llegado muy lejos y había que estudiarlo así, defendiendo que la ciencia persigue la
fe ilustrada de la búsqueda de la verdad, donde hay más filósofos y pocos historiadores y
sociólogos (H. Collins, El golem). A partir de los años 90, tiene ligar el giro naturalista con
autores como Laugino, Cartwright, M. Solomon, etc., quienes publican en revistas de filosofía
de la ciencia, que no tienen una disciplina cerrada, sino que reflejan el espíritu postkuhniano
para entender la ciencia en su complejidad, situándose no tan racionalistas como los
conservadores y no tan relativistas como los radicales kuhnianos.

Hay dos partes no mencionadas: la evolución tanto de la ciencia como de las políticas y la
recepción social de la ciencia en el siglo XIX. Este tema del positivismo lógico no fue una
historia interna sin implicaciones en el alrededor. En los años 30, un médico polaco, Fleck,
publica un libro en alemán muy parecido al de Kuhn, pero el del polaco no tuvo éxito alguno.
También B. Hessen tiene una visión muy sociológica de la física de Newton en un congreso,
muy en la línea de los kuhnianos de izquierdas en los 70, pero que no tuvo tanto eco. En los
años 30 tenían un contexto cultural y político totalmente diferente al de los años 70. La visión
ilustrada de la ciencia era un mecanismo de liberación para la ciencia que usaban los filósofos
en contra del autoritarismo del nazismo para preservar un ideal de sociedad frente a un
contexto tan opresivo. Ese valor liberador de la ciencia de los años 30 se pierde en los 60 y 70.
Para entender los cambios en las políticas y en la ciencia, ha de entenderse una fecha
importante: 1945, fin de la segunda guerra mundial, y comienza la Big Science, donde la ciencia
comienza a mostrar su potencial para cambiar la sociedad y el mundo; también la alianza entre
la ciencia y la tecnología, Technoscience, la ciencia comercial (McScience), etc. Hasta entonces,
la percepción de la ciencia respecto de la sociedad es muy positiva. A partir de 1945, la
percepción cambia por ciertos momentos: ciencia nuclear, accidentes nucleares, etc., y por
ello comienza el miedo hacia la ciencia a modo de un síndrome de Frankenstein. A partir de
entonces, comienza una lucha entre grupos sociales (movimiento antinuclear, ecologismo,
feminismo, movimiento contracultural hippie, etc.) y la ciencia; en los años 60 y 70 se muestra
el recelo contra la ciencia y tecnología y las clases más acomodadas también en la sociedad. Y
es esta la situación socio-histórica en la que se encuentra Kuhn que le dará ese boom con su
obra, apoyando los aspectos menos fríos y más sociales y psicológicos de la ciencia.

Visión de la estructura de la ciencia de los positivistas lógicos.

Las fuentes de inspiración de los positivistas eran tres: tradición logicista, uso de la lógica como
herramienta filosófica; el marco filosófico del empirismo clásico de Hume, junto con el
Tractatus de Wittgenstein; y el modelo de la física matemática, y específicamente la mecánica
clásica de partículas (mecánica clásica de Newton). La pregunta pertinente de ‘¿qué es la
ciencia?’ tiene una primera aproximación: un saber metódico, cuyos elementos en cuanto al
saber son el empirismo, la física matemática y el logicismo. Por tanto, estas tres ramas se
concentran en analizar la estructura científica, y esto da lugar a ciertas disciplinas: la física, la
química, la biología, la psicología, la medicina, etc. Estas disciplinas se subdividen en otras: la
mecánica, la teoría de gases, la cinemática, etc. en la física, etc., y cada una de estas
subdisciplinas, como la mecánica, estaría representada por una serie de teorías científicas que
se ordenan temporalmente (Galileo, Newton, etc.). Estas teorías científicas, a su vez, son
analizables en términos de conjuntos de enunciados que se construyen en un lenguaje L con
reglas de creación de fórmulas y que toman términos de tres vocabularios que relacionamos
en tales teorías: Vocabulario lógico, vocabulario teórico y vocabulario observacional. El
vocabulario lógico, con las constantes lógicas (negador, implicador material, conjuntor, etc.) y
los signos matemáticos (igualdad, abstractor, etc.), que nos ayudan a crear enunciados (F = m x
a), y estos términos hacen referencia a unas u otras cosas. Por ejemplo, la masa no se puede
ver, por lo que es un término teórico que ayuda a explicar los fenómenos empíricos. Pero esto
conlleva una de las cuestiones achacadas al empirismo lógico, y es la relación entre la
experiencia (E) y la práctica (P), pues mientras unos defienden que la experiencia es la base de
la teoría, tantos otros defienden que la teoría influye en la experiencia; y esto ayuda a
difuminar la frontera entre ambas. Y esto se remite a los tres vocabularios de los empiristas
lógicos: vocabulario observacional, referente a la experiencia; vocabulario teórico, referente a
las partes de las entidades teóricas que expliquen y que estén por los datos empíricos; y el
vocabulario lógico, donde se encuentran las constantes lógicas que ayuden a determinar las
relaciones entre la experiencia y la teoría. Y este es el debate entre el realismo y el
antirrealismo. Pero aquí se tratará por el momento de la parte teórica y sus propiedades.

Los empiristas lógicos consideraban que estas teorías, entendidas como conjuntos de
enunciados, estaban dotadas de cierta estructura, la cual es la de un sistema deductivo o
sistema axiomático, que se suele representar con una pirámide: arriba, los axiomas en base a
los cuales se pueden deducir los demás enunciados. Para esto, se necesitan una tabla de signos
primitivos (a partir de los vocabularios), una serie de reglas de creación de fórmulas, identificar
subconjuntos de tales fórmulas, que son los axiomas, y reglas de inferencia para crear fórmulas
a partir de fórmulas. Esto permitiría poner de manifiesto la estructura subyacente lógica de
una teoría científica particular, como la teoría kepleriana, el sistema solar, la teoría galileana
de la caída libre, etc. La idea es reconstruir esas teorías, el conjunto desordenado de teorías,
ordenadamente como sistema deductivo o sistema axiomático. Esta es una clara influencia de
la física matemática, ya que entendían los positivistas la ciencia como un gran sistema
axiomático; la química descansa sobre la física, la biología sobre la química, etc., esto es, las
ciencias descansas sobre sus anteriores. El camino de las ciencias particulares es fundirse con
sus ciencias anteriores, descansando todas ellas sobre la lógica y la matemática en última
instancia: el ideal de la ciencia unificada como gran sistema deductivo.

Para ellos, hacer filosofía era aplicar la lógica, y comprender filosóficamente la ciencia era
reconstruir la ciencia mediante la aplicación de la lógica; y eso solo sería posible teniendo
como objeto de reflexión filosófica algo que mereciese la pena: la ciencia, y aplicando un
instrumento preciso, como la lógica matemática.

Bibliografía del tema 1, empirismo lógico: F. Suppe, Estructura de las teorías científicas
(introducción); E. Nagel, La estructura de la ciencia; C. Hempel, La explicación científica; R.
Carnap, Fundamentación lógica de la física J. Losee, Introducción histórica a la filosofía de la
ciencia; D. Olroyd, El arco del conocimiento. Muchos de estos libros contienen la visión madura
de la naturaleza de la ciencia; en los años 20 y 30 se define el proyecto de la naturaleza de la
ciencia, que se va haciendo más madura en libros como los de Hempel o los anteriores. Un
autor que explica bien esta evolución y maduración es el libro de Suppe. Él diferencia entre la
visión original, clásica, sobre la estructura de la naturaleza de la ciencia y la visión madura.

La visión clásica. Suppe expone esta visión inicial o clásica de la concepción heredada del
empirismo lógico mediante una definición con cláusulas: las teorías científicas son entendidas
como sistemas axiomáticos formulados en una lógica matemática y que cumplen las siguientes
condiciones:

1- Especificar el lenguaje. La teoría se formula en una lógica de primer orden con


identidad simbolizada con una L.
2- Los términos de L se dividen en tres clases disjuntas, pues no se solapan, llamadas
‘vocabularios’. Los vocabularios son: (a), vocabulario lógico Vl que contienen
constantes lógicas y símbolos matemáticos; (b), vocabulario observacional Vo, que
contiene términos observacionales; y (c), vocabulario teórico Vt, que contiene
términos teóricos o no observacionales, cuyo referente no es accesible directamente a
los sentidos.
3- Los términos del Vo se interpretan como referidos a objetos físicos o características de
objetos físicos directamente observables.
4- Hay un conjunto de postulados teóricos T cuyos términos no lógicos solo pertenecen a
Vt, como en la energía cinética.
5- Se ofrece una definición explícita de los términos de Vt en función de términos de Vo
mediante reglas de correspondencia C (reglas que tienen términos tanto de Vt como
de Vo), de modo que para cada término F de Vt (F ϵ Vt) pueda ofrecerse una definición
de la forma Ɐx(Fx ssi Ox), donde Ox es una expresión de L que contiene términos
únicamente de Vo y posiblemente de Vl
Por tanto, los únicos términos aceptables son aquellos que puedan ser canjeables por términos
observacionales. A fin de cuentas, se pide que sea lo mismo adquirir una experiencia y su
reflexión teórica, es decir, que se pueda teorizar toda la experiencia, o que puedan traducirse
los términos teóricos en términos observacionales explícitamente; pero este anclaje puede
obstaculizar el ir más allá de la mera experiencia empírica, y toda psicología de Freud sería
‘metafísica’, no aceptable, pues no se podría traducir entidades como ‘hábito’ o ‘superyo’. Por
tanto, la experiencia es lo que legitima a la teoría.

Una variedad de las definiciones explicitas son las definiciones operacionales. Es un concepto
que puso en circulación P. Bridgman, quien dice que los conceptos son sinónimos de series de
operaciones, las operaciones que necesitamos llevar a cabo para atribuir significado o valor al
concepto en cuestión (operacionalismo de Bridgman).

Aplicación del puritanismo epistemológico de los empiristas lógicos de la definición explicita,


donde la experiencia legitima la teoría, con el dilema del teórico.

Se supone que la ciencia comienza con la observación del mundo natural y luego hacemos
leyes sobre tales observaciones. Si la ciencia es aceptable y satisfactoria, debería darnos la
posibilidad de volver a la experiencia. Pero esto tiene cierto nivel de innecesariedad, pues, si
de la experiencia vamos a la teoría, para con las leyes teóricas de la experiencia, para después
volver a la experiencia, ¿para qué hacer ese salto de la E a la T y luego a la E? Quizás sea mejor
conectar experiencia con la experiencia. Esta idea la recoge Hempel, y años más tarde B. F.
Skinner, apelando a la cadena causal E->O->R (E, estímulos externos, producen cambios
internos en el O, organismo, que a su vez producen R respuesta conductual). Skinner dice que
a menos que haya un punto débil en la cadena causal, de modo que el segundo eslabón no
esté nomológicamente el primero influido por el segundo, ni el tercero con el segundo,
entonces el primer y el tercer eslabón deberán estar conectados de manera determinista en
todos los casos por una ley que describa los cambios en un eslabón en función de los cambios
del eslabón anterior. Si ocurre algo en O, es porque ha ocurrido en E, y si algo ocurre en R, es
porque ha ocurrido algo en O; si esto es así, es que E implica R. El dilema del teórico dice que la
referencia a elementos mentales o bien son lógicamente prescindibles y deberíamos
olvidarlos, o son epistemológicamente problemáticos, y deberíamos evitarlos, pues no está
fundamentado en la experiencia.

Críticas al dilema del teórico (ensayo): por qué tiene que ser R y no O? por qué debe haber
transitividad? Por qué tiene ese carácter nomológico presupuesto?

Críticas ante la visión puritana: crítica a las definiciones explicitas y las críticas a las definiciones
operacionales (variedad de las definiciones explicitas)

Crítica a las definiciones explicitas (crítica general) (Filosofía de la ciencia natural,


‘operacionalismo’).

Carnap, 1936-7, en la revista Erkenntnis, escribió un artículo llamado Testability and Meaning
(¿). Aquí, Carnap expone una serie de términos que forman un problema para el problema de
fundamentación empírica a través de definiciones explicitas, esto es, los términos de
disposición o disposicionales (‘frágil’, ‘soluble’, ‘inteligente’, etc.). Hacen referencia a entidades
teóricas o propiedades no observacionales, pues nadie ha visto nunca la inteligencia ni la
fragilidad, y son términos significativos, es irracional decir que carecen de significado cognitivo.
Todos los términos de ‘-ble’, ‘-ente’ o ‘-idad’, de los cuales está llena la ciencia, son
disposicionales. Ante esto, Carnap propone un intento se solución: hay que integrar el
definiendum dentro del definiens con un esquema de solución tal que: para todo x para todo t,
si S recibe un golpe en t (Sxt), entonces Fx --- Rx). Así, el definiendum está contenido en el
definiens. Si un objeto no recibe un golpe seco, no quiere decir que no sea frágil. Una
definición así tiene otro problema, y es que este es un enunciado de reducción; se está
diciendo que para todo objeto y todo tiempo, si recibe un golpe, se rompe ssi es frágil; y si un
objeto no recibe golpe, no se puede decir que es ni frágil ni no frágil. Así, no hay ningún criterio
que sea suficiente para saber una propiedad disposicional. Lo que ofrecería una definición
suficiente sería una disyunción infinita, pues es un conjunto indeterminado y potencialmente
infinito el hecho de que un objeto exprese su fragilidad rompiéndose (exposición sonido alta
frecuencia, golpe, etc.). Pero solo podríamos ser capaces de ofrecer una disyunción finita, y no
tenemos ningún criterio que nos garantice que nuestra revisión haya sido exhaustiva
totalmente, pues el conjunto es indeterminado y potencialmente infinito. Por tanto, los
enunciados de reducción no son capaces de dar definiciones explicitas completas de los
términos disposicionales, solo parciales.

Problemas del operacionalismo (Hempel, págs.131-147). Hempel expresa la admiración por la


obra de P. Bridgman, quien propone las definiciones explícitas y su idea central es que el
significado de todo término científico debe ser expresado mediante la descripción un conjunto
de operaciones que proporcionen un criterio para su aplicación (The logic of Modern Physics,
1927). El término ‘ácido’, cuando podamos hacer un uso operacional con él, como usar un
papel para saber si cambia de color al ser ácido o no. El problema que ve Hempel es que para
la mayoría de los términos científicos tenemos diversas operaciones para atribuirles un valor y,
en la medida en que son diferentes operaciones, parece que estemos expresando conceptos
diferentes; por ejemplo, se puede medir a longitud mediante la triangulación óptica, pero
también con vara rígida. Esto no quiere decir que sean conceptos distintos de longitud.
Hempel dice que no se pueden estandarizar, por ejemplo, medidas, unificando un criterio
como referencia al que todos han de amoldarse. Hace falta analizar el alcance sistemático de
los conceptos de la ciencia, su fundamentación teórica, y no solo quedarse en las
interconexiones de conceptos empíricos con leyes empíricas, pues se necesita una parte de
reflexión para entender el mundo que se está analizando. El único modo de exigir consistencia
a los procedimientos de aplicación operacional de un objeto es teniendo en cuenta su alcance
sistemático, teniendo una fundamentación teórica (factores, inteligencia cristalizada, todo lo
que tiene que ver con la psicometría). La temperatura depende de las moléculas de un gas, y
es una visión teórica (nadie ha visto tales moléculas), pero es lo que da consistencia a tal
concepto, y además puede medirse de varias formas, pero la temperatura es una única cosa.
Bridgman, con su cautela epistemológica, hace que no se pueda ver más allá.

(Cuando vuelva Cerezo retomaremos el tema del positivismo lógico a su manera. Hasta en
entonces trabajaremos otros temas relacionados con el empirismo lógico, como la perspectiva
histórica.) (Ver pdf cuando se suba al campus)

Empezaremos hablando de la obra de Rudolf Carnap, en especial sobre su libro Aufbau (1928),
que dio pie al nacimiento del Círculo de Viena y al desarrollo del empirismo lógico,
concretamente a la idea de la ciencia como disciplina unificada.

Aufbau fue escrito antes de que Carnap llegara a Viena, donde conocería al resto de
integrantes del círculo, de tal modo que fue él quien sembró el germen del positivismo lógico.
Este libro, además, fue muy criticado por autores de muy diversa índole, sobre todo
neokantianos. Pero gracias al apoyo que recibió en Viena pudo desarrollarse a su gusto.

Sin embargo los planteamientos que pone sobre la mesa son considerados a día de hoy como
una postura demasiado extrema o radical, casi cientificista; algo que no quita el gran valor
filosófico que posee la obra de Carnap en la historia de la filosofía de la ciencia.

A raíz de ahí, como sabemos, surge el Círculo de Viena (1924-1936) en un periodo de


entreguerras y alrededor de la figura de Schlick en la universidad de Viena. Algunas de sus
influencias más destacadas son Russell, Wittgenstein o Frege entre otros. Su culminación fue la
publicación en 1929 del Manifiesto sobre La concepción científica del mundo. Dicho manifiesto
establece las bases ideológicas del positivismo lógico, que se puede resumir en una concepción
cientificista del mundo, en el cual se establece la idea de que si algo no es empírico o analítico
no se puede considerar como un auténtico conocimiento. La labor de la filosofía, ayudada de la
lógica, consistiría en diferenciar aquello que es ciencia de aquello que no lo es (crítica a la
metafísica).

Es, así pues, una reconstrucción lógica de la teoría del conocimiento que se realiza a través de
conseguir una unificación conceptual de dicho conocimiento y en la que se establece una base
firme de contrastación de las proposiciones empíricas. "Nada que no provenga directamente
de la experiencia puede ser considerado como un conocimiento real".

Se aprecia claramente una gran herencia de la filosofía de Russell, sobre todo en el valor que le
confiere Carnap a la lógica en la tarea de estipular qué es conocimiento y qué no lo es. Así,
Carnap cree que es posible constituir todos los conceptos científicos unos a partir de otros. El
resultado de esto es una genealogía de conceptos cuya base es la experiencia inmediata de
cada uno. Pero, al contrario de lo que pueda creerse, el conocimiento es objetivo pese a
basarse en experiencias subjetivas (Carnap es fenomenalista, ya que la experiencia es la base
de la ciencia, como punto de partida; pero se puede llegar a ser fisicalista, ya que la base de la
ciencia sea externa.).

Por tanto, así como Russell deriva la matemática de una única relación primaria, la de
pertenencia, en base a la cual construir el edificio conceptual de la matemática, Carnap
pretende hacerlo derivando la ciencia empírica de la relación de "recuerdos de semejanza". Es
decir, en Carnap los componentes primarios son las vivencias elementales de cada uno o las
impresiones globales conscientes (son las experiencias inmediatas que se guardan en nuestra
memoria las que nos permiten construir los conceptos propios de la ciencia).

Carnap se basa en la psicología empírica de la Gestalt y la psicología conductista, viendo la


psicología como una ciencia en sentido estricto, objetiva, y hace una contraposición entre la
posibilidad de poner la base empírica fenomenalista o la base empírica fisicalista. Primero
tenemos base empírica observacional, y después, con constantes lógicas, construimos la
ciencia y su edificio conceptual. Carnap parte de la relación básica entre experiencias
elementales que, según él, son las relaciones de recuerdo de semejanza. Relación básica:
recuerdo de semejanza (Rs):

x Rs y ssi x e y son experiencias elementales y un recuerdo de x es parcialmente semejante a la


experiencia actual y.

Para el ascenso a niveles superiores se emplean relaciones de equivalencia (caso en el cual las
clases de equivalencia constituyen los conceptos del tipo siguiente) o bien relaciones de
semejanza (en este caso, el ascenso se produce por cuasianálisis), es decir, relaciones
reflexivas y simétricas. Como el ‘recuerdo de semejanza’ no es una relación de equivalencia ni
de semejanza, se construye a partir de ella la relación de semejanza parcial (PS): x Ps y si y solo
si x Rs y o y Rs x o x=y.

A partir de esta relación se construyen clases de experiencias parcialmente semejantes que se


organizan en círculos de semejanza

Los círculos de semejanza se construyen como clases que satisfacen dos criterios:

1. Cada uno de los elementos de uno de dichos círculos se relaciona con cada uno de los
miembros del círculo por medio de la relación Ps.
2. Si un elemento se relaciona por medio de Ps con todos los miembros del círculo, este
elemento debe pertenecer a él.

Dado que Ps no es transitiva es de esperar que haya múltiples y complejos solapamientos


entre círculos de semejanza. A continuación se construyen las clases de cualidad como las
subclases de círculos de semejanza más extensas que ya no pueden solaparse con otro círculo
de semejanza.

Entre clases de cualidades se definen relaciones de semejanza (Sim):

α Sim β ssi α y β son clases de cualidad tales que todo elemento x que pertenece a α mantiene
la relación x Ps y con cada elemento de β.

A partir de ellas se construyen las modalidades sensoriales:

α y β pertenecen a la misma modalidad sensorial ssi existe una cadena de clases tales que α
Sim… Sim β.

Y las sensaciones (par ordenado constituido por una experiencia elemental y una clase de
cualidad a la que pertenece) (exel = experiencia elemental):

S = def (exeln, α), tal que exeln pertenece a α.

Críticas al Aufbau

Quine: ‘Carnap fue el primer empirista que, no contento con aseverar la reducibilidad de la
ciencia a términos de la experiencia inmediata, da pasos hacia la realización de dicha tarea’.

Se trata solo de un esbozo, una tarea incompleta.

Se trata de una tarea imposible. La asignación de cualidades a puntos-instante es la base para


la construcción de los objetos físicos (mediante enunciados de la forma ‘la cualidad q se
encuentra en x; y; z; t;’ un punto-de-mundo, es decir, un punto espacial en un punto
temporal). Quine sugiere que esta es una tarea imposible por la dificultad de eliminar la
conectiva ‘se encuentra en’.
El Aufbau y la Bauhaus

El Aufbau representa un programa para la reconstrucción de un mundo político, estético,


filosófico, socialista, internacionalista, práctico y científico-tecnológico.

Construcción transparente a partir de elementos simples donde cada elemento tiene su lugar y
función.

Realismo científico

Momento clave de su surgimiento como problema: teoría atómica de Dalton. ¿Es real lo que
vemos? ¿Es la experiencia o las entidades inobservables el suelo de la ciencia?

Este problema se pude entender como problema semántico (qué querremos decir que un
átomo es real, el significado de las entidades inobservables), metafísico (qué significa
comprometernos con una realidad inobservable como un átomo o una partícula),
epistemológico (cómo conocer aquello que no vemos, si tenemos o no garantía de aquello de
lo cual no tenemos experiencia directa), etc. Son problemas distintos relacionados entre sí,
pues hay diferentes variedades del realismo científico y hay una discusión sobre esto en el
empirismo lógico, donde unos aceptan unos tipos de realismo y otros no.

El Círculo de Viena tiene la herencia del empirismo decimonónico, como Mach, Duhem,
Poincaré, etc., quienes entienden que estos conceptos son instrumentos, son útiles para salvar
los fenómenos, para explicarlos; pero ni debemos ni podemos comprometernos a esa realidad,
no sabemos si existen de hecho, ya que de lo único que podemos dar cuenta fija es de los
fenómenos, de lo cual podemos dar cuenta directamente en base a nuestros sentidos
(diferenciación empirismo/realismo).

El Círculo de Viena, pese a esta asociación que habitualmente se hace entre empirismo e
instrumentalismo o antirrealismo, ellos no van a defender posturas radicalmente antirrealistas
instrumentalistas, sino que intentan buscar posturas más neutrales sobre el realismo o bien
construir algún tipo de variedad de postura realista. Nunca defenderán, eso sí, es un realismo
metafísico; el compromiso con la realidad de un mundo que trasciende la posibilidad de
nuestra experiencia y de nuestra interacción con él, sino que defenderán cualquier otro tipo de
realismo (epistemológico, semántico, etc.). Pero la idea inversa, la de que no hay nada más
afuera, la idea de la inexistencia de lo de fuera, es también metafísico, antirrealismo
metafísico, y ha de escaparse de esta otra postura radical. La postura de los empiristas es
variada, según muchos autores, sobre qué significa decir que un átomo es real, a qué me estoy
comprometiendo cuando lo digo, etc.

A estas preguntas, Schlick, en 1932, en su Positivismo y realismo, diferencia entre el realismo


metafísico y el realismo empírico, defendiendo este último. Este realismo empírico dice que el
criterio verificacionista del significado (solo tiene significado aquello verificable
empíricamente) también ha de usarse como un criterio de realidad. Es real aquello que puede
contrastarse empíricamente; si lo es, puedo comprometerme con su realidad.

Otra versión es destacable, como la de Reichenbach (1938), Experience and Prediction, quien
dirá que, por una parte, aligera y convierte en menos riguroso el criterio verificacionista y
hacerlo más probabilístico, y por otra parte, buscar una manera mejor de entender cómo
podemos concebir entidades inobservables a partir de lo que observamos de hecho, es decir,
cómo justificar la existencia de entidades inobservables mediante entidades observables. El
ejemplo mental que utiliza es el mundo cúbico. La idea que pretende dar es que los científicos
viven en su propio mundo cúbico, en su propio cuerpo físico, y lo que hay más allá es
imperceptible para el ojo humano. Lo que hacen los científicos es hacer hipótesis para
entender el mundo fenoménico e inferir conclusiones, al menos en términos probabilísticos,
con los cuales se pueden trabajar. La cuestión es, entonces, Inferir de la existencia de lo
inobservable a partir de aquello que sí que lo es.

Carnap, en 1950, en Empirismo, semántica y ontología; Feigl, en 1959, Experiental Hypothesis.

Carnap defiende un realismo semántico, defienden la idea de que la opción por el realismo es
la opción por un marco lingüístico, y una vez que he optado por un marco lingüístico, dentro
de él se puede plantear las cuestiones de la realidad de otra manera. Por ejemplo, sobre los
números naturales.

Feigl defiende un giro copernicano desde el empirismo clásico: las entidades inobservables
dependen de lo fenoménico, y ha de darse la vuelta; ha de haber un compromiso con tales
entidades, pero no es metafísico, sino con un fin empírico. Lo fenoménico ha de explicarse en
términos de entidades inobservables aceptadas previamente.

Después de todo esto, el realismo científico ha tenido problemas mayormente epistemológicos


más que ontológicas. Este tema pone el interés en esas entidades inobservables para con las
cuestiones del conocimiento. El interés ontológico aparece posteriormente en filosofía de la
ciencia a partir de los 60s, que se impone el argumento siguiente: la idea de que cualquier otra
explicación que no sea realista hace del éxito de la ciencia un milagro, es decir, el realismo es
básico para la ciencia. Pero no es monolítico este realismo, pues hay corrientes antirrealistas
muy fuertes que aparecen también con el historicismo, cuyo argumento será el de la
metainducción pesimista: si miramos la historia de la ciencia con ojo crítico, vemos que las
teorías científica tienen poco éxito, pues cada una es desbancada al final por otras; ¿cómo
comprometernos con unas realidades que sabemos que está avocadas al fracaso?

(Cerezo is back)

Estructura de la concepción heredada de las teorías científicas (Suppe’s book).

Problemas en los contextos operacionales y los términos disposicionales no definibles por


completo por enunciados de reducción en cuanto al quinto postulado (última clase de Cerezo)

La visión final es la del empirismo lógico maduro (explicado en Filosofía de la ciencia natural,
Hempel; Nagel, La estructura de la ciencia, etc.). Siguiendo a Suppe, podemos describir la
versión final de la estructura de las teorías científicas de acuerdo con la concepción heredada
así: tomando los cuatro primeros postulados de la versión inicial y cambiamos el quinto
(definiciones explicitas). Al nuevo quinto postulado se le puede llamar 5’, y de acuerdo con
Suppe, dice:

(5’) Las reglas de correspondencia C constituyen un sistema interpretativo que satisface las
condiciones siguientes:

(a) El conjunto C de reglas es un conjunto finito


(b) El conjunto C de reglas debe ser lógicamente compatible con los postulados teóricos
de la teoría
(c) El conjunto C de reglas no contiene términos no lógicos que no pertenezcan a VO o VT,
es decir, al vocabulario observacional o al vocabulario teórico
(d) Cada regla de C debe contener esencial o no vacuamente al menos un término de VO y
al menos un término de VT
(e) Las reglas de C deben ser tales que TC sea cognitivamente significativa. (TC =
conjunción de los postulados teóricos referidos por T y las reglas de correspondencia
referidas por C)

Lo único que nos dice es que las reglas han de ser finitas y que los postulados teóricos y
observacionales han de ser consistentes y las reglas han de hacer posible el anclaje empírico;
las reglas de correspondencia son la suma total de procedimientos experimentales para aplicar
una teoría. Además, no exige que las reglas de correspondencia permitan dar definiciones
explicitas, completas de los términos teóricos.

Hay una observación uy importante en este punto: algunos términos teóricos (como en teoría
psicométrica, en mecánica, etc.) pueden figurar en reglas de correspondencia de otros
términos teóricos más básicos. Por ejemplo, el factor G aparece vinculado en otros factores
que lo explican, como el factor H y el factor Z. Por esto, puede que haya términos teóricos que,
tras reglas de correspondencia, no tengan anclaje experimental. Pero sí están relacionados o
vinculados al mundo experiencial a través de su conexión con otros términos teóricos que sí
están vinculados a la experiencia. Por esto, cada cambio en los postulados teóricos modifica el
significado de estos términos teóricos indirectamente conectados al mundo de la experiencia.
El significado de T hace referencia a algo que no podemos ver; lo que hemos de preguntarnos
es si aparece en alguna regla de correspondencia con la experiencia; si es que sí, entonces está
relacionado directamente con la experiencia dichos términos teóricos de T; pero si es que no,
habrá que dar cuenta de los términos intermedios a través de los cuales están conectados esos
términos teóricos con la experiencia.

Consecuencia de esto: para responder a l problema de la significatividad, hay que dar cuenta
no solo la C, sino también la T; la significatividad de un término queda relativizada respecto de
la teoría en la que ocurra dicho término. Un mismo término teórico podría ser significativo en
una teoría y no en otro. Ejemplificaciones de esto: libro de Hempel.

Este tipo de reglas son las que nos permiten conectar la teoría y la experiencia, y derivar leyes
empíricas sobre el mundo observable a partir de postulados teóricos sobre lo inobservable.

Esta función se representa en una gráfica de Feigl (Minnesota studies in the philosophy of
science). Siempre se tienen en cuenta dos planos: la teoría, representada como una especie de
nube, y la experiencia, representada como un suelo firme. Y estas nubes han de anclarse al
suelo. La forma de hacerlo es variada mediante leyes empíricas que manejen variables que se
refieran a procesos, objetos, etc. del mundo físico, como temperatura. Estos conceptos se
representan como cuadrados cercanos al mundo de la experiencia, que reciben valores
mediante procedimientos de medida (usar un termómetro para averiguar la temperatura de
un cuerpo) que ayudan a ese anclaje. Estos conceptos empíricos pueden relacionarse unos con
otros mediante fenómenos regulares, apreciando las variaciones constantes. Por otro lado,
está la nube, que debe arrojar luz sobre lo que ocurre en la experiencia mediante la
explicación teórica. Esta explicación da cuenta de conceptos teóricos, representados mediante
círculos, los cuales están vinculados unos con otros; y esta conexión entre conceptos está
representada mediante líneas. Y estas líneas, estas conexiones, son las leyes teóricas, que
vinculan conceptos teóricos. Hay dos planos muy diferentes: plano experimental, que explica
el cómo, y el plano de la teoría, que explica el porqué. La parte fundamental es el anclaje de la
nube al suelo de la experiencia, y aquí ejercen su labor las reglas de correspondencia o
principios-puente, ya que las reglas de correspondencia toman términos de VT y de VO. Estas
reglas de correspondencia se representan mediante triángulos que conectan conceptos
empíricos (VO) y conceptos teóricos (VT). De esta manera, podría haber tres conceptos, uno
teórico, otro observacional y otro que pertenezca a las reglas de correspondencia, que
estuviesen interconectados de manera indirecta, como se ha explicado más arriba, gracias al
principio-puente que ayude a anclar el concepto teórico con el concepto observacional.

Ejemplos:

Teoría científico molecular de los gases, que explica el por qué los gases se comportan como se
comportan, la cual se lleva a cabo en 1857 por Rudolf Clausius incluyendo hipótesis anteriores:

- Ley de Boyle, que explicaba el volumen de un gas como un atributo inversamente


proporcional a la presión del gas a temperatura constante y el número de moles (ley
puramente empírica).
- Ley de Charles, que explicaba la relación entre el volumen de un gas y su temperatura.
- Ley de Avogadro, que explicaba la proporcionalidad entre el volumen y el número de
moles.

Estas teorías son meramente empíricas; y de estas leyes se derivan otras que siguen
igualmente en el plano empírico, como la ley de Graham o la ley de Van der Waals.

Hasta ahora se han visto una serie de ecuaciones que se mantienen en el plano empírico y que
se mantienen unidas entre sí. Lo que hizo Clausius es desarrollar la nube y explicar por qué, dar
cuenta del cómo en términos de procesos inobservables ir más allá de las experiencias.
Clausisu explicó esos procesos inobservables mediante una serie de postulados: que los gases
están formados por moléculas individuales, que ejercen muy poca atracción reciproca excepto
en las proximidades del cambio de estado; las moléculas gaseosas se mueven siempre en línea
recta; las colisiones entre las moléculas son elásticas, no hay transferencia de energía, etc.

Estos postulados son suposiciones, van más allá de las apariencias de la experiencia. Clausius
deriva predicciones mediante la deducción de los postulados teóricos, lo cual permite
comprender el porqué de las asociaciones; y aquí, lo fundamental son las reglas de
correspondencia. Estas conjeturas brillantes desarrolladas son las que permiten anclar la nube
al suelo y explicar los procesos observables.

Este diagrama, visión metafórica de la ciencia, de Feigl, los empiristas lógicos lo expresaban
mediante sistemas deductivos. Comienza expresando las hipótesis científicas como enunciados
universales afirmativos susceptibles de ser formalizados mediante una función proposicional
cuantificada universalmente Ɐx (Px→Qx). Y entiende las leyes científicas como hipótesis
científicas verdaderas. Además, afirma que un sistema científico consiste en un conjunto de
hipótesis que forman un sistema deductivo, esto es, un sistema dispuesto de forma que
tomando unas de ellas como premisas, se sigan las demás como conclusiones. Aquí introduce
la idea de los niveles de las hipótesis: las proposiciones de los sistemas deductivos están
ordenadas por niveles, es decir, el nivel supremo, el nivel intermedio y el nivel ínfimo (imagen
de la pirámide dividida en tres partes). Las de nivel supremo, aparecen como premisas del
sistema; las de nivel ínfimo, aparecen como conclusiones del sistema; y las de nivel o niveles
intermedio o intermedios, serían o bien conclusiones de deducciones de hipótesis de niveles
más elevados, o bien conclusiones de deducciones de hipótesis de niveles ms inferiores, siendo
este nivel intermedio o bien el punto de partida o bien el punto de llegada. Este tipo de
sistema científico permite explicar deductivamente leyes a partir de esas hipótesis de nivel
supremo.

Ejemplo concreto:

Hipótesis de caída libre de Galileo. A partir de la ley de caída libre de Galileo, se construirá un
mini sistema deductivo. La propia ley de caída libre actuará de axioma, de hipótesis de nivel
supremo, llamada A. a partir de A, derivaremos, mediante lógica y matemática,
deductivamente una nueva hipótesis, B, lo cual conformará el nivel intermedio del sistema, y
como conclusión de esta premisa, se derivarán otras leyes más cercanas a la experiencia, que
conformaran las leyes de nivel ínfimo, C1, C2, etc.

Ley de Galileo: todo cuerpo en las proximidades de la Tierra y en caída libre hacia ésta cae con
una aceleración de 9’8 m/s cada segundo, 9’8 m/s2. A partir de aquí, se puede derivar
deductivamente mediante principios matemáticos cuál será el espacio recorrido de un objeto
en caída libre en un tiempo determinado. Esto derivado puede expresarse como B, deducido
desde A. B nos dirá que todo cuerpo que partiendo de reposo está en caída libre recorre 4’9 x
t2 metros en t segundos, cualquiera que sea el valor de t. Y esto es deducible mediante
matemática. Además, con el principio aplicativo de la lógica se puede derivar que C1: un
cuerpo en un segundo recorrerá 4’9 metros; C2: un cuerpo en dos segundos recorrerá 19’6
metros; y así sucesivamente. Se ha construido un sistema deductivo. Una cosa es la génesis
que hizo Galileo, mediante la suma de experiencias observacionales, y otra bien distinta
racionalizar ese proceso de Galileo que conforme tal sistema deductivo.

Otra cuestión es cómo poner a prueba A. para ello, vamos a la experiencia y observamos si es
cierto que se da la consecuencia de la que habla la teoría, es decir, ponerla a prueba. Si es así
de hecho, lo que se pone a prueba es la consecuencia directamente, e indirectamente la
hipótesis. La confirmación fluye contracorriente, va de abajo a arriba; pero también de arriba
abajo, ya que si se pone a prueba la ley de caída libre de Galileo mediante varios casos, y en
todos se tiene éxito, esto refuerza la convicción de la ley, pero también se refuerza la creencia
de que, si se hace en el futuro otra prueba, se tendrá éxito también, es decir, el éxito que se
tiene al poner a prueba C1, C2, C3 refuerza la creencia en la ley y también las expectativas de
que serán verdaderas también C4, C5, C6… Y esto refuerza el sistema en su conjunto.

Pero hay también hay que caracterizar los freeriders, los viajeros de gorra. En el ámbito de la
mecánica, Newton es el héroe de la ciencia, no solo de la física, por su publicación de los
principios matemáticos de la filosofía natural, donde expone sus principios de la mecánica, que
seguirán, con sus correcciones, hasta la actualidad, que sirvió para desarrollar la mecánica
cuántica o la mecánica relativista. Newton elaboró una obra donde aúpa sobre los gigantes
gracias a los cuales poder ver más allá (Kepler, Galileo, etc.); tiene una frase muy célebre, ‘yo
no avanzo, no especulo’, es decir, Newton trabaja sobre los datos obtenidos de la experiencia,
y no va más allá especulando, solo establecía regularidades documentadas con la experiencia.

Pero Newton sí que especuló, llegó a construir una cosmología alquímica para dar cuenta de
las observaciones, y después establecer sus leyes de la mecánica. Incluso, con su hipótesis de
la luz, seguía introduciendo principios inverificables para dar cuenta de ciertas regularidades
que veía en la mecánica, como el éter universal, los principios activos, etc.
Newton no tenía necesidad de llegar a esas suposiciones, pero había una pregunta, la del por
qué, que le hacía pensar las causas de los fenómenos regulares.

Pero también hay hipótesis que responden a una inquietud pero que forman parte del sistema
y reciben el respaldo empírico bien fundamentadas en la experiencia. Un respaldo empírico
para D es también un respaldo empírico para B, y a su vez, para A, pues las de nivel ínfimo
derivan de las de nivel más alto, y al revés, se siguen deductivamente. Añadiendo una hipótesis
especulativa, como la del éter universal, Z, a A. Así, Z, en conjunción con A, recibe respaldo
empírico, ya que si se da A, entonces se da Z, Pero Z es un ‘viajero de gorra’. Esto se arregla de
la misma forma siempre: exigir que cada una de las hipótesis de nivel supremo sean necesarias
para que de ellas se puedan derivar deductivamente las hipótesis de nivel inferior.

El problema de la confirmación

El eslogan del empirismo lógico se podía resumir en ‘saber metódico’, es decir, un saber
fundamentado en un fuerte empirismo y un análisis mediante la lógica y la matemática. A su
vez, cada una de las teorías científicas se puede crear mediante los vocabularios.

Pero la parte de ‘metódico’ se fundamenta mediante dos capacidades: el razonamiento


deductivo (reglas lógico-matemáticas para derivar conclusiones a partir de premisas) y la
inferencia inductiva (hacer inferencias a partir de la experiencia). Hay una gran simetría entre
ambos, y que Hempel explica en La explicación científica (1965), estudios de la lógica de la
confirmación: los científicos aplican estas dos capacidades constantemente y sin justificar cada
paso que dan, sino que extraen conclusiones mediante premisas, no dan cuenta de las leyes
lógicas; pero hay una gran diferencia entre ambas capacidades: en el razonamiento deductivo,
existen las leyes lógicas que se usan; pero en la inferencia inductiva, no. No hay un conjunto de
reglas o normas que justifiquen las inferencias que realizan los científicos diariamente como
parte de su trabajo. ¿Cuántas situaciones de observación son necesarias y suficientes para dar
el salto de lo particular a lo general? No hay una teoría general de la confirmación que
justifique esta práctica inductiva, no hay una lógica inductiva. Hay un grave problema filosófico
entre ambas capacidades, pues no hay una teoría general de la información ni una lógica
inductiva que justifiquen los pasos dados. El desafío es elaborar una teoría general de la
confirmación que justifique los pasos inductivos de los científicos. Este sistema ha de satisfacer
ciertas cosas: que no sea contradictoria, esto es, que tenga una formulación correcta, que
formen un conjunto consistente de proposiciones, y que sea materialmente adecuada, es
decir, que haga justicia a las observaciones de los científicos. Y este es el problema capital en la
teoría general de la confirmación.

Antes de entrar en la propuesta de Hempel, han de acararse varios términos, cada cual
perteneciente a un enfoque filosófico diferente:

- Confirmación vs disconfirmación (terminología de los primeros años del positivismo


lógico): elevar la credibilidad de un enunciado o la probabilidad de que la proposición
que expresa sea verdadera (en el caso de la confirmación) vs disminuir la credibilidad,
la probabilidad (en el caso de la disconfirmación). Esto ha de diferenciarse de:
- Confirmación vs refutación: (terminología del positivismo lógico en la segunda etapa,
segunda mitad de los años 30, con Carnap, etc.) la verificación consiste en establecer
la verdad de una proposición, y la refutación, concluir la falsedad de una proposición; a
su vez ha de diferenciarse de:
- Corroboración vs falsación (o refutación a veces, o falsificación): (terminología de
Popper, alternativa) falsar es establecer la falsedad (aunque de un modo no
concluyente), y corroborar es fracasar al intentar establecer la falsedad de una
proposición. Por tanto, es un respaldo indirecto.

Aquí nos centraremos en la discusión clásica de la confirmación vs disconfirmación dentro de


la tradición del empirismo lógico.

1954, Estudios sobre la lógica de la confirmación, Hempel se apoya en J. Nicod y su obra


Fundamentos de la geometría, de 1930, para comenzar a aproximarse al problema de
establecer criterios para una teoría de la confirmación. La pregunta vía que usa es ¿de qué
forma la evidencia particular puede respaldar o restar respaldo a una hipótesis general de la
forma A implica B? Hempel dice que de dos formas: 1) observar B dado A, o 2) no observar B
habiendo observado A. En el primer caso tiene efecto confirmatorio, en el segundo, efecto
disconfirmatorio. Y estas son las únicas formas en que una implicación material es verdadera.

Hempel postula los cuatro principios que serán la base de la discusión en toda la teoría de la
confirmación:

1) Condición de las leyes científicas: toda ley o hipótesis de la forma ‘p implica q’, ‘todo p
es q’ es representable como un condicional material con una sola variable cuantificada
universalmente, es decir, Ɐx (Px→Qx)
2) Siendo a un objeto cualquiera, que puede ser un cisne o no serlo, y ser blanco o no
serlo.
2.1) Imaginemos que es un cisne y que es blanco (Pa ^ Qa). Esta experiencia confirma
que Ɐx (Px→Qx)
2.2) Imaginemos que es un cisne pero que no es blanco (Pa ^ ¬Qa). Esta observación
disconfirma Ɐx (Px→Qx)
2.3) Imaginemos que no es un cisne pero que ese objeto es blanco (¬Pa ^ Qa). Esta
observación es neutral respecto de Ɐx…
2.4) Imaginemos que ni es un cisne ni es blanco. Esta observación también sería
neutral.

3) si dos oraciones son lógicamente equivalentes, entonces confirman la misma oración


(condición complementaria para informes). Si dos oraciones son lógicamente equivalentes, son
confirmadas por la misma oración (condición para informes)

Si tenemos un informe de observación, como Pa y Qa, confirma la oración de que todos los
cisnes son blancos, que es la hipótesis. Pero si tenemos un informe lógicamente equivalente a
este, como Qa y Pa, que es lógicamente equivalente, entonces el segundo informe debería
confirmar la hipótesis por la ley mera de conmutatividad. Si E confirma H, y E’ es lógicamente
equivalente a E, entonces E’ confirma H.

4) Si una hipótesis H que es confirmada por un informe de observación E, y tengo una


hipótesis H’ lógicamente equivalente a H, entonces H’ es confirmada también por
el informe E.

El problema es que esto no funciona, ya que Hempel señala la paradoja de la confirmación,


que dice que estos cuatro postulados generan una contradicción, un problema de corrección
formal, no material.

Esta observación, ¬Qa ^ ¬Pa, confirma que, según 2.1), Ɐx(¬Qx → ¬Px). Tomemos esta
hipótesis pues, Ɐx(¬Qx→¬Px); es equivalente, por la ley lógica de contraposición, a
Ɐx (Px→Qx). Pero, si esto es así, la observación ¬Qa ^ ¬Pa, por 4), confirmará que Ɐx(Px→Qx).
Pero resulta que ¬Qa ^ ¬Pa, por la conmutatividad del conjuntor, es equivalente a ¬Pa ^ ¬Qa.
Entonces, ¬Pa ^ ¬Qa confirmará, por 3), que Ɐx(Px→Qx). Pero también sabemos, por 2.4), que
¬Pa ^ ¬Qa es neutral respecto de Ɐx(Px→Qx), lo cual es una contradicción. El punto de llegada
es la contradicción, que los informes de algo que ni es cisne ni es blanco, puede confirmar que
todo cisne es blanco. Y la única manera de evitar esta contradicción es modificar algún
postulado, y este es el gran reto de toda la literatura realizada en filosofía de la ciencia sobre la
teoría de la confirmación.

Intentos de evitar la paradoja de la confirmación mediante la modificación de alguno o varios


de los postulados, pues manifiesta un problema formal:

Hempel

Apunta a 1) y pretende cambiar el modo de representar las hipótesis y leyes. Una primera
posibilidad que discute: recuperar a Aristóteles en el sentido de explicitar el contenido
existencial de los universales afirmativos.

Si se dice para todo x, si Px entonces Qx, y el antecedente es vacío, como un unicornio, el


antecedente es vacuamente verdadero, y la implicación también. Hempel dice que hay que
explicitar: que al menos hay un x tal que Px, es decir, para todo x, (Px -> Qx) y existe un x tal
que Px.

Con este tipo de informe que nos causaba problemas ocurre que ya no puede confirmar de
ningún modo, pues la observación de un individuo que es un sombrero verde, que ni es cisne
ni es blanco, ya no puede confirmar que todo cisne es blanco; por tanto, no puede confirmar lo
que antes confirmaba: ¬Pa^¬Qa, ya que exige que haya de hecho un cisne, por la segunda
parte de la conjunción: existe un x tal que Px

Hempel también dice que hay dos/tres motivos

- La representación habitual de las hipótesis científicas no contienen ni presuponen


clausulas existenciales; y además, no se pueden introducir, porque:
- Hay muchas hipótesis generales en ciencia que ni implican ni pueden implicar clausulas
existenciales porque son sobre objetos inexistentes, como por ejemplo las leyes de
Galileo, donde eliminaba el rozamiento de los cuerpos, suponiendo un vacío perfecto,
lo cual es imposible. Muchos de los objetos de las hipótesis científicas, como el vacío
perfecto, el gas ideal, etc. son idealizaciones, lo cual hace que sea inviable introducir
clausulas existenciales, por lo que son irrealizables, es imposible que ocurran. Nos
permiten fundamentar y expresar matemáticamente ciertas regularidades que
ajustamos al comportamiento del mundo real (Nancy Cartwright, How the laws of
Physics lie). Hempel dice que no podemos pedir existencia para poder respaldar
empíricamente una ley, pues tenemos que idealizar las leyes para entender las
observaciones; tenemos que ceñirnos a las cualidades primarias, como ecuaciones,
regularidades, peso, tiempo, etc., y no a las cualidades secundarias que complicarían
demasiado la situación (Descartes, Galileo).

Hempel ensaya otra posibilidad, ya que la cláusula existencial es inviable. Entonces, habría que
explicitar el conjunto de las cosas que son, según el ejemplo, cisnes. Limita entonces el
alcance, ya que solo considera aquellos objetos que son cisnes, P:

Dado el conjunto de las cosas que son P {P}, es decir, para todo x que pertenezca al conjunto P,
existe un x tal que si Px entonces Qx.
Hempel reflexiona que esto es inadmisible también, por motivos como:

- Muchas inferencias admisibles se verían dificultadas al tener que explicitar campos de


observación
- Las hipótesis científicas son universales, la ciencia es universal; esto es evidente.
Ejemplifica: ‘toda sal de sodio da un color amarillo al entrar en combustión’. Esto es
una hipótesis general; es decir, esta ley no solo dice algo sobre la sal de sodio, sino que
da información sobre todo objeto en todo tiempo y en todo lugar, ya que, pudiendo
parecer un objeto sal de sodio, pero no siéndolo realmente, llevándolo a la llama, no
se volvería azul; pero esto fundamenta también la hipótesis científica, es decir, ¬Pa y
¬Qa confirma también que para todo x, si Px entonces Qx; esto entonces da cuenta de
la universalidad de las teorías científicas, que no solo dicen algo de lo que hablan, sino
de lo demás.

Scheffler

Intenta modificar 4), lo cual es grave porque significa que el grado de confirmación de las
hipótesis dependerá no solo de lo que dice sino de cómo están escritas. Desarrolla un
argumento basado en dos premisas y llega a una conclusión:

Premisas:

- La confirmación con frecuencia es confirmación selectiva; confirmamos una hipótesis a


partir de la disconfirmación de su hipótesis rival. Para confirmar P, tenemos que echar
abajo ¬P.
- La hipótesis rival normal es la contraria en sentido lógico; la rival normal de una
hipótesis dependerá no solo de lo que diga, sino de cómo esté escrita. La rival de para
todo x, si Px entonces Qx, es para todo x, si Px entonces ¬Qx.

Conclusión:

- Pa ^ Qa confirma que para todo x, si Px entonces Qx, ya que disconfirma la hipótesis


rival, que para todo x, si Px entonces ¬Qx.

Pero está equivocado, entre otras cosas, porque la rival de una proposición no es su contraria,
por lo que la segunda premisa es errónea.

Goddard

Incluso abandonando 4), como quiere Scheffel, no se evitan los problemas, según Goddard.
Dice que sabemos que Pa ^ Qa confirma que para todo x, (Px -> Qx) por 2.1). También sabemos
que Pa ^ Qa es equivalente a Qa ^ y Pa por la conmutatividad del conjuntor. También sabemos
que Qa ^ Pa confirma que para todo x, (Qx –> Px) por 2.1). Pero, por esto mismo, sabemos que
Qa ^ Pa confirmará que para todo x, (Px -> Qx) por 3). Aquí resulta que si expresamos de forma
conjuntiva al que se aplica la conmutatividad de la evidencia observacional, entonces ningún
informe confirmatorio podrá discriminar a efectos de respaldo confirmatorio entre hipótesis
generales completamente distintas, como ‘todo Q es P’ y ‘todo P es Q’, porque no tiene nada
que ver ‘todo cuervo es negro’ con ‘toda cosa negra es un cuervo’.

Intuitivamente tendemos a oensar que el problema está en 2.4). Se abreviará lo siguiente a


partir de ahora:
Pa ^ Qa = b1

Pa ^ ¬Qa = b2

¬Pa ^ Qa = b3

¬Pa ^ ¬Qa = b4

Hempel adopta una posición: reconoce que b1 confirma Todo P es Q; también defiende la
equivalencia entre b1 y para todo x (¬Qx -> Px), que, dada la conmutatividad del conjuntor, b4
confirma que para todo x, (Qx -> Px).

Hempel defiende que las instancias como b4, donde un individuo no satisface las propiedades
de los enunciados, entonces serán instancias confirmatorias respecto de todo P es Q. (ver
paradoja de los cuervos, paradoja no de corrección formal, sino de adecuación material) Ante
esta paradoja, Hempel no abandona la condición de equivalencia, pues es necesaria. El grado
de credibilidad de una hipótesis no puede depender de la forma en que esté escrita. Arguye un
argumento llamado argumento de la ilusión psicológica:

Esa idea de que una hipótesis, un universal afirmativo como Todo P es Q, tiene un alcance
limitado al conjunto de los {P} conlleva una confusión entre dos consideraciones: lógicas y
prácticas. Desde un punto de vista práctico, la aplicabilidad de una hip como todo P es Q suele
limitarse al conjunto de las cosas que son {P}. Pero desde un punto de vista lógico, la hipótesis
alude aunque sea implícitamente a todos los objetos y lo restringe de modo que o bien
cumplen P o bien cumplen Q. Esto significa que, al decir Todo P es Q, estamos diciendo algo de
toda cosa en todo tiempo y lugar, cuyo alcance es universal. Lo que hacemos es decir que esos
objetos son ¬p o q. Esto lo demuestra: tomemos ambas partes de la disyunción; comencemos
con q. Veamos todos los objetos del universo y veamos que es q y que es negro, Qa. ¿Cuál es la
proposición universal más inmediata y simple que queda confirmada a través de esa
información? ‘Todo es negro’, y esto es condición suficiente para la verdad de ‘todo cuervo es
negro’. Qa confirma h (todo es negro), y de h se deriva h’ (todo cuervo es negro). Sigamos
ahora con ¬p. la hipótesis más inmediata que queda confirmada a través de esta observación
es que ‘No hay cuervos’, por lo que, si no hay cuervos, entonces que todo cuervo es negro es
necesariamente verdadero por las condiciones de verdad del implicador material, si
antecedente es falso, la proposición es verdadera. Por tanto, ‘todo cuervo es negro es
verdadero’.

La parte psicológica del argumento es la siguiente:

Clase práctica: (no avanzamos materia para que las 2 horas de hoy no se hagan duras, en su
lugar haremos una clase práctica) Hoy veremos y discutiremos algunos de los puntos
importantes de la cultura científica: Cultura científica y percepción social, comunicación
científica, participación ciudadana y educación.

-Percepción social: En la década de los sesenta se dio un debate entre los técnico-optimistas y
os técnico-pesimistas, los cuales se posicionaban en dos posiciones muy opuestas y radicales
entre sí. Entre los técnico-optimista destacaban los positivistas lógicos (Carnap, Bunge,
Sagan...), los cuales solo perciben los aspectos favorables o positivos de la ciencia. Para ellos
los fallos o desgracias que pueden surgir de la ciencia (armas, contaminación...) no son culpa
de la propia investigación científica, sino que se achacan a errores humanos. Los técnico-
optimistas resaltan las virtudes de la ciencia y tapan o quitan importancia a los aspectos
negativos. Creen que los males no se solucionan rechazando la tecnología, sino todo lo
contrario, cuanta más ciencia mejor se pueden paliar los errores.

Además no puedes escapar del avance científico, es inevitable e irresistible. Si no quieres


quedarte desfasado tienes que informarte y apostar por la investigación, pues el futuro va a
ser necesariamente más avanzado tecnológicamente. No obstante, esta última idea se ha
puesto en cuestión, la vía no es tan limitada como decir que o hay ciencia o no hay nada. El
futuro no es tan unidireccional, sino que podríamos optar por caminos distintos sin necesidad
de abrazar o rechazar por completo la actividad científica.

Por otra parte tenemos a los técnico-pesimistas, los cuales solo ven las cuestiones negativas de
la ciencia, sus peligros y carencias. Entre ellos podemos ver a los llamados filósofos de la
sospecha, a figuras como Ortega y Gasset, Jacques Ellul, Hans Jonas... Llegan a rechazar todo
avance científico y técnico, hasta el punto que no tolera la utilización de aparatos o
dispositivos modernos, ales como programas informáticos (se quedan intencionadamente
obsoletos). Demandan el uso comercial y militar de las investigaciones científicas. La ciencia
contribuye, según ellos, a la desigualdad económica y a los males de la guerra, entre otras
cosas. Ya se vio en las guerras mundiales, y algunos consideran que puede volver a ocurrir; la
ciencia se desarrolla por y para la destrucción.

El tipo de informe b4 produce una sensación paradójica de que no puede confirmar todo P es
Q cuando se sabe de antemano que el objeto que vamos a observar es un ¬P y un ¬Q, en cuyo
caso la observación no agrega fuerza práctica a la confirmación de la hipótesis. En el otro
cuerno de este dilema, cuando no tenemos esta información adicional, descubrir que un
objeto no es una instancia falsadora, puede confirmar la hipótesis con fuerza práctica.

J. Mackie, en defensa de la noción de causa, escribió El cemento del universo, donde dice,
desde perspectiva empirista, que la causalidad es la noción de la ciencia en teoría de la
confirmación, una aproximación cuantitativa en teoría de la confirmación.

En esta aproximación se sostiene que la información adicional es esencial para saber de qué
trata un informe de observación, pero el matiz es importante: su posesión no predetermina los
resultados o efectos confirmatorios o no de la observación. Se sostiene que tanto b1 como b4
confirman que todo P es Q, tal como dice Hempel. Pero confirman en medidas diferentes que
dependen de la proporción de cosas que sean P frente a las que son ¬P y de la proporción de
cosas que son Q frente a las que son ¬Q. Trata de dar la razón a Hempel, pero trata de
demostrar cuantitativamente que, en muchos casos, a efectos prácticos, el respaldo
confirmatorio de b4 puede ser muy bajo.

Tesis: (k= información adicional mínima; x: 1-x = proporciones de cosas que sean P y ¬P; y: 1-y
= proporción de cosas que sean Q y ¬Q)

Sea k que la proporción de cosas que son P frente a las que son ¬P es la razón de x: 1-x, y que
la proporción de cosas que son q frente a las que son ¬Q de y: 1-y, entonces, en la medida en
que haya muchas más cosas que son ¬Q y menos cosas que son P, es decir, a medida a que
aumente la diferencia entre x y 1-y, x<1-y, b1 confirmará Todo P es Q mejor que b4. Lo que nos
dicen es que una hipótesis puede recibir un valor dependiendo de esta diferencia, x<1-y; a
medida que sea mayor la diferencia, habrá más posibilidades de encontrar una instancia
refutadora. Cuanto más refutable sea una hipótesis, cuanto más arriesgada, tanto más
informativa es, por lo que tanto más valor informativo tiene.

Cuanto más grande sea el conjunto 1-y, tanto más difícil será observar algo que sea y, y tanto
más improbable será observar algo que sea negro y cuervo; y, en caso de encontrar un cuervo
negro, mayor será el valor de esa observación respecto de la hipótesis.

Estos autores dicen que b1 y b4 confirman pero en medidas distintas, y esas medidas
dependen de esa diferencia; a mayor diferencia, b1 confirmará mejor que b4.

Principio inverso y álgebra de sucesos

La lógica del principio inverso: tenemos un informe de observación y una hipótesis. ¿Cuál es la
medida en que esa observación b eleva el grado de confirmación de h? Mackie dice, y en esto
fundamenta su principio inverso, que es exactamente la misma medida en la que la
presuposición de h eleve la probabilidad de realizar la observación b.

Ensayos:
1. Junio de 2015, niño de Gerona enfermo por contraer la difteria. Movimiento anti-vacunas.
Son personas con un buen nivel educativo, cómo es posible que dos personas bien educadas se
nieguen a vacunar a sus hijos. La imagen de la ciencia en los medios de comunicación y usos
políticos en los medios de comunicación de la ciencia, lo que genera estas conductas.
2. Obsolescencia programada. Documental de la 2.
3. Médico de atención primaria. El Ph de una lagrima. Enseñanza técnica, orejeras de burro.

03/11/2016
Las hipótesis útiles en ciencia serán aquellas con una marcada diferencia, es decir x<y-1
Principio inverso y sus extensiones:
Dado un informe de observación b y una hipótesis h, ¿Cuál es la medida en que la observación b
eleva el grado de confirmación de h? Exactamente la misma medida en que la presuposición de
h eleve la probabilidad de observar b.
También conocido como el principio de Mackie, se suele simbolizar como ©;

©- b CONF h en relación a K sii

𝑏 𝑏
𝑝( ) > 𝑝( )
ℎ˄𝑘 𝑘

Una observación confirma una hipótesis si la presuposición de la hipótesis aumenta la


probabilidad de la observación.
𝑏
𝑝( )
ℎ˄𝑘 − 1 > 0
𝑏
𝑝( )
𝑘

©1- Dados b1 y b2 CONF h en relación a K, b1 CONF mejor h en relación a k de lo que lo


hace b2 sii el cociente correspondiente tiene un valor superior.
𝑏1 𝑏2
𝑝( ) 𝑝( )
ℎ˄𝑘 > ℎ˄𝑘
𝑏1 𝑏2
𝑝( ) 𝑝( )
𝑘 𝑘

©2- Dados h1 y h2 son CONF por b en relación a K, h1 está mejor CONF que h2 por b en
relación a K sii la probabilidad de observar b es más alta presuponiendo h1 que h2
𝑏 𝑏
𝑝( ) > 𝑝( )
ℎ1˄𝑘 ℎ2˄𝑘

Algebra de campos: Retículo distribuido donde cada par de elementos tiene un supremo (unión
o suma) y un ínfimo (intersección o resta)
-b1 Pa˄Qa
-b2 Pa˄¬Qa
-b3 ¬Pa˄Qa
-b4 ¬Pa˄¬Qa

B1 B2 B3 B4
K x.y x(1-y) y(1-x) (1-x)(1-y)
h˄k x 0 y-x 1-y

En la medida en que haya una mejor hipótesis, una hipótesis robusta, esto se expresara en una
diferencia entre x y 1-y, por lo que el valor de b1 será mucho mayor que b4.
Comprobación b4 con b1:
©
𝑏1 𝑏4
𝑝(ℎ˄𝑘) 𝑝(ℎ˄𝑘) 𝑥 1−𝑦 1 1
𝑏1 > 𝑏4 ; > ; >
𝑝( 𝑘 ) 𝑝( 𝑘 ) 𝑥.𝑦 (1−𝑥)(1−𝑦) 𝑦 1−𝑥

Recordemos que; x<1-y. Aplicando D.Morgan, si x<1-y, entonces, el complemento del


complemento de y es y<1-x, por lo que, 1/y es MAYOR que 1/1-x.
Paradoja de los zapatos negros: Esto plantea problemas; no evita las paradojas. En el caso de
la columna 3, la observación de un b3, objeto que no es cuervo, pero es negro, disconfirma todo
cuervo es negro en la medida en que la hipótesis sea verdadera y aplicable.
Teoría de la contrastabilidad: Un informe b confirma h solo si b se ha obtenido en un proceso
de contrastación de h.
q- política de investigación conservador (buscar cuervos negros)
q*- política de investigación arriesgada (buscar cuervos no negros)

Conservadora:

𝑏1 𝑏1 𝑏1 𝑏1
𝑝( ) > 𝑝 ( ) = 𝑥𝑦; 𝑝( ) = 𝑝( )=𝑥
𝑘˄𝑞 𝑘 𝑘˄ℎ˄𝑞 𝑘˄ℎ

Aplicando la extensión correspondiente;

𝑏1 𝑏1
𝑝( ) 𝑝 (ℎ˄𝑘˄𝑞 )
ℎ˄𝑘 >
𝑏1 𝑏1
𝑝( ) 𝑝( )
𝑘 𝑘˄𝑞
Si seguimos una política de investigación conservadora, el hallazgo de instancias favorables…
(falta)

Arriesgada:

𝑏1 𝑏1 𝑏1
𝑝( ) ˄𝑝 ( 𝑘 ) = 𝑥𝑦 > 𝑝(𝑘˄𝑞∗);
𝑘˄𝑞

𝑏1 ℎ1 𝑏1
𝑝( ) = 𝑝 (𝑘˄ℎ) = 𝑥 = 𝑝 (𝑘˄ℎ˄𝑞∗);
𝑘˄ℎ˄𝑞

𝑏1
𝑝( ) 𝑝 ( 𝑏1 )
ℎ˄𝑘˄𝑞 ∗ ℎ˄𝑘
; >
𝑏1 𝑏
𝑝( ) 𝑝( )
𝑘˄𝑞 ∗ 𝑘
Enfoques semánticos

El empirismo lógico dejó de lado, en los años 60/70, el formalismo y su visión diferente de
hacer filosofía para dar paso a otras formas, naturalizándose, como algo interdisciplinar de
análisis y haciendo de la ciencia real y no idealizada el objeto de la ciencia, y esto empezó con
T. Kuhn en 1962.

El desarrollo a partir de los años 60 de los enfoques semánticos fue otro punto de inflexión.
Los enfoques semánticos trataron de tomar en serio la crítica de Kuhn incluyendo una serie de
conceptos semánticos, introduciendo conceptos pragmáticos (“paradigma”, “conjunto de
aplicaciones propuestas”, etc.) y se preocupan por un análisis formal de cortes trasversales del
desarrollo temporal de las teorías al igual que la evolución temporal de estas. Hay dos grandes
corrientes de los enfoques semánticos que recogen los nuevos ideales de Kuhn y el carácter
más pragmático, pero con un nuevo instrumento de análisis más flexible, es decir, substituir la
lógica de predicados por la teoría de conjuntos, la cual utilizan informalmente apoyándose
también en otras partes de la matemática, como la teoría de modelos o la topología. Con esto,
lanzan una mirada matemática a la ciencia. Y este es el elemento común a los enfoques
semánticos, diferenciados de los enfoques sintácticos del empirismo lógico clásico.

Hay dos líneas de trabajo, en los años 70: configuracionsimo y estructuralismo. F. Suppe, R.
Giere son representantes del configuracionismo, mientras J. Sneed y W. Stegmüller son típicos
del estructuralismo, corriente muy bien recibida y con mucho fuelle en Europa. Se desarrollan
con mucha fuerza hasta finales de los 80 y 90, cuando suscitan menos interés en la filosofía de
la ciencia internacional, aunque quedan algunos grupos todavía (Buenos Aires, San Sebastián,
etc.).

Problema que intentan superar los enfoques semánticos en la aproximación a las teorías
científicas: los empiristas lógicos trataban de reconstruir axiomáticamente las teorías
científicas aplicando un lenguaje formal (lógica de predicados, de primer orden) que permite
esclarecer las relaciones lógicas entre los enunciados constituyentes. Una teoría se considera
axiomatizada cuando se han cumplido varias condiciones:

1), Se introduce una tabal o lista de signos primitivos (vocabulario, simbolizado con L); 2) se
definen un conjunto de normas para construir formulas con L’; 3) del conjunto de fórmulas
bien formadas, de acuerdo con tales reglas, se selecciona un subconjunto propio que son los
axiomas de la teoría; 4) se estipula un conjunto de reglas de inferencia adecuadas.

Hasta ahora, estamos en esfera sintáctica, sin interpretación; solo hay reconstrucción de
teorías como un cálculo. Esto ha de aplicarse a la mecánica estadística, a la genética de
poblaciones, a la explicación factorial de la inteligencia humana, etc. Esto es muy difícil de
hacer, y después ha de darse una interpretación semántica de la teoría, de manera que los
predicados se sustituyan por propiedades de objetos y las variables por constantes, de manera
que se conviertan en verdaderos los axiomas de la teoría.

Los enfoques semánticos quieren superar este plan de trabajo tan exigente, muy poco
fructífero y que deja lo realmente interesante para el final, la aplicación de las teorías para
comprender el mundo natural, la interpretación semántica. Por ello, lo que se plantean los
enfoques semánticos, el estructuralismo especialmente, es reconstruir las teorías a través de
métodos conjuntistas informales en vez de métodos metamatemáticos (programa sintáctico
del empirismo lógico). El punto central de estos métodos conjuntistas informales es introducir
un predicado teórico conjuntista, propio de la teoría de conjunto, de la forma “es un S”, de
manera que este enunciado determine directamente los modelos de cada teoría, esto es, un
atajo claro que hace que se pueda evitar el arduo camino de la axiomatización de las teorías
científicas para definir directamente un enunciado con la forma teórico conjuntista “es un S”
cumpliendo una serie de condiciones para satisfacer el enunciado, y en virtud del
cumplimiento o no por parte de los sistemas empíricos que sean “S” potenciales, podremos
ordenar estos sistemas empíricos en distintas clases de modelos de la teoría. Ejemplo (X es una
variable, S es un conjunto ordenado, con un dominio y un conjunto de relaciones que dan
estructura, es decir, un sistema empírico que potencialmente puede satisfacer el enunciado):

<D: R1,…, Rn>

X es un S ssi existen D, n, t tales que:

1. X = <D, n, t>
2. El dominio D es finito y es distinto del vacío
3. n = es una aplicación de D en los números reales; t: es una aplicación de D en los
números reales
4.
5. La suma de los productos para todos los y pertenecientes al dominio de D es cero

Los estructuralistas utilizan estas estructuras así: una teoría científica son 2 cosas, una teoría
matemática (listado de postulados teóricos) y conjunto de aplicaciones propuestas para esta
teoría; T= (K, I).

Tema 2. Derrumbamiento del empirismo lógico. Reacción antipositivista.

El empirismo lógico va evolucionando hasta los años 60 de manera extraordinaria respecto de


la explicación científica y la naturaleza de la filosofía de la ciencia, donde se ve el gran esfuerzo
por los empiristas lógicos por dar respuesta a los problemas mediante explicaciones cada vez
más específicas y menos imprecisas sobre el mundo fenoménico. La ciencia como objeto de
estudio y como inspiración puede ser bueno para la filosofía.

En los años 70 esto se derrumba, pues comienzan a surgir una serie de críticas, muchas veces
influidas por otras corrientes filosóficas que tienen influencia en algunas partes del mundo
(marxismo, pragmatismo) que hacen que muchas de las personas que compartían la visión del
empirismo lógico ven puntos débiles en los planteamientos.

Quine es de los primeros con sus Dos dogmas del empirismo (ojo ensayo) con sus distinciones
analítico/sintético. Filosofía de la ciencia de S. Toulmin; W. Sellars, la crítica de N. R. Hamson,
criticando la distinción analítico/sintético teórico-observacional; en los años 60 aparecen
criticas al modelo clásico de Hempel N-D, M. Scriven; la discontinuidad epistémica del cambio
en ciencia, de P. Feyerabend; H. Putnam sobre la dependencia teórica de los términos teóricos;
y demás autores que van señalando grietas en la visión monolítica del empirismo lógico.
También hay un autor central, que es T. Kuhn, 1962, La estructura de las revoluciones
científicas. Kuhn es recibido como uno más, aunque no era filósofo, sino físico de formación y
después se formó en historiador de la ciencia, pero no era filósofo, aunque tratando de ser
filósofo, pues la filosofía era lo que le motivaba. Esta obra tiene unos efectos extraordinarios
no inmediatos sobre el campo, con ayuda de difusión de I. Lakatos. Estos son los autores del
‘movimiento antipositivista’. Pero K. Popper, siendo un profundo pensador de carácter
positivista (La lógica de la investigación, 1934). Este libro comparte muchas ideas con el
empirismo lógico, pero seguirá siendo fuente de inspiración en postpositivistas gracias a
ciertas ideas: visión dinámica del cambio científico, no estática y sintacticista, pues ve en
perspectiva el cambio en la historia de la ciencia mediante el cambio científico en el tiempo,
además de su inspiración evolutiva, pues tenía una idea darwiniana del cambio y evolución
científica, lo que le hace un autor protonaturalista. Popper saldrá de la Alemania nazi,
acabando en el Reino Unido formando un grupo de investigación muy fuerte en Londres. Los
discípulos de Popper serán muy influyentes, como Lakatos y Feyerabend; pero Popper
pertenece a uno de los autores pospositivistas. El problema de Kuhn es que el mensaje de las
revoluciones científicas es un mensaje anticientífico, que pone en duda la verdad de la
epistemología de la ciencia y la rebajará a la religión o política, según muchos postpositivistas,
pero Popper y sus discípulos le van a tomar en serio por otra vertiente.

El papel de Kuhn es muy importante en el abandono del positivismo lógico, pues ofrece una
plataforma nueva, ‘cambiar de barco’, no un dique seco para reparar el viejo (positivismo
lógico). Su influencia se consolida y rompe con muchos de los viejos ‘ismos’ que habían
caracterizado al empirismo lógico: esencialismo, formalismo, sintacticismo, triunfalismo,
progresivismo, etc., y ofrece un enfoque nuevo para comprender la naturaleza de la ciencia.
Presenta dos grandes retos: que la comprensión de la naturaleza de la ciencia ha de
fundamentarse en el estudio de la ciencia real y en la historia, y que dada la complejidad de la
ciencia real, se necesita un marco explicativo marco y amplio interdisciplinar para comprender
la naturaleza de la ciencia (apoyo en la política, en la economía, en la sociología, etc.). Si
tomamos en serio estos dos retos, fundamentando la ciencia sobre la historia de la ciencia y
con un marco naturalista de análisis de la ciencia, lo que se sigue es el reconocimiento de algo
que tiene muy poco que ver con la imagen de la ciencia que daban los empiristas lógicos; la
ciencia se desarrolla sin continuidad epistémica, pues los avances se dan en diferentes países
con diferentes lenguas y diferentes epistemologías, por revoluciones, y con periodos de calma.

Con la muerte de Carnap en 1970, se considera que ha cambiado el periodo en filosofía de la


ciencia: se habla de la nueva filosofía postpositivista o postkuhniana de la ciencia, y dentro de
la cual se ve la interlocución crítica de Kuhn con Popper.

La influencia de Kuhn se extiende a la filosofía de la ciencia, sociología de la ciencia, la política


de la ciencia, la historia de la ciencia, etc., a todo campo de la ciencia. Esta obra dinamitó el
campo y la filosofía postpositivista pasa un periodo de transición entre 70-80s hasta los 90,
donde ya hablamos del estudio académico de la ciencia, que necesita saber de todos los
campos (política, economía, sociología, etc.) para entender la ciencia y la sociedad en general
(Science studies), donde está la filosofía naturalista de la ciencia.

En este periodo de transición, 70-80, entre Kuhn y los Science studies, la influencia de Kuhn
sobre el mundo académico se bifurca sobre dos líneas que convergerán en los 90s: la
interpretación conservadora de Kuhn (filósofos, como la primera generación de popperianos,
como Lakatos) y la interpretación radical de Kuhn (sociólogos, historiadores, como Kuhn y las
ciencias sociales, de B. Barnes)

Motivos y razones para el abandono del empirismo lógico (internas y externas):

Razones internas: cuanto a estas razones, hay dos argumentos: en primer lugar, el de la carga
teórica de la observación, dentro de la cual se encuentra la tesis de la inconmensurabilidad, y
el de la infradeterminación. Aquí se pretende responder a la cuestión de: ¿es posible postular
criterios universales y objetivos? Respecto de la aceptabilidad de hipótesis, es decir, si es
posible identificar un criterio científico objetivo sobre aceptabilidad. Lakatos pretende
responder a esta cuestión diciendo que hay tres enfoques metacientíficos:

- Demarcacionismo, que dice que sí es posible postular tales criterios objetivos que
permiten decir si es aceptable o no la teoría científica, pero depende del autor; un
positivista lógico hablaría de verificabilidad, por ejemplo. Todos estos autores y el
punto de vista clásico responde que sí.
- Elitismo: posición clásica de Kuhn, que diría que sí hay criterios para decidir si una
teoría es aceptable o mejor que otra, pero ni son objetivos ni universales, pues
dependen de comunidades científicas en momentos históricos concretos.
- Escepticismo: posición del anarquismo epistemológico de Feyerabend, que dice que no
hay criterios ni universales ni objetivos.

En elitismo y escepticismo hay relativismo, pero el demarcacionismo es antirelativista y


objetivista.

Relativismos: a partir de los años 70, la reacción antipositivista post-kuhniana, su radicalización


por los sociólogos y el hechizo de la postmodernidad, prepararon el terreno de la reflexión
sobre la ciencia para el naturalismo relativista.

- El relativismo débil afirma el carácter convencional de los valores epistémicos (V-F,


correcto-incorrecto…), para teorías dadas con respecto a contextos culturales
determinados
- El relativismo fuerte añade que tales juicios convencionales son juicios arbitrarios con
respecto a cualesquiera utilidades epistémicas o virtudes cognitivas.

Mientras el relativismo débil afirma la necesidad de contextualizar los modelos de justificación


(disciplinar, histórica y/o socialmente), el relativismo fuerte niega siquiera la posibilidad de
justificación local.

El relativismo no ha renunciado paradójicamente, a buscar sus fundamentos conceptuales en


la misma filosofía que rechaza, son las razones del relativismo.

Dos de los argumentos cruciales para la fundamentación del relativismo son la carga teórica de
la observación y la infradeterminación de la teoría por la experiencia. Examinaremos el apoyo
que confieren a alguna modalidad de relativismo.

El relativismo fuerte añade que tales juicios convencionales son juicios arbitrarios con respecto
a cualesquiera utilidades epistémicas o virtudes cognitivas, depende del más fuerte, quien
movilice más recursos.

Pero, ¿cuáles son las razones que se esgrimen en la reacción antipositivistas para abrazar algún
tipo de relativismo? ¿Fuerte o débil? Hay dos argumentos:

Argumento de la carga teórica de la observación: argumento de inspiración kantiana que


tiene un reflejo en Whewell y que recoge Hanson (1958) en Patrones de descubrimiento. Se
inspira en Wittgenstein y Ryle, y que distinguió entre ‘ver qué’ y ‘ver cómo’, basándose en la
Gestalt: lo que perciben los sujetos no es un ‘ver qué’ sino un ‘ver cómo’ que depende tanto
de impresiones sensibles como del conocimiento previo, las expectativas, los prejuicios y el
estado interno general del observador (efectos ópticos o ilusiones ópticas de la Gestalt) (Oliver
Sacks, The Man Who Mistook His Wife for a Hat, reflexiones personales sobre pacientes que el
propio autor tuvo). Popper incluso llega a sostener que somos ‘teorías con piernas y brazos’,
pues nuestras capacidades perceptivas han sido resultado de centenares de miles de años de
evolución, y tenemos las capacidades perceptivas y cognitiva con un valor adaptativo que han
hecho que podamos adaptarnos en el mundo externo. Esto ha sido explotado muy bien por la
biología del conocimiento o epistemología evolucionista, basándose en K. Lorenz, fundador de
la etología, quien tiene un artículo, El a priori kantiano como a posteriori evolutivo, donde
habla que lo que Kant describe de manera filosófica el bagaje evolutivo al que se refiere
Popper.

Una distinción clásica en el empirismo lógico es entre el mundo teórico y el mundo de la


observación; si se abandona esta distinción, como se podría hacer desde este argumento, que
toda observación está filtrada por la teoría y que influyen en lo que vemos, las consecuencias
son graves:

En contextos de elección entre teorías rivales incompatibles, este argumento de la carga


teórica amenaza el papel causal de la racionalidad en la resolución de controversias, ya que, si
se quiere decidir entre dos teorías cuál es la mejor, y cada teoría está contaminando el suelo
observacional, ya que toda observación es teórico-dependiente, ¿a quién se recurre? Los
empiristas lógicos dicen que la credibilidad teórica depende de la experiencia y su respaldo,
pero si está contaminada por teoría, sería imposible. Los términos observacionales tienen una
carga teórica; los modos en que describimos la experiencia están influidos por la teoría que
sustentamos. El problema es que si la base de las observaciones depende de la estructura
teórica, no habrá un terreno neutral en el que comparar dos teorías rivales.

En contextos de dinámica de la ciencia donde teorías dadas son substituidas por otras
incompatibles, el argumento de carga teórica amenaza el modelo acumulativo del desarrollo
científico. Si cada teoría tiene su propia base observacional, no hay forma de compararlas y
hacer que haya desarrollo científico.

Inconmensurabilidad: esta tesis refiere la imposibilidad de comparar dos teorías rivales. Esta
tesis ha sido expresada de diferentes formas, más formales y más informales. De modo más
formal lo hace Feyerabend, que dice que dos teorías son inconmensurables cuando son
deductivamente inconexas, o, más concretamente, cuando no hay relaciones lógicas de
derivabilidad o contradicción entre sus respectivas clases de contenido (enunciados derivados
de las teorías y los enunciados de contrastabilidad). Hanson hace referencia a la
inconmensurabilidad, diciendo que la hay entre dos teorías cuando las teorías no solo tienen
conceptos diferentes, sino que además ‘hacen que veamos las cosas de forma distinta (quienes
trabajan en paradigmas diferentes no solo tienen conceptos diferentes, sino también
percepciones diferentes’. Alexander Bird, en Kuhn, trata este problema también.

Segundo gran argumento, otra razón de relativismo antipositivista: infradeterminación.

Infradeterminación: la underdetermination tiene antecedentes en J. S. Mill, y nos dice que


dada cualquier teoría propuesta para explicar un fenómeno, siempre es posible producir un
número indefinido de teorías o hipótesis alternativas que sean empíricamente equivalentes
con la primera pero que propongan explicaciones incompatibles del fenómeno en cuestión.
Esto es una variación del viejo problema filosófico de la inducción, no el mismo, y se pone de
manifiesto el problema de que, teniendo la evidencia (cuerpo de observaciones, evidence,
indicios) empírica que, por el carácter de los problemas de ciencia y carácter finito de las
capacidades humanas, va a ser una evidencia muy limitada; para ello, proponeos hipótesis
universales que expliquen las manifestaciones, pero que tienen pequeñas variaciones entre sí
(H1 = q = f(p); H2 = q = f(p) + x; H3 = q = f(p) + y). ¿Cómo decidir cuál es la mejor? Todas ellas
describen igualmente bien la evidencia disponible, pero son incompatibles, y, puesto que el
cuerpo evidencial es finito, es potencialmente infinito el conjunto de las posibles hipótesis que
se pueden hacer. Y, por muchas nuevas evidencias empíricas que se hagan, sigue habiendo
infinitas hipótesis por hacer que expliquen igualmente bien la evidencia experiencial pero que
sean incompatibles entre sí. De este problema de la indeterminación se deriva que haya que
dar conclusiones generales. Ejemplos: polémicas entre escuelas taxonómicas entre
evolucionismo y fenetismo sobre la clasificación de seres vivos; controversias sobre la
existencia y características de diferentes partículas subatómicas; confrontación hereditarismo
contra ambientalismo en la explicación de la conducta inteligente. Esto es muy típico en
ciencia, lo cual es muy saludable, pues de la crítica sale el conocimiento. Aunque esta
perspectiva es irreconciliable con la visión clásica de la ciencia, pues el consenso quedaría
resuelto mediante un método universal y con profesionales competentes e íntegros. La
tradición demarcacionista, no tanto en empirismo lógico como en Popper, se reconoce la
infradeterminación pero intenta minimizarse su efecto apelando al papel que tienen otras
virtudes cognitivas o epistémicas en el cierre de la infradeterminación, es decir: se dice que es
cierto que hay evidencia y las hipótesis, que hay finitud en evidencia e infinitud en hipótesis; la
manera de cerrar este problema, usando un criterio, es mediante las virtudes epistémicas o
cognitivas: simplicidad o parsimonia (lo cual es complicado, pues habría que descansar sobre
algo tan metafísico como la simplicidad de la naturaleza, la cual depende del punto de visa
lingüístico y el modelo matemático; la simplicidad es relativa), la potencia explicativa, la
capacidad predictiva, la fertilidad teórica, la coherencia o consistencia interna, etc. Se requiere
recurrir a estas virtudes que ayudan al problema de la infradeterminación derivado de otra
virtud epistémica pero que es insuficiente, como es la atención a la observación.

Razones en favor de la no conclusividad de las virtudes epistémicas:

Porque no hay un acuerdo metacientífico acerca de la naturaleza de tales virtudes, no existe


un criterio científico interteórico de ponderación de virtudes, y las utilidades epistémicas
parecen ser teóricamente relativas. Por ejemplo, aun cuando estemos de acuerdo en entender
lo que es una buena explicación y una buena predicción y la compartamos, ¿cómo ordenar
estos criterios? En la clásica disputa entre modelos ptolemaico y copernicano, ambos
explicaban igualmente bien la evidencia disponible, había infradeterminación porque ambas
teorías eran irreconciliables entre sí, y ambos tenían virtudes epistémicas que les ayudaban a
dar cuenta de sus teóricas; por tanto, no hay un criterio de ponderación de virtudes. No
siempre es concluyente este intento de extender epistémicamente la infradeterminación para
evitar recurrir a la intuición, valores subjetivos, al ‘olfato del físico’, etc. Es por este hueco que
deja la infradeterminación donde la experiencia apunta a la teoría débilmente, y es por donde
se meterán las conclusiones de Kuhn (sociohistóricos, etc.). Y se concluirá, posteriormente,
que la infradeterminación se puede cerrar mediante el hecho de tener en cuenta las
cuestiones extraepistémicas. El mensaje es que hay que salir de la ciencia para explicar la
propia ciencia, recurrir a las utilidades o virtudes sociales.

Razones externas

Las ideas que aparecen en Kuhn no son nuevas, pues aparecen antes apuntadas ya en varios
autores, aunque el entorno afectaría decisivamente, ya que en 1935, con el libro del polaco
Fleck, aparecen las críticas que Kuhn expondría décadas después; auge del florecimiento
descontrolado cultural, gran agitación política (Alemania de Weimar, Hitler, etc.) a inicios de
siglo XX, y era la ciencia la que debía marcar la acción correcta, esencialmente socialista de
transformar y racionalizar la sociedad. El progresivismo fue bastante marcado en los 30s,
Estado paternalista que protegía a las clases medias iluminadas con la ciencia, tratando de
poner a los tecnócratas, no gestores, en el poder para usar el Estado mismo como una
herramienta para el bien común. También el movimiento eugenésico, usando la ciencia de la
genética para optimizar la sociedad, con medidas eugenésicas positivas (estimular la
reproducción de los más aptos, a principios de siglo) y negativas (destrucción de los más
débiles, esterilización, eliminación inferiores considerados, siendo esto captado por Hitler).

Estas ideas se explicitan a finales del siglo XIX y principios del XX, donde los jefes de Estado
pretenden mejorar sus sociedades. Los empiristas lógicos tratan de hacer de la ciencia el faro
del buen entendimiento, en un contexto muy inapropiado para los relativismos o para poner
en duda el carácter social y epistémico de la ciencia.

Entre 1935 y 1970 (libro de Fleck-libro Kuhn): hay un corte en el siglo, con la I Guerra Mundial,
donde la concepción del mundo cambió radicalmente (mundo de Charleston, mundo clásico vs
mundo competitivo, ‘irreconocible’, según Russell, con gas mostaza, ejércitos despiadados,
etc.) y la II Guerra Mundial, que se libró entre tecnologías rivales, y que propició la emigración
de enormes cantidades de judíos desde países de influencia nacionalsocialista a democráticos.
Se pretendía que la ciencia fuese un subsistema autónomo que ayudase a la sociedad,
instrumento de futuro para los Estados. Esto se ve claramente en el informe a Roosevelt de V.
Bush (1945) respecto de que la ciencia hará ganar a EEUU la Guerra Fría posterior, pero J.
Franck enviaría un mensaje muy distinto a Bush, mucho más lleno de planteamientos éticos y
con un sentimiento de atención sobre los problemas que podría ocasionar la ciencia si no se
tomase una buena acción respecto de la guerra nuclear, pero no fue atendido. Tras Hiroshima
y Nagasaki, Franck & cía. pretendieron reivindicar tal informe. (ojo ensayo: doomsday clock)
Esta crítica se ha manifestado en muchos momentos posteriores como propuestas éticas de
autocontención.

Después de la IIGM, hay un gran periodo de optimismo en los países vencedores sobre las
potencialidades de futuro del desarrollo científico-tecnológico, sobre todo en años 50-60s,
donde las incipientes biotecnologías, ciencia nuclear, trasplantes de órganos, etc., y esto hacía
pensar que la ciencia podría mejorar exponencialmente la vida del ser humano. Era una visión
que se quebró en los años 60s por varios motivos:

- La visibilidad que adquieren algunos efectos adversos del desarrollo científico-


tecnológico: ‘mal comprendido y pero controlado’ resume bien este aspecto. Ejemplos
como deformidades diversas por culpa de ciertos medicamentos.
- Primeras fugas de centrales de radiación
- Derramamientos de petróleo en los océanos
- Carrera armamentística, a partir de 1957 con el Sputnik, bomba H (bomba de fisión
soviética), bombas termonucleares, etc.

Esto da un ambiente apocalíptico y amplificado con movimientos sociales críticos con la


tecnología y crean ambiente de sospecha y celos que se retroalimenta con las malas
informaciones que van saliendo:

- Movimiento ecologista moderno (60s), como Greenpeace, Earth First


- Movimiento feminista, movimiento contracultural (El nacimiento de una contracultura,
T. Roszak) (hippies)
- Movimiento protecnología alternativa (60-70s, E. Schumacher, Lo pequeño es
hermoso)
- Movimiento antinuclear, cuyos orígenes están en Alemania a finales de los años 50
(país en construcción, con influencia constante extranjera, etc.) que fue importado a
España, por lo cual no se llevó a cabo el programa nuclear.
- (Boom económico en los países en punta desarrollados)
- Movimiento para los derechos sociales (los panteras negras, M. L. King, Malcolm X,
etc.) (esencial para que surgiesen el resto de movimientos)

(Estos movimientos surgen del país que llevaba la pauta en la década de los 60s: EEUU)

Cambian las políticas y la sociedad en general y propicia el boom del libro de Kuhn. Pero surge
la pregunta de ¿por qué surgen estos movimientos?

Karl Popper (1902-1994)

(¿Qué es esa cosa llamada ciencia?, libro principal de la asignatura donde se puede encontrar
información sobre Popper)

Popper era joven cuando se estaba configurando el Círculo de Viena (1929), siendo profesor de
secundaria por aquella época, aunque era bastante apreciado por Carnap y Feigl, entre otros, y
rechazado por otros, como Neurath. Popper fue un interlocutor del Círculo de Viena, y, sobre
todo, interlocutor de la reacción antipositivista.

La obra principal de Popper es Logik der Forschung (La lógica de la investigación científica), de
1934, aunque fue incorrectamente traducida al inglés en 1959 con The Logic of Science
Discovery, donde caía el interés en el contexto de descubrimiento y no de justificación. Fue
una obra muy extensa y tuvo que reducirla, y esos apéndices que no entraron fueron
publicados posteriormente, como El universo abierto, entre otros. También, en los años 1944-
45, publicó varios volúmenes, como La miseria del historicismo, que apareció como libro en
1957. En 1950, después de publicar esta obra, publicó también otro de sus dos grandes obras
en filosofía política: La sociedad abierta y sus enemigos, donde arremete contra Platón, Marx y
aquellos que considera que tienen ideas cerradas de la sociedad (gran influencia en la cultura
occidental de Popper en filosofía política). Y en 1963 publicó otro de sus grandes libros en
filosofía de la ciencia, Conjeturas y refutaciones, uno de los últimos grandes libros de Popper.
También un compendio de conferencias, artículos muy influyentes, etc. titulado Conocimiento
objetivo (muy recomendable para empezar a leer a Popper). Su autobiografía apareció
publicada en los 70s como libro independiente editado por otros seguidores, titulado
Búsqueda sin término. También un libro donde desarrolla su filosofía de la mente en
colaboración con John Eccles, The Self and Its Brain.

En Conocimiento objetivo, empieza recuperando un viejo problema filosófico: el problema de


la inducción, es decir, ofrecer una fundamentación racional o concluyente para las
proposiciones científicas universales. Se pregunta si podemos dar razones suficientes para
justificar nuestras creencias y diferencia dos problemas: el problema lógico y el problema
psicológico.

Problema lógico de la inducción: ¿podemos construir una inferencia inductiva válida desde el
hecho de que todos los A observados son B hasta la necesidad de que todo A sea B?

Problema psicológico: ¿por qué confiamos en la experiencia pasada y aceptamos que A es


causa de B por el hecho de haber visto su correlación en el pasado?
El problema lógico es insoluble, según Popper, y que el hábito es la respuesta al problema
psicológico, aunque el hábito no es buena fundamentación para la ciencia. Por tanto, lo que os
importa es el problema lógico y el de fundamentar racionalmente la ciencia que se encuentra
en un callejón sin salida.

¿Qué respuesta ofrece a esta situación la filosofía de la ciencia? ¿Qué respuesta da Carnap? La
respuesta es lo que él llama ‘neojustificacionismo probabilista’, es decir, substituir el discurso
sobre la verificación, que es la demostración de la verdad o falsedad, imposible dado el
carácter universal de las proposiciones científicas, por el problema de la inducción, en favor del
discurso de la confirmación: tratar de confirmar en el sentido de elevar el grado de
probabilidad de que una proposición sea verdadera, y por eso el discurso sobre la
confirmación es un discurso probabilista. A esto es lo que nos conduce el problema de la
inducción de Kuhn en filosofía de la ciencia.

Popper concluye que no es satisfactoria la respuesta de este neojustificacionismo probabilista,


pues no resuelve el problema de la inducción, y, de hecho, la meta de la ciencia no debe ser
aumentar la probabilidad, sino lo contrario, y aquí es donde entra su mayor aportación:

Popper dice que la clave para afrontar el problema de la inducción tanto si podemos arbitrar
los medios para establecer la verdad de los enunciados; la pregunta correcta es si podemos
establecer las condiciones para decir si ciertos enunciados, los encunados universales de la
ciencia, pueden ser falsos. Preguntar por la verdad nos lleva a una falacia que bloquea la
posibilidad de establecer la verdad del enunciado: falacia de la afirmación del consecuente
(problema de Hume), que no es lógicamente concluyente.

Pero si tuviésemos p -> q; tenemos ¬q, por tanto, ¬p, entonces, las consecuencias derivadas de
un enunciado nos permiten determinar su falsedad y rechazarlo con seguridad por modus
tollens:

Y esta es la clave de Popper, y de algo tan sencillo hace una piedra de toque para transformar
toda la filosofía de la ciencia, y no solo de la ciencia. En términos políticos, este falsacionismo
podría significar que la esencia de la democracia no es tanto la posibilidad de sancionar la
legitimidad de gobernantes a través de la suma de las voluntades personales de quienes los
eligen como la posibilidad siempre presente de que los gobernados tengan la posibilidad
siempre presente de derrocarlos; la democracia no puede basarse en un modo inductivista,
pues Hitler llegó al poder democráticamente e hizo lo posible para que fuese imposible
derrocarlo. Es la capacidad de los gobernados de derrocar a los gobernantes, es decir, p->q;
¬q; ¬p. No es la acumulación de testimonios individuales, pues no determinan con solidez esas
afirmaciones.

El planteamiento de Popper se ve desde la perspectiva de la negación, y siempre se le ha visto


con una perspectiva no consensual, sino crítica, que es lo que hace que sea posible el avance
de conocimiento. Es un planteamiento muy amplio y que desarrolló durante muchas décadas,
y se basa solo en una simple asimetría lógica.
Para Popper, la orientación de trabajo en investigación científica ha de ser la búsqueda de
refutación. ¿Qué ocurre cuando fallamos en la búsqueda de tal refutación? Tenemos una
corroboración temporal, es decir, el objetivo de la ciencia ha de ser el ‘no’, la falsación frente a
la corroboración. Popper dice que toda instancia corroboradora ha de resultar de una
contrastación rigurosa y audaz, y que el grado de corroboración de hipótesis o teoría es
siempre un informe evaluativo sobre su rendimiento pasado.

Popper utilizará esta idea de la falsación como criterio de demarcación para diferenciar entre
la ciencia y la no ciencia, diciendo que una proposición solo será científica si puede ser falsada
por la experiencia.

Observaciones de Popper vs empiristas lógicos:

Para los empiristas lógicos, su criterio de demarcación, fundamentada en la TVS, era un criterio
que demarcaba el sentido y el sinsentido, la ciencia y la metafísica. Pero para Popper sí hay
sentido más allá de la ciencia, pues hay discursos con sentido que no habla de la ciencia pero
que no tiene que ser metafísica.

Una teoría es verdadera si es falsable, y es falsable cuando, en la clase de las observaciones


empíricas incompatibles con la teoría, hay al menos un elemento compatible con la teoría. Los
enunciados existenciales y aislados, dado que no pueden falsarse, son no científicos (‘Hay x’,
siendo aislado y no concreto).

Popper también defiende que esta idea falsacionista de la filosofía pone de manifiesto que la
idea de probabilidad es una idea que debe ser criticada en la orientación práctica de la
investigación científica: no solo la probabilidad no nos resuelve el problema de la inducción,
sino que es el peor recurso para la orientación científica. Por ejemplo, si alguien pregunta
‘¿qué hora es?’ y alguien responde ‘una entre las 0:00 y las 23:59’, la probabilidad es 1, y es
inútil. La respuesta sería la que fuese más improbable, tal como ‘las 9:00’ cuando no es tal
hora. Es la alta corroboración lo que se busca en ciencia, y esto se busca mediante su falsación,
y cuanto más contenido tenga el enunciado, más falsable, por lo que cuanto más contenido
tenga, más altamente falsable es y más improbable es. Eso es lo que se llama en Popper la
búsqueda de la improbabilidad (influencia darviniana en la búsqueda de refutaciones
constantes para encontrar conjeturas y dotar de robustez los enunciados de la ciencia). La
ciencia necesita enunciados con alto contenido informativo, por lo tanto, enunciados
altamente falsables.

Ha de tenderse a la sencillez, pues las hipótesis sencillas son más falsables por ser más escasas
de parámetros.

Por ejemplo, tomemos un enunciado universal afirmativo como ‘Todo P es Q’, donde se
asocian dos clases, la clase de cosas que son P y las que son Q. ¿Cómo aumentar el contenido
informativo de este enunciado? Dos formas: manteniendo la forma; y, si cambiamos la forma,
podemos cambiar el contenido, diciendo ‘la mayoría’ o ‘algunos’ en vez de ‘todo’. Estas otras
formulaciones tienen más enunciados que describen el mundo respecto del mismo en
comparación con el universal. A medida que aumentamos el tipo del sujeto y que restringimos
el tipo del predicado, aumenta la clase de posibles observaciones incompatibles con ese
enunciado y, por consiguiente, aumenta su falsación. Por ejemplo, es más restringido, y más
útil, la hipótesis de ‘Todos los córvidos son negros’ que ‘Todos los cuervos son oscuros’, pues
es más probable falsar la primera que la segunda.
Popper da algunas definiciones:

El contenido empírico del enunciado es la clase de los posibles falsadores.

Contenido lógico de un enunciado es la clase consecuencia, es decir, la clase formada por


todos aquellos enunciados deducibles del mismo que no son tautológicos.

Grado falsabilidad enunciado: se define dentro de un intervalo abierto entre 1 y 0 (1=


contradicción, 0= tautología): 1> Fsb©>0

Una teoría falsable excluye un mayor número de enunciados básicos, es decir, nos dice más
sobre el mundo, tiene más contenido empírico.

Ámbito de un enunciado: clase de enunciados básicos que permite.

Popper nos muestra una covariación entre parámetros: grado de contrastación de un


enunciado, su falsabilidad, la precisión en la medición, la sencillez, el ámbito, la probabilidad y
el contenido empírico. Cuanto más contrastable es un enunciado, mas falsable es, más
contenido empírico tiene, mayor precisión de medición, mayor sencillez, menor ámbito,
menor probabilidad.

La corroboración es un efecto indirecto en el fracaso de la falsación de un enunciado. La


corroboración consiste en una evaluación temporal y provisional siempre, pero no podemos
otorgar un grado numérico de corroboración, solo positivo o negativo, y a cierta trayectoria
pasada (fracasar una y otra vez en falsación de un enunciado).

También dice Popper que todo enunciado en ciencia es provisional, pues la ciencia es ‘una
sucesión de conjeturas y refutaciones’. De hecho, utiliza un esquema evolutivo diacrónico del
conocimiento. Es una cuestión de tipo normativo y se representa así:

En ciencia se parte de un problema, que es la base de una teoría provisional, que, a su vez, es
base de una proceso de eliminación de errores, que genera un nuevo problema que es base de
otra teoría, superada la anterior, etc. No es un esquema dialectico ni cíclico, pues no hay tesis
ni antítesis, ni los problemas son iguales; es un proceso evolutivo. La cuestión es ‘poco a poco
ir siendo menos ignorantes’, la verdad es el objetivo, pero el juego es el de la ignorancia.

Se puede resumir en un eslogan metodológico lo visto en Popper hasta ahora diciendo lo


siguiente: en ciencia no podemos demostrar la verdad, pero sí podemos disprovar. Hay una
base empírica de hechos que nos permiten rechazar las teorías erróneas de un modo
concluyente.

Este eslogan metodológico sobre Popper corresponde a un Popper inexistente, ‘inventado’ por
la literatura. Es el Popper que se puede encontrar leyendo a Neigl, Ayer, etc. Es lo que Lakatos
llama el ‘falsacionismo ingenuo o dogmático’. Como veremos, en la obra de Popper está el
Popper más ingenuo y otros Popper que veremos.

El Popper visto hasta ahora es el llamado Popper1, el del falsacionismo dogmático o ingenuo.
Esta proliferación de Poppers se debe a la obra de Lakatos, quien ha dado cuenta de los
diferentes Popper, identificando 3 Popper reconocidos como tales y que, hasta cierto punto,
tienen presencia en los escritos de Popper, por lo que no son simples interpretaciones; hay
partes que se dan de hecho en Popper.

Popper ha sido caricaturizado hasta ahora y exagerado para comprender su filosofía, pero eso
lo hace más vulnerable: ¿es falsable toda la ciencia? ¿Es posible falsar una teoría por completo
y abandonarla? La respuesta es no, ya que no hay garantías de que sea falsa una teoría de
manera categórica.

Críticas al falsacionismo ingenuo (en parte recogidas por Popper para mejorar su metodología,
su enfoque falsacionista, que servirán para el Popper2 del falsacionismo metodológico)

Estas críticas son las de la inconclusividad deductiva y la de la provisionalidad del conocimiento


de base.

Crítica de la inconclusividad deductiva de la falsación: se basa en la tesis de Duhem-Quine. Esta


tesis dice que las hipótesis no pueden llevarse al tribunal de la experiencia de modo aislado,
por lo que cuando se produce el fracaso en la contrastación carecemos de certidumbre sobre
qué deba abandonarse o negarse

En ciencia, derivamos de hipótesis implicaciones contrastadoras. En caso de que se fracase,


por modus tollens, podemos negar H. El problema, según esta tesis, H no concurre aislada a la
prueba empírica, sino que concurre con una serie de hipótesis auxiliares que son parte de H.
Además, se tienen que dar ciertas circunstancias que se conocen como condiciones
antecedentes que puede contener un problema y ser las responsables del fracaso de la
hipótesis. Si se falla en una hipótesis, puede ser culpa de la hipótesis principal, pero podría ser
culpa de la competencia de quienes hagan las mediciones (supuestos auxiliares), de hipótesis
auxiliares, etc. (las hipótesis no están solas), y esto hace que la fasación no sea lógicamente
concluyente.

Crítica de la provisionalidad del conocimiento de base: el conocimiento de base es la


información de contraste que describe hechos del mundo externo frente a la hipótesis
(enunciado universal sobre determinado fenómenos). Ha de distinguirse el plano teórico del
plano observacional o experimental.

Los enunciados de base (con forma de existenciales singulares por Popper) han de ser
contrastables intersubjetivamente, como ‘En el mes de mayo de 1846 se produjo solo un 2%
de muertes en mujeres por fiebre puerperal’. Describen un evento singular en una región
espaciotemporal. Para el Popper1, estos enunciados básicos ofrecen una base firme sobre los
que poner a falsación las hipótesis. Pero esa base firme no es tal:

La pura observación no existe, por el argumento de la carga teórica (visto más arriba), que está
influido por expectativas, etc.

Los enunciados básicos dependen de procedimientos experimentales que descansan sobre


teorías conocidas como teorías instrumentales o interpretativas: recursos matemáticos y,
además, recursos instrumentales como termómetros, microscopios, la óptica, etc., que
dependen de presuponer otras teorías, como la teoría física que describe el comportamiento
de los sonidos en el cuerpo humano a la hora de usar estetoscopios para la interpretación de la
respiración humana.

El enunciado ‘esto es un hecho’ depende de la teoría también. Aquí vemos que la asunción de
un enunciado de hecho, como ‘hay x habitantes en Oviedo’ depende de decisiones
convencionales para definir a quién contar como habitante de Oviedo, y solo sobre esas bases
convencionales, se pueden proferir enunciados de hecho.

Crítica de la generalidad del enfoque falsacionista: si queremos ser consistentes, ¿por qué la
provisionalidad solo afecta al mundo teórico y no al nivel empírico?
Respuesta de Popper ante esta circularidad descrita por las críticas:

Popper toma una respuesta única: la convención, y mediante dos vías:

- Parte problemática
- Parte no problemática

A una y a otra parte pueden pertenecer, en diferentes momentos, la teoría y la experiencia. Se


ha de identificar la parte problemática con las teorías sometidas a contrastación; y ha de
identificarse la parte no problemática con las teorías interpretativas.

Esta decisión es convencional pero no arbitraria, siempre guiada por la maximización de la


cantidad de oportunidades de falsación para poder avanzar en el conocimiento.

Popper2: falsacionismo metodológico

Es el Popper que admite la provisionalidad del conocimiento de base, del falsacionismo


metodológico, no tan radical (que se puede encontrar en Popper mismo). La falsación no es
lógicamente concluyente, pero sí que debería ser metodológicamente concluyente. La
falsación no implica el rechazo necesariamente. Popper dice que en el centro del método
científico ha de estar la falsación; es normativa, pero pretende tener cierto alcance descriptivo,
pues la base que se tiene es de la mecánica, astronomía, la física, etc., reflejar la mejor obra
del trabajo de Einstein, Darwin, etc.

Críticas contra el falsacionismo metodológico, que sirve de base para derivar el Popper3:

-Primera crítica: esta perspectiva defiende que la ciencia no se desarrolla haciendo equivalente
la falsación y el rechazo, y presenta una metodología puramente normativa. Por tanto, su
metodología falla.

Ejemplo: 1815, Sobre la relación de los pesos específicos…, Proud, ensayo sobre el peso
atómico de los átomos. Recogía la vieja idea filosofía del atomismo griego de que los ladrillos
de la realidad son los átomos, y las sustancias y cuerpos se forman por esos átomos y sus
combinaciones, por lo que los pesos deberían ser números enteros, pues la multiplicidad de
átomos son números enteros, múltiplos enteros del hidrógeno. Fue acogida de manera
entusiasta por comunidad científica; existían problemas con anomalías en las mediciones, pero
se le atribuía a impurezas de los procesos químicos. En los 60s del siglo XIX se cansaron y
decidieron abandonar la teoría por no haber podido respaldar exitosamente la teoría. Esta
teoría fue abandonada hasta 1910, cuando Ruderford consiguió por metidos no químicos sino
físicos, mediante potentes maquinas centrifugadoras, mejorar la purificación de sustancias y
demostrar que Proud tenía razón. Aquí ha ocurrido que, siguiendo a Popper, la teoría habría
pasado a mejor vida. La ciencia real no se comporta, al menos en este caso y otros similares,
del modo descrito por Popper, y no es de modo irracional.

-Segunda crítica: no es metodológicamente recomendar si no disponemos de teorías o de


hipótesis alternativas. Es decir, se necesita ‘seguir en el barco’, no se puede asumir el consejo
metodológico de Popper más, identificando la falsación con el rechazo.

-Tercera crítica: las teorías científicas reales demuestran una gran tenacidad y resistencia que
no es precisamente irracional frente a las anomalías. Los científicos han de ser tenaces y no
rechazar sus teorías a pesar de las críticas (historia del teórico de la tectónica de placas).
Muchas teorías, eventualmente, han perseverado hasta conseguir el respaldo por la
experiencia.

Estas críticas son al falsacionismo metodológico, defendiendo que falsar no conlleva rechazar.
Hay varios elementos necesarios propuestos: una hipótesis alternativa, etc. que nos ponen en
camino de establecer que la falsación es más complejo que una teoría donde se lleva al
tribunal de la experiencia, y que quizás es un proceso no monoteórico sino pluriteórico o
pluralista. El problema de Popper de en qué condiciones igualar flasación a rechazo evoluciona
en otro problema: el problema de elegir una teoría, de la preferencia por una teoría dado un
conjunto de teorías alternativas en el caso de tener una teoría T que explique de una manera
los hechos y otra teoría T2 que lo haga de otra manera. Este es el falsacionismo sofisticado del
Popper3.

Popper3: falsacionismo sofisticado

Presenta un criterio pragmático de preferencia teórica no justificacionista, pues todas las


teorías están igual de improbadas; no probabilista, todas las teorías son igual de improbables;
y no instrumentalista, porque no necesariamente la teoría más sencilla es la teoría correcta.

El criterio de Popper substituye al falsacionismo metodológico, y dice:

Dadas dos teorías rivales, T y T1, que son alternativas respecto de la explicación de los mismos
datos, podemos decir que T está falsada relativamente a T1 si se dan estas tres condiciones:

- T1 predice hechos no predichos por T


- T1 explica los aciertos previos de T
- Parte del contenido empírico excedente de T1 respecto de T está corroborado

Una teoría T está falsada si es substituida por otra teoría T1 de mayor contenido empírico
corroborado.

De este modo, usando metáfora de Lakatos, el investigador no trata de poner a prueba sus
hipótesis frente a la naturaleza de hechos firmes constituida que le puede decir “¡improbable!”
o “¡verdadera!”, sino que confronta unas teorías con otras de manera pluriteórica. Se
consideran grupos de teorías y ver si conforman un grupo consistente o inconsistente.

Popper se pregunta también ¿podemos hablar de progreso de conocimiento? ¿En qué sentido
se habla de progreso de conocimiento? Popper dice que la ciencia siempre busca describir y
explicar la realidad a través de series de conjeturas y refutaciones (título de una de sus grandes
obras, donde trata, lo que se verá más abajo, el concepto de verosimilitud) que tienden
progresivamente a la verdad. En este contexto, defiende una visión realista aunque, como
admite, el realismo no es demostrable ni refutable, aunque sea la mejor de las perspectivas
filosóficas y permite el avance hacia la verdad en ciencia.

Para él, la verdad es un principio regulativo inalcanzable, a modo de Tarski, es decir, como
correspondencia con la realidad. Para Popper, aunque es un ideal regulativo, lo que busca la
ciencia no es la verdad sin más; ‘no es la verdad simple lo que buscamos, sino respuestas a
nuestros problemas’. Para responder a nuestros problemas necesitamos respuestas que estén
cercanos a la verdad y, lo que es esencial, que tengan alto contenido informativo. Ejemplo del
reloj: no sirve una respuesta tautológica, que es de hecho verdadera, sino una respuesta lo
más cercana posible a la verdad y que tenga el mayor contenido informativo posible. Se
necesita una nueva noción que combine la verdad y la de contenido: verosimilitud

Hay dos formas de expresarla en inglés: Verisimilitude y Truthlikeness

Esta noción es muy importante como piedra angular de Popper para su realismo: verdad y
contenido, es decir, verosimilitud. Popper pretende devolver el a la noción de ‘verdad’ el ideal
regulativo para la ciencia.

¿Cuándo una hipótesis o teoría es más o menos verosímil? La verosimilitud se estima en


función del valor de verdad de las consecuencias que se deriven de una hipótesis o de una
teoría. Es decir, la clase consecuencia de A es el conjunto formado por aquellas consecuencias
x tales que se derivan de la hipótesis a dada. Cuantos más enunciados verdaderos se deduzcan
de a, mayor será su verosimilitud y, paralelamente, cuantos menos enunciados falsos. El
contenido de verdad estará constituido por los enunciados verdaderos en cuestión derivados
deductivamente de a, y el contenido de falsedad, por los enunciados falsos derivados.

El criterio pragmático expresado en términos de verosimilitud, T1 es más verosímil que T


cuando siendo comparables sus contenidos de verdad y falsedad se da alguna de estas dos
circunstancias:

- El contenido de verdad de T1 es mayor que el contenido de verdad de T pero no su


contenido de falsedad
- El contenido de falsedad de T1 es menor que el contenido de falsedad de T pero no su
contenido de verdad

Aquí ha de advertirse un riesgo: se está hablando de teorías como conjuntos de enunciados


más o menos verdaderos o falsos. Esto no quiere decir que se está sobre pasando los límites
de la lógica bivalente: un enunciado o es verdadero o es falso, aparte de poder serlo en mayor
o menor grado.

Esbozo de la formalización de Popper de verosimilitud y que siguen otros autores

El contenido de un enunciado A está formado por aquellos enunciados derivados de una teoría
a. el contenido de verdad es simbolizado por CnT como la intersección entre el contenido lógico
de a y la clase de los enunciados verdaderos en un lenguaje dado L donde está expresado a.
Esto tiene una dificultad por no poder dar cuenta de la falsedad, que no se sigue de las
inferencias lógicamente validas, y define el contenido de falsedad como la diferencia entre el
contenido de a menos e contenido de verdad de a. Sobre esta base desarrolla el concepto de
la medida de contenido de un enunciado, Ct, definida como 1-p(a). Y esto es porque, cuanto
más contenido tenga un enunciado más improbable es; la medida de contenido es definida
como el modo inverso de la probabilidad. Si algo es altamente probable, el contenido será muy
bajo, y viceversa. El contenido de a y b es siempre menor que el de a y b, al contrario que la
probabilidad.

La verosimilitud de un enunciado es definida como la medida de contenido menos la medida


de contenido de falsedad de a: Vs(a) = CtT (a) – CtF (a)

Imre Lakatos (1922-1974)

Lakatos empieza donde Popper, maestro suyo, termina: el falsacionismo sofisticado tratando
de unir: la reorientación de la filosofía de la ciencia amplia y fundamentada en historia de la
ciencia de Kuhn y la defensa a ultranza del objetivismo de la ciencia (tema muy de Popper).
Lakatos ha sido la versión sofisticada de Popper.

Bibliografía: primera publicación importante, Pruebas y refutaciones, intentando extender el


pensamiento de Popper a la matemática (haciendo una fundamentación empirista de la
matemática), donde sí hay pruebas, a pesar de que, según Popper, no hay pruebas en la
naturaleza. Historia de la ciencia y sus reconstrucciones racionales. La metodología de los
programas de investigación científica, recopilatorio.

La filosofía de la ciencia de Lakatos empieza donde termina la de Popper, en el falsacioismo


sofisticado. Insiste mucho que son series, conjuntos relacionados de teorías lo que se enfrenta
ante el tribunal de la experiencia, y que además se sueldan formando programas de
investigación con diferentes especializaciones respecto de un mismo núcleo matemático.
Tenemos la experiencia, y lo que confrontamos con ella son, no hipótesis aisladas, sino
conjuntos, series de teorías T1, T2, T3… TN que conforman conjuntamente un programa de
investigación.

Este planteamiento hace que Lakatos exponga el problema de la demarcación desde su


perspectiva planteando la respuesta con términos pluriteóricos. Lakatos cree que este
problema es parte de un problema mayor: el problema de la comparación interteórica en
filosofía de la ciencia respecto de si es científica o no.

Lakatos, con este planteamiento, se define demarcacionista. Ser demarcacionista es considerar


que existen criterios para valorar la cientificidad de teorías y para comparar teorías rivales, y
en considerar que estos criterios son universales y objetivos, no dependen de preferencias
personales, de contextos históricos, de disciplinas, etc.

Frente al demarcacionismo, Lakatos identifica: elitismo y escepticismo

Elitismo: representado por Kuhn; a la primera pregunta responde que sí, que hay tales
criterios, pero dice no a la universalidad, puesto que dependen de las élites científicas, no
están más allá de los acuerdos convencionales de las comunidades científicas, relativos a
disciplinas, historia…

Escepticismo: Feyerabend, que dice no a los dos: ni existen criterios ni son objetivos, ya que no
es posible dar respuesta al problema de la demarcación: anarquismo epistemológico de
Feyerabend.

Lakatos se asocia con el demarcacionismo, más conservadora, y tomando la consideración de


Kuhn para fundamentar el análisis filosófico en el estudio de la ciencia real. Este estudio en los
diversos tipo de influencias que están en las configuraciones científicas llevan a Lakatos a
determinar dos historias: la historia de la ciencia interna (elementos de carácter epistémico) e
historia de la ciencia externa (utilidades, valores no epistémicos, extraepistémicos, culturales y
sociales).

Reconocida esta diversidad que responde a la complejidad de la ciencia real, la de Kuhn, la


obligación del filósofo es practicar la reconstrucción racional de la historia de la ciencia
maximizando la historia interna y minimizando la historia externa. Lakatos considera que toda
la historia de la ciencia es historia idealizada, pues no es posible atender a la historia en sí, ya
que siempre hay influencias de todo tipo, sesgos de género, presiones económicas,
inclinaciones políticas, etc., pero, puesto que es inevitable, dice Lakatos, ‘hagámoslo pero
comprometiéndonos con la razón’, reescribiendo de modo racional la historia de la ciencia,
tratando de recoger el menor número de influencias externas posible. Este proceso es un
proceso racional de reconstrucción histórica, de idealización, focalizando la atención a unos u
otros conceptos, inclinando la balanza en favor de los rasgos racionales del cambio científico.
Hay dos métodos, razonamiento deductivo o inferencia inductiva; y marcadores de verdad,
como la coherencia teórica, consistencia interna, simplicidad, etc., que facilitan el
acercamiento a la verdad.

En su visión del cambio científico, de inspiración popperiana, debemos abandonar las visiones
monoteóricas. El falsacionismo sofisticado abandona la visión clásica de una teoría enfrentada
al tribunal de la experiencia, pues ahora se consideran grupos de teorías, conjuntos, series de
teorías, que son las unidades en base a las cuales se puede dar progreso científico. Estas series
de teorías se sueldan formando programas de investigación, y son los que se pueden evaluar,
más que las teorías aisladas.

Un programa de investigación, Research Programme, es aceptable si conduce a un cambio de


problemas progresivo. Es decir, si su desarrollo teórico anticipa su desarrollo empírico, que ‘no
nos da sorpresas’. Las condiciones para que tal desarrollo teórico anticipe el desarrollo
empírico, teniendo una serie de teorías T1, T2, T3,…, Tn a lo largo del tiempo desarrolladas, en
el que cada nueva teoría debe ser una superación de la falsación de la anterior (recordar
esquema P1->TT->EE->P2->TT2…) debe: predecir nuevos hechos y parte del contenido
empírico excedente esté corroborado, que haya al menos un intento de falsación fracasado; en
caso contrario, cuando el desarrollo teórico queda rezagado respecto del desarrollo empírico,
el cambio es degenerativo, es decir, cuando las teorías de la serie T1, T2, T3… Tn se limitan a
describir observaciones post hoc de descubrimiento casuales, explicaciones para salvar las
apariencias, o de hechos descubiertos por un programa rival.

El ‘pegamento común’ que conecta las series de teorías y las suelda emana de las reglas
metodológicas que se dividen en:

- Heurística negativa: qué vías de investigación evitar.

Metafóricamente, Lakatos entiende el ‘pegamento común’ que conforma y une las series de
teorías respecto de la heurística negativa como un átomo, formado por un núcleo (conjunto de
leyes usadas en el campo de investigación pertinente, y no puede dudarse de estas leyes; el
modus tollens no puede dirigirse hacia el núcleo, pues es irrefutable) y un cinturón protector
(hipótesis auxiliares y condiciones antecedentes que especifican las situaciones de
observación, y es de esto de lo que puede dudarse, aquí es donde puede usarse el modus
tollens)

Para Lakatos, la heurística negativa funciona, llevando el modus tollens hacia el cinturón, pero
cuando contamos con un programa de investigación progresivo, no degenerativo (muy
importante)

- Heurística positiva: qué vías de investigación seguir.

Es definida por Lakatos como ‘conjunto parcialmente articulado de sugerencias o indicaciones


sobre cómo desarrollar las variantes refutables del programa de investigación, sobre cómo
modificar y sofisticar el cinturón protector’. Es la heurística positiva y no las anomalías quien
dicta la elección de problemas. Según Lakatos, la heurística positiva, según un plan
preconcebido, prevé las anomalías y las transforma en aplicaciones del núcleo. Aquí Lakatos
nos pretende decir que estas series de teorías pueden entenderse como series de modelos que
pueden ser cada vez más sofisticados; los primeros modelos pueden ser muy toscos, y, a
medida que se van sofisticando en la serie de teorías T1, T2,…, Tn, se van superando las
anomalías y solucionándose: la ciencia es un método para esclarecer las anomalías recogidas
del medio descrito, como una serie de mapas que van sofisticando la descripción de un
determinado aspecto del mundo real. Anomalías que son, además, conocidas de antemano, se
sabe que la hipótesis inicial es tosca, demasiado simple; pero esto es la base para dar el paso
de esa teoría inicial T1 a una teoría mejorada T2, a medida que se van adquiriendo más
situaciones observacionales, etc.: desde el principio se saben las dificultades desde las que se
parten, pero la ciencia se encarga de eso, de ir superándolas por la vía de la heurística positiva,
como en la conformación de un mapa, mejorando el cinturón protector por medio de modelos
o teorías más sofisticados que superen las anomalías de los modelos o teorías anteriores.

Es el éxito en la construcción de estas series de teorías lo que garantiza un contenido empírico


creciente corroborado, y, por tanto, la inmunidad del núcleo. Si la cadena se estanca, una vez
falsado el último eslabón de la misma, el modus tollens tendría que dirigirse hacia el núcleo
(‘las teorías nacen condenadas’, idea de Popper; el único modo de mantener con vida un
programa de investigación es seguir hacia delante). Y es esta la visión de la ciencia de Popper y
de Lakatos, en sentido darvinista de la supervivencia, la lucha constante por el progreso
científico.

Hay varias ideas presentes en Lakatos:

La racionalidad retrospectiva: Lakatos llega a esta idea al negar la crucialidad de los


experimentos, pues solo son cruciales las teorías Tn que permiten explicar los fenómenos, y es
concluyente; pero los experimentos cruciales son decisivos solo retrospectivamente, pero no
se puede determinar instantáneamente ningún tipo de criterio.

Lakatos era demarcacionista, esto es, que existen criterios objetivos que dictan cuándo una
teoría es verdadera o válida y cuando no lo es. El resultado de un experimento crucial para un
programa de investigación solo retrospectivamente se puede decir que es determinante, no de
un modo instantáneo, que lo es para la teoría solamente.

Dado que no hay un criterio instantáneo de racionalidad que justifique la tenacidad de los
científicos, Lakatos dice que hemos de recurrir a un código de honor que nos permita zanjar
disputas, y propone su metodología de programas de investigación científica como código de
honor.

Optar por su metodología (metametodología, más bien) está justificado porque constituye un
cambio de problemas progresivo en el ámbito de la filosofía de la ciencia, relativamente a
otras metametodologías previas en la serie de: conductivismo, convencionalismo,
falsacionismo, inductivismo, convencionalismo, falsacionismo y la metodología de programas
de investigación (falsacionismo sofisticado) del propio Lakatos. El desarrollo teorico anticipa al
desarrollo empírico, según este paralelismo entre la ciencia y la metaciencia o filosofía de la
ciencia.

Lakatos influyó en otros autores como Laudan, desarrollando una filosofía de la ciencia
contrastable que permitiera llevar al tribunal de la historia de la ciencia, a la par que la ciencia
fuese contrastable mediante llevarla al tribunal de la experiencia. De esta manera, hace una
reconstrucción de la filosofía de la ciencia de Kuhn, Lakatos, Popper, etc. y las contrapone con
la historia de la ciencia. Pretende imitar el proceder de la ciencia en la filosofía de la ciencia
P. Feyerabend (Viena, 1924; Zúrich, 1994)

Al principio de su carrera, estaba muy relacionado al pensamiento antipositivista (Popper) y


antirelativismo (Kuhn) hasta los 70s, pues a partir de ahí siguió su eslogan ‘todo vale’ influido
por la canción ‘anything goes’.

El primer Feyerabend, el de Popper, tiene muchas publicaciones relevantes al movimiento


antipositivista y kuhniana: Explicacion, reducción y empirismo, Cómo ser un bien empirista,
Problemas del empirismo. Aquí se entiende a Feyerabend como popperiano convencido con
ideas nuevas.

El segundo comienda en 1970 con Contra el método, como crítica al anterior, que pretendía
juntar con Lakatos. Más tarde, Tratado contra el método en 1975. Es recomendable La ciencia
en una sociedad abierta y su autobiografía, publicada póstumamente, titulada Matando el
tiempo.

Primer Feyerabend: antipositivista

El primer Feyerabend centra su contribución a la reacción antipositivista mediante una crítica


al concepto de progreso en ciencia, a la visión de la ciencia como un campo acumulativo cada
vez mayor que da una explicación cada vez mayor del mundo externo, la ciencia como un
avance triunfal hacia la verdad.

Este Feyerabend no tiene un discurso radical, es aún académico muy bien estructurado donde
busca los soportes de esa idea para someter a critica a la ciencia.

La idea de progreso en ciencia se basa en una visión acumulativa del cambio científico, y las
visiones acumulativas que construimos sobre lo construido, y descansan sobre la tesis del
desarrollo por reducción, donde vemos el cambio como una sucesión de teorías T1, T2, T3…
que conducen hasta la teoría presente Tn con teorías cada vez mas completas, precisas y
articuladas, y más potentes, en un doble sentido:

Para poder hablar del desarrollo por reduccion, cada aplicaicon propuesta Ti a cada teoría
debe corresponder al menos en la extensión empírica

Todo lo que una teoría T1 diga sobre una aplicación dada pueda deducirse de lo que dice sobre
esa aplicación la teoría sucesora Ti, extensión teórica

Por lo que dice, esta tesis de desarrollo por reduccion es compatible con el modelo de
explicación por cobertura legal, nomológico.deductivo. Decir que una teoría T1 se reduce a
otra nueva T2 significa que la segunda tiene más aplicaciones, es mejor que la primera, y se
puede deducir la nueva, más potente, la primera, pero no al revés.

El desarrollo por reduccion depende de dos condiciones:

- Consistencia: (inspirado en Nagel) en un dominio empírico dado, en un campo de


trabajo daod, solo son admisibles aquellas teorías que o bien contienen a las teorías ya
usadas en ese dominio o campo (contruir sobre lo consturido) o bien son consistentes
con ellas.
- Invarianza de significado: los significados de los términos descriptivos han de ser
invariantes en las teorías que se apliquen sobre un dominio empírico dado.

Sin estas dos condiciones, no se aplcia la derivabilidad deductiva que requiere la tesis de
desarrollo por reduccion.
Crítica de Feyerabend

Feyerabend no dice que no se cumplan nunca estas condiciones, pero dice que si acudimos a la
historia de la ciencia encontramos que esto no se cumple y que ‘menos mal’ que no se cumple
(irrealidad de las condiciones/irracionalidad de las condiciones). el avance científico se
estancaría si se siguiesen estas dos condiciones

Crítica de las condiciones de consistencia y de invarianza del significado:

Condicion de consistencia: subyace a esto una cierta convicción de que una vez que tenemos
una teria altamente confirmada en un dominio empírico, tenemos que mantenerla hasta que
no haya una refutación decisiva. Esta convicción nos lleva, por tanto, a prohibir nuevas teorías
alternativas hatsa que la vieja teoría ponga de manifiesto sus limitaciones. De aquí que se exija
la consistencia: si se quiere una nueva teoría, ha de ser mejoradora de lo que ya hay, pues han
de ser consistentes con las viejas teorías. Nos limitamos a hacer un conjunto de teorías
consistentes entre sí, entonces.

Feyerabend da varios ejemplos de que esto no se da en ciencia, que en ciencia no se es


consistente:

-Plano de la irrealidad de la consistencia: teoría mecánica de Newton, que se construye sobre


la mecánica terrestre de Galileo y la mecánica celeste de Kepler, según visión clásica; parece
encajar en la idea de consistencia, construir sobre lo construido. Pero Feyerabend dice que las
teorías de Galileo son inconsistentes con las leyes de Newton, y las leyes de Kepler con las
leyes de Newton. No se podrían derivar las leyes de Newton desde las de Kepler, por ejemplo.
Hasta ahora, este plano es el de la irrealidad.

(NO SE CUMPLE)

-Plano de la irracionalidad de la consistencia: Feyerabend dice que la inconsistencia favorece a


la teoría más vieja, no a la mejor. El argumento de la consistencia, que descansa sobre el
principio de autonomía de los hechos, que dice que los hechos existen, están en el mundo real
externo y tenemos acceso a ellos de un modo ateórico, independientemente de teorías
alternativas. Para el acceso a los hechos, dice Feyerabend, se necesitan teorías que nos ayuden
a ver hechos que podrían ser relevantes para dichas nuevas teorías. Los hechos no son rocas
duras ateóricas, sino que dependen de otras teorías. El requisito de la consistencia es ‘poner
un palo’ en el avance del conocimiento científico.

(ES MEJOR QUE NO SE CUMPLA)

Si el progreso en ciencia depende de la confrontación con los hechos, y los hechos dependen
de teorías alternativas incompatibles muchas veces, entonces esa confrontación será optima
cuando favorezcamos un pluralismo teórico (piedra angular del segundo Feyerabend, ‘que
florezcan mil flores’).

Invarianza del significado: Detrás de esto, dice Feyerabend, está el fantasma de que hay un
lenguaje de observación teóricamente neutral que nos permite mantener términos
descriptivos de experiencias observacionales invariantes de significado en las teorías que se
suceden en el tiempo.

Plano irrealidad: ¿Muestra la historia de la ciencia esta invariabilidad del significado? No. Por
ejemplo, el términio ‘masa’ de la mecánica claisica es una propiedad de los objetos, pero en la
mecánica relativista deja de ser una propiedad y pasa a ser una relación. El significado va
variando en la evolución de las teorías.

Plano irracionalidad: Feyerabend se sigue de su critica a la irrealidad, diciendo que todo


cambio que haya en la teori modfica el cambio de significado de los términos. Todo cambio
producido en una teoría, por esa depednencia contextual del signficiaod de oos temrinos
descriptivos (teóricos y observacionales) modifica els ignciado de dichos temrinos. Dado esto,
entonces aceptsr la condición de varianza de sinficaod supondría detener el avance de
conocimiento en ciencia.

El significado de los términos descriptivos teóricos dependen directamente de la conexión con


términos descriptivos de la experiencia, pero, además, de su conexión con otros términos
descripticos teóricos, en bucle.

La consecuencia es la tesis de la inconmensurabilidad (idea de la imposibilidad de encontrar un


patrón común para las teorías científicas), incompatible con la idea de progreso en ciencia.

Después de esta parte crítica, si aceptamos lo dicho, tenemos como resultado el anarquismo
epistemológico de Feyerabend.

Defensa en favor del Feyerabend anarquista:

‘Todo vale’. Con esto, Feyerabend pretende dar una posición, no anticientífica, sino
anticientifismo: socavar la credibilidad de cierta imagen de la ciencia, la imagen positivista
sobre el método científico. Si lo que se busca es EL método, y no Un método, lo único en
contra de ello es decir que ‘todo vale’: en ciencia puede haber muchos métodos totalmente
justificables. Va en contra del sesgo positivista de entender la ciencia, de los usos de la ciencia.

T. Kuhn (1922-1996)

La persona con mayor influencia, no autoridad moral (Popper, Carnap), en la historia de la


ciencia es Kuhn, pues hay un antes (medio siglo de tradición positivista) y un después (nuevo
modo de estudio de la ciencia postpositivista), donde se ve claramente la influencia de las dos
ideas clave de Kuhn: edificar la filosofía sobre la historia, partiendo de la ciencia real; y adoptar
marcos explicativos flexibles más amplios de análisis.

Kuhn tiene varias facetas, como el de 1962, con La estructura de las revoluciones científicas,
que, a partir de entonces, es cuando pretendió desdecirse de ello. La obra más importante es
la de 1962, aunque tiene una previa, La revolución copernicana, de 1957. En 1977, La tensión
esencial, Kuhn habla de la tensión entre cambio y continuidad en el desarrollo de la ciencia. La
lógica del descubrimiento o la psicología de la investigación, que va contra Popper. El camino
desde la estructura, del 2001, autobiografía póstuma.

Artículos a resumir (?): La crítica y el desarrollo del conocimiento, que recoge actas del
congreso de 1969 de Lakatos para enfrentar a Popper y a Kuhn. 1982, B. Barnes, Kuhn y las
ciencias sociales, análisis materialista sociológico de Kuhn. Carlos Solís, Alta tensión. Alexander
Bird, Kuhn.

La situación histórica y social es el centro de la reacción antipositivista (Quine, Hanson,


Feyerabend, etc.) esgrimida por varios autores, en los años 60, contra los ideales de ciencia del
positivismo lógico, argumentando que existen factores externos que condicionan
directamente las interpretaciones de las observaciones de la ciencia, que ha de tenerse en
cuenta en perspectiva.
En este contexto, con la ayuda de Fleck, Hanson (carga teorica de la observación), la tesis de la
inconmensurabilidad (Feyerabend) y demás que van tomando en consideración otros temas
extraepistémicos. Pero hasta Kuhn, no hay una alternativa real al positivismo lógico hasta
Popper, Pero es Kuhn quien inaugura un nuevo momento de acercarse a la filosofia de la
ciencia.

- No se puede comprender la ciencia mediante la lógica, sino mediante la ciencia real, y


para ello es necesario acercarse a la historia de la ciencia; ciencia real como base de
reflexión filosófica
- Necesidad de conceptos pragmáticos, de las CCSS, para dar un marco de explicacon
naturalista que permita analizar lo extraepistémico de la ciencia. Se empieza a hablar
de paradigmas, de comunidades científicas, etc., de las personas ‘de carne y hueso’
que negocian sobre qué es aceptable y qué no, y no son decisiones arbitrarias: hay
puntos de vista y sesgos que dependen de unas u otras preferencias.

Kuhn es relativista, pero no irracional, sino arracional que tienen que ver con la economización
de los recursos cognitivos; Kuhn no espera que los científicos sean racionales en cada
momento de su carrera ponderando pros, contras sobre las cualidades epistémicas, etc., pues
sería agotador; un científico toma decisiones en su comunidad científica, pero en otros
momentos solo se dedica a reproducir rutinas y pautas establecidas, de manera arracional. Los
científicos hacen caso omiso de los problemas muchas veces a la espera de mejores tiempos
para ver si son solubles, o intentar resolverlos mediante criterios que han sido exitosos
anteriormente, en palabras de Lakatos. Los científicos aplican protocolos para resolver
problemas dentro de su modo de entender la naturaleza, desde los conceptos y significados
que ellos convienen: usan su cosmovisión propia, un modo particular de ver las cosas, una
especie de Gestalt de su modo de ver el mundo. Y para Kuhn esto es lo que imposibilita el
diálogo y búsqueda de elementos comunes que permitan encontrar salida a los momentos de
conflictos, como el momento de colisión entre el evolucionismo de Darwin y la visión
creacionista, etc.: modos de entender la naturaleza de la realidad.

Divergencias de entendimiento de la naturaleza respecto de las diversas formas de


cosmovisión

Las crisis se producen cuando se genera una sensación de insatisfacción al acumular anomalías
en un campo científico. Las crisis también son de distintas magnitudes, pues hay crisis que se
guarden ‘en el armario’ y crisis más potentes que obliguen a formar paradigmas explicativos
alternativos, y es en este momento cuando se da un momento de revolución científica donde
los paradigmas compiten entre sí mediante las armas de la política, la religión, etc., pues no
existe un lenguaje teórico y observacional objetivo, de árbitro, que determine cuándo un
paradigma es verdadero y otro falso (inconmensurabilidad) mediante la comparación, pues
cada paradigma posee un punto de vista diferente respecto del modo entender la naturaleza.

Si no es posible la discusión racional y la comparación, se lleva a cabo el paso generacional de


la tradición a la novedad, pues la novedad viene dada generalmente por los jóvenes con
nuevas ideas del nuevo paradigma: ‘los viejos se jubilan, dejan el departamento científico y
dejan paso a los jóvenes que irrumpen con los nuevos paradigmas’. (ejemplo (ojo ensayo, y
tomar en consideración con esto el libro de Foucault, El nacimiento de la clínica): cambio
paradigmático en la medicina del siglo XIX del tránsito medicina anatomopatologica, basada en
la anatomía patológica, a la medicina etiológica, donde se pasan a considerar las agresiones
por organismos patológicos externos y no la sintomatología, lo cual cambia: la clínica, la
dermatología, etc. pues buscan dentro y no fuera, y conlleva ambios de tratamientos, etc., y
esto es lo que ocurre con Semmelweiss, es decir, cambio de Gestalt, de cosmovisión).

Lakatos y Feyerabend pretender leer a Kuhn con las lentes de Popper, rebajando el peligro que
significaba para el campo científico en aquella época.

La visión de la incomunicación que existe en la época de crisis revolucionaria amenaza la visión


de la ciencia como progreso, y esto se debe al déficit, muchas veces, de los aparatos:
telescopios, microscopios, etc. Cuando se habla de que la ciencia cambia en el tiempo se
refiere a las teorías o paradigmas que surgen y se suceden, pero también los datos
determinados por nuevas técnicas, y que no tiene por qué darse en los momentos de crisis. Si
no hay un alineamiento entre esos momentos, no puede darse un cambio radical de los
paradigmas, ya que hay crisis de paradigmas con mismos aparatos, por lo que hay cierta
linealidad.

Kuhn dice que hay discontinuidad epistémica en el cambio científico, pues hay revoluciones y
se comienzan con otras cosas después de ello; a pesar de ello, hay avance, a pesar de rechazar
la idea acumulativa: prestando atención al punto de salida, no de llegada. No se sabe hacia
dónde nos lleva el avance de la física, pero sí el momento actual, que es muy complejo. Se
sabe que desde el momento de partida ha habido un momento de avance, aunque no se sepa
el futuro, ya que no se sabe hacia dónde evoluciona, sino desde dónde.

Inconmensurabilidad basada en distintas cosmovisiones: Kuhn dice que el mundo es, el mundo
es el que es, y no cambia, pero es susceptible de ser clasificado por el científico que crea su
propio mundo, cosmovisión. Lo que cambia es el mundo de las clases de las cosas, el mundo
de las interpretaciones, las clasificaciones. Después de las revoluciones, el científico está en un
mundo diferente.

También podría gustarte