Está en la página 1de 15

TEMA 9: LEYES, TEORÍAS Y MODELOS CIENTÍFICOS.

1. Las leyes de la ciencia


1.1 Las leyes como condicionales universales
- Leyes, casos e hipótesis: las leyes causales y la predicción.
- Condiciones universal, necesidad y enunciados nomológicos.
1.2 La necesidad de las leyes
- Necesidad lógica (Ewing). Problema: sus negaciones no son contradictorias.
- Necesidad física. El problema de la inducción y el principio de verificación.
Críticas: Hume, Hempel (grados de confirmación), Goodman (opciones
atrincheradas), Popper (falsación), nueva filosofía de la ciencia (las leyes
dependen del contexto en que surgen)
- Visiones sobre las leyes científicas: realistas, nominalistas y conceptualista
1.3 El papel de las leyes.
- Positivismo lógico: las leyes como universales irrestrictos para deducir
enunciados observacionales. Problema: confirmación. A) Solución de Schlick:
las leyes como reglas de formación y transformación de proposiciones. B)
Solución de Carnap: distinción entre leyes empíricas y leyes teóricas. C)
Solución de Popper: las leyes como prohibiciones.
1.4 Las leyes y la causalidad
- La caída de la noción de causa en el positivismo: Hempel, Schlick y Popper
- La nueva filosofía de la ciencia: La carga teórica de la asignación de causas y la
incompatibilidad con el marco cuántico (Hanson).
2. Las teorías científicas
2.1 El problema de las reglas de correspondencia
- La diferencia entre las leyes y las teorías.
- Las reglas de correspondencia: cómo conectar teoría y datos observacionales
(Feigl)
- Estatus de las teorías: realismo, instrumentalismo y descriptivismo
2.2 El cambio en la nueva filosofía de la ciencia
- Popper: falsacionismo y verosimilitud
- Kuhn: las teorías dentro de paradigmas (ciencia normal y revolucionaria)
- Lakatos: los programas de investigación científicas
2.3 El problema de la incomensurabilidad.
- Aportaciones de Kuhn y Feyerabend. La traducibilidad.
3. Los modelos científicos
- Modelo objeto (analogía), modelo teórico (ontología)
- Cajas negras, cajas grises y cajas translúcidas.
- Modelos formales y modelos empíricos.
3.1 Los modelos en la nueva filosofía de la ciencia
- Los modelos como “rutas hacia lo sorprendente” (Hanson) y como compromisos
ontológicos (Kuhn)
4. Contexto de justificación y contexto de descubrimiento
4.1 La lógica del descubrimiento desde La concepción heredada
- La epistemología como reconstrucción lógica de las teorías
- Canon universal de racionalidad: a) inducción b) falsación
4.2 La lógica del descubrimiento en la nueva filosofía de la ciencia
- Hanson y la carga teórica de la observación y el lenguaje observacional: los
patrones del descubrimiento
- La posición dialéctica: estudio del contexto y racionalidad dialéctica.

TEMA 9: LA NATURALEZA DE LAS LEYES, LAS TEORÍAS Y LOS


MODELOS CIENTÍFICOS. CONTEXTO DE JUSTIFICACIÓN Y DE
DESCUBRIMIENTO.
0. Introducción
En la actualidad existe una concepción generaliza de la ciencia como un conjunto de
disciplinas que, a partir de determinados métodos, relacionados con la observación
empírica y el uso de un lenguaje específico con cierto grado de formalización y
matematización, dan explicaciones sobre los fenómenos que acaecen, posibilitando un
conocimiento riguroso de la naturaleza que debe permitir la predicción de nuevos
fenómenos. Las explicaciones de las que hablamos se presentan en las disciplinas en forma
de leyes científicas, articuladas entre sí formando teorías y respondiendo a modelos que
facilitan su comprensión. Todos estos términos son comprendidos de diferentes maneras
por los distintos científicos y filósofos de la ciencia.
1. Las leyes de la ciencia
1.1 Las leyes como condicionales universales
La naturaleza no explica las leyes mediante las que funciona, es el hombre el que lo
hace, porque, si la naturaleza pone de manifiesto leyes de funcionamiento, lo hace en casos
particulares, y un caso no es una ley, ni tampoco lo es una colección de casos: la
observación de casos no revela las leyes. Lo que cabe decir es que la relación entre estos
casos, cuando es invariante, pone de manifiesto una ley, pero al conocimiento de esta
invarianza se llega sólo mediante una actividad intelectual que entraña generalizaciones, y
éstas implican la elaboración de hipótesis o enunciados universales legaliformes. Las
hipótesis son saltos conceptuales que van más allá de lo que nos muestra naturaleza. Una
hipótesis es la conjetura de que el orden descubierto en las observaciones muestra de hecho
una ley de la naturaleza.
Como indica Russell: “el poder de la ciencia se debe al descubrimiento de leyes
causales”. Una ley causal es como un principio general a partir del cual, con suficientes
datos, es posible inferir otra cosa. La inferencia puede ser solo probable, pero la
probabilidad debe ser mayor a la mitad para que el principio sea considerado ley. Para
permitir la inferencia y la predicción de fenómenos las leyes deben ser universales, o sea,
deben referirse a todos los individuos pertenecientes a las clases citados en ella. Una
condición universal expresa que todos los individuos que satisfagan las condiciones
descritas en la cláusula antecedente satisfacen también las condiciones descritas en la
consecuente. Pero esto puede ser únicamente una universalidad accidental, y a una ley
científica se le pide más que eso. La conexión que expresa una ley científica tiene que
tener algún elemento de necesidad. De ahí que los enunciados de las leyes científicas sean
nomológicas. Otra característica que diferencia a los condicionales universales
nomológico es que una ley puede servir de base de una explicación científica, mientras que
un condicional universal accidental no.
1.2 La necesidad de las leyes
Ahora bien, podríamos preguntarnos, ¿en qué sentido son necesarios los universales
nomológicos? Algunos afirman su necesidad lógica (Ewing), pero esto trae algunos
problemas, pues ninguno de estos tipos de enunciados puede ser considerado como
lógicamente necesario en la medida en que sus negaciones formales no son
contradictorias. Frente a la necesidad lógica, podemos colocar a la necesidad de tipo
natural o físico, la cual puede verse más o menos expuesta desde el realismo aristotélico
hasta el neopositivismo. El problema es determinar de qué forma se traspasa esa necesidad
de la realidad a la ley científica, o sea, hay que plantearse cómo podemos obtener leyes
científicas que reflejen efectivamente regularidades necesarias, y no simples enuncias que
reflejen coincidencias accidentales. La respuesta clásica a este problema es la inducción.
Básicamente se considera que, dado un conjunto suficientemente amplio de observaciones
de un mismo tipo, puede extraerse de las mismas una generalización que tiene carácter
legal. Pero la inducción siempre ha tenido ciertos problemas, pues se produce siempre un
salto desde un número limitado de observaciones reales a uno mucho mayor –a veces
infinito- de casos posibles a los que la generalización afecta. Y es que es imposible realizar
un número suficientemente grande de observaciones cuando se trata de fundamentar una
ley. Los positivistas lógicos plantearon el principio de verificación. Según estos, lo
importante no es cómo se llega a las leyes, sino que éstas se justifiquen adecuadamente.
Una vez formulada una ley científica se puede cuando es posible deducir de los mismos
enunciados que expresen situaciones observables y contrastar éstos con la realidad. Ahora
bien, se cae en el mismo problema que antes pues no sabemos cuántas contrastaciones
hemos de realizar para verificar una ley. De estos problemas, han surgido críticas:
David Hume niega la realidad de las leyes científica partiendo del siguiente postulado:
no podemos aceptar como verdadero nada que no esté fundado en nuestras percepciones.
En consecuencia, como solo vemos la contigüidad entre dos sucesos pero no la causalidad,
no estará justificado hablar científicamente de leyes necesarias o conexiones causales. La
necesidad de las leyes científicas, la idea de causalidad expresada en ellas y el principio de
inducción se basan en el hábito, a partir del cual surge en nosotros la creencia de la
necesidad legal y causal de los acontecimientos. También los filósofos del empirismo
lógico plantearon, ante la imposibilidad de una verificación empírica completa de los
condiciones universales nomológicos, la posibilidad de confirmar los mismos
distinguiendo grados de confirmación. Este planteamiento es el que desarrolla Hempel
que intentó desarrollar una lógica de la confirmación que permitiera asegurar el grado de
seguridad que podemos esperar de las leyes científicas. Desde esta perspectiva, las leyes
científicas indicarían probabilidad, pero no necesidad absoluta. Sin embargo, esta
concepción no soluciona el problema, ya que la probabilidad se define como el número de
casos favorables dividido entre el de casos posibles, y los casos posibles de una ley
científica son infinitos, mientras que los observables son finitos. De esta manera, la
probabilidad calculada de cualquier enunciado será cero.
Mención aparte merece la renovación que en este problema supone Popper, pues su
crítica a la inducción implica además una nueva visión de la ciencia. El planteamiento de
Popper supone una crítica tanto al concepto de necesidad lógica de las leyes científicas
como a los conceptos empiristas en todas sus versiones. Para Popper el desarrollo de la
ciencia no se produce a partir de la observación de fenómenos sino de la elaboración de
conjeturas. Popper, aun aceptando la mayor parte de las críticas que se hacen al concepto
de inducción, no acepta las conclusiones que se derivan de ellas. De esta manera plantea
que las leyes científicas son intentos de explicación del mundo que desarrollamos
conjeturalmente, y que intentamos refutar continuadamente para asegurarnos su validez.
Plantea, además, que el modelo de racionalidad científica es el método de ensayo y error,
evidentemente complicado y perfeccionado, para concluir que, “todas las leyes y todas la
teorías son esencialmente tentativas, conjeturales o hipotéticas, aun cuando tengamos
sensación que no podemos seguir dudando de ellas”. Posteriormente a Popper han surgido
otros desarrollos de la filosofía de la ciencia que dan a las leyes científicas un valor
semejante, bien como enunciados considerados verdaderos por la comunidad científica,
bien como intentos de explicación, bien como “ficciones o aproximaciones útiles”. Así, por
ejemplo, Hanson considera la necesidad de las leyes científicas como relativa al marco
teórico en que surgen.

Para finalizar este apartado podemos considerar que existen tres tipos de visiones sobre
la ley científica, según la clase de necesidad que se le atribuya. En primer lugar hay una
visión realista, que supone que las leyes existen en la realidad, o sea, que las leyes
científicas se corresponden con una estructura formal de la naturaleza. En segunda lugar
hay una visión nominalista, que niega la existencia en absoluto de estas leyes. La
descripción abreviada conveniente o económica que tales enunciados legaliformes dan es
la única función que éstos desempeñan y, de este modo, el nominalista tiende a apoyar un
enfoque instrumentalista de las leyes y las teorías, considerándolas sencillamente como
adecuadas de ocuparse de la naturaleza, y no verdaderas ni falsas. En tercer lugar está la
postura conceptualista que considera que la ley representa los procesos naturales en la
forma en que éstos son conocidos por una inteligencia racional siendo, por tanto, la forma
en que las leyes de la naturaleza pasan a ser objetos de la razón. Las leyes de la naturaleza
se realizan en esta actividad conceptual, pero son verdaderas (o falsas) porque representan
(o no representan) adecuadamente las relaciones legaliformes de la naturaleza.

1.3 El papel de las leyes

Las distintas visiones sobre el papel de las leyes dependen, en último término, de las
concepciones generales que se mantienen sobre lo que sea estrictamente una ley, de los
criterios para su comprobación y del tipo de necesidad que poseen. La visión clásica del
positivismo lógico identifica las leyes con enunciados universales irrestrictos, es decir,
enunciados cuyo alcance no está limitado o restringido a objetos que caen dentro de una
región espacial fija o un periodo de tiempo particular. A esta condición añaden la de que
dichas leyes han de poder servir para deducir enunciados observacionales que nos
permitan explicar y predecir fenómenos reales. Ahora bien, muchos enunciados de este
tipo no permiten la deducción de enunciados con contenido observacional. Además, ya
desde sus inicios el positivismo lógico se dio cuenta de que si las leyes científicas son
enunciados universales con contenido empírico no pueden ser nunca totalmente
verificadas. Para solucionar este problema Schlick propuso considerar las leyes
científicas no como proposiciones sino como reglas de formación y transformación de
proposiciones. Así salvaba su papel de base de la deducción de enunciados
observacionales al mismo tiempo que eludía el problema de la verificabilidad, acercándose
a una postura instrumentalista. Sin embargo, este instrumentalismo no satisfizo a muchos
de los teóricos de la ciencia del positivismo, de ahí que algunos autores, como Carnap,
empezarán a hacer distinciones entre leyes empíricas y leyes teóricas. Una ley empírica es
aquella que puede ser confirmada directamente por medio de enunciados observacionales.
La construcción de una ley empírica se realizaría a partir de la generalización de una serie
de regularidades observadas o medidas en la naturaleza. El papel que cumplirán estas
leyes, en consecuencia, será la explicación y predicción de estas regularidades. Por otro
lado, las leyes teóricas son leyes que se refieren a inobservables, procesos a los que, por
un motivo u otro, no es posible acceder empíricamente. De esta forma, las leyes teóricas se
relacionan con las empíricas de un modo análogo al modo en que las empíricas lo hacen
con los hechos. Es decir, ayudan a explicar leyes empíricas ya formuladas y permiten
derivan nuevas leyes empíricas. Así pues, el papel de las leyes teóricas es la organización
de las empíricas en una teoría. Ahora bien, las leyes teóricas no son simples
generalizaciones de las empíricas. Para obtener na ley teórica es preciso crear una serie de
conceptos referidos a lo inobservable (los conceptos teóricos) y articularlos
sistemáticamente. También, Popper propuso una nueva definición del papel de las leyes
científica que mantiene, según él, la existencia de contenido empírico en las mismas. Las
leyes, actúan como prohibiciones, vetos, que indican qué tipos de fenómenos o
conexiones entre los mismos no pueden darse si éstas son verdaderas. Así pues, Popper
acaba con el problema de la verificación sustituyéndolo por el de la demarcación. Una ley
es científica cuando especifica claramente qué hechos no pueden darse si es verdadera.
Esto, no obstante, abre un nuevo campo de problemas, como qué ley debe ser desechada
cuando se producen hechos que contradicen un conjunto de leyes simultáneamente o si
deben usarse hipótesis auxiliares para adaptar las leyes contradichas.

1.4 Las leyes y la causalidad

Los positivistas y empiristas lógicos aceptaban la idea de que las leyes científicas
expresan relaciones de causalidad. Sin embargo, ya Gomperz en 1907 había propuesto
usar el principio de causalidad como una regla que debe guiar el quehacer de los
científicos más que como un principio o ley natural. De esta forma, el principio de
causalidad indicaría la necesidad de no cejar en la búsqueda de leyes causales universales.
Es más, dentro del positivismo lógico, ya Schlick transformó su concepción del principio
de causa como ley natural empíricamente comprobable en otra que lo equipara a las leyes
teóricas, quedando éste como una regla de formación de proposiciones. Otra importante
revisión fue la que indica que las leyes científicas expresan probabilidades (Hempel). A
partir de estas revisiones Popper revisó el concepto tradicional de causa. En primer lugar,
plantea una definición del principio de causalidad como regla o desiderátum científico.
Así pues, hemos de buscar leyes causales, formularlas adecuadamente para ser
contrastadas con la experiencia, e intentar falsarlas para decidir si las mantenemos
temporalmente como verdaderas o las abandonamos como falsas.

La nueva filosofía de la ciencia, por su parte, va más allá en su crítica al concepto de


ley causal. La pregunta pasa de investigar qué tipo de estructura tiene la ley o cuánta es su
seguridad, a plantear qué se entiende por causalidad en cada contexto científico
concreto. Así Hanson considera que la idea de la causalidad sufrió una transformación
radical en la Revolución científica, por la atención especial que se prestó a la causalidad
eficiente. A partir de ahí los otros tipos de causas fueron eludidos en la discusión científica.
Esto tuvo como resultado la concepción de una ciencia como creadora de cadenas causales
eficientes en el laboratorio que reprodujera las cadenas causales de los fenómenos
naturales. La cadena causal articulada por los científicos no hace más que explicar la
cadena causal de los fenómenos. Sin embargo, este tipo de explicación no es “neutral”,
cuando se pregunta por la causa de algo se hace una demanda de comprensión, o un ruego
de que el acontecimiento se haga comprensible. Las explicaciones causales no surgen de la
nada, sino que nacen en un contexto teórico determinado, por lo tanto, como ya
argumentara respecto de las observaciones, Hanson afirma que “la asignación de una
causas es una empresa cargada de teoría”. Así pues, el sentido exacto de causa y la
explicación causal concreta que se asigne al acontecimiento investigado, dependerán de las
posturas teóricas que los investigadores, que cargaran con “protoexplicaciones” la
descripción de los fenómenos. Además, Hanson recurre a la consideración de los
desarrollos actuales de la ciencia para terminar de quitar sentido a la expresión ley causal,
al considerar que la incompatibilidad con el discurso causal con el marco conceptual de la
mecánica cuántica.

2. Las teorías científicas

2.1 El problema de las reglas de correspondencia

El objeto de la ciencia es penetrar más allá de lo inmediato y lo visible, establecer


relaciones para colocar los fenómenos observables en un nuevo y más amplio contexto,
pues sólo una pequeña parte del mundo físico se revela ante nosotros de modo directo. La
suprema función de una teoría es ayudarnos a captar la imagen completa de este mundo
físico. En su nivel más simple una teoría nos ayuda a interpretar lo desconocido en
términos de lo ya conocido. Es un esquema conceptual que inventamos o postulamos para
explicarnos a nosotros mismos, y a los otros, los fenómenos que observamos, y las
relaciones que existen entre ellos y reunir en una estructura única, conceptos, leyes,
principios, hipótesis, y observaciones. Así pues, podemos decir que se entiende que una
teoría es un conjunto organizado de enunciados referidos a algún ámbito del conocimiento.
En cualquier caso, a veces se hace una distinción entre teorías y leyes experimentales, la
cual se ha fundamentado normalmente en la creencia de que las segundas, y no las
primeras, formulan relaciones entre características observables o experimentalmente
determinables. No obstante, esta distinción es confusa. En primer lugar porque sería un
error pretender que las leyes experimentales afirmen relaciones entre datos obtenidos de
manera directa a través de los sentidos. Las leyes experimentales no emplean datos
sensoriales de hecho, ya que emplean nociones que se basan en suposiciones, definiciones
e interpretaciones que transcienden lo dado en los sentidos. Incluso es frecuente que estas
nociones y las relaciones entre las mismas estén expresadas en un lenguaje teórico. Por
otro lado, aunque los ejemplos de teóricas versan sobre inobservables es posible
determinar en los mismos, características observables. De ahí que muchos han aventurado
que la diferencia entre las leyes experimentales y las teorías es solo una cuestión de grado
en el uso de las inferencias. En todo caso existen diferentes reseñables entre las leyes
experimentales y las teorías, por ejemplo, el hecho de que las leyes experimentales se
formulan mediante un solo enunciado, mientras que una teoría es un conjunto organizado
de enunciados. Esto lleva también a otra diferencia importante: el ámbito y poder
explicativo de las teorías es considerablemente más vasto que el de las leyes
experimentales. De hecho, una de las funciones una teoría es poner de manifiesto
conexiones sistemáticas entre leyes experimentales concernientes a fenómenos dispares
cualitativamente, y otra es suministrar formulaciones de nuevas leyes experimentales o
sugerencias para las mismas.

Hay una problemática importante en relación a las teorías. Una teoría debe indicar en
qué forma se relacionan sus términos con ideas que aparecen en las leyes experimentales y
los informes observacionales, es decir, tiene que vincularse de algún modo con hechos
observables. Pero la definición implícita de los términos teóricos es de tipo formal,
abstracta, por lo que no puede cumplir esta función. El problema es, entonces, como
relacionar estos conceptos teóricos con conceptos o términos referidos directamente a la
experiencia, así pues versa sobre las reglas que vinculan los conceptos teóricos con el
material observacional. En este sentido ha habido muchas soluciones propuestas: las
definiciones explícitas de Russell, las definiciones operacionales de Bridgman, las
oraciones reductivas de Carnap o las reglas de correspondencia de Campbell. En
cualquier caso el problema es señalar cómo conectar teoría y observación. Especialmente
clarificadora sobre este problema es la revisión que hace Feigl de las tesis de Campbell. La
tesis original de Campbell presentando una característica llamativa: no pretendía definir
todos los términos teóricos directamente por medio de reglas de correspondencia. Los
términos teóricos tienen un significado formal por su lugar en la teoría que los conecta a
otros términos teóricos. En consecuencia, solo es necesario definir algunos términos
teóricos empíricamente para dotar de contenido empírico a toda teoría. Herbert Feigl
precisó esta concepción de las reglas de correspondencia, así la teoría se compondría de
una serie de conceptos primitivos que están conectados entre sí por postulados. Los
conceptos primitivos obtienen algún significado formal por medio de la definición
implícita en su participación en el sistema de postulados. Existen otros conceptos definidos
a partir de los conceptos primitivos, algunos de los cuales han de estar conectados con
conceptos empíricos por medio de reglas de correspondencia.

El hecho de que no todos los términos de una teoría tengan traducción directa en
conceptos experimentales ha suscitado uno de los debates epistemológicos más llamativos:
la determinación de cuál es el estatus cognoscitivo de las teorías científicas, y de si son
suposiciones cuya verdad o falsedad pueda investigarse. En este sentido pueden
distinguirse tres posturas bien definidas. La posición históricamente más antigua es la
realista que indica que una teoría es literalmente verdadera o falsa. No obstante, los
pensadores que mantienen esta postura no están de acuerdo respecto a qué puede
considerarse real físicamente. La segunda opción es el instrumentalismo, que mantiene
que las teorías son instrumentos lógicos para organizar nuestra experiencia y poner orden
en las leyes experimentales. Aunque unas teorías son, a estos efectos, mejores que otras, no
podemos hablar estrictamente de verdad o falsedad de las mismas. Así pues, las teorías
funcionarían más que como premisas de las explicaciones científicas, como reglas o
principios de análisis inferencial. Entre los autores que defienden esta perspectiva están
Peirce, Ryle o Toulmin. La tercera posición mantiene que una teoría es una formulación
resumida, aunque elíptica, de relaciones de dependencia entre sucesos y propiedades
observables. Llamamos a esta postura descriptivismo porque mantiene que, aunque
tomadas en su valor literal las teorías no pueden clasificarse como verdaderas o falsas,
pueden caracterizarse de tal modo en la medida en que son traducibles a enunciados acerca
de observables, es decir, en la medida en que describen, de modo simple y económico, la
sucesión y concomitancia de los fenómenos. La concepción descriptivista fue defendida
por Hume o Stuart Mill, y en el último siglo por Mach o Russell.

2.2 El cambio en la nueva concepción de las teorías científicas.

El problema básico del estatus cognoscitivo de las teorías científicas y la determinación


de su verdad o falsedad se ha transformado en la nueva filosofía de la ciencia. El primer
autor que centró su reflexión en este cambio teórico es Popper, poniendo frente a los
neopositivistas. Para Popper lo importante para la aceptación de una teoría, no es una
verificación absoluta de sus consecuencias empíricas, ya que esta es imposible. Lo
importante, por tanto, es hallar un criterio de demarcación entre lo que podemos
considerar una teoría científica y lo que no. Este criterio más que centrarse en la
comprobación de que la teoría tiene una correspondencia empírica se centra en la
posibilidad de someter la teoría a contrastación empírica. Popper, por tanto, no se detiene
tanto en el análisis de cómo la teoría refleja la realidad sino que insiste en que debe poder
contrastarse con ella. Así pues, la adecuación del conocimiento con la realidad no es más
que un criterio regulador, un objetivo último que no debemos dejar de intentar alcanzar. El
primer paso para la aceptación de una teoría no es preguntarnos por su contenido empírico,
sino por la posibilidad de falsarla. Si una teoría expresa claramente qué condiciones
observables la harían falsa, es falsable, y podemos aceptarla como científica. Si no lo hace,
no es falsable y queda en el estatus de pseudociencia. Esto es lo que se conoce como
falsacionismo. Para decidirse entre dos teorías falsables Popper desarrolla la noción de
verosimilitud, es decir, de acercamiento a la verdad. La verosimilitud es la diferencia entre
el contenido de verdad de una teoría y su contenido de falsedad. El contenido de verdad de
una teoría sería la clase de sus consecuencias lógicas corroborables empíricamente. El
contenido de falsedad la clases de las consecuencias lógicas de una teoría contradichas por
la investigación empírica. La preferencia de una teoría sobre otra se justificaría en el hecho
de que el contenido de verdad de la primera fuera mayor que el de la segundo y el
contenido de falsedad de la segunda fuera mayor o igual que el de la primera. Ahora bien,
el falsacionismo no profundiza suficientemente en la importancia de las decisiones de la
comunidad científica para la aceptación o el rechazo de las teorías. Además, ante las
contrastaciones negativas de una teoría científica, los científicos elaboran hipótesis
subsidiarias a la misma que acoplan las contradicciones de la teoría con los datos
empíricos.

En las ciencias maduras, Kuhn distingue dos modos de "hacer ciencia" que, además, se
suceden históricamente: normal y revolucionario. Los períodos de ciencia normal se
caracterizan por el hecho de que la comunidad de científicos que trabaja en un determinado
ámbito comparten ciertos presupuestos de muy diverso tipo (teóricos, experimentales,
metodológicos y otros) que son los que les permiten ir haciendo ciencia. Estos elementos
compartidos se encuentran, implícitamente unos, explícitamente otros y el futuro científico
los adquiere. En ciencia normal la tarea casi exclusiva consiste en lo que Kuhn llama
trabajo de resolución de enigmas o rompecabezas. Esta tarea consiste en ir ampliando y
perfeccionando la aplicación del aparato teórico-conceptual a la experiencia. Para llevar a
cabo este trabajo es esencial que el científico no cuestiones los supuestos compartidos,
pues son precisamente ellos los que guían su investigación y les permiten abrigar
esperanzas de éxito. La ciencia normal no discute sobre fundamentos ni "tiende hacia
novedades fácticas o teóricas”. Sin embargo, a veces se sucede la presencia de anomalías,
experiencias que "no encajan" en el aparato teórico, que aunque a menudo se resuelven con
éxito a veces se muestran recalcitrantes. Si ello ocurre quizá algunos miembros de la
comunidad no encuentren una solución o aunque la encuentren, consideren excesivas las
modificaciones a que ésta obliga. Cuando este sentimiento se generaliza en la comunidad
científica sobreviene una crisis: se comienzan a cuestionar los supuestos que guiaban la
investigación, se pierde la confianza en ellos y se empieza a revisar y a discutir los
fundamentos. En estos períodos de crisis se suceden propuestas alternativas hasta que en
torno a alguna de ellas se comienza a organizar un nuevo cuerpo de supuestos desde los
que mirar las viejas cosas de un modo nuevo. Con el tiempo, y si los nuevos supuestos
permiten abrigar esperanzas de éxito, acaban suplantando a los antiguos. Entonces se
consuma lo que Kuhn llama una revolución científica, tras la cual se inicia un nuevo
período de ciencia normal. Las teorías científicas, por tanto, se mueven siempre dentro de
paradigmas. Un paradigma es el conjunto de supuestos compartidos por una comunidad
que guían su investigación normal. La ciencia normal es ciencia-basada-en-(un)-
paradigma y la ciencia extraordinaria o revolucionaria es el paso de un paradigma a otro.
Los diversos usos que Kunh hacía en su primera obra del término paradigma, acaba
reagrupándolos en dos sentidos principales. El primero es global y comprende todos los
compromisos compartidos por un grupo científico, la completa constelación de creencias,
valores, técnicas y demás elementos compartidos por los miembros de una comunidad
científica dada. El segundo denota un componente específico de lo anterior, un tipo
especialmente importante de tales compromisos. El paradigma, por tanto, funciona como
matriz disciplinar y como modelo. El paso de un período normal a otro no viene obligado
por necesidad lógica. Se trata de un desplazamiento de confianza y, en ausencia de un
nuevo programa, el antiguo puede mantenerse largo tiempo aunque haya entrado en crisis

Por otro lado, Lakatos partiendo de los planteamientos popperianos, pero superándolos,
critica esta postura de Kuhn, pues ésta lleva a la imposibilidad de establecer un criterio de
demarcación y objetividad científica. La ingenuidad del falsacionismo popperiano consiste,
según Lakatos, en el supuesto de que una teoría queda falsada por un enunciado básico que
entre en conflicto con ella. Este supuesto ni siquiera encuentra justificación en la filosofía
de Popper, porque éste admite que un enunciado básico nunca puede considerarse probado
por la experiencia y es posible. Además, la historia de la ciencia nos enseña que ningún
experimento basta para falsar una teoría; para ello es indispensable que haya surgido otra
teoría alternativa mejor que la anterior. Así más que de una teoría aislada habría que hablar
de una sucesión de teorías T1, T2, T3, ¼, cuyos miembros, a partir de T1, resultan de la
introducción de hipótesis y cláusulas auxiliares. Estas series dinámicas de teorías, a las que
Lakatos llama programas de investigación científicos, constituyen las unidades básicas de
su metodología. En cualquier momento de la evolución de un programa de investigación es
posible distinguir en su estructura un centro firme y un cinturón protector. El centro firme
está formado por un reducido número de enunciados teóricos de alto nivel (postulados o
principios de una teoría). Y al cinturón protector pertenecen, junto a las hipótesis auxiliares
que permiten la continuidad del programa, teorías de nivel inferior, leyes particulares,
estipulaciones acerca de la aplicación de los principios y las leyes, etc. Sin embargo, los
aspectos estructurales de un programa son insuficientes para caracterizarlo plenamente,
dado que se trata de una entidad dinámica. De ahí que conceda una especial importancia a
su heurística, es decir, a las normas metodológicas, explícitas o implícitas, que los
científicos comparten y que explican la evolución de un programa. Parte de estas normas
tienen por objeto mantener al centro firme lejos del alcance de toda falsación (heurística
negativa). Existe también en todo programa una heurística positiva, que orienta al
científico respecto a lo que debe hacer. Se trata de una serie de normas referidas no sólo al
modo de introducir o modificar hipótesis auxiliares sino también a la forma de mejorar el
programa, reformulando el centro firme, desarrollando teorías complementarias, técnicas
matemáticas y experimentales, etc. Pero no todas las hipótesis auxiliares son igualmente
aceptables y, por tanto, un programa puede evolucionar de forma incorrecta. Un programa
es progresivo cuando cada nueva teoría en la serie T 1, T2, T3, ¼, incrementa su contenido,
es decir, predice hechos nuevos. Un programa es regresivo cuando no aporta nuevos
descubrimientos. En este contexto introduce Lakatos su criterio de demarcación, según el
cual una teoría sólo puede ser considerada científic si, al menos, aventura nuevas
predicciones. Es explicable, no obstante, que un programa de investigación que empieza
siendo progresivo deje de serlo más adelante. De hecho todo programa acaba siendo, tarde
o temprano, regresivo. Sin embargo, el carácter regresivo de un programa no obliga a los
científicos a abandonarlo, sino que seguirá vigente hasta que surja un programa alternativo
mejor. No obstante, es posible que un programa, considerado regresivo durante una etapa,
deje de serlo cuando algunas de sus predicciones obtienen una confirmación de la que
antes carecían.

2.4 El problema de la inconmensurabilidad entre teorías.


Otro problema fundamental para la nueva filosofía de la ciencia es el de la
incomensurabilidad. Esta tesis kuhniana indica que un cambio de paradigma lleva consigo
cambios cruciales de significado -cambios en la red conceptual a través de la cual los
científicos estructuran su campo de estudio- que se refieren no sólo a ciertas variaciones en
los términos teóricos, sino también en los términos de observación. Los paradigmas
"cargan teóricamente" de observación e impiden contar con un lenguaje completamente
neutral en el cual se puedan expresar todas las consecuencias contrastables de dos teorías
rivales. De ahí concluye que los paradigmas rivales son inconmensurables. Por tanto, la
inconmensurabilidad es una relación compleja entre paradigmas sucesivos, que abarca las
diferencias en las normas de procedimiento y evaluación (diferencias metodológicas), en
las estructuras conceptuales (diferencias semánticas), así como en la percepción del mundo
y en los supuestos ontológicos. Estas diferencias impiden que quienes entran en debate
partan de las mismas premisas -y establezcan una comunicación completa-, por tanto no se
puede probar, con base en una argumentación que todos acepten, que una teoría es mejor
que otra. No se puede apelar a una experiencia (observación) neutral, ni a criterios de
evaluación que sean universalmente aceptables. No existe una instancia de evaluación por
encima de los paradigmas a la cual poder apelar en los períodos revolucionarios. La
existencia de una instancia semejante significaría que, a fin de cuentas, no hay más que una
única manera correcta de hacer ciencia, como han supuesto los filósofos que defienden la
concepción clásica de la racionalidad científica. Esta misma opinión la ha defendido
también Feyerabend.Sin embargo, en los años setenta Kuhn restringe la
inconmensurabilidad a la divergencia semántica entre teorías: dos teorías son
inconmensurables cuando están articuladas en lenguajes que no son mutuamente
traducibles. De esta manera, la inconmensurabilidad queda ligada al fracaso de traducción
completa entre teorías, fracaso que repercute en el tipo de comparación que se puede
establecer entre ellas. Este cambio en los esquemas clasificatorios supone un cambio en las
categorías taxonómicas básicas. Un cambio de taxonomía tiene siempre un carácter holista,
es decir, nunca se da como una modificación puntual en categorías aisladas. Ahora bien, el
cambio en la estructura taxonómica, si bien tiene un crucial efecto holista, sólo se refleja
en un subconjunto de términos básicos. Es aquí cuando Kuhn pone en claro el carácter
local de la inconmensurabilidad, haciendo explícito el supuesto de una considerable base
semántica común entre las teorías rivales. Esta base común permitiría que al menos una
parte de su contenido se comparara directamente: “La afirmación de que dos teorías son
inconmensurables es más modesta de lo que la mayor parte de sus críticos ha supuesto”.

3 Los modelos científicos

Un modelo consiste en una analogía de la teoría con términos conceptuales o intuibles


más o menos familiares. El papel de los modelos científicos, según esto, es hacer familiar
lo que resulta extraño. Para cumplir su papel, los modelos harían corresponder los términos
y fenómenos descritos en la teoría de un modo abstracto con realidades cuyo
comportamiento podemos comprender intuitivamente. Así, por ejemplo, los planetas en
órbita en torno al Sol en el modelo atómico de Rutherford, nos permiten visualizar
mentalmente el comportamiento de los átomos. No obstante, a veces se ha hablado de un
modo vago de modelo como modo de explicación de la realidad, especialmente de la
realidad física. Así se habla por ejemplo de “modelo mecanicista”, en este sentido el
modelo trasciende las fronteras de la ciencia y entra en el campo de la ontología. De ahí
que podemos distinguir dos tipos de modelos. Cuando nos referimos a la esquematización
de una teoría que recoge sus propiedades de dicho sistema relevantes hablamos de modelo
objeto. Cuando nos referimos a una teoría que explica el comportamiento o las
propiedades de una parte de la realidad hablamos de modelo teórico. Los modelos
científicos pueden ser de diferentes tipos según los rasgos del sistema que representan y el
avance en la elaboración teórica de la disciplina científica que se trata. Mario Bunge
propone la siguiente clasificación:

- Cajas negras: estos modelos solo tienen en cuenta las variables de entradas y
salidas del sistema, sin tener en cuenta los estados internos del mismo. Son
llamadas cajas negras porque no puede verse su interior. Este modelo es, por
ejemplo, el que se puede encontrar en la investigación psicológica sobre el
aprendizaje bajo el paradigma conductista clásico: el modelo E-R (estímulo-
respuesta)
- Cajas grises: en este modelo además de las variables de entrada y salida del
sistema, se tienen en cuenta los estados internos del mismo. De esta forma las
cajas grises tienen más poder explicativo y proporcionan más información. Un
ejemplo puede encontrarse en las teorías del aprendizaje que tienen en cuenta
algún factor interno del sistema como es la motivación.
- Cajas translúcidas: estos modelos no solo tienen en cuenta las variables
internas del sistema, sino que intentan precisar cómo se articulan en un
mecanismo que sería la imagen del funcionamiento del sistema mismo. Un
ejemplo de esto serían las explicaciones neurofisiológicas de los procesos de
aprendizaje.

Evidentemente, los modelos preferidos por los científicos son las cajas translúcidas, por
su mayor poder explicativo, pero no siempre es posible su formulación. Por otro lado, en
las modelos en ciencias formales tiene un carácter semántico. Un modelo en este caso es
una interpretación de la teoría según la cual todos los enunciados resultan verdaderos. Pero
resultar verdadero aquí no es una cuestión empírica. Así pues, los términos que constituyen
la interpretación de la teoría en un modelo formal son teóricos, mientras que en una ciencia
empírica han de ser empíricos. Esto tiene como consecuencia que un modelo en sentido
formal puede hacer verdadero a un sistema teórico abstracto, pero esto no ocurre con un
modelo empírico. Además que los modelos empíricos, por su dependencia de la
experiencia, no permiten las mismas manipulaciones formales que los abstractos.

Por otro lado, la nueva filosofía de la ciencia ha hecho importantes aportaciones en


cuanto a los modelos como partes de una teoría. Hanson especialmente preocupado por el
funcionamiento del descubrimiento científico analiza los modelos desde este punto de
vista. Hanson parte de la diferencia entre los modelos y las teorías que presentan. Si un
modelo fuera exactamente igual a la teoría no aclararía nada sobre la misma. Hanson
reivindica el papel explicativo de los modelos. Los modelos pretender explicar de un modo
comprensible los enlaces entre las descripciones de una materia dada, de modo que se
superen las perplejidades que estas pueden levantar. De ahí que diga Hanson que son
“rutas hacia lo no sorprendente”. Por otra parte, Kuhn nos ayuda a resaltar una
característica más de los modelos científicos entendidos como analogías familiares de las
teorías. Los modelos, de esta forma, proporcionan las analogías preferidas, o incluso,
cuando se los sostiene a fondo, una ontología. Por una parte tienen un carácter heurístico:
el comportamiento del gas puede compararse a una colección de microscópicas bolas de
billar animadas de movimiento aleatorio. Por otra parte, los modelos son objetos de
compromisos metafísicos. Lo indica Kuhn: a) coherentemente con su visión del cambio
teórico que los modelos, como las teorías, se aceptan y abandonan por el acuerdo tácito de
las comunidades científicas, b) que los modelos científicos suponen compromisos
ontológicos o metafísicos. Así pues, la definición que dan los modelos tanto a las
observaciones como a las relaciones definidas en la teoría tienen consecuencias directas
sobre la imagen del mundo que puede derivarse de la misma. Lo que nos presenta un
modelo no es solo un modo mejor de comprender la teoría, sino también un modo de
comprender el mundo.

4 Contexto de descubrimiento y contexto de justificación.

4.1 La lógica del descubrimiento desde la Concepción heredada.

En Experience and Prediction, Hans Reichenbach propone distinguir entre la tarea de


la epistemología y la de la psicología. La última se ocupa de cómo tienen lugar los
procesos del pensar; la primera, "trata de construir los procesos del pensar del modo como
deberían ocurrir si hubieran de ser dispuestos en un sistema consistente. La epistemología
trata de una reconstrucción racional del pensamiento científico y "en cierto sentido es un
modo de pensar mejor que el que tiene efectivamente lugar". Para distinguir estas tareas,
Reichenbach propone dos expresiones: el contexto de descubrimiento y el contexto de
justificación. Sólo el contexto de justificación es de incumbencia del epistemólogo. El
análisis de la ciencia es una reconstrucción lógica de teorías científicas, o "una
reconstrucción racional del pensamiento". En esta reconstrucción no desempeñan, según
Reichenbach, ningún papel las consideraciones psicológicas. La idea central de
Reichenbach consistía en prescindir de los procesos científicos reales, tomando como
objeto de la filosofía de la ciencia una reconstrucción lógica de las teorías –usando el
término de Carnap-. Los filósofos no tienen por qué ocuparse de cómo se llega a producir
un descubrimiento científico. Para los defensores del empirismo lógico, todos estos
aspectos de la actividad científica no debían ser estudiados por los epistemólogos. Lo
esencial eran los resultados finales de la investigación científica: los hechos descubiertos,
las teorías elaboradas, los métodos lógicos utilizados y la justificación empírica de las
consecuencias y predicciones que se derivan de las teorías. De ahí que el contexto de
descubrimiento no fuera objeto de la epistemología ni de la filosofía de la ciencia.

La idea fundamental que se oculta aquí, aceptada tanto por el positivismo lógico como
por el racionalismo crítico de Popper, es que es necesario conseguir un criterio que nos
permita distinguir la ciencia de la no ciencia. Así pues comparten la idea de que las
reglas metodológicas conduce a los cánones universales de la racionalidad. La
racionalidad se concibe, entonces, como enclavada en reglas de carácter universal que
determinan las decisiones científicas; el énfasis se pone en las relaciones lógicas que
conectan una creencia con la evidencia, y se minimiza el papel de los sujetos. Sin embargo,
no todo son semejanzas; Así, para los positivistas -representados principalmente por
Carnap- el algoritmo buscado sería una especie de inducción; mientras que para Popper el
algoritmo es el modus tollens. Así pues, para Popper el contexto de justificación se
investiga desde el punto de vista de la lógica deductiva, pero no buscando evidencias
justificadores de las teorías, sino elaborando los medios que permiten reconocer cuando
una teoría es injustificable. No se trata ya de crear una lógica de la confirmación, inductiva
o no, sino de usar la lógica para deducir de las teorías enunciados contrastables
empíricamente. La aceptación de una teoría será siempre provisional.

4.2 La lógica del descubrimiento en la nueva filosofía de la ciencia.


La "nueva filosofía de la ciencia" se caracteriza por un intento por reivindicar la
dimensión histórica, social y pragmática de la compleja empresa científica, oponiéndose a
la dicotomía entre contexto de descubrimiento y contexto de justificación. El núcleo
fundamental de la crítica de estos filósofos consiste en afirmar que los científicos no hacen
lo que Popper y los positivistas afirman que hacen. Hay que estudiar lo que los científicos
hacen realmente, prestar mayor atención al "contexto de descubrimiento".

Empezaremos por Hanson que comienza atacando uno de los pivotes más firmes de la
concepción heredada: la común base sensorial y observacional de las percepciones.
Basándose en la teoría de la Gestalt considera que sobre la misma imagen se pueden ver
objetos diferentes. Pensemos en Johannes Kepler. Imaginémoslo en una colina mirando el
amanecer. Con él está Tycho Brahe. Kepler considera que el Sol está fijo; es la Tierra la
que se mueve. Pero Tycho sostiene que la Tierra está fija y que los demás cuerpos celestes
se mueven alrededor de ella. ¿Ven Kepler y Tycho la misma cosa en el Este, al amanecer?
Para responder a la pregunta no vale investigar sus respectivas imágenes retinianas: «La
visión es una experiencia. Una reacción de la retina es solamente un estado físico, una
excitación fotoquímica». Tycho y Kepler están viendo lo mismo, pero no observan lo
mismo. De esta forma, investigar la lógica del descubrimiento implica elaborar una nueva
teoría sobre la observación científica. Hanson aporta la siguiente tesis: “La visión es una
acción que lleva una carga teórica. La observación de x está moldeada por un
conocimiento previo de x. El lenguaje o las notaciones usados para expresar lo que
conocemos, y sin los cuales habría muy poco que pudiera reconocerse como conocimiento,
ejercen también influencias sobre las observaciones”. Campos visuales respectivos tienen
una organización diferente, desde un punto de vista conceptual. Explicar un fenómeno x no
consiste en buscar su causa antecedente, sino en insertarlo en un sistema conceptual, en
una teoría, en cuyo marco cobra sentido y significado; mientras que en otra teoría puede
resultar irrelevante. Hanson también aporta una interesante idea en referencia al lenguaje
que se usa en los descubrimientos. Galileo al decir de las deformidades de la Luna que son
cráteres está insertando teoría las observaciones. Decir que una concavidad es un cráter
equivale a comprometerse con su origen, decir que su origen fue violento. No sólo la
observación o la explicación científica están influidas por las teorías, por sistemas
conceptuales sin los cuales ni se ve, ni se entiende, sino que la propia elección de los
términos del lenguaje observacional orienta la investigación en una dirección o en otra y,
por lo tanto, puede ser heurísticamente más o menos afortunada. Por eso Hanson prefiere
usar “patrones de descubrimiento” en lugar de “lógica de descubrimiento”, negando una
regulación o estricta en los mismos. No obstante, Hanson considera que puede hablarse de
un modo "mínimo" o, cuando menos, "moderado, de una lógica del descubrimiento
"filosóficamente respetable", la cual incluye, entre otros elementos, estudios de pasos
inferenciales a partir del reconocimiento de anomalías y determinación de tipos de
hipótesis que puedan servir para "explicar" las anomalías, y la cual constituye, en sus
palabras, "un área de investigación, no un manual de conclusiones" (o de recetas).

Las posiciones de Kuhn, Lakatos o Feyerabend son similares y Harold Brown dentro
bajo el genérico posición dialéctica. La primera característica de este tipo de concepciones
es la consideración conjunta de los problemas del descubrimiento y la justificación de
teorías. Esta consideración, traspasa los límites de la concepción del neopositivismo al
aceptar como válidos elementos de juicios basados en el estado de las ciencias en ese
momento, las influencias del funcionamiento de la comunidad científica como grupo, etc.
La segunda característica sería la elaboración de un modelo de racionalidad científica
diferente a la de neopositivismo. Frente a la visión de la racionalidad como deducción
lógica o aplicación de reglas mecánicas, la nueva filosofía de la ciencia considera que el
concepto de racionalidad es dialéctico. Los teóricos de la nueva ciencia investigan como
los científicos encuentran y aceptan o rechazan nuevas hipótesis, cómo se desarrollan éstas,
cómo afectan estas a las teorías aceptadas, cómo surgen las anomalías y se intentan
resolver, y como en algunas cosas estas anomalías producen cambios en las
presuposiciones que alteran el rango de las soluciones aceptadas. Así, por ejemplo, para
Lakatos los investigadores se encuentras inmersos en programas de investigación
científica, que determinan la lógica de su investigación. Desde un punto de vista aún más
radical Kuhn considera que los descubrimientos científicos siempre se realizan desde un
paradigma y que el cambio de paradigma que se da con una revolución científica no
implica un mayor acercamiento a una verdad, o una decisión fundada en una supuesta
racionalidad pura, sino que viene determinado por la circunstancia históricas y por las
posibilidades explicativas que tiene el paradigma. Pero que un paradigma explique mejor
los fenómenos no significa que sea más cierto. Así, por ejemplo, la hipótesis heliocéntrica
de Aristarco no triunfó en una época helenista porque la hipótesis de los epiciclos de
Hiparco era más adecuada para explicar los fenómenos. Por último, según Feyerabend, no
existe un conjunto de reglas o criterios metodológicos fijos e invariables que puedan servir
de guía al científico en la formulación de nuevas hipótesis y teorías, en la aceptación de
teorías ya formuladas o en la elección entre dos teorías alternativas. Y, en este sentido,
carece de relevancia metodológica la distinción entre contexto de descubrimiento y
contexto de justificación que se había defendido en el empirismo lógico. La historia de la
ciencia nos muestra que no hay regla, que no haya sido desobedecida en algún momento.

5. Conclusión

Hemos desarrolla ya el tema que desarrolla diferentes ideas sobre las leyes, las teorías y
los modelos científicos, y finalmente nos introduce en las nociones de contexto de
justificación y de descubrimiento. En cualquier caso hemos el desarrollo del tema nos deja
comprobar como la filosofía de la ciencia ha ido teniendo una evolución a posturas cada
vez más abiertas y menos cercanas al empirismo lógico. No obstante, y como conclusión,
algunos autores como Laudan siguen defendiendo posiciones cercanas a las del
neopositivismo e incluso manteniendo instante la distinción de Reichenbach entre contexto
de justificación y de descubrimiento, considerando que los filósofos de la ciencia deben
ocuparse ante todo de la racionalidad científica. De acuerdo con estas posturas, la filosofía
de la ciencia no tiene como objeto de estudio la actividad real de los científicos, con sus
diversas mediaciones y complejidades, sino que debe ocuparse de reflexionar
exclusivamente sobre las exposiciones finales de los resultados de la investigación
científica. Los sociólogos de la ciencia se han opuesto a este reduccionismo
epistemológico, argumentando que la construcción de los hechos en el laboratorio y los
procesos de consenso entre científicos en la fase de investigación son determinantes de los
resultados finales

6. Bibliografía
- Bunge, M., La ciencia, su método y su filosofía, Buenos Aires, Siglo Veinte,
1972
- ----, Filosofía de la física, Barcelona, Ariel, 1978
- Echevarría, J.: Filosofía de la ciencia, Madrid, Akal, 1995
- Feyerabend, P. K. Contra el método: esquema de una teoría anarquista del
conocimiento, Orbis.
- Hanson, N. R. Patrones de descubrimiento. Observación y explicación, Alianza
1977.
- Kuhn, T.S., La estructura de las revoluciones científicas, México, FCE, 1975
- ----, ¿Qué son las revoluciones científicas? y otros ensayos, Barcelona, Paidós,
1989
- Lakatos, I. La metodología de los programas de investigación científica,
Madrid, Alianza, 1982
- Popper, K.: El desarrollo del conocimiento científico. Conjeturas y refutaciones,
Buenos Aires, Paidós, 1967
- Rivadulla, A., Filosofía actual de la ciencia, Madrid, Editora Nacional, 1984
- Russell, B. El conocimiento humano, Orbis, 1983.

También podría gustarte