Está en la página 1de 52

Universidad Nacional de Tres de Febrero UNTREF Virtual

Metodología de la Investigación

Unidad 3. Concepción de teoría

Objetivos:

Comprensión de la concepción clásica de las teorías científicas y sus problemas.


Compresión de la concepción del cambio científico de Kuhn.
Comprensión de la versión de las teorías científicas del estructuralismo
metateórico.
Comprensión del enfoque clásico de explicación y de sus problemas.
Comprensión de enfoques alternativos.
Comprensión de la polémica explicación / comprensión.

Contenidos temáticos

3.1. Concepción de teoría

Concepción heredada de las teorías científicas


Concepción kuhniana
El problema de la teoricidad
Estructuralismo metateórico

3.2. Explicación

Enfoque estándar de la explicación


Explicaciones nomológico-deductivas
Explicaciones probabilísticas
Explicaciones funcionales y teleológicas
Críticas al enfoque estándar
Propuestas alternativas
Unificacionismo
Causalismo
Explicación / Comprensión

| Metodología de la Investigación

1/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

3.1. Concepción de teoría

En el módulo anterior analizamos la forma en la que se contrastan hipótesis singulares. Sin


embargo, el análisis de las prácticas científicas supone una complicación más. Pues, el
conocimiento científico no está formado por un conjunto de hipótesis singulares, sino por
teorías.

Desde los comienzos de los análisis metateóricos, que probablemente debamos establecer en
los análisis del conocimiento llevados a cabo por Aristóteles, se ha considerado que una
teoría es un conjunto de enunciados, un conjunto de hipótesis, con una estructura
deductiva. De estas posiciones, veremos primero la más exitosa, presentada de manera más
precisa por Carnap, y que podemos considerar la concepción heredada o estándar de las
teorías científicas.

Esta concepción es abandonada dentro del mismo marco del positivismo lógico, como
veremos, pero fue fuertemente criticada por autores historicistas. Veremos la posición de
Kuhn, por ser la más acabada de ellas. Finalmente, veremos la concepción del
estructuralismo metateórico, que si bien no es la única disponible, brinda, bajo mi punto de
vista, la concepción actual de las teorías científicas más sofisticada.

| Metodología de la Investigación

2/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Concepción heredada de las teorías científicas

Veremos, entonces, como representativa de la


concepción heredada de las teorías científicas la versión
carnapiana, que es la más elaborada y a la que
habitualmente se hace referencia con esa expresión.

Bajo este enfoque, una teoría científica se compone de


dos partes, un cálculo axiomatizado y un conjunto de
reglas de correspondencia que dan a ese cálculo una
interpretación parcial. Es necesario para explicar en qué
consiste esto tener, al menos, una vaga idea de lo que
es un cálculo axiomatizado.
Rudolf Carnap (1891-1970) Filósofo
alemán integrante del Círculo de
Viena

1. Cálculos axiomatizados:

La historia de la idea contemporánea de sistema axiomático implica contar una de las


revoluciones del pensamiento más importantes de la historia de la filosofía, y de la filosofía de
las ciencias formales y fácticas. Aquella provocada por el surgimiento de las geometrías
euclídeas. Este modo de presentar la cuestión es el más interesante e ilustrativo, pero
también el más complejo y extenso.

Explicaré el concepto de sistema axiomático formal sin señalar su historia, pero existen
algunos libros al respecto en la bibliografía recomendada.

Un área del conocimiento puede ser pensada como un conjunto de


afirmaciones o enunciados acerca de algo. Tomemos, por ejemplo, la
aritmética. ¿Cómo hacer para presentar ese conjunto de afirmaciones dado
que son infinitas? Bien, es posible, tal como demostró Peano en el siglo
XIX, elegir un conjunto finito y pequeño de esas afirmaciones de las cuales
el resto se derivan. A estas afirmaciones se las llama “axiomas”, a todas las
que se derivan de los axiomas se los llama “teoremas”. Así, elegimos un
conjunto finito de axiomas, damos ciertas reglas de derivación decimos que
la aritmética es todo lo que se derive de allí.

Por supuesto no es así como se aprende aritmética en la escuela primaria. Este camino
no es el más didáctico. Pero además de permitir presentarla de manera resumida,
completa y prolija, es posible una vez axiomatizada dar ciertas demostraciones de
ciertas propiedades que resultan interesantes, como la consistencia.

Veamos de manera más pormenorizada los constituyentes de un sistema axiomático:

| Metodología de la Investigación

3/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

1. Lógica subyacente: Es la lógica presupuesta por el sistema. Ya habíamos visto que


existen distintos tipos de lógicas. En general se presupone la lógica de primer orden,
que es una extensión de la lógica que vimos en el módulo 1. Pero a veces es necesario
presuponer lógicas más potentes, como la teoría de conjuntos. Esta lógica a su vez
puede estar axiomatizada o no estarlo. En muchos casos se presupone sin aclararla
explícitamente.

2. Vocabulario: Conjunto de los símbolos mediante los que se componen los enunciados.
Símbolos lógicos: son los términos brindados por la lógica subyacente.
Conectivos, paréntesis, cuantificadores, etc.
Símbolos no lógicos: conocidos habitualmente como “términos descriptivos”, o
simplemente “términos”. Algunos de ellos son primitivos. Se los introduce sin
definición alguna. Sólo se indica la categoría gramatical a la que pertenecen (si
son predicados monádicos, diádicos, constantes individuales, etc.). Otros de ellos
se introducen a través de definiciones explicitas a partir de los primitivos o de
otros términos definidos. Los términos definidos son prescindibles. Sólo se los
introduce por una cuestión de practicidad. Pero siempre es posible eliminarlos
quedándose sólo con los términos utilizados en la definición.

Definición explícita:

Las definiciones explícitas deben cumplir dos condiciones: la


eliminabilidad, y la no creatividad. Una definición es eliminable si es
posible reemplazar todo enunciado que utilice el término definido por un
enunciado que utilice términos primitivos (además de los lógicos), sin que
haya pérdida alguna dentro del sistema. Una definición es no creativa si
su introducción no permite demostrar teoremas que sin la definición no
serían demostrables.

3. Reglas de formación: Son reglas sintácticas o gramaticales que indican modos


legítimos de combinar los símbolos del vocabulario para formar fórmulas, que sean
teoremas o no, estén correctamente formuladas.
Así, por ejemplo, como vimos en el primer módulo, la forma proposicional “p . q” está
bien formada, pero la forma “p . q .” no. De las fórmulas bien formadas nos
preguntaremos si se deducen o no de los axiomas, es decir, si son teoremas o no.

4. Reglas de transformación: Son reglas lógicas que indican cómo obtener de unas
fórmulas bien formadas, otras. Son proporcionadas por la lógica presupuesta. Si esta
es la lógica deductiva, las reglas de transformación son los razonamientos válidos,
aquellos que transmiten verdad (como el modus tollens, por ejemplo).

| Metodología de la Investigación

4/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

5. Axiomas: Subconjunto de las afirmaciones que se elijen como base del sistema. No se
prueban ni se justifican, y en un sistema formal no tienen significado alguno, son
formas proposicionales. Su elección es arbitraria, pero deben permitir obtener a través
de las reglas de transformación todas las afirmaciones del sistema a axiomatizar. Para
Aristóteles, y esto diferencia esencialmente la concepción actual de sistema axiomático
de la antigua, los axiomas eran proposiciones cuya verdad era evidente. La revolución
de las geometrías euclídeas mostró justamente que esta concepción es equivocada. En
la concepción actual de los axiomas, estos no son ni verdaderos ni falsos, ni evidentes.
No tienen significado.

6. Teoremas: Es el conjunto de las fórmulas que se obtienen a través de las reglas de


transformación a partir de los axiomas.
El sistema axiomático es una pura estructura sin significado. Pero es posible
interpretarlo asignando un significado a los términos primitivos. Cuándo se hace esto,
se dice que se da una interpretación del sistema. Si la interpretación hace verdaderos a
los axiomas, se dice que encontramos un modelo del sistema.

Supongamos que tenemos el siguiente sistema axiomático (lo presento


semiformalmente, es decir, con algunas palabras interpretadas) porque no
vimos lógica de predicados:

Reglas de transformación:
Lógica de primer orden.

Vocabulario:
Lógicos: ‘todos los… son…’, ‘algunos…. son…’ (están dadas aquí ya las
reglas de formación de fórmulas bien formadas).
Descriptivos: A, B, C y D que son predicados monádicos (predicados
que se aplican a un individuo particular.

Axiomas:
Todos los A son B
Todos los B son C
Algún A es D

Son teoremas en este sistema, dadas las reglas de la lógica de predicados,


los siguientes:

Todos los A son C


Algún D es C
Algún D es B

| Metodología de la Investigación

5/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Dar una interpretación de este sistema es asignar un diccionario por el cual


damos significado a los primitivos:

Por ejemplo, sería una interpretación la siguiente:

A: Primates
B:
Mamíferos
C:
Vertebrados
D:
Herbívoros

Cuándo interpretamos un sistema axiomático deja de ser meramente formal


y se vuelve un conjunto de proposiciones con significado. En este caso, los
axiomas interpretados serían:

Todos los primates son


mamíferos
Todos los mamíferos son
vertebrados
Algún primate es herbívoro

Los axiomas se vuelven todos verdaderos, por lo tanto, esta interpretación


es un modelo del sistema. Cuando encontramos un modelo del sistema,
sabemos inmediatamente que todos los teoremas son verdaderos, puesto
que se deducen de éstos.

Existen otros modelos de este sistema. Uno de ellos es:

A: Tucumanos
B: Argentinos
C: Latinoamericanos
D: Católicos

Fíjense que los axiomas también se vuelven verdaderos.

Una interpretación que no es modelo, podría ser la siguiente:

A: Tucumanos
B: Franceses
C: Latinoamericanos
D: Cuadrúpedos

En este caso los axiomas no son todos verdaderos, por lo tanto la


interpretación no es modelo y no tenemos garantía de que los teoremas

| Metodología de la Investigación

6/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

serán verdaderos.

Una de las razones para axiomatizar un conjunto de afirmaciones tiene que ver, como
veíamos, con la presentación más adecuada de cierto ámbito. Otra, tiene que ver justamente
con disponer de métodos para obtener teoremas. Finalmente, existe una última razón, la
posibilidad de demostrar ciertas propiedades de los sistemas axiomáticos, sumamente
interesantes.

Algunas de ellas son:

Consistencia:

Un sistema es inconsistente si de sus axiomas se deduce un teorema y su negación. Esta


propiedad es muy importante, porque de una contradicción se sigue cualquier cosa. Por lo
tanto, toda fórmula bien formada se vuelve teorema en el sistema. Un sistema así, por
supuesto, no sirve para nada. Bertrand Russell, filósofo británico, demostró de muy joven que
la teoría de conjuntos intuitiva (la que se aprende en los colegios) es inconsistente.

Completud:

Un sistema es completo si logra dar cuenta de todas las verdades de las que pretende dar
cuenta.

Independiente:

Un sistema axiomático es independiente si todos sus axiomas son independientes. Un axioma


es independiente si no se deduce del resto de los axiomas. Esta propiedad no es muy
importante. Un ejemplo famoso de sistema axiomático independiente es la forma en que
Newton presentó su teoría de las fuerzas.

Finalmente, es interesante señalar una relación entre sistemas axiomáticos, que tiene que ver
con la posibilidad de reducir uno a otro. Un sistema axiomático A se reduce a uno B, si es
posible definir los conceptos primitivos de A a partir de los términos de B, y si, una vez hecho
esto, todos los axiomas de A se deducen de B.

Peano, como contaba, axiomatizó la aritmética a fines del siglo XIX, utilizando tres términos
primitivos y 5 axiomas. Algunos han sostenido que es posible identificar con esa
axiomatización la aritmética, otros consideran que no es posible. Los logicistas, a quienes nos
referimos en el primer módulo, intentaron reducir el sistema de Peano a la lógica. Pudieron
realizar la primer parte de la tarea con éxito, la de definir a través de la lógica los términos
primitivos de la aritmética, pero no pudieron demostrar los axiomas de la aritmética a partir
de los de la lógica.

Según la concepción heredada de las teorías científicas un componente de las teorías


científicas es un cálculo axiomatizado, en el sentido recién visto. Sin embargo, existe una
diferencia fundamental entre las teorías formales y las fácticas. Pues, las teorías matemáticas
podrían identificarse, en una primera instancia (porque esto es discutido), con sistemas

| Metodología de la Investigación

7/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

axiomáticos formales, pero esto es imposible de afirmar con sentido al respecto de las teorías
fácticas.

Pues las teorías fácticas no son sistemas meramente formales, sino que pretenden hablar de
ciertas porciones del mundo. Una cuestión que ha sido fuertemente discutida al respecto es,
justamente, cómo las teorías fácticas adquieren semántica empírica.

En el enfoque estándar esto se hace a través de las reglas de correspondencia de las que
hablamos en el módulo anterior. Así, una teoría científica está compuesta por un cálculo
axiomatizado formado por conceptos teóricos (que se identifican en esta concepción con los
no observacionales) y estos son interpretados parcialmente a través de reglas de
correspondencia que tienen los dos tipos de términos, observacionales y teóricos, que
conectan a algunos de ellos con la experiencia.

Representación de componentes de una teoría científica. Los círculos rojos representan


términos observacionales, los negros términos teóricos. Las líneas no punteadas que unen los
términos teóricos establecen una red de relaciones entre los términos teóricos. Esta red
representa al cálculo axiomatizado. Las relaciones son establecidas a través de los enunciados
teóricos. Finalmente el cálculo axiomatizado interpreta parcialmente, a través del contacto de
alguno de sus términos teóricos con la base empírica a través de reglas de correspondencia,
representadas por líneas punteadas.

Se suele llamar a los axiomas, dentro de la concepción estándar, “leyes


fundamentales”, y a todos los enunciados que se deduzcan de ellas,
“hipótesis derivadas”.

No es fácil presentar ejemplos de reconstrucciones de teorías reales a partir de este marco.


Pues, justamente, los intentos de reconstruir teorías es lo que llevó al abandono de la
concepción heredada. Pero podemos ofrecer un ejemplo al respecto, de una reconstrucción
informal muy simplificada.

Teoría celular simplificada reconstruida informalmente:

Vocabulario extralógico teórico:

Célula
x procede de y y de z por unión celular

| Metodología de la Investigación

8/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

x e y proceden de z por división celular


x en el tiempo y está compuesto por z células

Vocabulario extralógico observacional:

Tejidos de organismos vivos


Instantes temporales
x está compuesto por y
El volumen de x es y
x es un organismo vivo

Axioma teórico:

Toda célula proviene de otra célula por la fusión de otras dos células o por
la división de una célula en dos.

Reglas de correspondencia:

Los tejidos de los organismos vivos están compuestos de células.


Todo aumento de volumen de los tejidos de los organismos vivos se debe a
la duplicación de las células que lo componen.

Es posible contar la historia de la concepción estándar a partir de la historia de los intentos


fallidos de reconstrucción de las reglas de correspondencia. Esta historia es sumamente
compleja. Contaré una versión sumamente resumida de algunas de estas ideas que
desembocaron en la concepción de teoría que acabo de brindar, puesto que son indicativas de
la naturaleza de los términos teóricos.

La forma de las reglas de correspondencia:

Es necesario recordar que los filósofos del Círculo de Viena estaban


fuertemente influenciados por el empirismo clásico. Según los empiristas
clásicos todos los conceptos acerca del mundo surgían de y se justificaban
a través de la experiencia. En consecuencia, su primera intención consistió
en entender a las reglas de correspondencia como definiciones explícitas
operacionales de los términos teóricos.

Por “definición operacional” entenderemos una definición a partir de las


operaciones con las que un término teórico se aplica.

Así, una definición operacional de “temperatura”, por ejemplo, estaría dada por el
establecimiento de la operación por la que la temperatura se mide, en este caso, podría ser lo
que marca un termómetro de mercurio al tocar el objeto del que quiero predicar la
temperatura. Recuerden que una definición explícita es eliminable. Es decir, si los términos
teóricos fuesen definibles a partir de términos observacionales (es decir, si las reglas de

| Metodología de la Investigación

9/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

correspondencia fuesen definiciones explicitas) entonces serían prescindibles. Se utilizarían


para simplificar cálculos, pero podrían evitarse sin problemas. Así, el empirista quedaría
tranquilo de no estar introduciendo nada que no sea reducible a la experiencia.

Si bien la cuestión de la historia de las reglas de correspondencia es compleja, la lógica vista


en el capítulo primero alcanza para establecer por qué una definición de los términos teóricos
a través de los observacionales es normalmente imposible.

Una definición de la temperatura que tiene un objeto sería la siguiente:

x tiene la temperatura y, sí y sólo sí, al tocar x con un termómetro de mercurio el


termómetro marca y.

Si esta fuese una buena definición, entonces el término teórico “temperatura” sería definible a
partir de los términos observacionales “termómetro” y “mercurio”.

Al analizar la forma de esta proposición, sin embargo, damos con un problema.

Txy ↔ (Mx → Ny)

En donde Txy se encuentra en lugar de x tiene la temperatura y, Mx, se encuentra en lugar


de “tocar con un termómetro x” y Ny, en lugar de “el termómetro marca y” (la forma no está
bien presentada, habría que ponerle cuantificadores, pero como no los vimos, prefiero dejarla
así).

En una primera instancia parece funcionar, sin embargo, la tabla de verdad del condicional,
cuando tiene antecedente falso, hace al condicional verdadero. Esto tiene una consecuencia
extraña. Pues, a los objetos que no he tocado con un termómetro puedo atribuirles cualquier
temperatura. Es decir, si Mx es falso, el condicional es verdadero para cualquier y. Si esta es
la definición de temperatura, los objetos que no tocamos con un termómetro, como el sol,
podrían tener cualquier temperatura. Lo cual es ridículo.

Carnap debilitó por lo tanto el enunciado anterior del siguiente modo:

Si tocamos a x con un termómetro, entonces, x tiene la temperatura y si y


sólo si el termómetro marca y.

La forma sería la siguiente:

Mx → (Txy ↔ Ny)

Este enunciado soluciona el problema anterior predicando la temperatura sólo de objetos que
hayamos tocado con un termómetro. Pero este nuevo enunciado no es una definición
explicita, pues una definición brinda condiciones necesarias y suficientes (expresadas por un
bicondicional que establezca que si se cumple el criterio brindado en la definición el concepto
se aplica, si no, no). Aquí sólo se brindan condiciones suficientes (expresadas por un
condicional, si se cumple el criterio el concepto se aplica, pero tal vez haya otras formas de
aplicarlo).

| Metodología de la Investigación

10/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Es decir, estamos dando, en este enunciado, un modo de determinar la


temperatura, a través de un termómetro, pero éste es sólo uno de los
modos posibles. Puede haber otros, y de hecho, existen otras operaciones
que nos permiten calcular, por ejemplo, la temperatura del sol. Esto no es
una definición explicita, sino, como sostiene Carnap, es una definición
parcial o una reducción parcial. Establece el significado del concepto sólo
bajo ciertas condiciones.

Pero si las reglas de correspondencia no son definiciones, entonces nos vemos conducidos a
dos consecuencias interesantes.

Por un lado, no son eliminables, es decir, no son sustituibles por términos


observacionales.

Por otra parte, el significado de los conceptos teóricos no está completamente


determinado. Tienen una textura abierta. Nunca sabemos del todo donde se
aplican. Las reglas sólo los determinarían parcialmente.

Esto parece llevarse bien con la práctica científica. Pues, cuando se propone
un nuevo concepto, nunca se sabe bien cuál va a ser la extensión de su
aplicación. Parte de lo que hacen los científicos es encontrar nuevas formas
de determinar el concepto.

Es muy importante establecer con claridad este punto, pues en muchas discusiones de
filosofía de la ciencia especial, el problema es planteado en términos de encontrar la
definición de cierto término: la definición de “especie”, la definición de “inconsciente”, la
definición de “clase social”, etc. Resulta que normalmente, como estamos viendo, existen
fuertes razones para pensar que los conceptos teóricos primitivos de las teorías científicas no
son definibles en ningún sentido. Cómo máximo estas teorías brindan ciertas formas de
aplicarlos. Si lo que se busca es una definición, la discusión está perdida, pues probablemente
sea imposible.

Si bien estas conclusiones dependen de la caracterización, de las reglas de correspondencia y


de las teorías científicas, brindada por la concepción estándar, son aceptadas como resultados
adecuados para pensar los conceptos científicos con independencia de este marco particular.

Más adelante, por sus intentos de aplicar su concepción de teoría, notaron que existían reglas
de correspondencia con formas diversas, adoptando entonces la caracterización que di más
arriba de regla de correspondencia como un enunciado con términos observacionales y
teóricos, sin ninguna aclaración de su forma, y finalmente, llegaron a la conclusión de que no
existían reglas de correspondencia para cada uno de los términos teóricos. De este modo, se
puede sostener que la versión final es tal como la presenté en el punto anterior.

| Metodología de la Investigación

11/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Concepción kuhniana

Los primeros trabajos sobre Kuhn fueron sobre historia de la


ciencia. Su primer libro, muy recomendable, es acerca de la
revolución copernicana(1). En sus estudios de historia de la
ciencia notó, por un lado, que la noción de historia de la
ciencia popperiana, como una sucesión de conjeturas y
refutaciones, era sobresimplificada, y por otro, que la noción
de teoría de la concepción heredada era inadecuada.
Trataremos estas dos cuestiones:

Modelo de cambio científico:

Kuhn era esencialmente un historiador de la ciencia, y le parecía que lo que ocurría en la


historia de la ciencia no era lo que según Popper debía suceder. O, dicho de otro modo, que
el marco conceptual brindado por Popper no era suficiente para captar la complejidad del
cambio científico. Otros autores, por la misma época realizaron reproches semejantes
(Feyerabend, Toulmin, Lakatos, etc.) Elegimos a Kuhn como el más representativo e
interesante de estos. En La estructura de las revoluciones científicas, su libro más famoso,
expuso sus puntos de vista.

Algunos reproches de Kuhn a la metodología popperiana son los siguientes:

1. Las teorías conviven desde su nacimiento con casos refutatorios (que Kuhn llama
anomalías) y no por eso son abandonadas por los científicos. A diferencia de lo que el
falsacionismo estricto de Popper aconsejaría.
2. El abandono de una teoría y la aceptación de otra no efectúa porque se haya hecho un
experimento que corrobora una y refuta la otra. La cuestión es mucha más compleja.
3. La historia de la ciencia no puede ser vista como una sucesión de conjeturas y
refutaciones. Según Popper toda la historia de la ciencia puede ser pensada
como la propuesta de teorías y, una vez refutadas, su reemplazo por nuevas
teorías. Sin embargo en la historia de la ciencia notamos que hay dos tipos de cambio
esencialmente distintos. Cambios conservadores, en los que no se abandona el marco
con el que se viene pensando la realidad ni las leyes con las que se la investiga, y
cambios revolucionarios, en donde hay una suerte de borrón y cuenta nueva. Es decir,
una cosa son los cambios que se vienen realizando dentro del darwinismo hace
décadas, y otra la revolución que supuso reemplazar marcos fijistas (en donde no hay
evolución) o creacionistas por el darwinismo. Estos dos cambios no pueden ser vistos
como rechazo de teorías y adopción de nuevas teorías, pues son cualitativamente
diferentes.

| Metodología de la Investigación

12/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Kuhn considera, por lo tanto, que el aparato conceptual brindado por Popper
y por los positivistas lógicos no es suficiente, la ciencia es un fenómeno más
complejo. Por esto propone un concepto más amplio que el de teoría, que
es el de paradigma o matriz disciplinar.

Una teoría, como recordarán, es en la concepción estándar un conjunto de enunciados de


distinto tipo. El paradigma incluye más cosas: leyes, de las cuales las más generales son
irrefutables, sus aplicaciones, los instrumentos que hay que utilizar, etc. Proporciona modelos
de solución de problemas que son los que deben ser estudiados por los estudiantes. Sirve de
guía a toda una comunidad de investigación. Los cambios revolucionarios son cambios de
paradigma, los cambios no revolucionarios, son los cambios dentro del paradigma. Ejemplos
de paradigmas son el darwinismo, la mecánica clásica, la genética clásica, el marxismo, el
psicoanálisis freudiano, etc.

De este modo, el desarrollo de la ciencia no es acumulativo sino


discontinuo. Hay momentos en que los científicos no se cuestionan para
nada la verdad de las teorías en las que creen, seguidos por irrupciones de
revoluciones que rompen con el curso de investigación científica anterior.

Para entender la concepción de Kuhn es necesario ir presentando otros conceptos. En


particular aquellos que permiten señalar las diversas etapas en las que se puede dividir la
historia de una disciplina científica particular:

Ciencia normal:

Ciencia normal es la etapa en la que los científicos dedicados a un tipo de problema realizan
sus tareas bajo la guía de un paradigma. El paradigma les dice cuales son los problemas a
resolver y cuál es la forma de resolverlos. Este tipo de problemas tienen solución asegurada y
son llamados, por este motivo “rompecabezas” (puzzles). En el período de ciencia normal la
tarea de los científicos consiste en articular los fenómenos con las teorías proporcionadas por
el paradigma, es decir, la resolución de rompecabezas.

Tipos de reglas

(no necesariamente explicitas) proporcionadas por los paradigmas:

Reglas que identifican los rompecabezas (lo que cuenta como problema) y
restringen las posibles soluciones. Ejemplo: en el paradigma ptolemaico en el cual
todos los planetas e inclusive el sol giraban en torno a la Tierra que se hallaba
quieta en el centro del universo, todo movimiento planetario debía ser
solucionado a partir de combinaciones de órbitas circulares a movimiento
uniforme.

Reglas que determinan qué instrumentos se pueden usar, cómo y en qué


medios. No fue fácil para Galileo introducir el uso de telescopios en la

| Metodología de la Investigación

13/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

astronomía. La astronomía simplemente se hacía de otro modo.

Reglas acerca de qué entidades pueblan al mundo. Según distintos


paradigmas las entidades que conforman al mundo son diferentes. Según la física
aristotélica todo se componía de aire, fuego, agua y tierra, en el mundo terrestre.
En el mundo supralunar, lo que quedaba más allá de la esfera de la luna, todo se
componía de un mismo elemento, el éter.

Compromisos relacionados con la actividad científica, por ejemplo, uno


común a diversos paradigmas consiste en el mandato de que los científicos deben
extender la precisión y el alcance del paradigma.

Epoca preparadigmática:

Las primeras etapas de desarrollo de una disciplina muestran una gran cantidad de
escuelas en competencia y la ausencia de una comunidad científica homogénea. Hay
científicos pero no comunidad científica dice Kuhn. No se comparte ninguna de las
reglas presentadas anteriormente. Esto hace que no pueda haber un progreso
acumulativo, pues los científicos se la pasan discutiendo cuales son los modos en los
que se debe hacer ciencia, cuales son las leyes generales que hay que aceptar, cuales
son los instrumentos adecuados, etc.

Un ejemplo en astronomía podría estar constituido por el período presocrático. Pues en ese
momento cada filósofo propone una cosmología diferente, reglas diferentes para hacer
ciencia, leyes diferentes, componentes últimos del universo, etc. Es interesante señalar que
Kuhn tomo consciencia de la existencia de paradigmas cuando pasó, al empezar a trabajar en
historia, del departamento de física al de humanidades. Según Kuhn las ciencias sociales se
encuentran en el período preparadigmático. Tal vez esto sea injusto, no necesariamente el
progreso en la física es igual al progreso en otras disciplinas, como muchos críticos de Kuhn
han señalado. Curiosamente, en las ciencias sociales es en donde más profundas influencias
ha tenido Kuhn.

Crisis y revoluciones científicas:

Durante la época de ciencia normal no se espera encontrar ninguna novedad teórica


importante. Está caracterizada por la resolución de rompecabezas. De hecho, y en esto hay
una fuerte influencia de Hanson, los científicos que en el período de ciencia normal se
enfrentan a novedades teóricas que infligen las leyes del paradigma, pueden llegar a no
percibirlas de este modo.

Si un científico propone una solución exitosa a un rompecabezas, se amplía la


aplicabilidad del paradigma a la realidad, si no logra conseguir una solución
exitosa, entonces el paradigma no suele ser el desacreditado, sino el científico
mismo (nótese que la oposición al falsacionismo popperiano es muy fuerte).

Pero cuando persisten problemas que debieran ser resueltos, estos problemas

| Metodología de la Investigación

14/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

pasan de ser rompecabezas a anomalías. El científico se enfrenta a una anomalía


cuando se reconoce que la naturaleza viola las expectativas creadas por el
paradigma. En realidad hay anomalías desde la fundación del paradigma. Kuhn
rechaza de lleno el falsacionismo. Los paradigmas son irrefutables. Más adelante
volveremos sobre este punto. Pero cuando aumenta el número de anomalías, o
bien, cuando se les empieza a dar más importancia porque afectan a partes
centrales del paradigma, o porque existe una necesidad social acuciante
relacionada con estas, y estas anomalías persisten en no ser solucionadas, el
fracaso de la aplicación de las reglas del paradigma lleva a que éste entre en
crisis. Los científicos comienzan a perder fe en el paradigma.

Las anomalías cobran relevancia:

1- si afectan a los fundamentos mismos del paradigma


2- si son importantes con respecto a alguna necesidad social apremiante
3- si se incrementa la cantidad de intentos de solucionarla y/o la cantidad de
científicos dedicados a eliminarla en vano
4- si aumenta la cantidad de anomalías distintas.

En la época de crisis se produce una situación similar a la del período


preparadigmático. Algunos científicos (generalmente jóvenes, quienes no
tienen tan incorporado el paradigma dominante en sus modos de pensar)
empiezan a trabajar en perspectivas nuevas e incompatibles con las
anteriores.

Si alguna de estas perspectivas parece tener éxito en los campos en los que el otro
paradigma era problemático y promete resolver otras cuestiones que ni siquiera aparecían
como problemáticas en la agenda anterior, se comienza a instaurar un nuevo paradigma. Esto
aumenta la crisis del paradigma antiguo. El grueso de los científicos comienza a apegarse al
nuevo paradigma que les permite dejar atrás la sensación de inutilidad de su trabajo bajo el
otro paradigma. Se produce entonces una revolución científica cuando el nuevo paradigma
reemplaza por completo al anterior.

Durante el proceso revolucionario ningún paradigma gobierna totalmente. La sociedad queda


dividida en dos partes, los defensores y los detractores del antiguo paradigma.

Según Kuhn la historia de la ciencia de una disciplina puede ser presentada del siguiente
modo:

| Metodología de la Investigación

15/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Inconmensurabilidad y progreso

Esta visión de la ciencia tiene consecuencias importantes y para algunos indeseables. Una de
ellas es la inconmensurabilidad que según Kuhn puede haber entre diferentes paradigmas.

El abandono de uno de los paradigmas y la adopción de otro no puede explicarse en función


de argumentos fundados en la lógica o la experiencia.

Diferencias que puede haber entre paradigmas:

Cada paradigma puede considerar al mundo constituido por cosas distintas. Para
Newton el mundo está formado, no por los 5 elementos aristotélicos, sino por átomos
afectados por fuerzas.
Pueden resultar relevantes distintos tipos de problemas y distintas normas para
solucionarlos. En la astronomía newtoniana ya no es necesario reconstruir las órbitas
de los planetas a través de círculos.
Los defensores de paradigmas rivales pueden ver el mundo de diferente forma. El
científico que quiera cambiar de paradigma tendrá que, en ese caso, reeducar su
percepción, tendrá que aprender a ver el mundo como lo ven los que pertenecen al
otro paradigma. La influencia de la carga de la observación de Hanson aquí es clara.
Si bien el nuevo paradigma incorpora gran parte del vocabulario del paradigma
anterior, los términos pueden resultar redefinidos. Así, el concepto de masa se
mantiene en la física relativista, pero cambia su significado, pues esta ya no se
conserva sino que varía con la velocidad. O bien, en el caso de la revolución
copernicana, el término “planeta” parece seguirse utilizando, pero para los ptolemaicos
la Luna y el Sol eran planetas, y la Tierra no, mientras que para los heliocentristas, la
Tierra pasa a ser un planeta, el Sol deja de serlo y la Luna pasa a ser un satélite.

Por estos motivos los paradigmas pueden ser inconmensurables: en estos casos no existe
ningún argumento lógico que demuestre que un paradigma es superior a otro, no hay
ninguna base común o neutra absoluta desde la cual medir ambos paradigmas. Los
científicos de distintos paradigmas subscriben a distintos conjuntos de normas. Según las
normas del paradigma A, el paradigma superior será el A, según las del B, lo será el
paradigma B. Los distintos paradigmas son formas incompatibles de ver el mundo y la forma
en que se hace ciencia.

| Metodología de la Investigación

16/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Además, en estos casos los científicos utilizarían las mismas palabras con distinta
significación. La comunicación entre ellos sería sólo parcial estableciéndose una barrera en la
comunicación.

Esto tiene consecuencias sobre la versión del progreso científico, pues si no hay forma
objetiva de decir que cierto paradigma es superior a otro, por ejemplo, que el heliocentrismo
es superior al geocentrismo, no hay forma objetiva de afirmar que la ciencia progresa.

Según Kuhn, el progreso ni es ni acumulativo ni se dirige hacia la verdad.

Muchos autores han atacado fuertemente a Kuhn por la inconmensurabilidad. Pues, se lo


acusa de relativista, irracionalista, etc. Sin embargo, para ser justos con Kuhn, que no haya
razones concluyentes independientes de los paradigmas para la elección entre paradigmas, no
implica que no haya razones en absoluto. Pero estas razones dependen de los valores
brindados por los mismos paradigmas.

Es posible establecer una comparación entre dos paradigmas acerca de la capacidad


predictiva de sus leyes. Pero esto sólo resultará convincente a los científicos de ambos
paradigmas si la capacidad predictiva es un valor en ambos paradigmas. Y muchas veces,
paradigmas distintos tienen valores distintos. Por otro lado, en muchos casos pueden
compartir cierto valor, como la simplicidad, y sin embargo diferir en su aplicación. Por
ejemplo, otra vez utilizando de ejemplo a la revolución copernicana, puede resultar a Kepler
que la utilización de elipses sea más simple que combinaciones de círculos, porque se usa
una elipse en lugar de muchos círculos, pero puede parecer también que el círculo es una
figura más simple que la elipse.

Los paradigmas, por lo tanto, se pueden comparar, pero en relación a valores que no son
objetivos, sino que son intraparadigmáticos. En algunos casos tales valores son compartidos
por paradigmas en competencia, lo cual simplifica la cuestión. En otros casos los valores no
son en su totalidad compartidos, como ocurre con las revoluciones más lentas como el
copernicanismo.

La estructura del paradigma

Como veíamos, entonces, esta visión de la historia de la ciencia es fuertemente incompatible


con la que plantea Popper. Ahora veremos qué consecuencias tiene esta concepción para la
concepción heredada de las teorías científicas.

Habría dos elementos centrales en el paradigma. El análisis de ambos trae repercusiones


sobre la concepción de teoría:

Generalizaciones simbólicas:

Uno son las generalizaciones simbólicas. Kuhn cita como ejemplo de éstas el segundo
principio de la mecánica de Newton:

F=m.a

| Metodología de la Investigación

17/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Si aplico una fuerza a un objeto, este se acelerará de acuerdo a su masa. Cuando más
grande sea su masa, menos se acelerará.

Este principio, tal como señala Kuhn, es sumamente abstracto y general y no puede ser
abandonado sin con ello abandonar el paradigma del cual es generalización simbólica. Según
Kuhn las generalizaciones no afirman casi nada del mundo. Pero sirven de guía para
encontrar soluciones a los diversos rompecabezas de los que se ocupan los científicos que
trabajan bajo un paradigma.

Por ejemplo, el segundo principio servía para explicar el movimiento de los


proyectiles en la tierra, la aceleración de los objetos en caída libre, los
movimientos de los planetas alrededor del sol, y de los satélites alrededor
de los planetas, los movimientos de un péndulo, la forma en que chocan dos
bolas de pool, etc. Pero para que un principio tan abstracto de cuenta de
tales fenómenos es necesario agregar contenido a dicho principio, es
necesario especificar las fuerzas que se encuentran en juego en cada
aplicación. Esta información no se encuentra incluida en la generalización
simbólica.

Las leyes especiales según las que se tratan estos casos requieren que se establezcan
parámetros que en el segundo principio no se encuentran establecidos (cantidad de fuerzas en
juego y naturaleza de estas fuerzas. Pero esto tiene una consecuencia interesante que va en
contra de la concepción recibida. Pues, si las leyes especiales tienen más contenido o más
información que la ley fundamental (el principio guía) entonces aquéllas no pueden deducirse
de éste. En la concepción heredada las leyes especiales son hipótesis derivadas que se
deducen de las leyes fundamentales y de las hipótesis auxiliares. Pero no es a través de
hipótesis auxiliares que la fuerza de la que se habla en el segundo principio asume la forma
de la fuerza de gravedad en el principio de gravitación universal. Si es así, el principio guía no
es refutable por la experiencia. Recuerden que en el enfoque clásico las consecuencias
observacionales falsas refutan a las leyes de las que se deducen, justamente porque se
deducen de ellas (no es posible deducir algo falso a partir de algo verdadero, puesto que la
deducción conserva la verdad).

Resumiendo, las generalizaciones simbólicas no implican lógicamente a las


leyes especiales, por lo tanto, si algún péndulo no se comportara como dicta
la ley de los péndulos de la mecánica clásica, esto no refuta al segundo
principio, puesto que esta ley especial no se deduce del segundo principio.
El segundo principio sirvió de guía para confeccionar esta ley, pero no la
implica lógicamente.

Las leyes fundamentales, si bien no en todos los casos son formalizadas y matemáticas como
en el caso del segundo principio, tendrían esta característica de irrefutabilidad según Kuhn.

Ejemplares:

| Metodología de la Investigación

18/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

¿Cómo aprenden los científicos a aplicar generalizaciones simbólicas con tan poco
contenido empírico? O,
¿replanteando una pregunta clásica, cómo adquieren semántica empírica los
conceptos que aparecen en las leyes fundamentales?

Recuérdese que en la concepción heredada esto se conseguía mediante el papel fundamental


de las reglas de correspondencia. La respuesta de Kuhn es completamente distinta. En ambas
respuestas tienen un rol fundamental otro de los elementos esenciales del paradigma: los
ejemplares o ejemplares paradigmáticos.

Un ejemplar es un caso de aplicación del paradigma exitoso realizado en el pasado.

Como veíamos, las reglas que proporciona un paradigma son implícitas.

¿Cómo son adquiridas por los nuevos científicos?

Según Kuhn, los científicos hacen ciencia como los hablantes de una lengua hablan un
idioma. Siguen reglas, pero no necesariamente las pueden explicitar. Uno puede hablar
perfectamente un idioma, es decir, aplicar perfectamente la gramática de ese idioma, sin
poder listar estas reglas. De hecho, uno aprende el idioma no a partir de que alguien le
comente las reglas establecidas por la gramática sino a través de ejemplos. Uno aprendió a
usar la palabra “perro” a partir de casos de perros (de ahí que sea tan difícil proponer
definiciones de tales conceptos). Lo mismo ocurriría con los científicos bajo un paradigma. En
un libro de texto no se encuentra explícito cuál es la forma de solucionar rompecabezas, es
decir, cuál es la forma de aplicar la generalización simbólica. Se muestran ejemplares de
cómo se ha aplicado la generalización simbólica en el pasado. En el examen de estos
ejemplares, el científico se vuelve experto en el área, del mismo modo que un niño a la larga
se vuelve hablante de una lengua. Son estos ejemplares los que cargan de semántica
empírica a los conceptos que aparecen en las leyes fundamentales.

Esta concepción, además, permite explicar por qué la historia de la ciencia


que aparece en los libros de texto científicos (siempre que hablo de libros de
texto me refiero a los libros utilizados en las carreras de ciencia para
enseñar la disciplina) es tan desfigurada. La razón no es distinta de por qué
la historia Argentina que se enseña en los colegios (o al menos se
enseñaba) es también desfigurada. Pues, en ambos casos, la función no
es formar historiadores, sino que la pretensión es diferente. En el
caso de las disciplinas científicas, la función es justamente didáctica. Se
presentan una acumulación de ejemplares para aprender el funcionamiento
del paradigma. Los puntos en los que la historia se deforma son varios: por
un lado, siempre se muestra a los científicos del pasado, aunque tuvieran
concepciones absolutamente incompatibles con los puntos de vista actuales,
como si estuvieran trabajando en los mismos problemas que trabaja la

| Metodología de la Investigación

19/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

comunidad científica bajo el paradigma actual.

Esta concepción, además, permite explicar por qué la historia de la ciencia que
aparece en los libros de texto científicos (siempre que hablo de libros de texto me
refiero a los libros utilizados en las carreras de ciencia para enseñar la disciplina)
es tan desfigurada. La razón no es distinta de por qué la historia Argentina que se
enseña en los colegios (o al menos se enseñaba) es también desfigurada. Pues,
en ambos casos, la función no es formar historiadores, sino que la
pretensión es diferente. En el caso de las disciplinas científicas, la función es
justamente didáctica. Se presentan una acumulación de ejemplares para
aprender el funcionamiento del paradigma. Los puntos en los que la historia se
deforma son varios: por un lado, siempre se muestra a los científicos del pasado,
aunque tuvieran concepciones absolutamente incompatibles con los puntos de
vista actuales, como si estuvieran trabajando en los mismos problemas que
trabaja la comunidad científica bajo el paradigma actual.

Esta cuestión resulta vital. Pues, no hay área en la que haya tantos mitos como en la
historia de la ciencia.

La ciencia que se estudia y se divulga generalmente es un conjunto de resultados, sin


ninguna consideración al respecto de donde esos resultados surgieron. Con esto se pierde la
reflexión al respecto de lo más esencial acerca de la ciencia, que es su método.

Finalmente, existe una diferencia con la concepción estándar en todo este


enfoque. Según ésta, recuerden, no había reflexión posible acerca del
contexto de descubrimiento. Aquí, la cuestión es diferente. Es esencial para
la comprensión del funcionamiento del paradigma el papel de los ejemplares,
y lo que los ejemplares indican es, justamente, el modo en que deben
solucionarse los rompecabezas. Los descubrimientos científicos son en
etapa de ciencia normal soluciones a tales ejemplares. Toda esta
reflexión es, por lo tanto, en parte, acerca del descubrimiento. No es posible
separar la cuestión de la forma en que los conceptos adquieren semántica
empírica de cuestiones acerca del descubrimiento. Se rompe, de este modo,
la distinción clásica tajante y parece que la filosofía de la ciencia no puede
dar respuesta a los interrogantes que se plantea restringiéndose a
cuestiones de justificación y de lógica.

La estructura de las revoluciones científicas ha sido el más influyente de los escritos en


el ámbito de la filosofía de la ciencia. Esto lo muestra el desplazamiento conceptual que ha
sufrido el concepto de paradigma. Un caso paradigmático de una clase, es un caso
representativo de esa clase. Así, un mamífero paradigmático es la vaca (y no, por ejemplo,
un murciélago). La razón por la cual Kuhn utiliza el término “paradigma” para referirse a la
matriz disciplinar compartida por una comunidad científica, tiene que ver justamente con la

| Metodología de la Investigación

20/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

idea de que los que esos científicos comparten es un conjunto de casos paradigmáticos de
cómo se hace ciencia.

Cada vez que el concepto es utilizado como constelación de creencias compartidas, como
cuando se dice “el paradigma surrealista”, o “el paradigma neocapitalista”, se utiliza el
desplazamiento conceptual que Kuhn imprimió al término.

¿Por qué este libro es tan influyente?

Dentro de la filosofía de la ciencia, si bien ha habido muchos discutidores de la pintura que


hace la historia de la ciencia, su marco conceptual fue muy fructífero. Los que lo discutieron,
lo tuvieron que hacer en sus propios conceptos. Antes que Kuhn, muchos fenómenos de la
historia de la ciencia carecían de nombres y conceptos para ser claramente comprendidos.
Por otro lado, creo, esto es más a título personal, que la historia de cómo los científicos
cambian de creencias está fuertemente relacionada con cómo cada uno de nosotros en la vida
cotidiana cambia de creencias. El marco kuhniano, sin pretenderlo, resulta útil y dilucidador
de un montón de problemáticas de la vida cotidiana, y la lectura del texto, por lo tanto,
resulta fuertemente reveladora de los modos en que categorizamos y pensamos el mundo.

Es necesario hacer algunas aclaraciones que ayudan a la lectura.

La primera, hecha por el mismo Kuhn, es que utiliza “paradigma” de manera algo
confusa, en alguno de los dos modos citados antes según el contexto: a veces habla de
paradigmas refiriéndose a los ejemplares compartidos por la comunidad científica, a
veces como la matriz disciplinar que involucra los componentes citados (entre los
cuales se incluyen los ejemplares). Al leer el texto hay que estar atento siempre a qué
se refiere con “paradigma”.

Otra aclaración importante, tiene que ver con el modo de leer el texto. Los que más
discutieron a Kuhn fueron autores provenientes del ámbito filosófico. Pero Kuhn no
tenía formación filosófica, y a veces, cuando expone sus puntos de vistas de manera
general, es algo vago y contradictorio. Los autores provenientes de la filosofía de la
ciencia general más críticos de Kuhn, generalmente se enfocan en estas
aseveraciones, y las discuten. En oposición a esta lectura, considero que lo más
importante del libro se encuentra en el análisis y exposición de ejemplos, que
conforman la mayor cantidad de lo escrito en el libro. Es en estos que hay que
enfocarse y en donde radica la mayor riqueza del pensamiento kuhniano.

Ver Kuhn, La estructura de las revoluciones científicas, capítulos 1, 2, 10 y 13 y


parágrafos 1-3 del epílogo.

(1) La lectura de algún texto sobre revolución copernicana es recomendable para la mejor
comprensión del enfoque kuhniano. Ver bibliografía recomendada.

| Metodología de la Investigación

21/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

El problema de la teoricidad

Vimos en el modulo anterior que una de las cuestiones que más discusión provocó respecto a
los supuestos de la concepción heredada es la supuesta división entre términos
observacionales y teóricos. En el enfoque clásico la distinción entre términos observacionales
y teóricos se hacía en base a la observabilidad directa o no de las entidades a las que
refieren. Según los defensores de la carga teórica de la observación, esta distinción es
imposible en estos términos, puesto que la observación está cargada de teoría.

Hubo un grupo de autores cuyas críticas apuntaron a otro problema de la distinción. La


intuición detrás de estas críticas es que detrás de la distinción teórico observacional existen
dos distinciones distintas mezcladas. La distinción teórico / no teórico, por un lado, y la
distinción observacional / no observacional por el otro. Las críticas consistían en señalar que
las distinciones no eran ni intencionalmente ni extensionalmente coincidentes. A partir de aquí
se abría el problema de caracterizar la teoricidad independientemente de la observabilidad.

Ver Putnam, “Lo que las teorías no son”, Parágrafo La dicotomía observacional-
teórico

Repasemos la situación. Intuitivamente es posible separar en dos


grupos a los conceptos no lógicos de una teoría científica. Así, dentro
de la genética clásica, claramente existe una diferencia entre el concepto de
gen y el de rasgo. La respuesta clásica a la cuestión, consiste en señalar que
los rasgos (pelaje blanco, semilla rugosa) son observables mientras que los
genes (gen para el color de pelaje blanco, o gen para la superficie de la
semilla rugosa) son teóricos, es decir, inobservables. En los ejemplos que
acabamos de dar la distinción parece funcionar. Pero si nos percatamos que
también puede ser un rasgo, por ejemplo, el tipo sanguíneo (que al referirse
a ciertas propiedades de los glóbulos rojos que son inobservables)
comienzan a surgir problemas. Debe existir otro modo de elucidar esta
distinción entre estos conceptos.

En 1970 Hempel escribe un famoso y excelente artículo señalando todos los


problemas de la concepción heredada que el mismo defendía anteriormente.
En este artículo señala varios problemas que a esa altura le parecen
insuperables, por los cuales es necesario abandonar esta concepción de
teoría. Al comienzo del artículo, propone una distinción para reemplazar la
distinción clásica entre conceptos teóricos y observacionales.

Aceptando que en realidad la distinción clásica confundía dos distinciones, y que la distinción

| Metodología de la Investigación

22/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

observacional / no observacional es cuestionable, propone enfocarse en la distinción teórico /


no teórico de un modo interesante. Según él, la diferencia entre los conceptos no lógicos de
una teoría consiste en que ciertos conceptos son propuestos por la teoría y otros conceptos se
encontraban disponibles con anterioridad y, por lo tanto, eran comprensibles
independientemente de la teoría. Las teorías proponen nuevos conceptos para explicar el
comportamiento de las entidades nombradas por conceptos disponibles con anterioridad a esa
teoría.

Así, en la genética clásica se propuso el nuevo concepto de gen para explicar lo que ocurría
con la herencia de los rasgos, y el concepto de rasgo existía con anterioridad a la genética
clásica. Hempel llamaba a los términos que expresan conceptos propuestos por una teoría T:
“términos teóricos de T” y a los términos que expresan conceptos disponibles con anterioridad
a T “términos preteóricos o antecedentes a T”. Nótese que, a diferencia de la propuesta
clásica, la distinción es relativa a una teoría. El concepto de gen clásico es teórico en la
genética clásica, pero podría ser preteórico para teorías más nuevas.

Esta distinción es interesante, además de permitir elucidar estas diferencias


intuitivas entre los conceptos de una teoría, salvaguarda la independencia
de la base empírica que se había visto complicada por los críticos de la
carga teórica de la observación. Si, efectivamente, la base empírica de
una teoría está cargada teóricamente por esa misma teoría, existe
el riesgo de que la teoría en cuestión se autojustifique. Lo que señala
correctamente Hempel es que, si bien es cierto que está cargada de teoría,
no necesariamente depende de la misma teoría que estoy contrastando. La
descripción que hago del comportamiento de las entidades que pretendo
explicar con cierta teoría se encuentra, por decirlo de algún modo, cargada
de teoría de otras teorías. La base empírica en cuestión no necesariamente
es observacional, ni objetiva, pero al menos, es independiente de la teoría
en cuestión. El problema de la autojustificación se encuentra parcialmente
solucionado.

Esta nueva distinción tiene una consecuencia sumamente interesante, que el mismo Hempel
señala. Volvamos de nuevo sobre la ley fundamental de la mecánica clásica de Newton: F= m
. a. Si aplicamos la distinción, no quedan dudas de que el concepto de fuerza fue propuesto
por la teoría de Newton, el concepto de masa es dudoso, pero no quedan dudas tampoco de
que el concepto de aceleración se encontraba disponible con anterioridad a ésta teoría. Era
posible medir aceleraciones antes de esta teoría. Pero entonces, la ley fundamental de la
teoría científica que, aunque refutada, es tomada como ejemplo de teoría científica legítima
es, lo que en la concepción clásica era caracterizado como un enunciado mixto, puente o
como una regla de correspondencia: un enunciado que tiene los dos tipos de conceptos. Este
sea, tal vez, el problema más fuerte que señala Hempel de la concepción heredada. Su
concepción de ley fundamental y de la forma en que adquiere semántica empírica a través de
leyes de correspondencia es inadecuada para reconstruir teorías científicas reales.

| Metodología de la Investigación

23/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

La distinción hempeliana va en la dirección correcta, pero tiene un problema vital. Para


saber si un concepto estaba disponible con anterioridad o no, es necesario tener
alguna concepción de sinonimia entre conceptos.

Por ejemplo, el término “masa” se encuentra tanto en la mecánica clásica como en la


relativista. ¿Es por eso el concepto de masa preteórico en la mecánica relativista? No
necesariamente, dado que en muchos casos un mismo término tiene varios significados. Pero
entonces, es necesario, para aplicar la distinción historiográfica de Hempel, nociones
semánticas de las que Hempel carece. La distinción, como veremos, es superada por una, que
en la misma dirección, soluciona este problema, dentro del marco del estructuralismo
metateórico.

Ver Hempel “Sobre la ‘concepción estándar’ de las teorías científicas”

| Metodología de la Investigación

24/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Estructuralismo metateórico

El estructuralismo metateórico surge como un intento de continuar el ideal reconstructivo


clásico pero sintetizando todo los resultados de los estudios anteriores al respecto de la
estructura y dinámica de las teorías científicas que se encontraban algo desperdigados. Si
bien podrían establecerse relaciones, no nos referimos con esto a las corrientes que llevan
nombre “estructuralismo” en antropología o psicología.

El estructuralismo es uno de los enfoques semanticistas que actualmente se pueden encontrar


en la filosofía de las ciencias. Estos enfoques tienen en común reconstruir a las teorías
científicas no como un conjunto de enunciados de ciertas características (a estos enfoques se
los llama “enunciativistas”, uno de esos es la concepción estándar) sino utilizando un conjunto
de modelos.

Las diferencias entre el enfoque estructuralista y el clásico son amplias. Pero se pueden
enunciar dos importantes. Una tiene que ver con las herramientas utilizadas para reconstruir.
En la filosofía clásica de la ciencia se utilizaba la lógica.

Los estructuralistas utilizan la teoría de conjuntos, herramienta más versátil.


Pero como no vimos nada de teoría de conjuntos, aunque sí algo de lógica,
no hay forma de que veamos esta cuestión a fondo. Otra gran diferencia,
mucho más fundamental que la anterior, y que sí vamos a ver, consiste en
que, a diferencia de los filósofos clásicos que casi no reconstruyeron
teóricas, los estructuralistas han reconstruido muchísimas teorías de las más
diversas áreas de la ciencia. Al hacer esto han aprendido que las teorías son
más complejas y son diferentes al modo en que eran consideradas por los
clásicos (como Kuhn también había hecho notar). Para dar cuenta de las
teorías y sus complejidades, han ido desarrollando y siguen desarrollando
un sistema conceptual elaborado y fructífero que es lo que veremos de
manera más o menos general e informalmente.

Sin embargo debo aclarar que este enfoque es difícil de ver de manera abstracta, a diferencia
de la concepción clásica. El estudio del estructuralismo metateórico implica el análisis
de reconstrucciones particulares. Pero no podremos verlo en funcionamiento porque
requeriría que ustedes aprendieran el lenguaje formal del estructuralismo y entendieran
perfectamente las teorías a reconstruir, y esto excede el marco de este curso.

La idea es, entonces ver los conceptos generales y las modificaciones introducidas, dejando
de lado el lenguaje formal del estructuralismo.

Empezaremos viendo la novedad introducida por el estructuralismo que tiene que ver con el
punto anterior de la teoricidad.

| Metodología de la Investigación

25/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Distinción T-téorico / T-no teórico.

Como veíamos con Hempel, la distinción teórico observacional clásica confunde dos
distinciones distintas: la distinción teórico / no teórico y la distinción observacional y no
observacional. Al igual que Hempel los estructuralistas consideran la distinción teórico / no
teórico y dejan de lado la de observacional y no observacional. Además, al igual que la
distinción hempeliana y a diferencia de la clásica, esta distnición no es absoluta, sino relativa
a una teoría. Lo que puede funcionar como teórico en una teoría, puede funcionar como no
teórico en otra. Pero la forma a través de la cual se establece la distinción es distinta. No
tiene que ver con ningún tipo de estudio historiográfico de qué teoría propuso qué concepto.

Ahora presentaré esta distinción de manera más rigurosa utilizando el


segundo principio de la mecánica clásica. Volvamos sobre la ley fundamental
de la mecánica clásica: F=m.a.

Recuerden este principio permite explicar ciertos movimientos de muchos cuerpos. La idea es
que los cuerpos se aceleran de acuerdo a la fuerza que se les aplica, dependiendo de su
masa. Este principio permite dar cuenta de los movimientos de los planetas, de los péndulos,
la forma en que caen los cuerpos en caída libre, el movimiento de cuerpos que chocan, etc.

¿Cuáles son términos teóricos y cuáles no teóricos en la mecánica clásica?

De los tres conceptos que aparecen en el segundo principio de manera intuitiva podemos
decir que los conceptos de masa y fuerza permiten explicar los movimientos de los cuerpos,
que aparecen como aceleraciones en esta ley. El criterio que proponen los estructuralistas
para determinar esto con mayor claridad es el que describiré a continuación. Los términos no
teóricos en una teoría son los que pueden ser determinados o aplicados en prescindencia de
esa teoría. En este caso, la aceleración de un cuerpo puede ser medida sin utilizar la ley
fundamental, el segundo principio.

Pero ¿cómo determino cuál es la fuerza que actúa sobre un cuerpo, por ejemplo, la fuerza de
gravedad con la que la Tierra afecta los cuerpos en caída libre? Para esto debemos apelar al
principio. Podemos, por ejemplo, tomar un cuerpo, y a partir de las masas del cuerpo y de la
tierra determinar cuánto se acelera en caída libre. Es decir, siempre es necesario utilizar la
fórmula del segundo principio. ¿Cómo determino la masa de un cuerpo (recuerden que lo que
pesa la balanza es el peso y no la masa, una balanza en la luna pesa otra cosa, pero la masa
sigue siendo la misma)? Otra vez, le tengo que aplicar al cuerpo alguna fuerza determinada y
ver cuánto se acelera.

Es decir, para poder aplicar esos conceptos es necesario suponer la mecánica clásica,
mientras que para aplicar el concepto de aceleración, no es necesario.

Así, los conceptos teóricos para una teoría T, los conceptos T-teóricos, son aquellos que no
pueden ser aplicados sin esa teoría, los no teóricos en una teoría T, los T-no teóricos, son

| Metodología de la Investigación

26/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

aquellos que sí pueden serlo.

Esto brinda una caracterización independiente de la de observable / no observable, evitando


todos los problemas que trae, y tiene un criterio riguroso de aplicación. Además ha sido
aplicado exitosamente a muchísimas teorías de todas las disciplinas.

Leyes fundamentales

En cuanto al señalamiento de Hempel de que las leyes fundamentales suelen tener tanto
conceptos T-teóricos como T-no teóricos, los estructuralistas han notado esto es una
característica de todas las leyes fundamentales.

Así, la forma de la ley fundamental de la genética, que normalmente no se presenta de


manera explícita en los libros de texto de biología, tendría más o menos la siguiente forma:

“Existen genes que se heredan de tal y tal forma que explican la forma en que se distribuyen
los rasgos”

Esto es, obviamente, un esbozo que simplemente refleja la presencia de los dos tipos de
conceptos. El concepto de rasgo, que puede ser determinado independientemente de la
genética clásica (podemos determinar si un conejo es blanco o no independientemente de la
genética) y por lo tanto es un concepto no teórico en la genética, y el de gen, que sólo
podemos determinar utilizando la genética clásica, y por lo tanto es teórico para la genética
clásica.

Las leyes fundamentales entonces, tienen la característica de que en ellas aparecen los
conceptos principales de la teoría y, además, algunos de ellos serán teóricos y otros no, en
esa teoría.

Campo de aplicación

Esto lleva a que la forma en que se relacionan las teorías con el mundo sea diferente a la
concebida por los clásicos. Pues según ellos, las teorías eran sistemas teóricos que se
relacionaban con el mundo a través de reglas de correspondencia. Si las leyes fundamentales
ya tienen esta característica de enunciados mixtos, por tener términos teóricos y no teóricos,
la forma en que se relacionan las teorías con el mundo debe ser diferente. Hempel sigue
sosteniendo que existen dos tipos de enunciados, los principios internos (las leyes
fundamentales) y los principios puente, pero sostiene que no sirve su vocabulario para
distinguirlos, puesto que en los internos aparecen los dos tipos de conceptos. En el
estructuralismo se abandona esta distinción. ¿Cómo adquieren la teoría semántica empírica si
no es a través de leyes de correspondencia?

La respuesta de los estructuralistas es similar a, y está basada en, la


propuesta kuhniana. Las teorías tienen un campo de aplicación. Por
ejemplo, la teoría de la selección natural se aplica a la forma en que los
organismos vivos evolucionan. Dentro del campo de aplicación puede
distinguirse entre un campo de aplicaciones pretendidas, aquellos lugares

| Metodología de la Investigación

27/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

del mundo en donde la teoría se pretende aplicar, y un campo de


aplicaciones exitosas, aquellos lugares en donde la teoría se ha aplicado con
éxito. Así, son parte del campo de aplicación exitoso de la mecánica clásica
la forma en que se mueven los péndulos y la forma en que se mueven casi
todos los planetas (tuvieron problemas con mercurio). Pero el campo de
aplicación pretendido normalmente, sobre todo en los orígenes de la teoría,
es mucho más amplio que el de aplicaciones exitosas. Por ejemplo, se
pensaba que la mecánica clásica iba a explicar el comportamiento de los
fotones (las partículas de las que está formada la luz) pero esta idea con el
tiempo se abandono. Es decir, el movimiento de los fotones estaba en el
campo de aplicaciones pretendidas de la mecánica clásica, pero nunca paso
al campo de aplicaciones exitosas, y a la larga, se saco del campo de
aplicaciones pretendidas.

¿Cómo saben los científicos cual es el campo de aplicaciones pretendidas de una


teoría, si no hay reglas de correspondencia que lo determinen de manera clara?

Bueno, la respuesta de los estructuralistas (utilizando la idea de ejemplar de Kuhn) involucra


a las aplicaciones ejemplares. La forma en que se aprende el campo de aplicación de la
teoría, y, por lo tanto, la forma en que la teoría adquiere significado empírico, es a través de
los casos de aplicación de la teoría. El examen de aplicaciones exitosas de una teoría permite
entender de qué habla la teoría. Esto pertenece al campo de la pragmática, es decir, al uso
que se hace de la teoría.

De este modo queda más en claro un hecho de la práctica científica que en el enfoque clásico
no quedaba reflejado de manera adecuada. Si una teoría adquiere significado empírico a
través de reglas de correspondencia fijas, encones, su campo de aplicación esta
determinado de antemano. Sin embargo nunca el campo de aplicación de una teórica se
conoce de antemano, esto es algo que surge a partir de la investigación empírica (Darwin no
estaba seguro de la extensión del campo de aplicación de la teoría de la selección natural,
Mendel no conocía la extensión del campo de aplicación de la genética que proponía). El
campo de aplicaciones pretendidas es borroso, es decir, no tiene límites fijos, y va variando
con el tiempo, al ir agregándose nuevas aplicaciones exitosas.

Leyes especiales

Otra diferencia fundamental con el enfoque clásico, producto del examen de teorías
científicas, tiene que ver con la relación entre la ley fundamental y las leyes especiales.
También esto es influencia kuhniana. Las leyes fundamentales no se aplican directamente al
mundo. De hecho, las leyes fundamentales casi no hacen ninguna afirmación empírica que
permita contrastarlas directamente. Piensen en el segundo principio de la mecánica clásica
que he venido utilizando como ejemplo. Si tuviéramos que parafrasearlo en lenguaje natural
tendríamos que decir algo así como: existen fuerzas que provocan aceleraciones en las

| Metodología de la Investigación

28/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

partículas de acuerdo a su masa.

Noten que no se afirma ni qué fuerzas, ni cuantas, ni el modo en que


actúan. El principio sólo afirma que para cualquier aceleración de un cuerpo
deben actuar sobre él fuerzas. Pero no se establece nada al respecto de
esas fuerzas. Ésta, si bien es una afirmación acerca del mundo, no es una
afirmación por sí misma falsable. Pues parece que podemos postular fuerzas
a nuestro antojo de manera que el principio se cumpla.

Para aplicar este principio, es necesario, por lo tanto, encontrar leyes especiales que
incrementen su contenido empírico. Que digan más acerca del mundo. Así, por ejemplo, en la
ley de gravitación de los planetas, ley especial de la mecánica clásica, se establece que la
fuerza en juego es la de gravedad y esta actúa sobre las masas de los planetas. En la ley de
los péndulos se establece que las fuerzas en juego son: la de gravedad, la del rozamiento del
aire y el objeto que cuelga, la del rozamiento del clavo con el hilo, etc. Estas leyes especiales,
que guardan una forma similar siempre con la ley fundamental, sí hacen afirmaciones más
ricas acerca del mundo, pues ellas establecen los tipos de fuerzas en juego y la proporción
que hay que tomar en cuenta con las masas y las aceleraciones. Las leyes fundamentales,
entonces, sólo se aplican a través de leyes especiales. La función de las leyes fundamentales
es la construcción de leyes especiales que permitan que éstas se aplique en nuevos sectores
del mundo.

La ley fundamental y las leyes especiales forman una red, que es llamada por los
estructuralistas, “red teórica”, que elucida el sentido más habitual de teoría científica
(cuando se sostiene que la mecánica de Newton, la teoría de la selección natural o la genética
clásica son teorías).

Hay una gran diferencia entre este punto de vista y el enfoque clásico.
Recuerden que la idea clásica de cómo se contrastaba una teoría
consistía en la deducción a partir de leyes fundamentales puras y
mixtas de leyes derivadas hasta la obtención de consecuencias
observacionales. Esto, por supuesto, utilizando hipótesis auxiliares. Los
estructuralistas han notado que esta descripción no es adecuada. Pues las
leyes especiales no se deducen de la ley fundamental.

En las leyes especiales se instancian ciertos conceptos que en la ley fundamental no estaban
instanciados. En el ejemplo que veíamos, en la ley fundamental se dice “existen fuerzas…” y
en la especial “existen tales y tales fuerzas…”. Conceptos que aparecen sin especificar en la
ley fundamental aparecen especificados en las leyes especiales. Pero esto no es una
deducción, pues la deducción, como veíamos en la unidad de lógica, no es ampliativa. No
agrega información. La ley fundamental no permite deducir leyes especiales, sino que sirve de
guía para encontrar leyes especiales de estructura similar a ella. Esto tiene una consecuencia
importante. Si no se cumple una consecuencia observacional se refuta la conjunción de todo
lo utilizado para deducirla. En este caso, como las leyes especiales no se deducen de la ley

| Metodología de la Investigación

29/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

fundamental, las leyes fundamentales no son refutables. Pues de ellas no se deduce nada.

Por supuesto, puede ocurrir que una ley fundamental pierda todas sus aplicaciones. Se podría
considerar a esta ley como refutada, pero no en el sentido clásico en donde una ley está
refutada cuando no se cumple una de las consecuencias observacionales que se deduce de
ella.

Ejemplo de reconstrucción estructuralista informal y esbozada

La teoría de la selección natural de Darwin.

Cómo es bien sabido, lo que Darwin quiere explicar con TSN, es cierta adecuación
o ajuste de los organismos al medio ambiente.

Por ejemplo:

La jirafa, con su gran estatura, sus muy largos cuello, patas delanteras, cabeza y
lengua, tiene su estructura bellamente adaptada para comer en las ramas más
altas de los árboles. Puede por eso obtener comida fuera del alcance de otros
ungulados que habitan el mismo lugar; y esto debe ser una gran ventaja durante
períodos de escasez (Darwin, El origen de las especies, 6º edición, 1872, p. 178).

La forma en que Darwin explica la fijación de este rasgo en la población de jirafas


es la siguiente:

En la naturaleza, en el origen de la jirafa, los individuos que comiesen más alto y


que pudiesen, durante los períodos de escasez, alcanzar aunque sea una pulgada o
dos por sobre los otros, serían frecuentemente preservados […]. El que los
individuos de la misma especie muchas veces difieren un poco en la longitud
relativa de todas sus partes, puede comprobarse en muchas obras de historia
natural en las que se dan medidas cuidadosas. Estas pequeñas diferencias en las
proporciones, debidas a las leyes de crecimiento o variación, no tienen la menor
importancia ni utilidad en la mayor parte de las especies. Pero en el origen de la
jirafa debe hacer sido diferente, considerando sus probables hábitos de vida; pues
aquellos individuos que tuviesen alguna parte o varias partes de su cuerpo un poco
más alargadas de lo corriente, en general habrán sobrevivido. Se habrán cruzado
y dejado descendencia que habrán heredado las mismas peculiaridades corpóreas,
o la tendencia a variar de nuevo en la misma manera, mientras que los individuos
menos favorecidos en los mismos aspectos, habrán sido más propensos a perecer
(Darwin, El origen de las especies, 6º edición, 1872, p. 178, itálicas mías).

Si consideramos, con los estructuralistas, que la ley fundamental de TSN es aquél


enunciado en el que aparecen los conceptos fundamentales de TSN relacionados
podemos extraer una instanciación de TSN a partir de la explicación citada:

Las jirafas con cuello, patas delanteras, cabeza y lengua de mayor longitud son

| Metodología de la Investigación

30/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

más efectivas al alimentarse de las ramas más altas de los árboles, mejorando su
supervivencia y mejorando, en consecuencia, su éxito reproductivo diferencial.

Por abstracción de este enunciado, nos vamos acercando a lo que considero que
es la ley fundamental de TSN:

Los individuos con rasgos que cumplen con mayor efectividad cierta función,
mejoran su supervivencia mejorando su éxito en la reproducción diferencial.

La ley fundamental de TSN tendría al menos tres componentes:

El rasgo que cumple de manera más adecuada una función.


El éxito reproductivo diferencial, que tiene que ver con alguna medida de la
cantidad de descendencia fértil dejada por los organismos.
La conexión el rasgo adecuado y el éxito reproductivo, que llamaré
“aptitud”. En este caso se se debe a una mejora en la supervivencia, pero
no siempre es así.

Se puede obtener la red teórica de TSN a partir de las diferentes instanciaciones


del concepto de aptitud. Así, si se instancia la aptitud como capacidad de atraer
parejas, entonces con la selección natural es posible explicar tanto el origen de los
espolones de los gallos, utilizados para luchar contra otros gallos por las hembras,
como de la cola del pavo real, con la que los pavos atraen a las hembras (esta
versión de la selección natural es conocida normalmente como “selección sexual”).
Si se lo instancia como capacidad de fecundar, entonces se puede aplicar la
selección natural al color con que las flores atraen a los insectos, etc. Así quedaría
armada la red teórica de la teoría de la selección natural.

Red teórica de la teoría de la selección natural darwiniana. En realidad hay más

| Metodología de la Investigación

31/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

especializaciones, éstas serían algunas.

Ver, Diez y Lorenzano “La concepción semántica” en Desarrollos actuales de la


metateoría estructuralista.

| Metodología de la Investigación

32/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

3.2. Explicación

Enfoque estándar de la explicación

Uno de los trabajos más famosos del enfoque estándar es la elucidación propuesta por
Hempel de la explicación científica. Bajo su punto de vista explicar un hecho es subsumirlo
bajo leyes generales. De ahí que se llame a esta elucidación de la explicación “modelo de
cobertura legal”. Así, si quiero explicar por qué nieva, debo apelar a la ley que afirma que
siempre que hay precipitaciones con menos de cero grados entonces nieva, y a la condición
inicial de que llueve.

Una explicación tendría la forma de un razonamiento que tendría, entre sus premisas, leyes y
condiciones iniciales, y en su conclusión, un enunciado que refiere al fenómeno del cual se
quiere dar cuenta. A las premisas de tal razonamiento se las conoce como “explanans” a la
conclusión “explanandum”.

Componentes de una explicación

Del tipo de leyes que aparezcan en el explanans dependerá el estatus de la inferencia, que
como veremos no siempre es deductiva. Esto permite clasificar las explicaciones en diversos
tipos. La primera de ellas es la explicación nomológico deductiva.

Es necesario recordar que lo que pretende Hempel es realizar una elucidación. En este caso,
busca las condiciones necesarias y suficientes para lo que cuente como una explicación. Por
otro lado es posible explicar fenómenos particulares, como por qué existe un cráter en cierta
zona, o fenómenos generales, como por qué todos los cuerpos en la Tierra caen con la misma
aceleración. El explanandum puede ser, consiguientemente, general o particular.

Explicaciones nomológico-deductivas

Existen dos tipos de explicaciones nomológico deductivas, las particulares y las generales. Lo
que tienen en común estas explicaciones es que son deductivas. Es decir, que el

| Metodología de la Investigación

33/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

explanandum se deduce del explanans. Esto es así porque las leyes que figuran en él no son
probabilísticas.

Comenzaremos viendo la explicación nomológico deductiva de un hecho particular.

Explicaciones nomológico deductivas particulares

Veamos un ejemplo.

Supongamos que nos preguntamos por qué una botella de vidrio llena de agua se reventó en
el freezer.

El razonamiento de la explicación sería el siguiente:

El agua al congelarse se expande


El agua se congela por debajo de los
Leyes generales

El vidrio es frágil

La botella de agua era de vidrio Explanans


La botella de agua estaba
herméticamente cerrada
Condiciones iniciales
La botella de agua se encontraba en
el freezer
En el freezer hacía -12º

La botella reventó Explanandum

Como se puede notar este razonamiento es deductivo, y lo es en virtud de que las leyes que
figuran en el explanans no son probabilísticas. Las condiciones que debe cumplir una
explicación para ser nomológica deductiva particulares son las siguientes:

1. El explanandum refiere a un hecho particular, es decir, debe ser un enunciado singular.


2. Debe haber al menos alguna ley en el explanans y todas las leyes del explanans deben
ser no probabilísticas.
3. El explanandum debe deducirse del explanans.
4. En el explanans debe haber condiciones iniciales, enunciados singulares que refieren a
hechos particulares.
5. Para que la explicación sea una verdadera explicación, los enunciados del explanans
deben ser verdaderos. Por supuesto, como hay leyes y nunca estamos seguros de que
éstas sean verdaderas, no podemos estar seguros de que la explicación sea
verdadera.

Dado que el explanandum se deduce del explanans, si hubiéramos conocido el explanans


antes, podríamos haber predicho el explanandum. Según Hempel, en el caso de las
explicaciones nomológico deductivas particulares hay una equivalencia formal entre
explicación y predicción. La única diferencia es que el hecho descripto en el explanandum, en

| Metodología de la Investigación

34/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

la explicación ya ocurrió, mientras que en la predicción todavía no.

Este tipo de explicaciones, según Hempel, son las características y paradigmáticas de las
teorías no probabilísticas. Por lo tanto, proporcionan un caso que sirve de base para el
planteamiento de los otros tipos de explicación.

Explicaciones nomológico deductivas generales

En algunos casos lo que se quiere explicar es una generalidad descripta por un enunciado
general, como por ejemplo, por qué los objetos caen en la Tierra con cierta aceleración, y no
un hecho particular. Bajo este enfoque la forma en que se explica una generalidad es
subsumiéndola bajo una ley más general. De este modo se puede explicar la ley de caída de
cuerpos subsumiéndola bajo las leyes newtonianas del movimiento. Las condiciones que
deben cumplir las explicaciones nomológico deductivas generales son:

El explanandum debe ser un enunciado general.


Debe haber al menos alguna ley en el explanans y todas las leyes del explanans deden
ser no probabilísticas. Ninguna de las leyes debe ser igual a la enunciada en el
explanans.
El explanandum debe deducirse del explanans.

Explicaciones probabilísticas

Lo que caracteriza a estas explicaciones es que en el explanans aparece al menos alguna ley
probabilística. Una ley probabilística es una ley que no se aplica a una clase general sino a un
porcentaje de esa clase. Así, un ejemplo (inventado) es “el 90 por ciento las personas picadas
por vinchucas se enferma de mal de chagas”.

Existen dos tipos de explicaciones probabilísticas: las inductivo estadísticas y las deductivo
estadísticas.

Explicaciones inductivo estadísticas

Supongamos que queremos explicar por qué cierta persona se contagio mal de chagas. Para
eso apelamos a la ley antes citada. Veamos la estructura del razonamiento explicativo.

El 90 por ciento las personas picadas por


Ley probabilística
vinchucas se enferma de mal de chagas

A Darwin lo picó una vinchuca Explanans

- - - - - - - - - - - - - - - - - - - - - - - - - - - Condiciones iniciales
---

Darwin enfermó de mal de chagas Explanandum

Como se puede notar la inferencia no es deductiva, porque Darwin podría encontrarse en el


10 por ciento que no se contagia el mal de chagas. Por eso se suele poner una línea no

| Metodología de la Investigación

35/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

continua, para aclarar que se trata de un razonamiento no deductivo. En este caso sólo hay
una ley, pero podría haber más. Podría haber algunas no probabilísticas. Con que haya una
probabilística el razonamiento puede ser no deductivo.

Las condiciones son, entonces, las siguientes:

1. El explanandum es un hecho particular


2. El explanans contiene esencialmente al menos una ley probabilística.
3. El explanans incluye condiciones iniciales
4. La relación inferencial es no deductiva

Como en este caso el hecho de conocer el explanans no permitiría deducir el explanandum, no


existe la equivalencia entre la predicción y la explicación que había en el caso de las
explicaciones nomológico deductivas. De las premisas del explanans se podría deducir, no que
Darwin se contagió el mal de chagas, sino, en todo caso, que tuvo ciertas probabilidades de
contagiárselo.

Explicaciones deductivo estadísticas

En este caso se quiere dar cuenta de un hecho general probabilístico.


Las condiciones para este tipo de explicación son:

1. El explanandum es un enunciado general probabilístico.


2. El explanans contiene esencialmente sólo enunciados generales y alguno de ellos es
probabilístico.
3. La relación inferencial explicativa es deductiva.

En general lo que este tipo de explicación hace es, a partir de la interrelación de ciertas leyes
probabilísticas, usando alguna teoría de la probabilidad, inferir deductivamente otra ley
probabilística. Por ejemplo, a partir de la probabilidad de que los que comen mucha carne
tengan colesterol alto sea x, y de que los que no hacen deportes, tengan el colesterol alto es
y, se extrae deductivamente, utilizando teorías de la probabilidad, que la probabilidad de que
alguien que come mucha carne y no hace deportes tenga el colesterol alto es z.

Explicaciones funcionales y teleológicas

Un capítulo complejísimo de esta discusión tiene que ver con las explicaciones funcionales. Si
nos preguntamos por qué las cebras tienen rayas, una de las posibles respuestas, tal vez la
más satisfactoria, introduce fines. La cebra tiene rayas para [es decir, con el fin de]
mimetizarse de los predadores. Es imposible explicar los puntos de vista al respecto de esta
cuestión sin retrotraerse en a la historia de la discusión.

Aristóteles, influenciado por su maestro Platón, distinguía entre diversos tipos de causas. En
particular nos interesan dos de ellas, la eficiente (que es el sentido en que nosotros hablamos
de causas) y la final. La causa eficiente de, por ejemplo, un movimiento, refiere al agente que
lo puso en marcha, mientras la causa final es el fin que persigue tal movimiento. En el

| Metodología de la Investigación

36/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

universo aristotélico, las causas finales cumplían un papel fundamental. Por ejemplo, la forma
en que Aristóteles explicaba que ciertas cosas cayeran y ciertas otras cosas ascendieran,
tenía que ver con su teoría de los lugares naturales. En el mundo sublunar (las cosas después
de la órbita de la luna eran diferentes) todo estaba formado por los cuatro elementos: tierra,
agua, aire y fuego. A cada uno de esos elementos le correspondía un lugar natural. Si no
estuviesen mezclados, la tierra ocuparía el centro del universo (recuérdese que Aristóteles era
geocentrista) luego vendría el agua, luego el aire y finalmente el fuego. La razón por la que al
soltar un objeto, éste cae, es porque tiene más tierra que el medio en que lo suelto, la razón
por la que una madera flota en el agua, es porque tiene mayor concentración de aire. Es
decir, algo cae, porque sus elementos buscan su lugar natural. La finalidad impregna el
mundo aristotélico en todos los movimientos naturales, incluyendo, por ejemplo, el
crecimiento de una semilla hacia un árbol.

Con la revolución copernicana, la finalidad desapareció en cierta medida de la física y de la


astronomía. Los objetos no caen porque busquen su lugar natural sino porque se ven
afectados por fuerzas. La física desde entonces tiende a dar explicaciones a partir de causas
eficientes. Suele decirse que una de las características de la ciencia posgalileana es que,
además de conceder un papel central a las matemáticas, abandona las causas finales. Sin
embargo, existen explicaciones que apelan a fines en la biología, en la sociología, en la
antropología y en la psicología. ¿Implica esto un retraso de estas áreas? En algún momento
se consideró esta cuestión. Actualmente, con el crecimiento de la biología a la segunda mitad
del siglo XX, esta opción es cada vez más difícil de sostener.

En general, en la discusión acerca de la elucidación de las explicaciones que apelan a fines ha


habido dos tendencias distintas. Una que intenta sostener la eliminabilidad del lenguaje
funcional de la ciencia, es decir, que siempre que se apela a una función para dar una
explicación es posible reemplazarla por una explicación no funcional sin pérdidas, y otra que
pretende defender que estas explicaciones finales son ineliminables y legítimas.

Hempel realiza un análisis de la cuestión.

Lo que primero propone es diferenciar entre las explicaciones teleológicas y las


funcionales. Las explicaciones teleológicas se referirían a conductas intencionales, es
decir, aquellas cuyas metas son conscientes, reservando el término “funcional” para
conductas que persiguen fines no conscientes.

Así, si queremos contestar a la pregunta “¿por qué Juan estudia?” la respuesta podría ser,
“para aprobar el parcial”. La extrañeza con el enunciado “Juan estudia para aprobar el parcial”
es que la causa (la aprobación del final) parece encontrarse en el futuro de la acción a
explicar, del efecto (estudiar). Un requisito para que algo sea causa de un efecto
determinado, es que lo preceda temporalmente. Pero en el caso de las explicaciones
teleológicas esto no es problemático. Es posible interpretar el enunciado en cuestión como
“Juan estudia a causa de que quiere aprobar el parcial” apelando a la meta consciente de
aprobar que tiene Juan, que es anterior a la acción.

| Metodología de la Investigación

37/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Así, las explicaciones teleológicas son reducibles a explicaciones nomológico deductivas o a


inductivo estadísticas.

Las personas que tienen una meta realizan acciones que posibilitan conseguir esas metas

Juan tiene la meta de aprobar


Una acción que permite conseguir la meta de estudiar es aprobar
Juan estudia

Pero no es posible realizar este movimiento con las explicaciones funcionales, puesto que no
existe una meta consciente anterior. Cuando se afirma “el corazón late para hacer circular la
sangre” no es posible afirmar “el corazón late a causa de hacer circular la sangre”. Pues
parece que se están invirtiendo los hechos. En realidad la sangre circula a causa de que el
corazón late. En antropología, por ejemplo, a veces se dan explicaciones teleológicas cuando
se apela a las metas conscientes que persigue cierto acto “la tribu realiza una danza para que
llueva”. Estas serían explicaciones teleológicas reducibles según Hempel a esquemas
tradicionales. Pero en muchos otros casos se apela a metas no conscientes, como cuando se
afirma que “el rito de la danza de la lluvia tiene la función de afirmar lazos sociales”, por
ejemplo. En este caso, estaríamos frente a explicaciones funcionales, y estas, como veremos
ahora, no son reducibles a los modelos vistos.

La idea de la explicación es que el sistema mismo tiene cierto objetivo de funcionamiento


adecuado, y que el corazón cumple con un objetivo, el de la circulación de la sangre. Hempel
propone la siguiente forma para la explicación:

S funciona correctamente en las condiciones Ci y Ce


Si S funciona correctamente en las condiciones Ci y Ce, entonces se cumple N
Si I está presente en S en condiciones Ci y Ce, entonces se cumple N
----------------------------------------------------------------------------------------
I está presente en S

En donde S sería por ejemplo un mamífero, N sería la circulación de la sangre e I sería el


corazón.

Las condiciones Ci y Ce se especifican porque el corazón late en condiciones de normalidad o


de funcionamiento adecuado.
Si simplificamos la forma del razonamiento quitando las condiciones Ci y Ce la estructura
sería la siguiente.

S
S →N
I →N
-------------
I

S permite obtener N por un razonamiento válido, pero una vez que tenemos N no podemos

| Metodología de la Investigación

38/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

inferir I. Esto es una falacia de afirmación del consecuente.


Si la tercer premisa fuese N → I, la inferencia sería válida. Pero nótese el problema que
Hempel señala.

“I → N” significa (recuérdese que quitamos las condiciones de normalidad para simplificar) si


hay un corazón la sangre circula. Mientras que “N → I” significa que si la sangre circula hay
un corazón. Lo primero, en condiciones de normalidad es verdadero, pero lo segundo no, por
lo que Hempel llama “el problema de los equivalentes funcionales”. Es posible hacer circular la
sangre por medio de otros medios que cumplen esa función, por medio de un corazón
artificial, por ejemplo (independientemente de que esto sea tecnológicamente posible hoy).

Así, podemos decir que cierta forma del cerebro cumple cierta función en los humanos, pero
esto no implica que esa zona del cerebro sea necesaria para cumplir con esa función (que si
se cumple la función está presente esa zona del cerebro). De hecho, el cerebro tiene la
suficiente plasticidad como para que en ciertos casos, si se pierde un parte en un accidente,
las funciones puedan ser realizadas por otras partes.

En el caso de las ciencias sociales, si sostenemos que cierto rito tiene la función de facilitar la
cohesión social, esto no implica que en caso de ausencia de tal rito, la cohesión social no
pueda ser lograda por otros medios, por equivalentes funcionales.

Esto hace que la tercera premisa no pueda ser interpretada como una condición necesaria y
que, por lo tanto, no pueda considerarse a las explicaciones funcionales como un caso de las
otras explicaciones vistas.

Este análisis se encuentra en la prehistoria de las discusiones acerca de las explicaciones


funcionales, que hoy han avanzado de diferentes modos, sin embargo la cuestión no tiene
todavía una solución aceptada. Lo que muestra el análisis de Hempel es que la cuestión de la
eliminación del lenguaje funcional no es tan simple.

Un intento de elucidación eliminativista del lenguaje funcional es el realizado por Wright. La


meta es definir el concepto en cuestión de manera mecanicista. La biología de este modo,
podría seguir adscribiendo funciones sin que se la acuse de pregalileana. Como es bien
sabido, un término definido es eliminable del lenguaje en el que se lleva a cabo la
definición.

Wright(2) caracteriza a las funciones del siguiente modo: decir que un órgano tiene cierta
función, consistiría en afirmar algo acerca de su origen. A este concepto de función se lo ha
llamado por este motivo, “concepto etiológico de función”. Según este punto de vista, decir
que Z es la función de X es decir que X está ahí por Z o, que hacer Z es la razón de que X
esté allí.

Así, la pregunta:

¿Cuál es la función (o una de las funciones) de X en Y?

Es equivalente a la pregunta:

| Metodología de la Investigación

39/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

¿Por qué los Y tienen X?

Wright pretende que su elucidación del concepto de función se aplique


tanto a las funciones artificiales o conscientes como a las naturales. Para
esto requiere que su presentación de las funciones sea independiente de
cualquier tipo de adscripción teleológica de propósitos conscientes. La
pregunta cuando se hace acerca de algún artefacto diseñado, tiene como
respuesta las intenciones del diseñador. Veamos lo que ocurre en el caso
de funciones naturales:

¿Cuál es la función (o una de las funciones) del corazón en los humanos?

La pregunta interpretada de la manera sugerida por Wright sería: ¿Por qué los humanos
tienen corazón? La respuesta, en muchos casos, ciertamente no en todos, implica a la acción
en el pasado de la selección natural.
Así, si decimos el pico del pinzón tiene la función de romper la cáscara de cierto fruto, lo que
estaríamos diciendo (nótese que se elimina el concepto de función) es que los pinzones tienen
ese pico porque en el pasado los pinzones que lo tenían y que podían romper la cáscara de
esos frutos tuvieron éxito en la reproducción diferencial.

Una de las virtudes de tal enfoque consiste en distinguir los accidentes de las funciones.
Nadie diría que una función de la nariz es sostener los lentes. Este enfoque permite marcar
esta diferencia de manera bastante clara, pues no es por sostener los lentes que la nariz está
ahí. Otra de las virtudes, también según Wright, es su generalidad, pues, cómo veíamos,
logra aunar bajo un mismo marco las funciones naturales y las artificiales.

Algunos autores han señalado que no es cierto que todo rasgo que cumpla con una función en
un organismo surgió por selección natural para cumplir tal función. Otros han sostenido que
la selección natural contiene términos funcionales irreducibles(3). La discusión es compleja y
no es mi intención tratarla aquí. Simplemente, señalo que sigue siendo vigente y que es una
de las cuestiones en filosofía de la biología y de otras ciencias que utilizan este tipo de
explicaciones, sobre las que más tinta se ha gastado. Esta cuestión sigue siendo hoy
absolutamente controvertida.

(2) Wright, L. (1976), "Functions", Philosophical Review 85:70-86.


(3) Ginnobili, S. "Adaptación y función", en Ludus Vitalis, Vol. XVII, No. 31, primer semestre de
2009. Disponible en santi75.wordpress.com.

| Metodología de la Investigación

40/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Críticas al enfoque estándar

Hempel, con sus condiciones para los distintos tipos de explicación intentaba dar condiciones
necesarias y suficientes, es decir, en el caso de las explicaciones nomológico deductivas, que
si cualquier pretendida explicación las cumple estamos frente a una explicación nomológico
deductiva, y que si no, no.

Siempre que se pretende dar condiciones necesarias y suficientes para la aplicación de cierto
concepto se abren dos tipos de críticas. Las que señalan que las condiciones dadas no son
suficientes y las que señalan que no son necesarias.

Así, supongamos que como condiciones necesarias y suficientes para “mesa” damos la única
condición de “tener cuatro patas”. Es posible criticar esta elucidación a través del
señalamiento de que, según ella los perros serían mesas, es decir, señalando que no es
suficiente tener cuatro patas para ser una mesa, y también es posible criticarla señalando
que hay cosas que consideramos mesas que dejarían de serlo, las mesas de una pata por
ejemplo, es decir, señalando que la condición no es necesaria. Podemos encontrar el mismo
tipo de críticas con respecto a las elucidaciones de Hempel.

Repasaremos sólo dos porque interesan particularmente para presentar luego, aunque sea
someramente, propuestas actuales alternativas.

Autoexplicación:
La primera de las críticas tiene que ver con la explicación nomológico deductiva
de hechos generales. En estas se pide que en el explanans haya al menos una
ley distinta de la que figura en el explanandum de la cual (o de las cuales) la ley
que figura en el explanandum se deduzca. El mismo Hempel notó un problema
en esta elucidación que no pudo solucionar.

Lo que se pretendía analizar con este modelo es la explicación que se hace, por ejemplo, de
la ley de Kepler que afirma que los planteas giran en elipses, a partir de las leyes de Newton.
Pero es posible armar una explicación que cumpla con todos los requisitos y que sin embargo
nadie aceptaría como explicación legítima (como el caso en el que los perros se nos vuelven
mesas bajo la definición de mesa como objeto con cuatro patas). Este contraejemplo consiste
en explicar la ley de Kepler a partir de la conjunción de las leyes de Kepler y cualquier otra
teoría (la freudiana del inconsciente, por ejemplo).

Los planetas giran en elipses y el inconsciente se manifiesta a través del acto fallido

Los planetas giran en elipses

Esta explicación, inaceptable, cumple con todos las condiciones impuestas por Hempel. La
explicación no puede ser una autoinferencia de este tipo, pero, por otro lado, como vimos en

| Metodología de la Investigación

41/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

el primer módulo, toda deducción es no ampliativa, es decir, sólo extrae lo que ya está entre
las premisas. Hempel dejó éste como un problema abierto y nunca dio con las condiciones
que permitan evitar que este tipo de razonamientos no caiga entre las expoliciones legítimas.

Asimetría:

Explicar el largo de una sombra a partir del alto del árbol que la provoca es una explicación
nomológico deductiva particular legítima:

La luz viaja en línea recta


El ángulo ß mide wº
El ángulo a mide xº
El árbol mide y m.

La sombra mide z m.

Esta es una explicación nomológico deductiva perfectamente legítima. Pero es posible dar otra
explicación:

La luz viaja en línea recta


El ángulo ß mide wº
El ángulo a mide xº
La sombra mide z cm.

El árbol mide y cm.

Esta explicación, tiene leyes y condiciones que consideramos verdaderas, permite deducir el
explanandum, y sin embargo, no la consideraríamos una buena explicación. No podemos
explicar la altura del árbol a partir de la sombra que proyecta. Ésta es otra muestra de que
los requisitos que Hempel propone no son suficientes, pues dejan que se cuele entre las
explicaciones legítimas una inaceptable. La explicación de la altura del árbol es
completamente diferente. Tiene que ver con la especie a la que pertenece, con la condiciones
de crecimiento, pero nunca, con la sombra que proyecta.

| Metodología de la Investigación

42/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Propuestas alternativas

Ha habido dos tendencias generales en las discusiones subsiguientes acerca de la explicación,


las causalistas y las unificacionistas.

Causalismo

¿Por qué motivo no es posible explicar lo alto del árbol a partir del largo de la sombra, pero sí
lo contrario? Algunos sostienen que esta asimetría sólo puede ser analizada tomando en
cuenta la causalidad. La altura del árbol causa el largo de la sombra. Mientras que lo largo de
la sombra no causa la altura del árbol. Según Aristóteles explicar es dar causas. Con los
enfoques empiristas, especialmente con el enfoque crítico de Hume, se comenzó a sostener
que el concepto de causa no tenía fundamento en la experiencia. A partir de la experiencia
podríamos determinar que dos eventos se dan habitualmente uno después del otro, pero
nada más. Que uno cause a otro implica que hay algún tipo de poder oculto que es pasado de
uno a otro, y tal poder no tiene fundamento en la experiencia. Los positivistas lógicos, en
particular Hempel, era en este sentido empirista. En su análisis de la explicación no juega
ningún papel la causalidad. Algunos autores, como Salmon(4), sostienen que el concepto de
causalidad no es evitable. Es necesario justamente proponer un enfoque causalista para
poder entender el funcionamiento de las explicaciones.

Distintos autores han dado distintos tipos de análisis de la causalidad con relativo éxito.

Unificacionismo

Otro enfoque, más cercano al de Hempel, que considera que, efectivamente el concepto de
causa es oscuro y que por lo tanto no puede ser utilizado para elucidar, consideran que lo
característico de las explicaciones es la unificación. Según este punto de vista son preferibles
siempre las explicaciones más unificadoras. Efectivamente, las comunidades científicas dan
un valor especial a teorías unificadoras. Así, la unificación ha jugado un papel esencial en la
aceptación de la teoría de Newton y de la teoría de Darwin. Ellas fueron aceptadas, en parte,
por unificar hechos o generalidades que de otro modo se encontraban desperdigadas.

El reto de este punto de vista es dar cuenta de una noción robusta de unificación que permita
evadir el problema de la unificación espuria señalada en el punto 5.2.1. Según Kitcher(5),
esto es posible y además, este enfoque sortea los problemas que tenía el enfoque
hempeliano.

Kitcher llama una “sistematización” del conjunto de nuestras creencias (que llamaremos K) a
un conjunto de razonamientos (explicativos) que infieren creencias de K de otras creencias de
K. La idea de Kitcher es que siempre preferimos las sistematizaciones más unificadoras, las

| Metodología de la Investigación

43/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

que con menos tipos de patrones explicativos, dan cuenta de la mayor cantidad de nuestras
creencias. ¿Por qué rechazamos la explicación de la altura del árbol por el largo de la
sombra? porque la sistematización que incluye el patrón de razonamiento que infiere del
largo de la sombra, la altura del árbol, es menos unificadora que la que una que no lo incluye.
La sistematización que incluye este tipo de patrones extraños, o bien no explica la altura de
árboles que no estés siendo iluminados por el sol, por lo que explicaría menos, o bien tiene
patrones explicativos para los árboles que no están siendo iluminados por el sol, y por lo
tanto tiene más patrones explicativos. En cualquier caso, por explicar más o por requerir
menos tipos de patrones explicativos, es preferible la sistematización que no incluye este tipo
de explicaciones que queremos evitar.

El enfoque de Kitcher también tiene problemas, y la discusión continúa todavía hoy.


Existen algunos nuevos puntos de vista que se pretenden sintéticos de ambas posiciones. Pero
no los veremos aquí(6).

(4) Salmon, W. (1984), Scientific Explanation and the Causal Structure of the World, Princeton,
Princeton UP.
(5) KITCHER, P. (1993), The advancement of science: science without legend, objectivity without
illusions. New York ; Oxford: Oxford University Press.
(6) p.e. DIEZ, J. A. (2002), 'Explicación, unificación y subsunción', en W. Gozález (ed.), Pluralidad de
la explicación científica, Barcelona: Airel, 73-93.

| Metodología de la Investigación

44/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Explicación / Comprensión

Existe una disputa, cuyo origen se encuentra probablemente en el siglo XIX acerca de si
existe un único método para todas las ciencias fácticas o si las ciencias sociales tienen un
método distinto. La disputa, planteada en esos términos es bastante ingenua. Resulta
bastante claro que la distinción entre ciencias sociales y naturales no coincide con distinciones
de método. Algunos han considerado que el análisis clásico de la explicación lo era de toda
explicación científica. Creo, sin embargo, que esta pretensión es algo exagerada. Existen
distintos tipos de explicaciones que no han sido tratadas en este capítulo, como las
historicistas, que no caen bajo dicho análisis. Sin embargo, no es correcto considerar que
estos tipos de explicaciones historicistas sólo ocurren en las ciencias sociales, dado que
podemos encontrar explicaciones semejantes en la biología, en las historias evolutivas, por
ejemplo, o incluso en la física, en, por ejemplo, teorías acerca de la formación del sistema
solar.

En medio de estas cuestiones de la unidad de método en las ciencias, se ha planteado una


polémica entre la comprensión y la explicación. Pues parece que las ciencias sociales
tienen la característica peculiar de tratar con la subjetividad humana, y ésta puede
ser, comprendida. Esto no implica ni que no haya áreas de las ciencias sociales que aplican
explicaciones semejantes a las analizadas por Hempel, ni que no haya estudios
comprensivitas por fuera de las ciencias sociales (algunos estudiosos del comportamiento de
los primates consideran que cierta comprensión es necesaria(7)). De este modo considero
que hay que separar la cuestión de la comprensión de problemática acerca de la unidad de la
ciencia, habitualmente mezcladas. Lo cierto es que existen científicos que, frente a ciertas
conductas no intentan explicarlas, subsumiéndolas bajo leyes, sino comprender sus
motivaciones reales y subjetivas.

Comparemos dos fragmentos de estudios sociales distintos. El primero es del libro Vacas,
cerdos, guerras y brujas del antropólogo Marvin Harris:

La madre vaca

Siempre que se discute acerca de la influencia de los factores prácticos y


mundanos en los estilos de vida, estoy seguro de que alguien dirá: «¿Pero, qué
opina de todas esas vacas que los campesinos hambrientos de la India rehúsan
comer?» La imagen de un agricultor harapiento que se muere de hambre junto a
una gran vaca gorda transmite un tranquilizador sentido de misterio a los
observadores occidentales. En innumerables alusiones eruditas y populares,
confirma nuestra convicción más profunda sobre cómo la gente con mentalidad
oriental inescrutable debe actuar. Es alentador saber —algo así como «siempre
habrá una Inglaterra»— que en la India los valores espirituales son más

| Metodología de la Investigación

45/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

apreciados que la vida misma. Y al mismo tiempo nos produce tristeza. ¿Cómo
podemos esperar comprender alguna vez a gente tan diferente de nosotros
mismos? La idea de que pudiera haber una explicación práctica del amor hindú a
las vacas resulta más desconcertante para los occidentales que para los propios
hindúes. La vaca sagrada —¿de qué otra manera puedo expresarlo?— es una de
nuestras vacas sagradas favoritas.

Los hindúes veneran a las vacas porque son el símbolo de todo lo que está vivo. Al
igual que María es para los cristianos la madre de Dios, la vaca es para los hindúes
la madre de la vida. Así, no hay mayor sacrilegio para un hindú que matar una
vaca. Ni siquiera el homicidio tiene ese significado simbólico de profanación
indecible que evoca el sacrificio de las vacas […].

Nadie puede negar que el amor a las vacas moviliza a la gente para oponerse al
sacrificio de las vacas y al consumo de su carne. Pero no estoy de acuerdo en que
los tabúes que prohíben sacrificar y comer la carne de vaca tengan
necesariamente un efecto adverso en la supervivencia y bienestar del hombre. Un
agricultor que sacrifica o vende sus animales viejos o decrépitos, podría ganarse
unas rupias de más o mejorar temporalmente la dieta de su familia. Pero a largo
plazo, esta negativa a vender al matadero o sacrificar para su propia mesa puede
tener consecuencias benéficas. Un principio establecido del análisis ecológico
afirma que las comunidades de organismos no se adaptan a condiciones ordinarias
sino extremas. La situación pertinente en la India es la ausencia periódica de las
lluvias monzónicas.

Para evaluar el significado económico de los tabúes que prohíben sacrificar vacas y
comer su carne, debemos considerar lo que significan estos tabúes en el
contexto de sequías y escaseces periódicas.

El tabú que prohíbe sacrificar y comer carne de vaca puede ser un producto de la
selección natural al igual que el pequeño tamaño corporal y la fabulosa capacidad
de recuperación de las razas cebú. En épocas de sequía y escasez, los agricultores
están muy tentados a matar o vender su ganado vacuno. Los que sucumben a
esta tentación firman su propia sentencia de muerte, aun cuando sobrevivan a la
sequía, puesto que cuando vengan las lluvias no podrán arar sus campos.
Incluso voy a ser más categórico: el sacrificio masivo del ganado vacuno bajo la
presión del hambre constituye una amenaza mucho mayor al bienestar colectivo
que cualquier posible error de cálculo de agricultores particulares respecto a la
utilidad de sus animales en tiempos normales. Parece probable que el sentido de
sacrilegio indecible que comporta el sacrificio de vacas, esté arraigado en la
contradicción intolerable entre necesidades inmediatas y condiciones de
supervivencia a largo plazo. El amor a las vacas con sus símbolos y doctrinas
sagrados protege al agricultor contra cálculos que sólo son «racionales» a corto
plazo. A los expertos occidentales les parece que «el agricultor indio prefiere

| Metodología de la Investigación

46/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

morirse de hambre antes que comerse su vaca». A esta misma clase de expertos
les gusta hablar de la «mentalidad oriental inescrutable» y piensan que las «masas
asiáticas no aman tanto la vida». No comprenden que el agricultor preferiría comer
su vaca antes que morir, pero que moriría de hambre si lo hace.

El segundo, de otro antropólogo, Mircea Eliade, de su libro Lo sagrado y lo profano:

La sacralidad de la naturaleza y la religión cósmica

Para el hombre religioso, la Naturaleza nunca es exclusivamente «natural»: está


siempre cargada de un valor religioso. Y esto tiene su explicación, puesto que el
Cosmos es una creación divina: salido de las manos de Dios, el Mundo queda
impregnado de sacralidad. No se trata únicamente de una sacralidad
comunicada por los dioses, por ejemplo, la de un lugar o un objeto consagrado por
una presencia divina. Los dioses han ido más allá: han manifestado las diferentes
modalidades de lo sagrado en la propia estructura del Mundo y de los fenómenos
cósmicos.

El Mundo se presenta de tal manera que, al contemplarlo, el hombre religioso


descubre los múltiples modos de lo sagrado y, por consiguiente, del Ser. Ante
todo, el Mundo existe, está ahí, tiene una estructura: no es un Caos, sino un
Cosmos; por tanto, se impone como una creación, como una obra de los dioses.
Esta obra divina conserva siempre cierta transparencia; desvela espontáneamente
los múltiples aspectos de lo sagrado. El Cielo revela directamente, «naturalmente»,
la distancia infinita, la trascendencia del dios. La Tierra, asimismo, es
«transparente»: se presenta como madre y nodriza universal. Los ritmos cósmicos
ponen de manifiesto el orden, la armonía, la permanencia, la fecundidad. En su
conjunto, el Cosmos es a la vez un organismo real, vivo y sagrado: descubre a la
vez las modalidades del Ser y de la sacralidad. Ontofanía y hierofanía se reúnen.

En este capítulo trataremos de comprender cómo se presenta el Mundo a los ojos


del hombre religioso; más exactamente, cómo la sacralidad se revela a través de
las propias estructuras del Mundo. No hay que olvidar que, para el hombre
religioso, lo «sobrenatural» está indisolublemente ligado a lo «natural», que la
Naturaleza expresa siempre algo que la trasciende. Como hemos dicho ya, si se
venera a una piedra sagrada es porque es sagrada y no porque sea piedra; la
sacralidad manifestada a través del modo de ser de la piedra es la que revela su
verdadera esencia. Así no puede hablarse de «naturalismo» o de «religión natural»
en el sentido dado a estas palabras en el siglo XIX, pues es la «sobrenaturaleza»
la que se deja aprehender por el hombre religioso a través de los aspectos
«naturales» del Mundo.

Los enfoques de estos antropólogos no pueden ser más dispares. Marvin Harris, de herencia
marxista, considera que existen razones económicas que sustentan ciertas conductas en

| Metodología de la Investigación

47/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

apariencia irracionales, por detrás del significado subjetivo que los propios actores le dan. En
este capítulo muestra, de manera convincente, que la conducta de considerar a las vacas
sagradas constituye una estrategia adaptativa que podría encontrar su origen en las leyes de
la selección natural o cultural. Por otro lado, la intención de Mircea Eliade es completamente
distinta. Consiste en comprender la forma en que el hombre religioso sacraliza lo natural. En
este libro se esfuerza por ponerse en los zapatos del hombre religioso y comprender la forma
en que lo sagrado y lo profano juegan un papel en el modo en que participa del mundo.

Estos diferentes enfoques de estos antropólogos ejemplifican dos modos, no necesariamente


los únicos, en que los científicos trabajan. Marvis Harris pretende explicar (entendiendo por
esto subsumir bajo leyes) mientras que Mircea Eliade pretende comprender la mentalidad
religiosa.

La puja entre cuál debe ser el método de las ciencias sociales se vuelve algo pueril frente a la
lectura de ambos libros. Resulta claro, al menos para mí, que el fenómeno de la conducta
religiosa es mejor entendido a partir de la lectura de ambos, que reflejan diversos aspectos
de la misma. Creo que la única posición inteligente frente a la polémica es la del pluralismo.
Aceptar que no hay métodos privilegiados y que la riqueza de la ciencia consiste justamente
en la pluralidad de métodos.

Veamos, aunque sea sucintamente, en qué consiste esta comprensión.

Presentaremos esta cuestión en su presentación clásica basándonos en los trabajos


fundacionales del filósofo alemán Wilhem Dilthey (1833-1911). Es este filósofo quien
introduce la palabra “Verstehen”, traducida habitualmente como “comprensión”, para
referirse a la tarea de reconstruir la dimensión subjetiva de la acción humana y social. A
diferencia de explicar, que consistiría en reducir lo estudiado a leyes generales, esta
operación implicaría ponerse en lugar de los sujetos estudiados. Pero ¿qué significa “ponerse
en el lugar” por ejemplo, de algún sujeto del pasado y cómo se hace esto?

Según Dilthey, la comprensión de la subjetividad se realiza a través de sus manifestaciones


visibles. La idea es, entonces, a partir de la interpretación de los productos de la cultura o de
la acción, es que accedo a los sentidos buscados. Lo que debe hacer el investigador es
proponer hipótesis y testear su coherencia respecto de la totalidad de las obras analizables.
La capacidad de realizar hipótesis del investigador dependerá de su imaginación y de su
capacidad empática.

Surge aquí un problema que preocupaba a Dilthey. ¿Cuál es la objetividad que puede tener
un análisis basado en la empatía? Si la comprensión supone la recreación de un estado
mental de otro en mí, esta capacidad de recreación, que depende de la imaginación, puede
variar de persona en persona. ¿Cómo puede valorarse y validarse estás hipótesis acerca de la
subjetividad de otros sujetos? Un método es un conjunto de reglas y procedimientos pasible
de control intersubjetivo. ¿Existe esto para la comprensión?

El método que Dilthey propone y elabora para la interpretación de las objetivaciones o


manifestaciones de la subjetividad es la hermenéutica. La hermenéutica se refería

| Metodología de la Investigación

48/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

anteriormente a la interpretación de los textos. Dilthey ampliará la aplicación de esta noción a


otras objetivaciones de la subjetividad.

En la discusión acerca de la interpretación de los textos ya se había comenzado a hablar del


famoso círculo hermenéutico. Este círculo consiste básicamente en el proceso por el que se
interpreta un texto en el que el sentido de las partes depende del todo, pero la comprensión
del todo depende de las partes. La comprensión de detalles está condicionada por la
comprensión del todo, y la comprensión del todo está condicionada por la comprensión de
detalles.

Para poner un ejemplo algo simplista, alguien comienza a afirmar: “El banco” –nos
preguntamos si estará hablando de un banco de madera o un edificio en el que se guarda
plata– “fue construido por un carpintero” –seguramente se trata de un banco para sentarse
de madera, pero todavía no podemos estar seguros– “y desde entonces ofrece descanso a
los ancianos que visitan la plaza” –se trata de un banco de plaza de madera”. Sólo podemos
estar seguros del significado del término cuando tenemos la frase, pero llegamos al
significado de la frase a partir del significado de los términos. Esta circularidad se da entre
término y frase, pero también entre frase y capítulo, entre capítulo y obra, etc.

El fracaso en este proceso se pone de manifiesto cuando quedan algunas partes que no se
comprenden en absoluto a partir del sentido del todo. Esto obliga a una nueva determinación
del sentido del todo, que contemple a esas partes. Este proceso debe seguir hasta que no
queden partes sin comprender.

El problema de Dilthey es cómo volver a éste un procedimiento objetivo y científico. Pero esta
comprensión sólo puede convertirse en un proceso técnico que permita alcanzar un grado
controlable de objetividad, cuando la manifestación de la vida esté fijada de manera que
podamos volver una y otra vez sobre ella. Basándonos en gestos y palabras son escasas las
posibilidades de alcanzar esta objetividad.

Dilthey llama interpretación a esta comprensión técnica de las manifestaciones de la vida


fijadas en forma permanente. Sólo entonces es posible adquirir un cierto grado de
objetividad. De ahí la importancia de la literatura para la comprensión de la vida espiritual.

La hermenéutica será aquella disciplina que nos proporcione las reglas para la interpretación
haciendo que la comprensión se vuelva intersubjetiva y corregible. Pero en Dilthey la
hermenéutica no se restringe a los textos escritos, sino que se aplica a otras manifestaciones
permanentes, como obras de arte, etc.

El círculo hermenéutico en este desplazamiento de la interpretación de los textos a la


interpretación del mundo de la historia adquiere diferentes formas:

I. Circularidad vivencia comprensión: Hay una interacción entre vivencia y comprensión.


Comprendo a las personas por la vivencia propia, y la propia vivencia se aclara a través
de la comprensión de otras personas.
II. Circularidad entre lo común y lo individual: La comprensión de lo singular sólo es

| Metodología de la Investigación

49/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

posible por la presencia de un saber general en esta comprensión, el cual tiene a su


vez en la comprensión su presupuesto. Hay una circularidad entre los singular y lo
universal, una dependencia recíproca. La comprensión de otros a partir de sus
manifestaciones objetivas, permite acercarse a elementos comunes entre los
individuos.
III. Circularidad entre lo histórico individual y lo sistemático: La comprensión de una parte
del curso histórico sólo alcanza su acabamiento mediante la relación de la parte con el
todo. Y la visión universal del todo presupone la comprensión de las partes que se
encuentran unidas en ese todo.

Estas reflexiones acerca de la comprensión fueron retomadas por muchos teóricos de las
ciencias sociales posteriores, como Weber, Gadamer, Ricoeur, Giddens, etc.

Dilthey también fue el que, frente a la idea del positivismo del siglo XIX que defendía una
unidad de método (que hay que distinguir del positivismo del Círculo de Viena), distinguió
entre ciencias del espíritu y ciencias naturales. Según Dilthey, la comprensión sería el método
característico de las ciencias del espíritu, mientras que la explicación como subsunción a leyes
lo era el método de las ciencias naturales. Insisto en que, si bien este punto de vista de
Dilthey se comprende como una reacción al positivismo del siglo XIX, no es posible
considerarlo actualmente correcto. Los ejemplos internos a la antropología citados al
comienzo sirven de ejemplo que ambos métodos son utilizados dentro de las ciencias sociales.
Todavía hoy algunos textos de esta temática suelen ser ingenuos al respecto. La ciencia es
sumamente compleja, y los diferentes métodos que se utilizan la cortan
transdisciplinariamente. Esta materia no se enfoca en el análisis y la presentación de los
autores comprensivistas o hermeneutas, pero no es así porque no se considere a sus
reflexiones interesantes o a sus métodos no científicos, sino porque difícilmente en una
materia puedan tratarse profundamente ambas posiciones, por cuestiones de espacio y por la
realidad de que difícilmente un filósofo de la ciencia pueda ser especialista en todos los
métodos utilizados en el marco de la ciencia. Para profundizar sobre los autores
comprensivistas acúdase a alguno de los textos al respecto en la bibliografía recomendada.

(7) Frans de Waal, El simio y el aprendiz de sushi, Paidós (2002), por ejemplo

| Metodología de la Investigación

50/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Bibliografía

Bibliografía recomendada que puede encontrar en el sitio de la materia

Díez, J.A. y P. Lorenzano, “La concepción estructuralista en el contexto de la filosofía


de la ciencia del siglo XX”, en: Díez, J.A. y P. Lorenzano (eds.), Desarrollos actuales de
la metateoría estructuralista: problemas y discusiones, Quilmes: Universidad Nacional
de Quilmes/Universidad Autónoma de Zacatecas/Universidad Rovira i Virgili, 2002, pp.
13-78.

Hempel, C. G. (1970), “Sobre la ‘concepción estándar’ de las teorías científicas”, en:


Rolleri, J.L. (comp.) (1986), Estructura y desarrollo de las teorías, México, UNAM, pp.
141-166.

Kuhn, T.S., La estructura de las revoluciones científicas, México: Fondo de Cultura


Económica, 1971, capítulos 1, 2, 10 y 13 y parágrafos 1-3 del epílogo.

Putnam, H. (1962), “Lo que las teorías no son”, en: Olive, L. y Perez Ransanz, A. R.
(comps.) (1989), Filosofía de la ciencia: Teoría y observación, México, Siglo XXI
Editores, pp. 312-329. Parágrafo La dicotomía observacional-teórico

Bibliografía recomendada:

Balzer, W., Moulines, C.U. y J.D. Sneed (1987), An Architectonic for Science. The
Structuralist Program, Dordrecht: Reidel.
Blanché, R. (1965), La axiomática, México: Universidad Nacional Autónoma de México.
Carnap, R., Fundamentación lógica de la física, Buenos Aires: Sudamericana, 1969.
Díez, J.A. y C.U. Moulines, Fundamentos de filosofía de la ciencia, Barcelona: Ariel,
1997,
Durham, F. y Purrington, R. D. (1996). La trama del universo. México: FCE.
Ginnobili, S. "Adaptación y función", en Ludus Vitalis, Vol. XVII, No. 31, primer
semestre de 2009. Disponible en santi75.wordpress.com.
Ginnobili, S. “La ley fundamental de la teoría darwiniana de la selección natural”, en
Lorenzano, P. y A. García de la Sienra (eds.), Metateoría Estructuralista en
Iberoamérica. Selección de trabajos presentados en el V Encuentro Internacional de
Metateoría Estructuralista, Buenos Aires: Prometeo. (En prensa), Disponible en
santi75.wordpress.com.
Hempel, C.G. (1979), La explicación científica, 1ª edición 1965, Buenos Aires: Paidós.
Kitcher, P. (1993) El avance de la ciencia. Ciencia sin leyenda, objetividad sin ilusiones.
Universidad Autónoma de México, México DF
Kitcher, P. y W.C. Salmon (eds.) (1989), Scientific Explanation, Minnesota Studies in
the Philosophy of Science, vol. 13, Minneapolis: University of Minnesota Press.
Koestler, A. (1994). Los sonámbulos. Barcelona: Salvat.

| Metodología de la Investigación

51/52
Universidad Nacional de Tres de Febrero UNTREF Virtual

Kuhn, T, “La Revolución.Copernicana”, Barcelona: Ariel, 1978.


Kuhn, T.S. (1975), “¿Lógica del descubrimiento o psicología de la investigación?”, 1ª
edición 1970, en: Lakatos, I. y A. Musgrave (eds.) (1975), La crítica y el desarrollo del
conocimiento, Barcelona: Grijalbo, 1975, pp. 81-111.
Makkreel, Rudolf, “Dilthey”, en The Stanford Encyclopedia of Philosophy
Moulines, C.U., Exploraciones metacientíficas, Madrid: Alianza, 1982,
Salmon, M. y W. (eds.) (1992), Introduction to the Philosophy of Science, Englewood
Cliffs (New Jersey), Prentice Hall.
Salmon, W. (1967), The Foundations of Scientific Inference, Pittsburgh, University of
Pittsburgh Press.
Salmon, W. (1998), Causality and Explanation, New York, Oxford University Press.
Schuster Federico, Filosofía y métodos de las Ciencias Sociales, Buenos Aires:
Manantial, 2002.
Stegmüller, W. (1981), La concepción estructuralista de las teorías, 1ª edición 1979,
Madrid: Alianza.
Torretti, R. (1993), “El método axiomático”, en: Moulines, C.U. (ed.) (1993), La
ciencia: estructura y desarrollo, Madrid: Trotta, pp. 89-110.
Toulmin, S. La trama de los cielos, Buenos Aires: Eudeba, 1971.
Woodward, James, “Scientific explanation”, en The Stanford Encyclopedia of Philosophy

Material Multimedia
Sobre la revolución copernicana: “The Harmony of the worlds” de la serie
Cosmos.

| Metodología de la Investigación

52/52

También podría gustarte