Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Contents
TEÓRICOS....................................................................................................................................................1
Unidad 1..................................................................................................................................................1
Punto 1. Concepción aristotélica de la ciencia.....................................................................................1
Punto 2. Elementos de Euclides. La reformulación de Hilbert.............................................................5
Punto 3. Cap. 5 Klimovski....................................................................................................................8
Punto 4. Video 4. Sistemas axiomáticos formales.............................................................................12
Punto 5. Propiedades de los sistemas axiomáticos............................................................................17
Unidad 2. El empirismo lógico...............................................................................................................27
Caracterización general del empirismo lógico...................................................................................27
Problemas del criterio empirista.......................................................................................................32
Conclusión de clase de unidad 2........................................................................................................41
Unidad 3. La concepción del falsacionismo en Popper..........................................................................44
Popper y las ciencias sociales............................................................................................................55
Unidad 4. 1. Estructuralismo de Kuhn..................................................................................................60
Primera etapa:...................................................................................................................................61
Segunda etapa, etapa de transición:.................................................................................................66
Tercera etapa. La etapa final.............................................................................................................70
Unidad 5. Falsacionismo sofisticado de Lakatos....................................................................................74
Los criterios de progreso que Lakatos establece...............................................................................76
Críticas a Lakatos...............................................................................................................................77
Unidad 6. El modelo de cobertura legal de Hempel..............................................................................78
1. Modelos de explicación científica. Hempel....................................................................................78
2. Requisitos para el MCL..................................................................................................................82
3. Submodelos del MCL.....................................................................................................................84
4. Leyes genuinas y generalizaciones accidentalmente verdaderas..................................................88
5. Causalidad y explicación................................................................................................................90
6. La incompletitud de las explicaciones y las explicaciones parciales...............................................92
7. Explicacion y predicción.................................................................................................................93
8. Ambigüedad de las explicaciones IE (problema importante).........................................................98
9. Algunas dificultades del MCL.......................................................................................................100
Unidad 7. Realismo y antirrealismo científico......................................................................................103
Principales argumentos realistas y antirrealistas.............................................................................112
Unidad 8. Empirismo constructivo. Van Fraassen................................................................................116
La adecuación empírica como objetivo de la ciencia.......................................................................117
PRÁCTICOS...............................................................................................................................................123
UNIDAD 1: HEMPEL.............................................................................................................................123
UNIDAD 2: BALAGUER.........................................................................................................................129
UNIDAD 3: Achistein (el primer texto: Términos observacionales).....................................................138
UNIDAD 3: Texto de Gentile, inconmensurabilidad y observación......................................................143
UNIDAD 3: Achistein, términos teóricos..............................................................................................148
UNIDAD 4. Hanson...............................................................................................................................159
Patrones de descubrimiento, cap. 1....................................................................................................159
Sección A. La que distingue los estados físicos de las experiencias visuales....................................159
UNIDAD 5. Quine.................................................................................................................................168
Introducción. Contexto........................................................................................................................168
Argumentos críticos.........................................................................................................................170
Conclusiones........................................................................................................................................181
Consecuencias del empirismo sin dogmas...........................................................................................187
UNIDAD 6. Nagel..................................................................................................................................188
Apartado II. La estructura de la ciencia, Nagel. El carácter lógico de las leyes científicas................191
TEÓRICOS
Primer parcial
Unidad 1
Punto 1. Concepción aristotélica de la ciencia.
Expone su concepción de la ciencia y el método científico en los “segundos analíticos”. Su
propuesta es el método demostrativo. Está suponiendo que hay un único método científico.
Aristóteles es un monista metodológico. El conocimiento científico seria lo obtenido
exclusivamente usando el método, en su caso ese método es el demostrativo. El concepto de
Aristóteles de ciencia está estrechamente relacionado con su metafísica. No consideraba a la
lógica como una ciencia, sino como una propedéutica para toda disciplina científica.
Los sistemas demostrativos son sistemas demostrativos de la lógica. Pero la lógica no era
disciplina científica para Aristóteles. Y el método demostrativo lo está proponiendo para las
disciplinas científicas. La idea es que toda disciplina científica tendría una única manera de
sistematizarse y organizarse y habría una única manera que expresa todo el conocimiento de esa
disciplina científica.
Se va a trabajar con el cap. 3 de klimovsky (¿inspirado en el demostrations of matemátic de
beck?).
Toda disciplina científica trata de un género de entidades. Aristóteles supone que el universo está
compuesto por entidades (sustancias individuales, compuestos de materia y forma) y que la
sustancia individual tiene propiedades que constituyen su esencia, que le son intrínsecas. El
conocimiento tiene lugar por la acción conjunta de los sentidos que percibe la realidad y el nous
que capta la forma inteligible. La ciencia permite conocer las propiedades esenciales de las
entidades, aquello que hace que sean lo que son y por lo tanto comprender el comportamiento de
las entidades.
En 2do lugar, las ciencias se pueden clasificar por su objeto. Cada género de entidades
corresponde a una única disciplina científica. Aristóteles asimila la idea de disciplina científica
con la idea de una única sistematización teórica. En cambio, actualmente no se identifica una
disciplina científica con una única sistematización teórica.
En tercer lugar, para Aristóteles hay jerarquía de las disciplinas científicas. Esa jerarquía tiene un
fundamento ontológico en la jerarquía de género o clases naturales que asume la metafísica de
Aristóteles. Cada ciencia presupone algo, ciencias que la preceden en el orden jerárquico. Ese
orden está vinculado con los grados de abstracción del conocimiento. Por ejemplo, como la física
se ocupa de los cuerpos materiales, y los cuerpos materiales son un sub género de los cuerpos
que ocupan una extensión espacial (y la geometría tiene por objeto de estudio eso), entonces la
física presupone la geometría.
Cuarto rasgo: una disciplina científica tiene que ser un sistema de enunciados. Es decir, son
enunciados que se refieren a una clase particular de entidades y sus propiedades. El lenguaje
tiene poder referencial, todo enunciado tiene que tener referencia objetiva porque el objeto del
conocimiento es la realidad. Analizar un hecho es explicitar cuáles son las propiedades
intrínsecas de las sustancias en ese hecho. Entonces, la concepción aristotélica de la ciencia
presupone una semántica que vincula objetos de la realidad con el lenguaje. Esto actualmente es
debatible si los enunciados de las ciencias formales (matemática) tengan que tener una referencia
extralingüística.
El quinto rasgo es que los enunciados tienen que tener la forma S (sujeto que refiere a una
entidad) es P (un predicado que refiere a propiedad esencial de esa entidad). La idea es que como
los enunciados describen hechos, tienen que tener términos que se refieran a los objetos y a las
propiedades y términos que afirmen o nieguen esas cualidades esenciales que se atribuyen a una
sustancia. Podemos ver que en la lógica de Aristóteles hay presupuesta una metafísica realista de
sustancias y cualidades esenciales.
Ya no se asume esto porque este supuesto no nos permite explicar hechos que consisten en
relaciones entre individuos o en relaciones entre propiedades (sobre todo si esas relaciones son
asimétricas). El problema de esta doctrina de las relaciones internas es que ninguna relación
asimétrica (S es menor que Y) es reducible a propiedades monadicas de los términos
involucrados. Si quiero expresar la relación asimétrica con enunciados de la forma de S es P no
puedo, y termino en un regreso al infinito cada vez que lo intento. Ya no se asume que la
realidad se estructura de acuerdo con la metafísica de Aristóteles, se abandona la representación
de los enunciados con la forma S es P, se acepta que hay hechos relacionados pero no se reducen
a propiedades esenciales, la lógica moderna reemplaza esta concepción de la forma de
enunciados por otra en la que hay términos para individuos, términos para propiedades o
relaciones pero no hay término para la copula, la copula queda absorbida dentro del término que
expresa la relación.
La 6ta característica es que todos los enunciados tienen que ser verdades. Aristóteles dice en la
metafísica que la verdad y la falsedad son propiedades del enunciado, no de palabras ni de
objetos extra lingüísticos. Aristóteles define la verdad: "decir de lo que es que no es, y de lo que
no es que es, es falso; y decir de lo que es, que es y de lo que no es, que no es, es verdadero". Es
un criterio de adecuación que expresa que un enunciado es verdadero por correspondencia entre
lo que describe y el hecho descripto por el enunciado. Alguien clasifica esto como concepción
semántica de la verdad porque la verdad del enunciado depende del acuerdo con la realidad. El
problema es que Aristóteles supone un concepto del lenguaje que es semánticamente cerrado (es
cuando contiene nombres para términos semánticos como verdadero y falso). El problema es que
los lenguajes semánticamente cerrados conducen a antinomias (por ejemplo: "yo estoy
mintiendo", lo cual lleva a contradicción). Para superar este problema, Tarski señala que la
verdad y la falsedad no deben predicarse de enunciados que pertenezcan a un lenguaje
semánticamente cerrado. Esto muestra que es necesario distinguir un lenguaje acerca del cual se
habla y el lenguaje que se usa para hablar, es decir, tiene que haber un metalenguaje con el cual
se refiere al lenguaje que se usa al hablar). Entonces no habría un único lenguaje sino una
jerarquía de lenguaje y todo término semántico como verdadero o falso se tiene que definir en el
metalenguaje. El problema de la definición de la verdad solo se puede resolver en lenguajes que
sean artificiales cuya estructura gramatical esté completamente especificada.
7. Aristóteles dice que los enunciados de la ciencia tengan forma de ley, que sean nomotéticos.
Su concepto de ley científica es el enunciado universal. En cambio, actualmente hacemos
enunciados individuales (Marte tiene 2 satélites) y los consideramos enunciados científicos.
Un 8vo rasgo es que la verdad de los enunciados de la ciencia deben ser necesarios y no
contingentes. No es necesidad lógica.
Un 9no rasgo es que todas las consecuencias lógicas de un enunciado que pertenezca a una
disciplina científica, también pertenece a esa disciplina científica. Como los enunciados son
verdaderos para Aristóteles, las consecuencias lógicas también son verdaderas. Podemos
demostrar la verdad de los enunciados de una ciencia porque son consecuencias lógicas de otros
enunciados de esa ciencia que también son verdaderos, ya que la deducción conserva la verdad,
en esto reside la denominación de ciencia demostrativa. La demostración es un tipo particular de
deducción, es la deducción que parte de premisas verdaderas, y por tanto la conclusión también
lo será. El problema es que piensa la deducción mediante silogismos, pero hay formas de
razonamiento válido que no son silogismo. La teoría silogística de Aristóteles no es suficiente
para demostrar muchos razonamientos que actualmente consideramos válidos. No se pueden
formalizar adecuadamente todos los enunciados bajo la forma de S es P y tampoco podemos
probar la validez de todos los razonamientos válidos usando la teoría silogística de Aristóteles.
La 10ma característica es que tiene que haber cierto número finito de términos empleados en los
enunciados de una disciplina científica que se emplean sin definir (son indefinibles) y el resto de
los términos se definen a partir de esos. Si bien la mayor cantidad posible de términos deben
estar definidos, no se pueden definir todos los términos, ya que intentar ello nos lleva a una
regresión infinita o a una definición circular. Las definiciones tienen que ser por género próximo
y por diferencia específica pero no garantizan la existencia de lo definido (por eso las
definiciones van a estar asociada a la hipótesis de la existencia de aquello que definen). Hempel
señala un problema de este tipo de definiciones por género próximo y diferencia específica: se
aplican solo a propiedades que no sean relaciones, no se aplican ni a relaciones ni a funciones.
11. Hay un número finito de enunciados que se aceptan sin demostrar (son indemostrables) y el
resto se demuestra a partir de estos. Estos primeros principios son necesarios porque si no se
parte de esos, se llega al problema de cadena infinita de demostraciones que no van a demostrar
nada porque no termina (o se llega a circularidad). Ese conjunto de enunciados debe ser una
cantidad finita, así dado un enunciado cualquiera voy a poder ver si se puede demostrar como
teorema. En cambio, si hubiera cantidad infinita de indemostrables, dado un enunciado no puedo
saber si es uno de los indemostrables. Si no lo es, es teorema, y podría suceder que no logre
demostrar como teorema luego de recorrer una gran cantidad de axiomas y no logre demostrar
como teorema ese enunciado, pero eso no me garantiza que no es teorema porque no terminé de
recorrer la lista infinita de principios, no se pueden revisar todas las demostraciones posibles. Es
decir, el sistema no sería decidible. Un sistema es decidible cuando me permite decidir qué
enunciados son teoremas y cuáles no. Sin embargo, hay sistemas axiomáticos que aceptan
cantidad infinita de axiomas, pero en el sentido de que los esquemas de axiomas son finitos y en
esos esquemas hay infinitas posibilidades para cada uno.
12. Los teoremas se demuestran empleando como premisa los axiomas.
Hay enunciados que son indemostrables pero que sirven para demostrar otros. Estos enunciados
indemostrables son los que expresan la esencia de los objetos, de las entidades básicas a las que
se refiere una disciplina científica. Hay otros enunciados demostrables que sirven para demostrar
otros enunciados. Esta segunda categoría expresaría propiedades inmediatamente derivadas de
las propiedades esenciales. Una tercera categoría es la de los enunciados que solo pueden ser
demostrados pero que no se pueden usar como premisa en otras demostraciones, estos expresan
las propiedades secundarias.
Clasificación de los principios de una disciplina científica de acuerdo a Aristóteles.
Aristóteles no siempre usó los mismos términos para referirse a lo mismo. Primero tenemos los
axiomas o nociones comunes. Estos son verdaderos de todo lo que es, su verdad debe admitirse
necesariamente en cualquier disciplina. Es lo que hay que saber para conocer algo, son
presuposiciones necesarias de todo aprendizaje, verdades evidentes (ejemplo: principio de no
contradicción, a y no a). Algunos son formales y otros menos generales.
Hay otros tipos de primeros principios que no son evidentes, son las tesis: son premisas de todo
razonamiento demostrativo que no pueden ser probadas, pero nada puede probarse sin ellas. Son
principios materiales, no formales, y son las proposiciones verdaderas con los cuales comienza
toda sistematización posible de una disciplina científica particular, pero no son evidentes, no se
imponen necesariamente al sujeto conocedor, tienen que ser enseñadas. Dentro de las tesis
tenemos las definiciones (cuál es el significado) y las definiciones reales (expresan la esencia de
los objetos). Pero no garantizan la existencia de lo definido, por eso deben estar coordinadas con
hipótesis de existencia. Los postulados son supuestos cuya verdad no es necesaria, pero tampoco
hay opinión en contrario, y se admiten como verdaderos porque sin ellos no se puede conocer
nada en una disciplina particular. La noción de hipótesis de Aristóteles no se identifica con la
concepción actual de hipótesis.
¿Problema de cómo llegar a conocer los primeros principios? No es deductivo, porque todo
conocimiento empieza por lo particular y después se generaliza, luego de observar una cantidad
de casos suficiente lo generalizo y digo que se aplica a todos los casos, pero la inducción no
garantiza la verdad del enunciado (puede llevar a conclusiones falsas por más que use premisas
verdaderas). Pero esa inducción a partir de los casos individuales nos provee de una presunta
verdad, despierta nuestra aptitud para captar la verdad. Esta primera etapa observacional e
inductiva solo sugiere posibles verdades sobre lo real, pero el conocimiento de los primeros
principios se obtiene por intuición intelectual, una verdad que se capta por visión intuitiva que se
apoya en algún sentido en el conocimiento de los particulares, pero es una captación de la verdad
de un género completamente diferente a la que proveen los sentidos y de un género diferente a la
verdad que provee la inducción y la deducción. No se puede justificar ni deductivamente ni
inductivamente.
Para predecir fenómenos observables mediante hipótesis empíricas universales son necesarias
hipótesis auxiliares (como en el caso de "ibera del estero es un humedal"). El significado
cognitivo de una hipótesis no se puede especificar para la hipótesis aisladamente (acá se recoge
la tesis del holismo metodológico de alguien). De acá se sigue entonces que, para conocer el
significado de una hipótesis, tenemos que saber no solo qué oraciones obervacionales y no
observacionales implica en conjunción con otras hipótesis auxiliares, y también tenemos que
saber que oraciones la confirmarían o la refutarían, y qué otras hipótesis esa misma hipótesis
confirma o refuta. Es decir que en el fondo, el significado cognitivo de una oración, en el
lenguaje empirista (en este sentido incluso en el más abarcativo) se refleja en la totalidad de sus
relaciones lógicas con todas las demás oraciones del lenguaje y no solo con las oraciones
observacionales, y estones porque las oraciones científicas tienen un significado excedente a que
se puede expresar mediante oraciones observacionales (como estábamos hablando en el caso de
los términos disposicionales, por eso siempre lo que consigue Carnap es solo una especie de
cadena en principio prolongable pero nunca terminada de enunciados de reducción que no
terminan de definir completamente el significado de, por ejemplo frágil o soluble en términos de
enunciados observacionales, siempre las oraciones científicas van a tener un excedente que no se
puede expresar en términos obervacionales).
(No sé dónde va esto de Carnap: no propone definir explícitamente los términos disposicionales
porque no se puede definir estrictamente en función de términos observacionales)
Uno diría que en realidad hay que distinguir entre lenguaje y metalenguaje y el criterio de
significado no pertenece al lenguaje sino al metalenguaje, por lo tanto, no pertenece al lenguaje
de la ciencia sino al lenguaje desde el cual los filósofos hablan del lenguaje de la ciencia. Pero el
empirismo lógico no da esta respuesta. Dice que esto es una especie de propuesta que no se debe
identificar totalmente con una definición, porque si fuera una definición no sería ni verdadero ni
falso. Pero tampoco sería arbitrario, es una propuesta que se hace para clarificar o elucidar la
noción de qué quiere decir que una oración es inteligible, se quiere hacer más precisa esta idea
que de alguna manera pre teóricamente se tiene (la idea de qué es una oración inteligible), pero
es una idea vaga, ambigua, por eso se quiere hacer más inteligible y por eso se propone esta
elucidación. Pero esta elucidación debe proporcionar un análisis riguroso del significado que
comúnmente se acepta para esta noción de significado empírico, así que no puede ser
convencional o arbitraria como una definición, tiene que tomar en cuenta el uso habitual de qué
es lo que se considera una oración inteligible. Pero por el otro lado, debe proveer una
reconstrucción racional de la noción se significado empírico, es decir, debe dar lugar a una teoría
del significado que sea consistente, que sea comprensiva (que sea amplia, que no queden afuera
muchas oraciones a las que uno les atribuye significado empírico, tal como pasaba con los
primeros criterios). De modo que no es una mera descripción de los usos consagrados, no es ni
puramente descriptivo ni puramente estipulativo, porque debe remediar las inconsistencias y las
ambigüedades propias del uso común de la noción. Entonces, por un lado, el criterio de
significación está sujeto a revisión si no satisface estos dos criterios de adecuación, pero por ser
una propuesta lingüística para elucidar una noción, no es ni verdadero ni falso, es revisable pero
no es ni V ni F.
Ultimo cuadro del PDF:
El status lógico del criterio empirista de significación
Otro problema que plantea el criterio de significatividad: no es una hipótesis empírica, ni una
oración analítica, ni contradictoria, entonces ¿no es significativo?
1. Si fuera una definición, no sería ni V ni F. Pero no lo es, porque no es meramente estipulativa
o arbitraria
2.Es una propuesta para elucidar la noción de oración inteligible que:
a) debe proporcionar un análisis riguroso del significado comúnmente aceptado para la noción
elucidada.
b) debe proveer una reconstrucción racional de la noción elucidada (debe dar lugar a una teoría
del significado consistente y comprehensiva).
El criterio de significación no es V ni F, pero está sujeto a revisión si no satisface estos criterios
de adecuación.
Bibliografía: Hempel, problemas y cambios en el criterio empirista. No nombró el otro.
Vamos a recordar algunas de las tesis que caracterizaron la posición del empirismo lógico que,
en términos generales, salvo en un punto específico, Popper comparte muchas de las tesis.
El Empirismo lógico (EL) formuló un criterio de demarcación entre la ciencia y la
metafísica: el denominado criterio verificacionista del significado cognitivo. Un criterio no solo
de demarcación entre la ciencia y la metafísica sino además un criterio de significación: aquello
que no cumplía con el criterio verificacionista era un sinsentido. Después mantuvieron una serie
de dicotomías:
Dicotomía descubrimiento- justificación.
La idea de que el contexto de descubrimiento no es susceptible de análisis filosófico, no hay una
lógica del descubrimiento. Sí en cambio hay una lógica de la justificación, y esa lógica para los
EL fue la lógica inductiva.
Establecieron además una clara distinción entre los enunciados analíticos (cuya verdad depende
del mero análisis interno de los términos, análisis y significado de los términos) y enunciados
sintéticos (aquellos cuya verdad o falsedad depende de la experiencia). De alguna manera, esto
mantiene relación con el criterio de demarcación: tendrán sentido aquellos que o bien son
analíticos o bien sintéticos y si se trata de sintéticos, ya sea que se trate de enunciados teóricos u
observacionales.
El progreso de la ciencia es acumulativo, se da por reducción de teorías. Las teorías posteriores
engloban el contenido no refutado de las anteriores.
En términos generales, Popper acepta cada una de esas tesis excepto la metodología de la
justificación. Para los EL la justificación de una teoría se lleva a cabo a partir de la utilización
de una metodología inductiva, para Popper la única metodología científica es la metodología
deductiva. Por lo demás, acuerda en la distinción entre contexto de descubrimiento y contexto
de justificación y la idea de que la filosofía de la ciencia no se va a ocupar del contexto de
descubrimiento.
Explícitamente Popper afirma que "el acto de concebir o inventar una idea no exige un análisis
lógico ni es susceptible de él. La cuestión acerca de cómo se le ocurre una idea nueva a alguien
(ya sea un tema musical o una teoría científica) puede ser de gran interés para la psicología
empírica, pero carece de importancia para el análisis lógico del conocimiento científico".
"En consecuencia, distinguiré netamente entre el proceso de concebir una idea nueva y los
métodos y resultados de su examen lógico. En cuanto a la tarea de la lógica del conocimiento
(que he contrapuesto a la psicología del mismo), me basaré en el supuesto de que consiste pura y
exclusivamente en la investigación de los métodos empleados en las contrastaciones sistemáticas
a que debe someterse toda idea nueva antes de que se la pueda sostener seriamente".
Entonces el contexto de descubrimiento no es un contexto para el análisis lógico y, por lo tanto,
no compete a la filosofía de la ciencia. Sí en cambio el contexto de justificación, y es
precisamente en la metodología que se aplica en el contexto de justificación que difiere la
posición de Popper respecto de los EL.
Popper va a criticar la inducción (por eso no aplica la metodología inductiva). Estas son:
1)En primer lugar, la inducción no garantiza la verdad. En una inferencia inductiva se puede
partir de premisas verdaderas y obtener una conclusión falsa.
2)Además, en una inferencia inductiva, la pregunta es, ¿cómo se justifica el pasaje de las
premisas a la conclusión? Las premisas de una inferencia inductiva pueden ser verdaderas y,
sin embargo, la conclusión falsa. Luego, ¿cómo se justifica ese pasaje? Lo que está en juego es lo
que Popper llama un principio de inducción. Digámoslo de esta manera: el principio de
inducción puede tener la siguiente formulación: dada una cantidad suficientemente grande de
casos, cada uno de ellos enumerado en las premisas, todos favorables y ninguno desfavorable, es
altamente probable que la hipótesis sea verdadera. Bien, pero este principio no se trata de un
enunciado analítico, es decir, un enunciado cuya negación sea una auto contradicción. Si no es
analítico, es sintético. Y si es sintético, de acuerdo con Popper, hay que justificarlo. ¿Cómo se
justifica ese principio de inducción? Un inductivista podría argumentar que el propio principio
de inducción que garantiza el pasaje de premisas a la conclusión, se lo justifica inductivamente.
Es decir, podría haber un principio de inducción más general que justifique este principio de
inducción. Por ejemplo, se podría afirmar que la naturaleza es regular. Luego, la naturaleza es
regular, entonces aquello que ocurrió en el pasado, continuará ocurriendo en el futuro. Si esto es
así, el principio de que, dada una cantidad de casos suficientemente grande, todos favorables y
ninguno desfavorable, es altamente probable que en la conclusión se herede la verdad, podría
justificada esa verdad. Pero nuevamente entonces la pregunta: cómo se justifica el nuevo
principio de inducción, el principio de que la naturaleza es regular. Se necesitaría un
principio de inducción más general, y por esto afirmar Popper que la justificación del principio
de inducción lleva a una regresión al infinito. Reitero, se necesita un principio de inducción
para garantizar pasaje de las premisas a la conclusión, luego para justificar este principio de
inducción haría falta un principio de inducción más general, y a su vez para justificar este
principio de inducción, haría falta un principio más general aún y entonces caemos en una
regresión al infinito.
3)Hay una nueva crítica que Popper formula a la inducción, y es que no tiene sentido
determinar la probabilidad de una hipótesis que tiene de ser verdad. Es decir, podríamos, y
de hecho los inductivistas abandonaron el ideal de probar la verdad de la probabilidad de una
hipótesis. Pero lo que está diciendo Popper es que ni siquiera podemos probar el grado de
probabilidad de una hipótesis porque, apelando a la teoría clásica de la probabilidad, para
determinar la probabilidad que tiene una hipótesis en función de la evidencia disponible, eso
significaría establecer el cociente entre los casos observados (la evidencia disponible) y el
número de casos posibles (los casos a los cuales hace referencia una hipótesis universal). Luego,
el número de casos a los cuales hace referencia una hipótesis es infinito. Y cualquier número
cuyo denominador es infinito, tiende a cero. Así como para determinar la probabilidad que tiene
una moneda en una serie de tiros de salir cara, eso equivale a los casos reales sobre los casos
posibles, dados los tiros de una moneda, los casos reales (por ejemplo, la probabilidad de que
una moneda salga cara) es uno, los casos posibles son 2, cara o ceca. La probabilidad de que una
moneda salga cara es de un medio (1/2), la probabilidad de que una hipótesis, dada la evidencia
disponible, ¿cuál es la probabilidad? Es igual a cero la probabilidad, porque en este caso tengo
los casos observados, la evidencia favorable sobre los casos posibles que son infinitos, y todo
cociente cuyo denominador es infinito tiende a cero. De manera que, de acuerdo con Popper, no
es posible probar la verdad de una hipótesis y tampoco el grado de probabilidad. Lo único
que se puede probar es la falsedad, y de ahí el nombre de la concepción de Popper:
falsacionismo.
Notemos, además, que lo que está detrás de las críticas de Popper a la inducción es, de alguna
manera, evadir los problemas que lleva consigo el confirmacionismo, las llamadas paradojas de
la confirmación.
¿Qué son las paradojas de la confirmación? De acuerdo con el confirmacionismo, que
abrazaron los EL, los casos favorables confirman una hipótesis, los casos desfavorables las
disconfirman. Los casos positivos confirman una hipótesis, los casos negativos la disconfirman.
Pero, además, de acuerdo con el principio de Nicod, aquellos casos que confirman una hipótesis
confirman además cualquier hipótesis equivalente con ella, de manera que, cuando unimos estos
2 principios se cae en lo que se llama las paradojas de la confirmación. Por ejemplo: supongamos
que tenemos la hipótesis ‘todos los cuervos son negros’, que simbolizamos "para todo x, si x es
un cuervo, entonces x tiene la propiedad de ser negro". Pero este enunciado es lógicamente
equivalente por transposición a "para todo x, si x no tiene la propiedad de ser negro, entonces no
tiene la propiedad de ser cuervo". Y esto, por definición del condicional, es lógicamente
equivalente a "x no es cuervo o x no es negro". Y este enunciado es lógicamente equivalente a
"para todo x, si x es cuervo y x no es negro, entonces x es cuervo y x no es cuervo". Todos estos
enunciados son lógicamente equivalentes, y de acuerdo con el principio de equivalencia, todo
aquello que confirma una hipótesis, debe confirmar una hipótesis equivalente, con lo cual tengo
la paradójica situación de que, (1) si un objeto A es un cuervo y es negro, confirma la hipótesis
de que todos los cuervos son negros. Pero, además, (2) un objeto que no es negro, por ejemplo,
una rosa amarilla, confirma que todos los cuervos son negros. O sea, un objeto que no es ni
negro ni cuervo. Por otro lado, (3) un objeto que no es cuervo o no es negro, cualquier objeto
confirma que todos los cuervos son negros. Y finalmente, algo, (3) un objeto que es cuervo y no
es cuervo, también confirma que todos los cuervos son negros. Esto se conoce como las
paradojas de la confirmación. En virtud del rechazo de Popper a la metodología inductiva,
una de las consecuencias de la metodología popperiana es evitar las paradojas de la
confirmación.
(En la pantalla de la clase decía esto:
Confirmacionismo: la justificación de una hipótesis o teoría queda garantizada y es
cognoscitivamente si es posible deducir un conjunto de enunciados obervacionales a partir de los
cuales, si verdaderos, es posible otorgar, si no prueba concluyente de su verdad, al menos cierto
grado de probabilidad.
Criterio de Nicod:
-condición de instanciación: los casos positivos confirman una hipótesis, los casos negativos la
disconfirman.
-principio de equivalencia: los casos que confirman una hipótesis confirman cualquier otra
equivalente a ella)
De manera que, de acuerdo con lo que veníamos viendo, de una hipótesis no se puede probar la
verdad, tampoco se puede probar el grado de probabilidad, lo único que se puede probar es la
falsabililidad, de manera que, de acuerdo con Popper, el criterio de demarcación va a ser la
falsabililidad. En función de su crítica a la inducción, Popper va a coincidir, al igual que los
empiristas, en que es preciso distinguir entre la ciencia y la metafísica, pero el criterio no puede
ser el criterio verificacionista del significado porque ese criterio va ligado a la metodología
inductiva, y dadas las críticas de Popper a la inducción, entonces el criterio deberá ser otro, a
saber, la falsabililidad: una teoría es falsable si existe una clase no vacía de enunciados
básicos que la contradigan. En las palabras de Popper:
"Se llama empírica o falsable una teoría cuando divide de modo inequívoco la clase de todos los
posibles enunciados básicos en las dos subclases no vacías siguientes: primero, la clase de todos
los enunciados básicos con los que es incompatible (o, a los que excluye o prohíbe), que
llamaremos la clase de los posibles falsadores de la teoría; y, en segundo lugar, la clase de los
enunciados básicos con los que no está en contradicción (o, que "permite"). Podemos expresar
esta definición de una forma más breve diciendo que una teoría es falsable si la clase de sus
posibles falsadores no es una clase vacía" (Popper, 1980; 1958:82).
Antes de pasar directamente a ver cómo funciona el criterio de falsabililidad, antes de lo que se
denomina la contrastación empírica propiamente dicha. De acuerdo con Popper, hay algo así
como 3 condiciones previas en la contrastación empírica de una teoría. Contrastación
deductiva:
1) tiene que ver con la comparación lógica de las conclusiones de la teoría. La idea es la
siguiente: dada una teoría, si esa teoría fuese inconsistente, si no tuviese coherencia interna,
como a partir de una contradicción se deduce cualquier tipo de enunciado, no tiene sentido pasar
a la contrastación empírica si la teoría fuese contradictoria, porque se podría probar una cosa y lo
contrario.
2)Por otra parte, una vez que sabemos que la teoría tiene la propiedad de consistencia, es
importante determinar que no se trate de una teoría tautológica, en el sentido de que es
importante tenga contenido empírico. Obviamente, si la teoría no tiene contenido empírico, no
tiene ningún sentido la contrastación empírica posterior, su verdad se determinaría por mero
análisis interno de sus enunciados.
3)En tercer lugar, es necesario comparar esta teoría con otras existentes para determinar si
constituye o no un adelanto científico, porque podría tratarse simplemente de dos teorías
equivalentes.
Una vez que están dadas estas tres primeras condiciones, entonces sí se pasa a la contratación por
medio de la aplicación empírica de las conclusiones que pueden deducirse de ella. En otros
términos, se pasa a la contrastación empírica a través de la clase de sus enunciados básicos.
Veamos entonces. Habíamos dicho que, de acuerdo con el criterio de demarcación de Popper,
la falsabililidad, una teoría es científica si se puede determinar la clase, si se pueden determinar
la clase de enunciados básicos, y estos enunciados básicos, constituyen dos tipos, hay 2
subclases: (1) la clase de enunciados básicos compatibles con la teoría y (2) la clase de
enunciados incompatibles con ella. Naturalmente, Popper está interesado en los enunciados
básicos incompatibles, a los que denomina falsadores potenciales. Recordemos que, dado el
criterio de falsación, decíamos que una teoría es falsable si la clase de sus posibles falsadores
no es una clase vacía. Esto es, una teoría es falsable si existen enunciados básicos
incompatibles, si existen falsadores potenciales. ¿Por qué falsadores potenciales? Que son
aquellos enunciados, que, si los aceptamos, en la medida en que son incompatibles con la teoría,
podrán probar su falsedad.
Por ejemplo, supongamos que en un lugar de una teoría tomemos una hipótesis, la hipótesis de
que "todos los cuervos son negros", si todos los cuervos son negros, un enunciado básico
incompatible es aquél que afirma lo siguiente: aquí y ahora (o usando la terminología
popperiana: en el espacio y tiempo K) hay un cuervo y no es negro. Este enunciado es
incompatible con la hipótesis universal. Luego, si se acepta la verdad de ese enunciado, como
este enunciado es incompatible con la hipótesis a contrastar, la hipótesis quedará refutada. De lo
contrario, quedará corroborada. Obviamente, el resultado de la contrastación en la
metodología popperiana es o bien la refutación, y, si la teoría resiste su temple, Popper
habla de corroboración. No es un mero cambio de palabra, ocurre que Popper no puede hablar
de confirmación porque la idea de confirmación lleva consigo la metodología inductiva.
Vayamos un poco más a cuáles son las condiciones que deben cumplir estos enunciados que
Popper denomina enunciados básicos y que permiten eventualmente refutar una teoría.
Popper formula condiciones formales y condiciones materiales que deben cumplir los
enunciados básicos.
(Pantalla
Enunciados básicos: condiciones formales y materiales.
Requisitos formales
1-No se podrá deducir enunciado básico alguno a partir de un enunciado universal no
acompañado de condiciones iniciales. Obviamente este es un requisito formal que tiene que ver
con las inferencias deductivamente válidas. No se puede deducir un enunciado singular a partir
de un enunciado universal sino mediante ciertas condiciones iniciales.
2-Un enunciado universal y un enunciado básico han de poder contradecirse mutuamente. Está
pensando Popper acá en los falsadores potenciales, los enunciados básicos incompatibles. Si yo
tengo que "todo A es B", un enunciado que diga "hay un A y no es B", es un enunciado
incompatible con el enunciado universal.
(Hago una aclaración terminológica, la forma lógica que tienen los falsadores potenciales es la
de un enunciado que incorpora las condiciones iniciales. Popper incluye dentro de las
condiciones iniciales las coordenadas espacio temporales. Lo que dice es "en el espacio tiempo K
hay un cuervo y no es blanco". Esa es la forma lógica de un falsador potencial. Condiciones
iniciales en conjunción con la negación de la predicción. Pero, en las condiciones iniciales
Popper incluye las coordenadas espacio temporales que hacen, que determinan que se trata de un
enunciado singular. Popper denomina a los enunciados básicos: enunciados singulares
existenciales. Desde el punto de vista lógico parece una contradicción en los términos, porque
las categorías de singular y existencial son excluyentes. Desde el punto de vista lógico, un
enunciado puede ser o bien singular o bien general, y si es general, existencial o universal, o a lo
sumo estadístico. Pero la categoría de existencial, como una subclase de los generales, y
singulares son excluyentes. Esto tiene que ver con cierta desprolijidad de Popper en el uso de los
términos. Digamos arbitrariamente Popper los denomina singulares porque si yo digo "en el
espacio tiempo k hay un cuervo", al tener las coordenadas espacio temporales, me estoy
refiriendo a un individuo específico, y por lo tanto, el enunciado que lo describe es un enunciado
singular. Pero en la medida en que hay además un cuantificador existencial (en el espacio tiempo
k hay un cuervo y no es negro), en la medida en que hay un cuantificador existencial, entonces
Popper denomina a los enunciados básicos existenciales singulares.)
-Volvamos a las condiciones. Una segunda condición formal es que un enunciado universal y un
básico han de poder contradecirse mutuamente. Hay enunciados básicos compatibles con la
teoría, pero los incompatibles con la teoría se contradicen y estos son los que le interesan a
Popper. Los enunciados básicos compatibles, decir en el espacio tiempo k hay un cuervo y es
negro, eso daría evidencia favorable al enunciado "todos los cuervos son negros", pero eso es
evidencia confirmatoria, y Popper rechaza la metodología inductiva. La actitud de Popper es la
de adoptar la falsabililidad, tratar de someter la teoría a los tests más severos. Si la teoría resiste
demuestra su temple.
3- la 3ra condición: la conjunción de un enunciado básico y un enunciado no básico es un
enunciado básico. Esta condición va a tener importancia en el sentido de que se derivan algunas
consecuencias indeseables para la metodología popperiana que van a encontrar en el artículo de
Gaeta (forma y función de los enunciados básicos) donde se analiza las indeseables
consecuencias de esta condición formal que deben cumplir los enunciados básicos.
Requisitos materiales:
Por último, los enunciados básicos deben cumplir con el requisito material:
1-el evento descrito por el enunciado básico ha de ser observable. Evidentemente los enunciados
básicos, especialmente los falsadores potenciales, son enunciados singulares en tanto describen
un evento directamente observable, son singulares y observacionales, en el sentido de que se
puede identificar el individuo en cuestión y además son obervacionales porque describen un
evento observable.
Analizadas entonces las condiciones formales y materiales que deben cumplir los enunciados
básicos, hay otra cuestión importante que Popper toma en consideración: los enunciados básicos
aislados no pueden refutar una teoría. Ejemplo: si tengo que todos los cuervos son negros, un
único enunciado aislado del tipo "este es un cuervo y no es negro", no alcanza para refutar la
hipótesis de que todos los cuervos son negros. Porque un enunciado aislado podría describir una
situación... (No se escucha la palabra, podría ser "atípica"). De manera que lo que pide Popper es
que las eventuales situaciones de refutación puedan ser reproducidas. Y eso se manifiesta, esas
situaciones reproducibles son descritas por lo que Popper denomina una hipótesis falsadora.
Esto dice Popper:
“Únicamente decimos que una teoría está falsada si hemos aceptado enunciados básicos que la
contradigan [...] Esta condición es necesaria, pero no suficiente, pues hemos visto que los
acontecimientos aislados no reproducibles carecen de significación para la ciencia: así,
difícilmente nos inducirán a desechar una teoría (por falsada), unos pocos enunciados básicos
esporádicos; pero la daremos por tal si descubrimos un efecto reproducible que las refute; dicho
de otro modo: aceptamos la falsación solamente si se propone y corrobora una hipótesis empírica
de bajo nivel que describa semejante efecto, y podemos denominar a este tipo de hipótesis una
hipótesis falsadora” (Popper 1980; 1958, 83).
Dijimos que el enunciado básico incompatible tiene la forma de un enunciado que Popper
denomina singular existencial. Si la hipótesis universal es "todos los cuervos son negros", y el
enunciado básico incompatible es " en el espacio tiempo K hay un cuervo y no es negro", y
podría tener nuevos enunciados básicos incompatibles "en el espacio tiempo k prima, hay un
cuervo y no es negro" y así otros iguales, entonces, en la medida en que el evento observable es
reproducible, puede deducirse de allí un enunciado que Popper llama "existencial puro". Lo
llama así porque no tiene coordenadas espacio temporales, el existencial puro sería "existe por lo
menos un cuervo y no es negro", y ese es precisamente un enunciado general de bajo nivel, un
enunciado general existencial al que Popper denomina hipótesis falsadora. Una hipótesis
empírica de bajo nivel. que es un existencial puro? no contiene coordenadas espacio temporales.
Tiene la forma del enunciado básico sin las coordenadas espacio temporales.
"Los enunciados básicos aceptados constituyen la base para la corroboración [o refutación] de las
hipótesis; si contradicen la teoría, admitimos que nos proporcionan motivo suficiente para la
falsación de esta únicamente en el caso de que corroboren a la vez una hipótesis falsadora"
(Popper, 1980; 1958: 84).
Entonces, lo que tengo es el pilar de la metodología popperiana son los enunciados básicos. Los
enunciados básicos permiten la refutación o bien la corroboración. Si los enunciados básicos, los
falsadores potenciales (no cualquier enunciado básico), aquellos que la contradicen, los
falsadores potenciales, si los aceptamos como verdaderos, como son incompatibles con la
hipótesis, la refutarían. Pero por lo que dijimos, no son suficientes los enunciados básicos
incompatibles aceptados como verdaderos para refutar una hipótesis, sino que Popper requiere la
deducción de una hipótesis falsadora, que es un enunciado general existencial (que expresa o
describe un evento reproducible). La corroboración de la hipótesis falsadora se da a partir de la
aceptación de la verdad de los falsadores potenciales. Luego, si la hipótesis falsadora es
verdadera, la hipótesis universal queda refutada. La relación lógica que hay entre la hipótesis
falsadora y la hipótesis sometida a contrastación es de contradictoriedad. En cambio, la
relación que hay entre los falsadores potenciales y la hipótesis a contrastar es de
incompatibilidad.
Algo importante es remarcar la asimetría de la contrastación que se da en la metodología
popperiana, en el sentido de que los enunciados universales, las hipótesis científicas, valga decir,
para Popper las leyes científicas son enunciados estrictamente universales, pues de lo contrario
no cumplirían con el criterio de demarcación. Y no cumplen con ese criterio por la asimetría que
hay en la contrastación en el sentido de que un enunciado universal no puede ser verificado,
solo puede ser falsado. ¿Por qué no puede verificarse? Porque en la medida en que hace
referencia a una cantidad infinita de casos, ningún número finito de casos agota el universal, pero
un caso en contra puede refutarlo. Los enunciados universales son refutables, pero no
verificables. Por el contrario, los existenciales son verificables porque si "tengo el enunciado
algunos cuervos son negros”, basta con que un cuervo sea negro para verificar el enunciado
"algunos cuervos son negros", pero ningún enunciado existencial puede ser refutado. En eso
reside la asimetría: los enunciados universales son refutables y no verificables, mientras que
los existenciales son verificables, pero no refutables. Esto trae ciertos problemas a la
metodología de Popper porque los enunciados existenciales y los probabilísticos no cumplirían,
en la medida en que no son refutables, no cumplirían con el criterio popperiano de demarcación.
En términos de Popper:
"Los enunciados estrictos o puros, ya sean universales o existenciales, no están limitados en
cuanto a espacio y tiempo, no se refieren a una región espacio-temporal restringida. Y por esta
razón es por lo que los enunciados estrictamente existenciales no son falsables: no podemos
registrar la totalidad del mundo con objeto de determinar que algo no existe, nunca ha existido y
jamás existirá. Es justamente la misma razón que hace no verificables los enunciados
estrictamente universales: tampoco podemos escudriñar todo el universo con objeto de tener la
certeza de que no existe nada prohibido por la ley.
No obstante, ambas clases de enunciados (los estrictamente existenciales y los estrictamente
universales) son, en principio, decidibles empíricamente; pero cada uno exclusivamente en un
sentido: son decidibles unilateralmente. Siempre que se encuentra que algo existe aquí o allí
puede verificarse un enunciado estrictamente existencial, o falsarse uno estrictamente universal"
(Popper, 1980; 1958: 68)
Pero, los existenciales son irrefutables y los universales no son verificables.
En la medida en que toda la dinámica de la contrastación deductiva o más estrictamente la
dinámica del último de los pasos a los que Popper refiere en la contrastación deductiva de una
teoría, en la medida en que este último paso se apoya en la aceptación de la verdad de los
falsadores potenciales, que por otra parte son aquellos que corroboren la hipótesis falsadora y
que, esta última en tanto contradictoria con la hipótesis puede refutarla, digo, la determinación de
la verdad del falsador potencial es central a la metodología de Popper, pues bien, ¿cómo se
determina la verdad de un falsador potencial? Aquí Popper introduce lo que denomina
"trilema de Fries". Este Fries fue un epistemólogo que identificó los 3 modos posibles en que se
han justificado los enunciados generales de la ciencia. Esos 3 modos posibles son:
1) A priori, a manera kantiana o bien a la manera del convencionalismo clásico que Popper
atribuye a Poincaré y a otro más (hay autores que discuten enmarcar a esos dentro del
convencionalismo). La posición sería convencionalista respecto de los enunciados universales de
la ciencia.
2) justificarlos lógicamente, es decir, justificar un enunciado por otro enunciado. De algún
modo es la manera en la manera en la que los empiristas lógicos justificaron los enunciados
generales de la ciencia, a partir de la verdad de los llamados enunciados protocolarios,
determinaron el grado de confirmación de las hipótesis en cuestión.
3) el otro modo es a través de la experiencia, empíricamente. Esto también está presente en los
empiristas lógicos, porque de alguna manera la confirmación de una teoría a partir de la
evidencia disponible, los enunciados protocolarios que actúan como premisas en el proceso de
confirmación, se contrastan directamente con la experiencia.
Bien, de acuerdo con Popper, cada una de estas alternativas tiene consecuencias negativas.
La justificación a priori lleva al dogmatismo. Popper es un representante del racionalismo
crítico, no puede justificarse ningún enunciado sin justificación. luego, va a rechazar la posición
del convencionalismo por considerar que cae en una actitud dogmática.
Rechaza también la justificación lógica (es la posición que defiende Fries) porque lleva a una
regresión al infinito. Esta es una de las críticas que Popper formula a la inducción: la
justificación del principio de inducción llevaba a una regresión al infinito. De manera que
justificar un enunciado por otro tampoco es aceptable por Popper.
Finalmente, tampoco es aceptada la justificación empírica porque para Popper eso lleva al
psicologismo. Justificar un enunciado a partir de nuestras percepciones lleva al psicologismo
porque se apoya en experiencias subjetivas. De manera que Popper no acepta ninguna de las 3
alternativas.
Pero si estos son los 3 modos posibles de justificar un enunciado, ¿cuál es la posición de
Popper respecto de la verdad de los falsadores potenciales? La respuesta de Popper es el
"convencionalismo" de la base empírica. Popper va a considerar que los falsadores potenciales
no se contrastan con la experiencia, son el producto de un acuerdo, son el producto
intersubjetivo, el acuerdo de la comunidad científica, y de esa manera Popper salva caer en
psicologismo. Claro está que inmediatamente surgen las críticas. Es cierto que uno puede aceptar
la verdad de un enunciado a partir del consenso intersubjetivo, nunca los experimentos son
repetibles, las observaciones nunca es la observación de un único científico, pero aun así los
críticos argumentan que de alguna manera la experiencia sigue jugando un papel importante. Y
Popper acepta esto, va a decir que sí, que naturalmente la aceptación, el acuerdo intersubjetivo se
logra a partir no de la experiencia individual sino en última instancia de la experiencia
intersubjetiva. Pero para Popper esto no equivale a decir que la experiencia justifica un
enunciado sino, a lo sumo, que la experiencia justifica el acuerdo que motiva la aceptación del
enunciado. Podría pensarse que esto es una hipótesis sacada de la galera por parte de Popper para
diferenciarse, marcar su diferencia con los empiristas. De hecho, para Popper la experiencia
sigue jugando un papel fundamental. En su autobiografía intelectual, Popper dice que fue, es y
será un empirista (que no es lo mismo que empirista lógico porque ellos desarrollaron una
metodología inductiva. Popper es un empirista, pero no un inductivista, es un empirista, si
ustedes quieren, deductivista).
No obstante, los críticos arguyen además que, al aceptar convencionalmente los enunciados
básicos y la verdad de un enunciado básico, la verdad de un falsador potencial, Popper está
cayendo en convencionalismo de manera que caería en el dogmatismo que rechazó. Popper va a
responder que no, que su convencionalismo es inocuo, en el sentido de que alcanza solamente la
base empírica de la ciencia, alcanza solamente los enunciados básicos, jamás las hipótesis
universales de una teoría tal como sostuvieron los convencionalismos clásicos de Poincaré y
alguien más. Popper dice que, si no se logra el acuerdo, pues bien, sigamos justificando un
enunciado por otro enunciado, pero eso lleva a una regresión al infinito y Popper dice que no
porque esa regresión al infinito debe cortarse, debe lograrse en algún punto el acuerdo.
Digamos entonces que la solución de Popper al trilema de Fries es una especie de eclécticismo,
tomar de alguna manera un poco de cada alternativa. Un convencionalismo inocuo, que, si no se
logra, supone seguir justificando un enunciado por otro hasta lograr el acuerdo, y ese acuerdo en
última instancia está fundado en la experiencia, sin que la experiencia justifique los enunciados.
La posición de Popper en el debate realismo - antirrealismo científicos.
A grandes rasgos, de acuerdo con los realistas científicos, las teorías son descriptivas del
mundo, y como tales tienen valor de verdad. Serán verdaderas o serán falsas. Los anti realistas
consideran que las teorías científicas son meros instrumentos de predicción y como tales no son
ni verdaderas ni falsas. Popper no niega que las teorías sean instrumentos, pero para Popper son
algo más que instrumentos, son descriptivas del mundo, y como tales tienen valor de verdad.
Entonces, como defensor del realismo científico, para Popper el objetivo de la ciencia es la
verdad. Pero es inalcanzable, nunca podemos probar la verdad de una teoría. Por eso, de acuerdo
con la metodología de Popper, si el resultado de la contrastación no es la refutación, si la teoría
ha mantenido su temple, entonces Popper afirma que la teoría ha quedado corroborada. Y
corroborada significa que aún no ha mostrado su falsedad. Popper es consciente que no podemos
probar la verdad de una teoría. La actitud de Popper es la actitud de refutabilidad, en el sentido
de que considera que la prueba es una prueba mucho más fuerte desde el punto de vista ético, es
decir, el científico no debe tratar de salvar su teoría, debe tratar de someterla a los test más
severos, y si la teoría resiste muestra su temple. Mostrar su temple significa que ha quedado
corroborada, nunca que es verdadera. Popper es un realista falibilista. Falibilismo se opone a
fundacionalismo. Popper es anti fundacionalista, no se puede alcanzar la verdad, no hay un
fundamento último del conocimiento. En ese sentido, el conocimiento es falible, revisable,
modificable. Pero la meta de la ciencia es la verdad, aunque no sea alcanzable. De alguna
manera, para Popper, y acá hay diferencia con los empiristas lógicos, ya que para ellos el
progreso de la ciencia era gradual y acumulativo. Para Popper el progreso de la ciencia se da por
conjeturas y refutaciones, formulación de conjeturas audaces y refutación de ellas, y así progresa
la ciencia.
Popper ofrece un criterio de verosimilitud en el sentido de acercamiento a la verdad como meta
de la ciencia. Dijimos que el criterio de demarcación es el criterio de falsabililidad. Una teoría es
falsable si existe un conjunto no vacío de enunciados básicos que la contradigan. Es decir, será
científica si existen falsadores potenciales. No obstante, el objetivo es la verdad, aunque no se
pueda probar. Para Popper la ciencia progresa en base a teorías cada vez más verosímiles, teorías
que se corresponden con los hechos mejor que sus predecesoras, esto es, teorías que se acercan
más a la verdad. El criterio de verosimilitud de Popper se funda en una comparación del
contenido de las teorías, en una comparación del contenido de verdad y del contenido de
falsedad. Esto es:
"A tiene menos verosimilitud que B si y solo si el contenido de verdad de A es menor que el
contenido de verdad de B, y el contenido de falsedad de B es igual o menor que el contenido de
falsedad de A; o el contenido de verdad de A es igual o menor que el contenido de verdad de B,
y el contenido de falsedad de B es menor que el contenido de falsedad de A.
Es decir que, supongamos que dadas las teorías A y B, y del conjunto de consecuencias
observacionales, podemos identificar cuántas consecuencias observacionales verdaderas y falsas
tiene A y cuántas B.
Críticas de Tichý y Miller.
El problema es que el criterio de verosimilitud elaborado por Popper lleva a inconsistencias
lógicas. Fueron desarrolladas por los 2 de arriba. No importa la prueba lógica de estas
inconsistencias, lo que sí interesa es que tanto Tichy como Miller y Niiniluoto ofrecieron una
solución al criterio de Popper de verosimilitud, pero para eso es importante el uso de la lógica
inductiva, y eso es precisamente lo que rechaza Popper. De acuerdo con la noción de
verosimilitud de Ilkka Niiniluoto, las probabilidades epistémicas de hipótesis rivales, dada la
evidencia disponible, ayudan a construir un indicador falible y revisable de verosimilitud. Y esto
permitiría rechazar la crítica de Laudan en contra de la posición realista, en contra de que la
verdad es el objetivo de la ciencia, porque de acuerdo con Laudan, en la medida en que la verdad
es un fin utópico, no tiene sentido siquiera proponerlo como objetivo de la ciencia. Para Laudan
el objetivo de la ciencia es la resolución de problemas (hace taxonomía de problemas y fórmula
además una ecuación, un criterio para determinar el grado de progreso, que tiene que ver con la
cantidad y calidad de problemas resueltos). Entonces, aplicando la teoría de la probabilidad (no
se escucha si la palabra es probabilidad u otra), de acuerdo con Niiniluoto y Miller, se puede
formular un criterio de verosimilitud que no lleve a inconsistencias lógicas como el criterio
popperiano de verosimilitud. Esto es importante marcar: ubicar la posición de Popper dentro de
una posición realista falibilista y que ofrece, aunque fracasa, un criterio de verosimilitud para
determinar en qué medida una teoría científica es más verosímil que otra, en qué medida una
teoría científica está más cerca de la verdad.
Esto sería el contexto general de la concepción del falsacionismo de Popper. Los detalles están
en "la lógica de la investigación científica, conjeturas y refutaciones".
Popper y las ciencias sociales.
Vamos a ver la posición de Popper respecto de las ciencias sociales. En principio, pareciera que
Popper ofrece para el caso de las ciencias sociales una metodología diferente. Su propuesta se
enmarca en su crítica al historicismo. Más concretamente, su crítica a la concepción de Marx por
un lado y a la sociología del conocimiento de Maihem (no sé cómo se escribe) por el otro. Lo
curioso es que Popper atribuye dos tesis contrapuestas al historicismo. El análisis de la posición
de Popper respecto de las ciencias sociales se encuentra en una serie de textos,
fundamentalmente en "la sociedad abierta y sus enemigos" (1945), en "la miseria del
historicismo" (1957) y "el mito del marco común" (1994).
Popper atribuye al historicismo dos tesis contrapuestas: una tesis naturalista y una tesis anti-
naturalista. La tesis naturalista va dirigida directamente contra la concepción de Marx. Y la tesis
anti naturalista contra la sociología del conocimiento de Maihem (también lo denomina
relativismo radical o historismo radical).
Diferencia entre historicismo e historismo.
A grandes rasgos, la tesis naturalista considera que, al igual que en las ciencias naturales, las
ciencias sociales pueden formular leyes generales del desarrollo, tendencias absolutas, leyes del
desarrollo histórico. Y, como vamos a ver, a la tesis naturalista del historicismo Popper va a
oponer la ingeniería social fragmentaria. Por el otro lado, le atribuye la tesis anti naturalista,
según la cual es imposible formular leyes generales en ciencias sociales, aprendiendo cuáles son
los argumentos que los anti naturalistas ofrecen en contra de la posibilidad de que las ciencias
sociales puedan formular leyes generales.
Esos argumentos tienen que ver con el objeto de estudio de las ciencias sociales y con el
método. Respecto del objeto de estudio, los anti naturalistas consideran que la validez de las
generalizaciones en las ciencias sociales es relativa a cada cultura y a cada periodo histórico, en
la medida en que los hechos sociales están histórica y culturalmente determinados, no se pueden
formular leyes generales universales. Por otra parte, frente a la metodología atomista atribuida a
las ciencias naturales, los anti naturalistas consideran que los hechos sociales conforman una
totalidad y que no pueden ser analizados atomísticamente, que el todo no es lo mismo que la
suma de sus partes. Desde el punto de vista del método, uno de los argumentos más fuertes en
contra de la posibilidad de formular leyes sociales, se debe al hecho de que se considera que en
la realidad social no se puede experimentar, a diferencia de lo que ocurre en la realidad natural.
El concepto de experimento que se maneja en este argumento es estricto, supone la manipulación
de la variable Independiente y el control de la variable dependiente. Esta idea es discutida, hay
quienes consideran que el experimento entendido de este modo es simplemente un caso límite de
lo que denominan la investigación empírica controlada. Quienes rechazan las posiciones anti
naturalistas consideran que en las disciplinas sociales se puede experimentar, pero no entienden
el experimento en ese sentido restringido sino como investigación empírica controlada, puede
haber simplemente observación a partir de situaciones naturales que no supongan la
manipulación de variables. Lo cierto es que este es un argumento fuerte de los anti naturalistas
en contra de la posibilidad de formular leyes generales en las disciplinas sociales. Por otra parte,
consideran que, a diferencia de las ciencias naturales, las ciencias sociales carecen de objetividad
en el sentido de que el investigador social forma parte del propio objeto de estudio, de manera
que no se puede lograr la objetividad que se logra en las ciencias naturales. Por otro lado,
consideran que la realidad social, a diferencia de la realidad natural, es mucho más compleja.
Compleja, entre otras cosas, por el hecho de que a diferencia de lo que ocurre en la realidad
natural, argumentan los anti naturalistas, no se puede separar las variables intervinientes, y esto
está justamente relacionado, y en ese sentido, no se puede experimentar.
Frente a la tesis anti naturalista, que Popper también le atribuye al historicismo, Popper propone
la lógica de la situación. Veamos en palabras de Popper, la tesis naturalista del historicismo:
"[...] Llamo historicismo a una manera de abordar las ciencias sociales que asume que la
predicción histórica es su objetivo principal, y que cree que este objetivo es alcanzable
descubriendo los "ritmos" o "patrones" o "leyes" o "tendencias" que subyacen en la evolución de
la historia" (Popper, 1957, 3). La idea de que hay un desarrollo necesario, un desarrollo histórico
inexorable, y por eso, la actividad política solo minimiza los dolores del parto.
Es posible formular leyes acerca de las tendencias que se esconden bajo los procesos de cambio
social, esto es, leyes generales del desarrollo histórico que permiten hacer predicciones a gran
escala pero sirven, sin embargo, para guiar la acción política de una manera racional. Para
decirlo con las palabras de Popper (que aluden directamente a Marx) la doctrina historicista de la
actividad política solo le atribuye a las acciones políticas la función de ayudar a "disminuir los
dolores de parto inevitablemente asociados a los desarrollos políticos inminentes" (Popper, 1967,
389).
La idea es que, si hay un desarrollo necesario e inexorable, el accionar político no puede inhibir
no motivar ese desarrollo.
En cuanto a la tesis antinaturalista, la idea es que: las uniformidades de la vida social son muy
diferentes de las correspondientes a los fenómenos naturales porque tienen un carácter
esencialmente relativo, debido a que varían de un periodo histórico a otro por cuanto es
precisamente la actividad humana la que las hace cambiar (Popper, 1957, 7).
Fíjense que, mientras la tesis antinaturalista pone el acento en la actividad humana, la tesis
naturalista, de acuerdo a cómo Popper la interpreta, lo que va a decir es que las acciones políticas
tienen simplemente por función los dolores del parto asociados a los desarrollos políticos
inminentes, pero no tienen una función preponderante.
Entonces, frente a la tesis naturalista, Popper propone la ingeniería social fragmentaria.
Frente a la tesis antinaturalista, propone la "lógica de la situación".
Queda claro por qué estas tesis que parecen contrapuestas están ambas asociadas a las tesis del
historismo: la tesis naturalista a la concepción de Marx, la tesis antinaturalista a la sociología del
conocimiento de mainhem (el relativismo radical ligado a la sociología del conocimiento de
maihem).
La propuesta de Popper respecto de la ingeniería social fragmentaria y la lógica de la
sitación.
De acuerdo con Popper "las ciencias sociales (está pensando en Marx) deben abandonar la
aspiración de formular profecías a la manera historicista y abocarse a la implementación de una
tecnología social apoyada en predicciones de naturaleza científica. Popper distingue claramente
lo que es una ley científica de una profecía, y le atribuye al historicismo el formular profecías
más bien que leyes científicas.
En otros términos, frente a las medidas de amplio alcance propuestas por el historicismo, Popper
propugna una metodología a la que denomina "ingeniería social fragmentaria". El método de
las "composturas parciales". Este método, combinado con el análisis crítico, es el principal
camino para conseguir resultados prácticos en la aplicación de los conocimientos provistos por
las ciencias sociales, como lo es en la utilización de los que se originan en las ciencias naturales"
(Popper 1992: 72).
Frente a la idea de totalidad que propugna el marxismo, Popper propone llevar a cabo cambios
pequeños, cambios compusturas parciales (?), no cambios revolucionarios, sino pequeñas
modificaciones en la sociedad.
La labor del ingeniero fragmentario (aunque aspire a la realización de algún ideal para la
sociedad en su conjunto) consiste en lograr los fines propuestos a partir de pequeños ajustes y
reajustes que pueden corregirse mutuamente.
La ingeniería social fragmentaria rechaza cualquier metodología que busque remodelar "toda la
sociedad" de acuerdo con determinado plan o modelo, o controlar las fuerzas históricas que
condicionan su futuro (esta es una de las tesis de Marx según Gentile, hay el desarrollo histórico
es inexorable), ya sea promoviendo, adaptando o frenando el supuesto curso de los
acontecimientos. La diferencia principal entre la posición historicista y la concepción de la
ingeniería social no reside tanto en el hecho de que esta última sea una actividad tecnológica, es
decir, una labor dirigida a producir ciertas transformaciones, sino en la circunstancia de que solo
puede llevarse a cabo de manera parcializada.
En la miseria del historicismo, Popper crítica ferozmente a la idea de totalidad. En el marco de
esa crítica se enmarca su política de llevar a cabo una compustura parcial frente a los cambios
revolucionarios.
La lógica de la situación es la alternativa que Popper propone a la tesis antinaturalista del
historicismo.
Dice Popper: [el análisis situacional es] "una especie de explicación tentativa o conjetural de una
acción humana que alude a la situación en que se encuentra el agente mismo. Puede ser una
explicación histórica: tal vez podamos explicar cómo y por qué se creó una determinada
estructura de ideas. Es evidente que nunca se podrá a explicar plenamente una acción creadora.
No obstante, podemos intentar obtener mediante conjeturas una reconstrucción ideal de la
situación problemática en que se encontraba el agente, haciendo "comprensible" (o
"racionalmente comprensible") la acción en ese sentido; es decir, haciendo una reconstrucción
adecuada a su situación tal como él la veía. Este método de análisis situacional puede
considerarse una aplicación del principio de racionalidad" (Popper, 1982, p. 69).
Es importante marcar aquí que hacer comprensible una situación, la comprensión de la que habla
Popper no equivale a la empatía, a ponerse en el lugar del otro. En realidad, la lógica de la
situación es una reconstrucción del contexto que lleva a dar cuenta de por qué se dio determinada
situación. Por ejemplo, ¿por qué Bruto mató a Cesar? El historiador debería, en este caso,
reconstruir el contexto social, el contexto político, el contexto emocional, todos los factores que
interactúan y llevaron al agente a comportarse como lo hizo. No es ponerse en el lugar del otro
sino reconstruir la situación contextual.
Lo que es esencial, sugiero [está haciendo una comparación con Collingwood] no es la
reviviscencia sino el análisis situacional: el intento del historiador de analizar y describir la
situación no es otra cosa que su conjetura histórica, su teoría histórica (Popper 1994)".
La teoría del historiador no es más que lógica de la situación, reconstrucción racional que
permite comprender la situación histórica.
De acuerdo con estos dos aspectos de la propuesta de Popper (la ingeniería social fragmentaria y
la lógica de la situación), podríamos preguntarnos si Popper es un monista o pluralista
metodológico. Es un debate que se da estrictamente en las ciencias sociales, no se aplica bajo
ningún punto de vista en el ámbito de las ciencias físico-naturales. De la misma manera, hay un
debate paralelo entre individualismo- holismo metodológico. Justamente la crítica que hace
Popper al holismo característico o presente en la concepción marxista es muy claro que Popper
defiende una posición individualista.
Veamos estos conceptos.
Los monistas metodológicos sostienen que hay un único método para todas las ciencias, ya sea
que se trate de ciencias sociales o de ciencias físico-naturales. Es decir, no solo dicen que hay un
único método, que hay unidad metodológica, sino que además dicen que ese método es el de las
ciencias físico-naturales. Es tan abrumador el éxito de la ciencia físico natural que los monistas
metodológicos proponen la metodología de las ciencias naturales para todas las ciencias.
En contraposición, los pluralistas metodológicos consideran, por las razones, en realidad los
argumentos que ofrecen los pluralistas metodológicos son los argumentos que corresponden a los
defensores de la posición antinaturalista. Cada uno de estos argumentos son los pluralistas
metodológicos para considerar que el método de las ciencias sociales no puede ser el mismo que
el de las ciencias naturales, porque la realidad social, a diferencia de la realidad natural, es
mucho más compleja, es cambiante, no se pueden separar las variables, no se puede
experimentar, no existe la objetividad tal como es posible en las ciencias físico-naturales.
En realidad, cada uno de estos argumentos es susceptible de críticas. Un filósofo de la ciencia,
Nagel (en uno de los capítulos "la estructura de la ciencia", en el capítulo dedicado a los
problemas metodológicos en las ciencias sociales, hace un análisis extremadamente fino de todos
los argumentos ofrecidos en favor del pluralismo metodológico y que Nagel va a rechazar uno
por uno), es un monista metodológico y va considerar que la diferencia entre las ciencias sociales
y las ciencias físico naturales es una cuestión de grado ligada a la inmadurez de las disciplinas
sociales respecto de la antigüedad que tienen las ciencias físico naturales, pero que, desde el
punto de vista lógico, no hay ninguna imposibilidad de aplicar la metodología de las ciencias
físico naturales a las disciplinas sociales. Y es Nagel quien justamente amplia el concepto de
experimentación, ve la experimentación simplemente como un caso límite de lo que él denomina
la investigación empírica controlada. Y, por otra parte, considera que la realidad natural es
muchas veces más compleja que la realidad social. En realidad, los antinaturalistas que defienden
el pluralismo metodologico llevan a cabo una simplificación de la metodología que se lleva a
cabo en la ciencia físico natural, de la misma manera que conciben la realidad natural de manera
simplificada.
[Pantalla:
Monismo: las investigaciones que se realizan en el campo de las ciencias sociales proceden, o
deberían proceder, conforme al modo que caracteriza a las ciencias naturales.
Pluralismo: la investigación de los fenómenos sociales no puede llevarse a cabo con los mismos
procedimientos que utilizan los científicos naturales. Las ciencias sociales poseen sus propios
métodos (dualismo metodológico)]
Dada esta caracterización del monismo y del pluralismo metodológico, la cuestión es entonces:
¿Popper es monista o pluralista?
A la luz de lo que acabamos de ver de su propuesta de la ingeniería social fragmentaria como
alternativa a la tesis antinaturalista del historicismo y por otro lado la lógica de la situación como
alternativa a las tesis antinaturalista, uno estaría dispuesto a considerar que Popper es un
pluralista metodológico. Sin embargo, por un lado, Popper dice que el análisis situacional marca
una considerable diferencia entre las ciencias naturales y las ciencias sociales, quizá la diferencia
más importante entre sus métodos (1957, miseria del historicismo). En el mismo texto Popper
afirma: "en esta sección voy a proponer una doctrina de unidad del método; es decir, la opinión
de que todas las ciencias teóricas o generalizadoras (que llevan a cabo generalizaciones) usan el
mismo método, ya sean ciencias naturales o ciencias sociales"
¿Hay una diferencia entre los métodos de las ciencias naturales y las sociales o hay más bien una
unidad del método y no hay diferencia? En realidad, consideramos que es posible concebir la
lógica de la situación como aplicada al contexto de descubrimiento. Recordemos que respecto de
la ciencia físico natural, en la "lógica del descubrimiento científico” explícitamente ha afirmado
que no hay lógica del descubrimiento, que el descubrimiento de una idea novedosa no difiere del
modo en que un músico elabora una partitura o un escultor esculpe un trozo de mármol. El
descubrimiento está ligado a la imaginación, es una cuestión de "insigth"(?), y en ese sentido, en
la medida en que no hay método del descubrimiento, no hay una metodología para descubrir
hipótesis novedosas, el descubrimiento no es susceptible del análisis filosófico. Nuestra
interpretación es que en el ámbito de las ciencias sociales Popper propone la lógica de la
situación, como una especie de método, como una reconstrucción racional de la situación.
Recordemos que Popper ha afirmado que la lógica de la situación no es otra cosa que la
conjetura histórica, la teoría histórica es la lógica de la situación. Bien, esta reconstrucción del
contexto situacional juega, a nuestro entender, como una especie de lógica del descubrimiento.
Pero luego Popper considera que los análisis situacionales, una vez formulados, son
empíricamente criticables y susceptibles de mejoramiento según los patrones del racionalismo
crítico. Esto es, pueden ser sometidos a refutación. Si esto es así, entonces es posible
compatibilizar ambas afirmaciones de Popper. Por un lado, hay una diferencia, de hecho, la hay
porque en el ámbito de las ciencias físico-naturales Popper ha sostenido que no hay una lógica de
la situación. Nosotros consideramos que para el ámbito de las ciencias sociales la lógica de la
situación puede ser vista como la metodología del descubrimiento, pero una vez descubiertos los
modelos históricos, la teoría histórica, las conjeturas históricas, esas conjeturas son susceptibles
de ser sometidas al análisis empírico. Y en ese sentido el método es el mismo. El método que se
aplica a la ciencia en general, el método de conjeturas y refutaciones propugnado por Popper. Si
bien se pueden compatibilizar, no obstante, nosotros consideramos que: "la lógica de la situación
y la estrecha relación de las teorías sociales con la ingeniería social fragmentaria sugieren que
detrás del pretendido monismo popperiano, se esconden los signos de un no reconocido
pluralismo, aunque de un tipo muy diferente del que caracteriza la defensa clásica de esa
posición (Gentile, Lucero, gaeta, 2007). Porque de acuerdo con el pluralismo clásico, los
pluralistas en términos generales concibieron que el método de la ciencia social es la
hermenéutica, con todas las variantes, hermenéutica o comprensión. Con todas las variantes que
el método de la hermenéutica puede tener, desde Weber hasta los filósofos de la ciencia social
contemporáneos.
[También dice esto la pantalla: "Pero Popper considera que una vez formulados, los análisis
situacionales son empíricamente criticables y susceptibles de mejoramiento, según los patrones
generales del racionalismo crítico, esto es, pueden ser sometidos a refutación" (Gentile, Lucero,
Gaeta, 2007).]
Entonces, si bien Popper distingue los conceptos de historicismo e historismo, y hay un
desarrollo de idas y vueltas, lo que me interesa aquí fundamentalmente marcar respecto del
análisis de Popper en torno a las ciencias sociales es precisamente esta relación de la ingeniería
social fragmentaria como alternativa a la tesis naturalista del historicismo y la lógica de la
situación como alternativa a la tesis antinaturalista del historicismo a la que equipara con la
sociología del conocimiento de Mayhem o lo que llama historicismo radical y para la cual
presenta como alternativa la lógica de la situación. Y luego evaluar en qué medida Popper
defiende un monismo o un pluralismo metodológico. Con esto terminaría con la concepción de
Popper.
[Pantalla final
Dos tesis del historicismo:
Naturalista (determinismo objetivo) flecha leyes de desarrollo, tendencias absolutas flecha
ingeniería social fragmentaria
Anti-naturalista (o historismo radical, sociología del conocimiento; Manheim). Determinismo
epistémico. Flecha: a objeto (1) y método (2) flecha a lógica de la situación.
1)Objeto: -validez relativa de las generalizaciones
-holismo versus atomismo
-imposibilidad de experimentar
2)Método:
-falta de objetividad
- imposibilidad de leyes generales (complejidad social)]
Unidad 4. 1. Estructuralismo de Kuhn
Vamos a dividir el pensamiento de Kuhn en 3 etapas. Dado que el desarrollo intelectual de Kuhn
ha tenido modificaciones.
Primera etapa: 1962, etapa de "la estructura de las revoluciones científicas". En terminos
generales, es la posición que se conoce de Kuhn.
1969-1980: Etapa de transición. Kuhn se hace eco de las críticas recibidas. En los escritos de
Kuhn que corresponden a esta época se manifiesta un debilitamiento de las tesis formuladas en
"la estructura de las revoluciones científicas".
3ra etapa, decada de 1990, etapa final: hay algunos hitos importantes que marcan algunos
aspectos nuevos en la posición de Kuhn.
Comenzamos por las tesis formuladas en "la estructura de las revoluciones científicas". Una cosa
importante: los primeros escritos de Kuhn se enmarcan en la física teórica, por ejemplo la teoría
del cuerpo negro. Luego Kuhn incursiona en la historia de la ciencia, el libro de Kuhn "la
revolución copernicana" es anterior a la "estructura de las relaciones científicas". Allí Kuhn es un
historiador de la ciencia. Luego pasa a la filosofía de la ciencia, la estructura de las revoluciones
científicas es donde Kuhn desarrolla sus tesis acerca de cómo se desarrolla la ciencia. Al
comparar ciertas tesis de Kuhn como historiador de la ciencia con las tesis formuladas en "la
estructura de las revoluciones científicas", a veces hay ciertos desajustes. Concretamente, la
caracterizacion de las revoluciones científicas que Kuhn hace en el libro "la rev. Copernicana" no
se condice con la caracterizacion conceptual de revolución científicas formulada en "la estructura
de las revoluciones científicas".
Primera etapa:
De acuerdo con Kuhn, la imagen que se tiene de la ciencia, la imagen brindada por la concepción
tradicional, esto es, por los empiristas logicos y por el falsacionismo de Popper, representan una
imagen equivocada de qué es la ciencia. Los científicos no trabajan de acuerdo a los cánones que
ofrece la concepción tradicional, de manera que la filosofía de la ciencia, de acuerdo con Kuhn,
no debe ofrecer normas a priori del quehacer científico sino más bien describir el trabajo real de
los científicos. Y, en la medida en que, para describir el trabajo real de los científicos, hay que
acudir a la historia de la ciencia, Kuhn aparece como uno de los máximos representantes de lo
que se llamó filosofia histórica de la ciencia. De acuerdo con Kuhn, antes de que una disciplina
se transforme en una disciplina científica, lo que hay es un período o etapa de pre-ciencia. En
realidad no es el término preciso que usa Kuhn sino etapa pre-paradigmatica. Pero, por lo que
vamos a decir inmediatamente, se puede usar con propiedad la categoría de pre-ciencia. La
característica de esta etapa es que allí no hay una comunidad científica homogénea, lo que hay
más bien es escuelas rivales, escuelas en pugna que ofrecen hasta explicaciones contradictorias
de los mismos fenómenos. Un ejemplo podría ser la alquimia como la etapa anterior a la
constitución de la química como una disciplina científica. Hay algo importante a señalar: en esta
etapa pre-cientifica o pre-paradigmatica Kuhn ubica a las disciplinas sociales. Todos los
ejemplos de disciplinas científicas que aparecen en "la estructura de las revoluciones científicas"
son ejemplos tomados de las ciencias duras, son ejemplos de astronomía, de física, de la química.
Y esto porque, para Kuhn, y esto queda explícitamente dicho en el prólogo a "la estructura de las
revoluciones científicas", las denominadas disciplinas sociales, no han alcanzado aun el rango de
ciencia más dura, lo que hay en el campo de las disciplinas sociales son escuelas rivales, escuelas
en pugna, pero no hay una comunidad científica homogénea.
En determinado momento, de acuerdo con Kuhn, sea por un descubrimiento casual no hay una
explicación clara de por qué esto ocurre, pero lo cierto es que comienza a producirse un
consenso, se constituye una comunidad homogénea, surge lo que Kuhn denomina un
paradigma. Y es el paradigma el que da paso a la ciencia normal o madura, y aquí comienzan
alguno de los problemas que presenta la concepción de Kuhn respecto de la vaguedad de
algunos conceptos. En las primeras páginas de "la ERC" Kuhn caracteriza paradigma como un
modelo para ver el mundo, sostiene además que tiene dos características importantes:
A)por un lado, el paradigma debe ser lo suficientemente interesante como para atraer a un grupo
duradero de científicos. B) por el otro, debe ser lo suficientemente vago como para dejar un
montón de problemas sin resolver y garantizar la actividad de la ciencia normal o ciencia más
dura.
Naturalmente esto es una caracterización un tanto vaga, no puede tomarse como una definición
de paradigma. Y es por eso que la noción ha dado lugar a una de las críticas más severas en el
pensamiento de Kuhn. Como algunos críticos sostienen, por ejemplo John Watkins (discipulo de
Popper), afirma que si no fuese por los ejemplos de paradigma que da, no se sabría bien de qué
está hablando.
Los ejemplos de paradigma que Kuhn menciona: el paradigma aristotélico versus el paradigma
newtoniano. El paradigma newtoniano versus el paradigma einsteniano. La química anterior
labousie versus la química posterior, el paradigma ptolemaico versus el paradigma copernicano y
demás.
El paradigma conforma una estructura que es mucho más amplia que el concepto de teoría
entendido en el sentido tradicional. El paradigma incluye teoria, pero además incluye
compromisos metafísicos, compromisos metodologícos, compromisos instrumentales, valores.
Ilustremos lo siguiente: en el marco del paradigma copernicano hay un principio que data desde
la época de la astronomía de Eudoxo, previamente el marco astronómico del platonismo, la idea
de que los cuerpos celestes, en tanto cuerpos perfectos formados por una sustancia perfecta (el
éter cristalino), deben describir en su trayectoria una figura perfecta, y esa figura perfecta es el
círculo porque todos los puntos equidistan del centro.
Unidad 4. Video 2.
Hemos visto los ejemplos de paradigma que Kuhn ofrece en "la estructura de las revoluciones
científicas". El paradigma determina no solo cuáles son los problemas sino el espectro de
posibles soluciones. En la etapa de ciencia normal, no hay descubrimientos importantes. La
actividad, en la etapa de ciencia normal consiste en la resolución de enigmas. Un enigma es un
problema que tiene de antemano asegurada la solución en el sentido de que la comunidad
científica tiene plena confianza en que, con las herramientas que brinda el paradigma, se podrán
resolver los enigmas. Más aun, Kuhn considera que si no se resuelven los enigmas el problema
no está en el paradigma sino en el científico que no tiene la suficiente imaginación como para
resolver los enigmas con las herramientas que brinda el paradigma. Ahora bien, en determinado
momento puede ocurrir que se acumulen esos enigmas, se transforme en algo así como, para usar
la terminología de Kuhn, anomalias recalcitrantes. Comienza una etapa de crisis donde se genera
una situación parecida a la etapa de pre-ciencia en el sentido de que se quiebra la comunidad
científica, deja de haber una comunidad científica homogénea y vuelven a aparecer facciones en
pugna, facciones rivales. La etapa de crisis es solo parecida a la etapa de pre-ciencia, no es
exactamente lo mismo, porque para que haya crisis debió previamente haber habido un
paradigma, y esto no es así en la etapa de pre-ciencia que está caracterizada por la ausencia total
de un paradigma previo. De manera que en la etapa de crisis comienzan a surgir facciones
rivales, escuelas en pugna que van a ser el preludio de una revolución científica que va a dar
paso a una etapa de ciencia normal gobernada por un nuevo paradigma. Kuhn establece un
paralelo exacto entre las revoluciones científicas y las revoluciones políticas. Así como en
determinado momento en la sociedad se produce un estado de acefalia, donde lo que hay son
facciones políticas abogando todas ellas por el poder hasta que una de esas facciones rivales, sea
por el tipo de oratoria, sea por la apelación a la propaganda, sea por el discurso de un grupo de
políticos, logra imponerse sobre las demás, lleva a cabo una revolución política que da origen a
un nuevo régimen institucional. Esto mismo, dice Kuhn, es lo que ocurre en la ciencia. De esta
manera, el desarrollo de la ciencia transcurre a través de largos periodos de ciencia normal
alternados por períodos revolucionarios. Si Kuhn hubiera dicho esto solo, no se hubiera
generado, no hubiera tenido la relevancia que tuvo, porque el concepto de revolución científica
en realidad no es introducido por Kuhn, sí lo introduce Kuhn con un significado diferente,
porque, en verdad, el concepto de revolución proviene de la astronomía donde tiene por
significado la revolución de los astros, la trayectoria de los astros. El concepto de las ciencias
duras de introduce en las ciencias sociales y luego pasa nuevamente a las ciencias duras con un
sentido diferente, con un sentido kuhniano, el sentido de corte abrupto de la tradición, corte
abrupto y total con el pasado. Hay un excelente libro de Bernard Cohen ("las revoluciones
científicas") en las cuales se ilustra las revoluciones científicas con ciertos hitos que han tenido
un impacto lo suficientemente grande como para ser considerados revoluciones científicas. Pero
ese concepto de revolución de Cohen, y que toma para ilustrar este concepto de la revolución
copernicana, de la revolución de Darwin (en tanto que ha llevado a cabo el descubrimiento del
mecaniso de la evolución), la teoría de la relatividad de Einstein, son todos ejemplos que toma
Cohen de revoluciones científicas pero en un sentido completamente diferente al significado que
le asigna Kuhn. Porque de acuerdo con Kuhn, el paradigma que surge como resultado de una
revolución es no solo incompatible sino además inconmensurable con el que existía
anteriormente. El concepto de la inconmensurabilidad es uno de los conceptos que Kuhn
mantiene en todo el desarrollo de su pensamiento. Hay otros conceptos que han sido
abandonados, como el propio concepto de Paradigma. El concepto de inconmensurabilidad sufre
algunas modificaciones pero Kuhn lo mantiene hasta sus últimos días.
En la etapa de "la estructura de las revoluciones científicas" el concepto de inconmensurabilidad
significa la relación que mantienen los paradigmas en competencia. Y la inconmensurabilidad se
manifiesta en 3 aspectos:
1) aspecto perceptual
2) aspecto lingüístico
3) aspecto metodológico
1) La idea de Kuhn es que el cambio de paradigma equivale a un "switch gestaltico", un cambio
en la percepción del mundo. Kuhn se hace eco de la teoría de la gestalt, la idea de que hay ciertas
leyes que gobiernan la percepción. Una de esas leyes es la conocida como la ley figura-fondo (se
ilustra con los ejemplos de figuras ambiguas, depende donde pongamos la atención se ve una
figura o la otra). Kuhn se apoya en estos ejemplos para poner de manifiesto la idea de
inconmensurabilidad perceptual. El cambio de paradigma equivale a un cambio en la percepción
del mundo.
Esto trajo algunas críticas a Kuhn respecto de que en "la estructura de las revoluciones
científicas" hay ciertos pasajes que se contraponen literalmente. Por ejemplo, Kuhn sostiene que
después de una revolución los científicos trabajan en mundos diferentes. Pero, al mismo tiempo,
afirma que, aunque trabajen en mundos diferentes, están mirando el mismo mundo. Este y otros
pasajes, que aparecen en "la estructura de las revoluciones científicas", si se los toma
literalmente, pareciera que dan lugar a ciertas incompatibilidades, ¿es el mismo mundo, hay un
único mundo, hay distintos mundos? En verdad, pueden articularse estas afirmaciones en
apariencia contradictorias de Kuhn. Consideramos con Gaeta (en un libro de los paradigmas a la
teoría evolucionista) que se pueden articular ambas afirmaciones de Kuhn, entendiendo que
desde el punto de vista metafísico, Kuhn adopta una posición realista, un realismo metafísico en
el sentido de que existe un mundo Independiente de la mente. Pero, ese mundo, tal como el
noumeno kantiano es imperceptible, del cual no podemos decir nada de él, es absolutamente
inescrutable. Entonces, asistiriamos en el caso de Kuhn, por un lado a la defensa de un realismo
metafísico conjugado con un idealismo gnoseologico: existe un mundo Independiente de la
mente, pero solo tenemos acceso a él a través de las lentes del paradigma. Hay otro autor que
esta misma idea la expresa en términos de un mundo noumenico y al mismo tiempo un mundo
fenomenico, distingue estos dos sentidos de mundo en la concepción de Kuhn y esto fue
aceptado por el propio Kuhn (en la ultima etapa de su pensamiento veremos este aspecto). Pero,
en síntesis, entonces la inconmensurabilidad perceptual significa que al cambiar el paradigma, el
mundo mismo cambia con ellos.
2) Inconmensurabilidad lingüística. La inconmensurabilidad lingüística significa que los mismos
términos en paradigmas diferentes refieren a cosas diferentes. Y, en este punto, es importante
señalar que Kuhn rechaza la teoría tradicional del significado. La semántica de Frege, según la
cual un concepto tiene un sentido y un referente, el clásico ejemplo de Frege es el de Lucero
matutino y lucero vespertino. Son sentidos diferentes que refieren a lo mismo: al planeta Venus.
De manera que para Frege, sentidos diferentes pueden tener el mismo referente. Eso es
precisamente lo que rechaza Kuhn. El sentido para Kuhn no solo fija el referente sino que
además lo determina, de manera que sentidos diferentes tienen diferente referencia. Expresiones
con sentidos diferentes refiere a cosas diferentes. No es lo mismo el concepto de planeta en el
paradigma copernicano que en el paradigma ptolemaico. El sentido para Kuhn determina el
referente, de manera que al cambiar el sentido la propia ontologia cambia junto con el sentido. El
concepto de inconmensurabilidad lingüística es muy fuerte porque, de acuerdo con Kuhn, y acá
hay ciertas locuciones de Kuhn que toman sentido a través de la inconmensurabilidad lingüística.
Kuhn sostiene que científicos pertenecientes a paradigmas diferentes dejan de entenderse, se
produce una especie de diálogo de sordos, un corte abrupto en la comunicación. Esto va a dar
lugar a críticas severas. Hilari Putnam, por ejemplo, atribuye a Kuhn a tratar a los historiadores
de la ciencia como animales de la selva que producen ruidos sin entenderse. Naturalmente un
historiador de la ciencia está continuamente aludiendo a las teorias científicas del pasado, cosa
que no podría hacer de acuerdo con la tesis de la inconmensurabilidad.
3) Inconmensurabilidad metodologica, en el sentido de que, aunque se usen los mismos
instrumentos, se los usa para medir cosas diferentes. En "la estructura de las revoluciones
científicas" el concepto de inconmensurabilidad es un concepto global que se manifiesta en estos
3 aspectos. La inconmensurabilidad produce un corte abrupto y total con el pasado, de aquí que
las revoluciones científicas representen cortes abruptos, y que no haya continuidad con respecto
a los paradigmas precedentes. Es la tesis de la inconmensurabilidad la que ha llevado a las
críticas más severas al pensamiento de Kuhn.
De las críticas, me importa destacar dos conceptos fundamentalmente. Las críticas han sido
muchas, críticas a la propia noción de paradigma que en la etapa de transición Kuhn va a tratar
de elucidar. Pero respecto del concepto de inconmensurabilidad ha llevado a que se considere
que Kuhn ha ofrecido (al menos en "la estructura de las revoluciones científicas") una
concepción relativista e irracional de la ciencia. Sería Relativista porque la experiencia del
mundo depende del paradigma, es el paradigma el que constriñe la experiencia que se tiene del
mundo. Y, naturalmente, esto lleva a una posición absolutamente relativista en el sentido de que
no hay un mundo externo Independiente de la mente que la ciencia tenga que descubrir. Es el
paradigma mismo el que determina la percepción del mundo. Esto ha llevado a posiciones de un
relativismo radical. Los seguidores de Kuhn, entre otros los fundadores del programa fuerte en la
sociología del conocimiento (Barnes y Blor), han extremado las propias tesis de Kuhn. Esto es
importante porque el relativismo que impregna las tesis de Kuhn ha llevado a que en el ámbito
de las ciencias sociales Kuhn haya tenido mucha relevancia, no así en el ámbito de aquellos que
cultivan las ciencias duras. Pero la idea es que no hay nada que la ciencia tenga que descubrir
sino que es el propio paradigma el que determina la ontologia. Y esto, paradójicamente, quienes
más se aferraron a Kuhn fueron aquellos que trabajan en el ámbito de las disciplinas sociales,
pero en ese ámbito, si uno sigue al pie de la letra las tesis de Kuhn, llega a conclusiones tales
como que, por ejemplo, el holocausto no existió, que no fue más que un relato conceptual de los
historiadores. De acuerdo con Kuhn, no hay una verdad hacia la cual tienda la ciencia, y en las
últimas páginas de "la estructura de las revoluciones científicas" Kuhn dice explícitamente "no
hay que concebir la ciencia como un camino hacia (sea la verdad sea la verosimilitud) sino
como un camino desde. Así como no sabemos, de acuerdo con la teoría de la evolución,
cual sera la forma final que adoptará la evolución. De la misma manera no sabemos cuál es
el estadio final de la ciencia. La ciencia es un camino desde y no un camino hacia" (no sé si
la cita termina acá o antes).
Este paralelo con la evolución biológica posteriormente va a ser retomado por Kuhn, pero la idea
acá es que deja en claro Kuhn que la noción de verdad no cumple ninguna función como meta
hacia la cuál tiende la ciencia. Obviamente quien defiende la verdad como meta de la ciencia se
compromete con una posición realista respecto de la ciencia, como podría ser la concepción de
Popper, pero no es la concepción de Kuhn.
Respecto de la acusación de relativismo, Kuhn responde a esta crítica en el poscriptum de 1969,
y afirma que su concepción no es relativista, pero si lo fuese, ¿cuál sería el problema? Ya está
más o menos estandarizado en toda bibliografía que obviamente la concepción de Kuhn está
impregnada de una concepción relativista de la ciencia.
Respecto de la crítica de irracionalidad, se funda en el hecho de que Kuhn no puede dar razón
del progreso científico, no puede dar razón del progreso a través de las revoluciones. Pueden
distinguirse dos conceptos de progreso en la concepción de Kuhn. Uno es el progreso
interparadigmatico, el progreso dentro de la ciencia normal, y aquí esta noción de progreso no
difiere de la noción que adoptó la concepción tradicional: en la medida en que se resuelven los
enigmas hay progreso, y esto es objetivamente reconocido. El problema está en cómo explicar el
progreso inter paradigma, el progreso a través de los paradigmas. Si los paradigmas son
inconmensurables, si los problemas y soluciones son otras, si no se los puede comparar, pues
bien, ¿cómo explicar el progreso? Ya que la idea misma de progreso lleva consigo la idea de
mejoría, pero si no los podemos comparar, pareciera entonces que es imposible explicar el
progreso. Kuhn va a responder. En uno de los capítulos de "la estructura de las revoluciones
científicas" , denominado justamente "el progreso a través de las revoluciones" Kuhn afirma lo
siguiente:
"Si me preguntan si hay progreso a través de las revoluciones, la respuesta es que, para
saberlo, hay que acudir a la comunidad científica, son aquellos que han triunfado, que han
impuesto un nuevo paradigma, los que no pueden sino concebirlo como un logro
progresivo. De lo contrario, deberían pensar que fracasaron" (no sé dónde termina la cita).
Una idea análoga al triunfo en las revoluciones políticas, aquellos que triunfan en las elecciones
e instauran un nuevo régimen institucional, piensan que eso representa un progreso respecto de
las instituciones anteriores. Naturalmente, acá Kuhn está cambiando la noción de progreso, no es
la noción de progreso que aparece en la concepción tradicional, es un concepto subjetivo y
sociológico de progreso, ligado al sentimiento de la comunidad científica. A partir de estas
críticas recibidas, de estas críticas y otras críticas en cuanto a la noción de paradigma, la idea de
que el paradigma surge como...Kuhn afirma que el paradigma surge en el medio de la noche en
la mente de un científico sumergido profundamente en la crisis y, naturalmente, que esto dió
lugar, la idea de surgimiento súbito de un paradigma ha dado lugar también a críticas. Todas
ellas han llevado a que en el periodo entre la publicación de "la estructura de las revoluciones
científicas" y el poscriptum de 1969, Kuhn se haga eco de las críticas y haga ciertas
elucidaciones y ciertos cambios en su posición. Esto da lugar a la etapa de transición.
U4. 3. El estructuralismo de Kuhn.
Antes de continuar con la etapa de transición del pensamiento de Kuhn, algunas cuestiones
importantes respecto de la etapa anterior.
Algunas afirmaciones erróneas que suelen aparecer en textos de divulgación del pensamiento de
Kuhn, por ejemplo, entre otros, en primer lugar suele asociarse la concepción kuhniana del
desarrollo de la ciencia como un modelo adecuado para la explicación del desarrollo científico en
las disciplinas sociales. Esto va en contra de las tesis de Kuhn, ya que el propio kuhn
explícitamente afirma que las disciplinas sociales no han alcanzado aun (en 1962 dice eso) el
rango de ciencia madura en virtud de que no han adquirido, no han constituido, no hay en las
disciplinas sociales un paradigma. En ese sentido, están aun en la etapa pre-cientifica, de manera
que está lejos de poder ilustrarse la concepción kuhniana del desarrollo de la ciencia tomando
ejemplos de teorias de las disciplinas. Pero, además, hay algo que es directamente contrario a las
tesis de Kuhn. Suele afirmarse que en las disciplinas sociales hay paradigmas simultáneos, y esto
es totalmente contrario a las tesis de Kuhm. El paradigma es hegemónico, en la etapa de ciencia
normal hay una hegemonía total del paradigma vigente. No puede haber paradigma simultáneo, y
cuando se ha producido un cambio de paradigma, aquellos científicos que no se incorporan al
nuevo paradigma quedan excluidos de la comunidad científica.
Segunda etapa, etapa de transición:
En la etapa de transición, Kuhn se hace eco de las críticas recibidas y lleva a cabo por un lado
una elucidacion del concepto de paradigma en terminos de matriz disciplinar y ejemplares, y por
el otro va a agregar ciertas notas a la tesis de la inconmensurabilidad que significan un paso
hacia atrás respecto del impacto que tuvo esta tesis en "la estructura de las revoluciones
científicas".
La nueva caracterización del concepto de paradigma está en el post criptum de 1969, y aparece
incluído en el texto de 1962 ("la estructura de las revoluciones.."). Kuhn afirma que en la
estructura usó el concepto de paradigma en dos sentidos. En un sentido más general al que
denomina matriz disciplinar y un sentido más específico que refiere a los ejemplares
compartidos. En realidad, los ejemplares compartidos son uno de los componentes de la matriz
disciplinar que Kuhn considera por otra parte, un sentido más restringido del uso de la noción de
paradigma. Matriz disciplinar porque se refiere a una disciplina y matriz porque sus elementos
están ordenados.
Componentes de la matriz disciplinar. El paradigma, entendido como matriz disciplinar, está
constituido por un conjunto de generalizaciones simbólicas. Las generalizaciones simbólicas,
son, de acuerdo con Kuhn, aquellos elementos formalizables o fácilmente formalizables tales
como masa por aceleración= fuerza, son las leyes científicas. Pero el paradigma no incluye solo
leyes, hay otros elementos que forman parte del paradigma, entre otros, los modelos. modelos
entendidos como analogías, como patrones para ver el mundo (este era uno de los sentidos que
resaltó Kuhn al caracterizar al paradigma en las 1ras páginas de "la estructura de las.." al
expresar que introdujo el término paradigma porque no encontró mejor, y así como hay un patron
para la conjugación de los verbos regulares, del mismo modo, en ese sentido, utilizó el concepto
de paradigma, como modelo, como patrón para ver el mundo). Pero además, el paradigma
incluye una serie de valores, en el sentido de que puede elegirse el paradigma que otorgue, que
tenga mayor capacidad explicativa, la simplicidad es además un valor que cita Kuhn para
establecer una comparación entre paradigmas rivales. En términos generales, siempre en la
filosofía de la ciencia, la simplicidad tiene que ver con la estructura matemática de una teoría.
Pero bueno, aquí incluye Kuhn valores de los científicos, hay compromisos metafísicos, hay
compromisos instrumentales y metodologicos, pero el sentido más importante es el de
ejemplares. Los ejemplares son soluciones concretas a problemas concretos. Esto es importante
porque Kuhn está modificando, cambiando la perspectiva tradicional. De acuerdo con la
concepción tradicional, lo primero que un aprendiz, alguien que ingresa a la disciplina aprende,
es las leyes que luego aplica a los fenómenos. Acá Kuhn está invirtiendo el punto de vista
tradicional, está diciendo que se aprende en la propia práctica. Alguien que se inicia en la
disciplina aprende primero a resolver problemas, problemas que después verá como
instanciaciones de una ley. Pero lo primero no es el aspecto teórico, el aspecto conceptual, sino
que lo que prima es la práctica misma. Y Kuhn considera que esto mismo se manifiesta en la
manera en que se estructuran los libros, por ejemplo, en un libro de física se explica en un
capítulo qué es la fuerza y comienzan luego los ejemplos de cómo se resuelve el problema paso a
paso, y así en los demás capitulos y al final del texto aparecen una serie de problemas, todos
mezclados, que uno resuelve en función del aprendizaje de cómo se resolvieron los problemas
previos. Kuhn hace un paralelo en la manera entre cómo se aprenden los ejemplares con la
manera en que un chico aprende a diferenciar patos de gansos en el zoológico cuando un padre lo
lleva: no aprende a diferenciar los animales por definición conceptual, el padre no le ofrece
definición conceptual de las características de cada animal, sino que por ostension directa, por
observación directa de un pato o ganso, es que aprende a diferenciarlos, internaliza las relaciones
de semejanza y diferencia que aplicará luego frente a animales ejemplares similares a
reconocerlos como patos o gansos. Del mismo modo, dice Kuhn, se aprende a hacer ciencia, a
partir de la práctica, y esto es lo importante a resaltar en el caso de la concepción
kuhniana: la inversión del punto de vista tradicional.
A partir de 1969, y esto también es importante, se habla de paradigmas en todos campos del
conocimiento, y en contra de las tesis de Kuhn, se habla de paradigmas en la economía, en la
sociología, etc. A partir de 1969, Kuhn ha abandonado el concepto de paradigma, no lo usa más
en los escritos posteriores. Hay un texto de 1977 ("algo más acerca de los paradigmas") donde
establece esta misma analogía entre los ejemplares compartidos y la manera en que un niño
aprende a diferenciar patos de gansos. Después de la década del 70 abandona el concepto de
paradigma y pasa a usar el concepto de teoría en el sentido más tradicional del término.
Respecto a la idea de inconmensurabilidad. En la "estructura de las revoluciones científicas" la
inconmensurabilidad es un concepto global que incluye tres aspectos:
1) inconmensurabilidad perceptual
2) inconmensurabilidad lingüística
3) inconmensurabilidad metodologica.
PRÁCTICOS
UNIDAD 1: HEMPEL
En filosofía de las ciencias formales (ejemplo la matemática) ese orden de prioridad de los
problemas está invertido, en algún sentido la justificación de nuestras teorias matemáticas no
suele ser un problema central de la filosofia de la matemática. El problema central es el origen
de esa verdad.
De dónde viene la verdad matemática, ese es el problema que es central aquí. Hempel ofrece
varias respuestas históricas que se han dado.
1. Las verdades matemáticas son verdades evidentes. Eso no es el caso según Hempel, ya que:
A) hay muchas verdades matemáticas que no son para nada evidentes, hay verdades matemáticas
que requieren pruebas muy complejas.
Por lo tanto, concluye Hempel que las verdades matemáticas no son evidentes de suyo.
2. La matemática como la ciencia empírica más general (Mill). Es decir, que la matemática
habla de todas las cosas. Hempel refuta esa posición proponiendo un experimento mental. No se
nos ocurre pensar que el experimento refuta el enunciado que 5+3 es igual a 8, entonces un
experimento como ese es incapaz de refutar un enunciado como 5+3= 8, y la razón de eso es que
el enunciado no tiene contenido empírico, no pueden deducirse consecuencias observacionales
que permitan confirmar o refutar el enunciado. ¿Por qué entonces estos enunciados no tienen
contenido empírico? La respuesta de Hempel es que los enunciados de la matemática son
enunciados analíticos, y las verdades de la matemática son verdades analíticas. Analítico se
opone a sintético, y en este contexto analítico se debe leer como verdadero (el enunciado) en
virtud del significado de los términos que lo componen. Entonces, un enunciado como 2+2= 4 es
verdadero del mismo modo que "todo soltero es un hombre no casado". En los 2 casos, no se
tiene que ir al mundo a averiguar por experiencia, ya que la verdad de ese enunciado se sigue de
los significados de los términos que lo componen, por esa razón no tienen contenido empírico
esos enunciados, son enunciados analíticos cuya verdad se puede establecer a priori.
¿Qué quiere decir en este contexto que las verdades matemáticas son verdades por
definición? En el caso de todas las verdades matemáticas, se trata de verdades que se siguen de o
que se establecen a partir de un sistema axiomático. Es decir, las verdades de las matemáticas se
construyen a partir de un conjunto de axiomas (enunciados no probados dentro de la teoría
matemática) que están formulados a partir de ciertos términos primitivos (que no están definidos
dentro de la teoría) y a partir de ese conjunto de enunciados no probados, utilizando ciertos
principios o reglas logicas, se van derivando el conjunto de las verdades matemáticas.
Fue el matemático Peano quien formuló por 1ra vez un conjunto de axiomas de los cuales se
pueden inferir todas las verdades de la aritmética.
P1: el 0 es un número
P5: Si P es una propiedad tal que (a) el 0 la tiene, y (b) siempre que un número n tiene la
propiedad p el sucesor de n tiene siempre la propiedad p, entonces todos los números tienen la
propiedad p. Esto es el principio de inducción matemática, hace que lo que se dice de unos pocos
casos se pueda proyectar sobre el infinito conjunto de los números naturales.
Este sistema, en sentido estricto no habla de nada hasta que no tenga una interpretación, ya que
los axiomas están formulados a partir de términos primitivos no definidos. Hempel descarta la
idea de que los axiomas mismos sean definiciones implícitas de los términos primitivos, y lo
descarta porque este sistema axiomático tiene más de un modelo. Es decir, tiene más de una
interpretación de los términos primitivos que hacen verdaderos a todos los axiomas. De hecho, se
puede probar que si tiene un modelo, entonces tiene infinitos modelos, con lo cual hay infinitas
interpretaciones para los primitivos que hacen verdaderos todos los axiomas de Peano y por ende
también a todos los teoremas. Por lo tanto, no se puede pensar que los axiomas definen
implícitamente el significado de los primitivos, sino que tengo que asignarles una interpretación
que sea aquella que yo quiero que el sistema tenga, aquello de lo que yo quiero que el sistema
hable (esto se conoce como la "interpretación pretendida" de la teoría). Entonces, se necesita
este sistema porque quiero que hable de los números. Con lo cual lo que tengo que hacer es
capturar el significado corriente de los números, aquello que tengo en la cabeza cuando
hablamos de números. También quiero que la captura de ese significado ordinario se de en
términos puramente lógicos. Esto tiene que ver con la naturaleza del proyecto logicista de
procurar reducir las verdades y nociones matemáticas a las de la lógica pura.
Se trata de encontrar el sentido básico de número que encontramos en nuestro lenguaje natural.
La idea es que estos números son ciertas características que podemos adjudicarles a clases de
cosas. En sentido estricto, la apuesta es que la definición de número se va a construir a partir de
la definición de cardinalidad de una clase. La cardinalidad de una clase es un número que yo le
asigno a una clase en función de la cantidad de elementos que tiene, más formalmente, en este
contexto el número dos va a ser definido como la clase de todas las clases que tienen dos
elementos, o más cortito como la clase de todos los pares. Se supone que entendiendo los
números de esta manera capturamos el sentido ordinario de número natural, aquello que
queremos expresar en nuestro discurso cotidiano cuando hablamos de números. Y con esa
interpretación hacemos verdaderos los axiomas de Peano y obtenemos las infinitas verdades que
se siguen acerca de los números naturales.
("Un número natural puede ser considerado como una característica de ciertas clases de objetos".
Es decir, la definición de "número natural" se construye a partir de la noción de cardinalidad de
una clase. )
El punto acá, y esto es lo importante de este tema, ¿todo este proceso se hace en términos
puramente lógicos?
La idea del logicismo es que la matemática no es nada más que una rama de la lógica. Esto
quiere decir que, en primer lugar, todas las nociones matemáticas se las puede reducir, las puedo
definir en terminos de nociones puramente logicas, nociones que pertenecen a la lógica pura. En
2do lugar, que todas las verdades matemáticas las puedo deducir de esas definiciones
simplemente usando la lógica. Las nociones matemáticas y las verdades matemáticas se obtienen
a partir de nociones logicas y verdades puramente lógicas. Ese es el proyecto logicista, y la
solución de Hempel para el problema del origen de la verdad matemática se enmarca en
ese proyecto.
Todos los conceptos de la matemática pueden ser definidos en términos de conceptos de la logica
pura.
Todos los teoremas de la matemática pueden ser deducidos a partir de aquellas definiciones por
medio de los principios logicos (incluyendo los axiomas de infinitud y elección). )
Como el proyecto logicista no fue considerado adecuado por algunas personas, se ofrecen nuevas
respuestas como la de Balaguer.
Axiomas de elección: se lo necesita para probar las verdades matemáticas, para que salgan del
sistema de Peano. El axioma dice así:
Si tengo una colección de conjuntos disyuntos, es decir, conjuntos que no comparten entre sí
ningún elemento, puedo formar otro conjunto que contenga uno de cada uno de ellos. Cuando se
habla de conjuntos finitos, eso no presenta problema. Pero cuando se habla de conjuntos infinitos
y de un número infinito de conjuntos, el teorema pasa a ser problemático en su formulación y
problemático en su carácter puramente lógico. No queda claro que asumir un axioma (un
principio) que afirma la existencia de cierto conjunto sea asumir un principio o un axioma que
sea puramente lógico. Esto fue discutido antes y después. No queda claro que el principio de
elección sea parte de la lógica pura, no es obvio que eso sea así.
El axioma de infinitud presupone que existen infinitos objetos. Si presupongo eso y agrego
teoría de tipos, evito la paradoja y obtengo todas las verdades de la matemática que se querían
tener. Ahora bien, acá surge una pregunta: ¿es el axioma de infinitud un axioma o principio
puramente lógico? Habla no solo de la existencia de objetos sino de infinitos objetos. Si lo
anterior parecía dudoso que sea lógica pura, esto parece no ser lógica pura, ya que estoy
presuponiendo la existencia de objetos. ¿Es la asunción de que existen infinita cantidad de esas
cosas una asunción puramente lógica? Parece que no. Estas razones son parte de aquellas razones
que terminaron en un diagnóstico histórico de que el proyecto logicista estaba condenado al
fracaso. Es decir, no puedo reducir ni todos los conceptos ni todas las verdades de la matemática
a verdades de la lógica pura porque lo que necesito asumir se parece poco a la lógica pura. ¿A
qué se parece la asunción de que existen infinito número de objetos? Una respuesta es que
eso se parece a la metafísica, a la ontología. Una respuesta es que la idea general del logicismo
se pueden conservar si yo pienso que las verdades de la matemática se pueden reducir a las
verdades de la lógica más alguna otra cosa. Esa alguna otra cosa puede ser una asunción
metafísica, por ejemplo, la asunción de que los objetos matemáticos existen allí afuera de un
modo semejante al modo en que existen los objetos físicos. Es decir, así como hay objetos
concretos, hay objetos abstractos que tienen existencia y que garantizan las verdades de la
matemática. Esta es la solución platonista. Balaguer discute este mismo problema: qué es lo que
se necesita para reducir la matemática, al menos en alguna medida, a la lógica. Se necesita
lógica y algo más, ese algo más son compromisos metafísicos.
UNIDAD 2: BALAGUER
Busca mostrar que su versión supera la objeción epistemológica al platonismo matemático de
Vena Serrat(?).
Partiendo de algunas nociones lógicas pero agregando supuestos metafísicos sobre la existencia
de objetos podíamos solucionar el problema del origen de la verdad matemática y al mismo
tiempo salvar alguna intuición respecto de que la verdad matemática tiene algo que ver con la
verdad lógica. Asumir la existencia de ciertos objetos matemáticos, comprometerse
ontológicamente con la existencia de ciertos objetos matemáticos, toma su forma más radical en
la tesis de que los objetos matemáticos existen (como una mesa o dinosaurio dijo en clase), solo
que no se trata de objetos concretos sino abstractos, pero existen con independencia de nuestra
mente, no son creaciones de nuestra mente. Sostener esto implica un compromiso metafísico,
pero parece solucionar muchas cosas sobre el origen de la verdad matemática. Así como un
enunciado factico es verdadero cuando describe o representa adecuadamente alguna parte del
mundo físico, me basta decir que un enunciado matemático es verdadero cuando describe o
representa adecuadamente alguna parte del mundo matemático, del mundo de objetos abstractos.
Balaguer defiende esta posición, va a ofrecer una manera particular de hacerlo.
Primer problema: lo que toda forma de platonismo debe poder superar, la objeción
epistemológica de Benacerraf:
La idea intuitiva es: si se defiende el platonismo, tenés que aceptar que tenemos conocimiento de
objetos abstractos (objetos fuera del espacio y del tiempo), ahora bien no se pueden conocer
esos objetos, por lo tanto el platonismo matemático es falso.
La apuesta tradicional es por formas de intuición matemática, Frege y Godel hablaban de una
suerte de analogía con la percepción. Así como percibimos objetos físicos, hay algún sentido en
que nuestra mente capta o percibe los objetos matemáticos. A veces se habla de facultad de
intuición intelectual por medio de la cual captamos verdades que tienen que ver con estos objetos
matemáticos. Balaguer dice que esto requiere de una filosofía de la mente anti-naturalista,
es decir, la idea sería que se necesita decir que o bien que nuestra mente tiene naturaleza dual
(por un lado que puede estar en contacto por la percepción con objetos espacio temporales pero
que también pertenece a ese reino de abstracción en el cual puede estar en contacto con objetos
abstractos, razón por la cual puede conocerlos) o bien se tiene que justificar cómo de alguna
manera nuestra mente, que es una entidad situada en el espacio tiempo, puede tener contacto con
esos objetos que no están situados en el espacio ni en tiempo, se tiene que postular alguna
especie de "magia epistemica" que le permita a nuestra mente entrar en contacto con esos
objetos.
Otra manera de brindar una epistemología es el holismo: la idea es que todas nuestras creencias,
incluidas las creencias matemáticas, se someten a contrastación o al juicio del tribunal de la
experiencia toda junta, es todo nuestro cuerpo de conocimiento (incluyendo las afirmaciones
matemáticas) las que estamos probando constantemente en función de la experiencia. Balaguer
dice que esto tiene una gran limitacion: muchas veces sabemos que nuestras teorias
matemáticas son correctas antes de encontrarle alguna aplicación empírica ( o lo que es peor,
independientemente de que alguna vez les encontremos alguna aplicación empírica). Entonces
¿cómo justificamos? ¿Cómo explicamos el conocimiento de la verdad de esas teorías
matemáticas para los cuales no encontramos aplicación empírica o no aplicamos todavía? Esta
epistemología holista no podría explicar el origen de todas las verdades matemáticas que
aceptamos como verdades.
La solución puede ser un platonismo naturalizado. Acá Balaguer va a poner en juego su propia
posición (el platonismo pleno) en contraste con un rival contemporáneo (el platonismo
naturalizado de Penélope Maddy). En pocas palabras, Maddy dice que el platonismo tradicional
(el que postulaba la facultad misteriosa de aprehensión de los objetos matemáticos) perdió de
vista el hecho de que, en última instancia, nuestro conocimiento matemático es conocimiento
acerca de conjuntos, y que los conjuntos son conjuntos de objetos físicos ordinarios. Ejemplo: un
conjunto de monedas es un conjunto. Esto parece traer un problema, porque la clase pasada
vimos la tesis de Mill, según el cual la verdad matemática tenía su origen en el hecho de que es
la ciencia empírica más general, que la matemática habla de las cosas del mundo, solo que en un
nivel de generalidad que nos hace olvidar que habla de las cosas del mundo. Maddy no parece
estar tratando de decir eso porque es platonista (lo cual implica que se trata de algún
conocimiento de objetos abstractos). Maddy va a decir que los conjuntos son diferentes de los
simples agregados de objetos, no obstante, a pesar de ser abstractos, son empíricamente
aprehensibles, pueden ser conocidos mediante la experiencia sensible. Entonces, en ese conjunto,
en ese agregado de monedas conviven dos objetos: un agregado de monedas y un conjunto
abstracto. De esta forma, se elimina el misterio de cómo se adquiere el conocimiento de objetos
matemáticos.
No obstante, el problema principal va a ser de orden más conceptual, está ligado al hecho de que,
aun haciendo caso omiso de que las leyes de la matemática se nos asimilan a las leyes de la
naturaleza (las leyes de la ciencia fáctica, lo cual tiene un montón de reminiscencias a los
problemas que tenía la posición de J S MILL), incluso si dejamos eso de lado, el problema es que
estos conjuntos postulados por Maddy, formados a partir de entidades concreta (pero que en
tanto conjunto son abstractos) no solucionan el problema epistemológico de Benacerraf, porque
estos conjuntos no son perceptibles, y se requiere que lo sean para eliminar el carácter misterioso
de la percepción de objetos abstractos (deberían ser perceptibles por medio de los sentidos). No
resuelve las objeciones dado que los conjuntos abstractos de Maddy no son perceptibles (y, en
general, no hay forma de sostener que conjuntos abstractos son perceptibles).
Balaguer dice que no lo son. El argumento de Balaguer dice que hay una diferencia ontológica
entre el agregado de materia (el agregado de objetos físicos) y el conjunto. No obstante, yo no
percibo por medio de los sentidos la diferencia entre ellos, lo que sí percibo es las monedas. De
eso se sigue que lo que no percibo son los conjuntos (si es abstracto no se puede percibir y por
tanto no soluciona la objeción epistemológica).
Esta 2da opción de platonismo dice que en realidad nuestro conocimiento acerca de la
matemática no es un conocimiento acerca de objetos matemáticos sino un conocimiento acerca
de estructuras matemáticas. Entonces no son objetos abstractos sino estructuras abstractas. Los
estructuraslistas matemáticos dicen que la matemática no habla de ningún objeto sino de
estructuras abstractas definidas a partir de los axiomas.
Estructuraslismo matemático: la matemática es acerca de algo que existe fuera del espacio
tiempo, pero no acerca de objetos, sino de estructuras abstractas o patrones (ejemplo: la
aritmética y los axiomas de Peano).
Somos capaces de advertir la presencia de patrones, por lo tanto, no hay problema con el
conocimiento matemático. Dado que en nuestra vida cotidiana tenemos un acceso no
problemático a estos patrones o estructuras, nuestro conocimiento de estructuras abstractas no es
un conocimiento misterioso, y la objeción de Benacerraf quedaría superada.
Balaguer responde que no es el caso. En primer lugar, porque se puede dar una explicación
anti platonista de cómo tenemos conocimiento de esas estructuras. En segundo lugar, y esto es lo
central de la objeción de Balaguer, el platonismo estructuralista no está en mejores condiciones
que el platonismo de objetos cuando se trata de entidades abstractas. La única diferencia es que
mientras los platonistas de objetos dicen que conocemos objetos abstractos, los otros dicen que
conocemos estructuras abstractas pero en sentido estricto es lo mismo. El misterio sigue vigente:
cómo alguien situado en el espacio tiempo conoce una entidad o tipo de entidades que no
pertenecen ni al espacio ni al tiempo. Por lo tanto, el estructuraslismo matemático no es capaz
de superar la objeción de Benacerraf.
Cualquier objeto matemático que concibamos, a condición de que sea consistente, constituye una
representación segura de algún objeto matemático existente, dado que, según el PP, existen todos
los objetos matemáticos posibles.
Basta que yo conciba en mi mente un objeto matemático lógicamente posible, la única condición
es que sea consistente. Si cumple esa condición, ese acto de concebir va a estar representando
alguna parte del reino matemático y por lo tanto va a ser verdadero. Es decir, esa proporción va a
describir adecuadamente una parte del reino matemático y va a ser entonces verdadera, va a ser
verdadera porque si es consistente, se corresponde con algo que de hecho existe en el mundo de
los objetos matemáticos. Balaguer va a ilustrar esto con un argumentos de Phil(?). Pensar una
ciudad de Nepal, imaginarla en la mente y creer que por el solo hecho de imaginarla tengo
conocimiento de alguna parte de Nepal. Por eso, para Phil la idea básica del platonismo no tiene
sentido. Pero Balaguer dice que, si existen todas las ciudades nepalesas lógicamente posibles, si
ese fuera el caso, bastaría con imaginar cualquier cosa que pase en una ciudad de Nepal, darle
cualquier forma, y bastaría con que hiciera eso para que conociera alguna ciudad de Nepal
porque existen todas las ciudades lógicamente posibles. La idea es que, así como cualquier cosa
que yo me imagine de una ciudad nepalesa va a ser verdadera si existen todas las ciudades
nepalesas lógicamente posibles, cualquier teoria puramente matemática, a condición de que sea
consistente, va a describir alguna parte del reino matemático.
1)La 1ra objeción que Balaguer presenta a su posición es la que dice que si bien el PP explica
cómo el conocimiento de una proposición matemática consistente representa el conocimiento de
una proposición matemática verdadera en función de que describe alguna parte de ese pleno
reino de entidades matemáticas. Lo que no de explica es cómo, en primer lugar, tenemos
conocimiento de la consistencia matemática, con lo cual, no se superaría la objeción de
Benacerraf. Balaguer responde que no hay nada que le impida a un platonista pleno (o a un
platonista en general) pensar el conocimiento de la consistencia matemática del mismo modo que
lo piensan los anti platónicos. Le basta decir que se tiene conocimiento lógico de en qué consiste
ser un conjunto consistente de oraciones. La base de esto es la observación de que, yo puedo
conocer, que un conjunto de oraciones es consistente incluso si no tengo ningún contacto y si no
pudiera tener ningún contacto con las entidades descritas en esas oraciones. El punto es que, el
conocimiento de la consistencia, que es lo único que me basta para tener conocimiento
matemático, es un conocimiento lógico. Y en este sentido particular es que el conocimiento
matemático surge del conocimiento lógico, ya que en primer lugar, para obtener conocimiento
matemático, necesito conocer en qué consiste que un conjunto de oraciones o una oración sea
consistente, y eso es conocimiento lógico, no conocimiento matemático. Pero no basta con el
conocimiento lógico para el conocimiento matemático, las verdades matemáticas si bien surgen
de verdades lógicas, no son verdades lógicas, se necesita algo más que la lógica no me puede dar,
y ese algo más es metafísica. Se necesita un compromiso ontologico fuerte con la existencia de
este reino pleno de entidades matemáticas. La lógica me dice qué entidades matemáticas pueden
existir, la metafísica me afirma que esas entidades existen.
2) 2da objeción. Lo único que el PP explica es cómo es que los seres humanos pueden encontrar
por casualidad teorias que verdaderamente describen el reino matemático. No explica en qué
sentido podemos confiar en nuestras creencias matemáticas, porque cualquier cosa que yo
piense, a sola condición de ser consistente es verdadera. Esta objeción supone una epistemología
internalista. Esto es, una epistemología en la cual lo relevante es en qué condiciones un agente
epistemico está autorizado a afirmar que conoce la verdad de cierta proposición, que confía en la
verdad de cierta proposición. Pero esto no es lo que está involucrado ni en la objeción de
Benacerraf ni en el PP. En primer lugar, le basta al PP una explicación externalista, es decir, que
de alguna creencia que tiene la matemático que se corresponde con alguna parte del mundo
matemático sin importar si está o no en condiciones optimas de justificación para sostener o no
esa creencia.
Balaguer responde que esto es un malentendido, que no es una contradicción genuina, porque la
teoría ZFE y la teoria ZF + no E (la que incluye la negación del axioma de elección), no hablan
del mismo tipo de cosas, de la misma clase de cosas, no describen las mismas partes del reino
platónico, son como mapas de territorios diferentes. Uno describe el universo de los conjuntos
sub-uno, el otro describe el universo de los conjuntos sub-dos. Es decir, describen día clases
distintas de cosas. Cada teoría describe su propia clase de conjuntos, por lo tanto, no hay
contradicción porque no estoy hablando de los mismos objetos.
4)Cuarta objeción (poco importante): el PP no permite hablar de todos los objetos matemáticos
conjuntamente, al mismo tiempo. Respuesta: esto no es cierto, se pueden decir verdades de la
totalidad del mundo matemático. PP permite decir cosas como "todos los objetos matemáticos
son objetos matemáticos". Además, ¿por qué interesa esto? Para superar la objeción de
Benacerraf basta poder tener conocimiento de algunas partes del mundo matemático, y no es tan
útil o interesante poder referirse al conjunto de las entidades matemáticas. No obstante, Balaguer
dice que sí se puede hacer eso.
A) Inclusividad o amplitud conceptual. Uno puede tener una teoría matemática que a juicio de
cierta parte de la comunidad científica captura un concepto más amplio de conjunto, mientras
que otra faccion de la comunidad científica sostenga que esa teoria no captura de la mejor o
manera más amplia o inclusiva una noción de conjunto y que se necesita apelar a otra teoria para
tener una noción más amplia o inclusiva de conjunto. Esta sería una disputa que puede resolverse
objetivamente y la ontología asociada al PP no socava la objetividad de esta disputa.
B) Esto es el centro de la respuesta de Balaguer. Se puede referir a disputas acerca de cuál debe
ser la interpretación pretendida de una teoría matemática (los axiomas no delimitan una única
interpretación, se los puede interpretar de modo diverso y hay algo que es aquello de lo que en
1er lugar se quiere hablar). Balaguer aclara que la interpretación pretendida no es privilegiada, lo
es solo en términos pragmaticos, describo aquellas partes del reino matemático que me interesa
describir (como los mapas de los territorios, se hacen mapas más detallados de los territorios que
me interesan por cuestiones pragmaticas).
6) Sexta objeción: Una epistemología platonista completa debería explicar nuestro conocimiento
de oraciones matemáticas impuras y de las oraciones físicas mixtas (oraciones que incluyen
términos matemáticos pero que también refieren a objetos físicos).
7) Séptima objeción: las teorías matemáticas no describen partes únicas del reino matemático,
sino que todas las teorias matemáticas tienen múltiples modelos.
Respuesta: esto es irrelevante para el platonismo pleno, el hecho de que una teoría matemática
según su interpretación pueda describir distintas partes del reino matemático no impide afirmar
que describe con verdad distintas partes del reino matemático, y eso es lo único que se necesita
para superar la objeción de Benacerraf.
El texto en esencia trata de una sola cosa: de la posibilidad de establecer una distinción entre
términos teóricos y no teoricos. Una razón por la que esto puede ser considerado importante se
vincula con el problema del significado de los términos teóricos. El significado de ciertos
términos que aparecen en teorias que son o tienen la pretensión de ser teorías empíricas y a pesar
de ello parecen referir a entidades inobservables. ¿Como se reconstruye filosóficamente el
significado de esos términos?
No obstante, en sentido estricto, la principal motivación para un proyecto como el que Achistein
emprende en ese texto tiene que ver con cuestionar una de las bases conceptuales del proyecto
del círculo de Viena. Concretamente, la idea de que mientras los términos teóricos son términos
que se utilizan como meras herramientas de cálculo para los cuáles no se establecen clausulas
semánticas, todo el vocabulario teórico que articula el discurso científico puede en algún sentido
(no siempre fácil de esclarecer) ser reducido a un vocabulario no teórico (en el contexto del
círculo de Viena observacional, que es teóricamente neutral).
El proyecto (del círculo de Viena) de establecer una distinción entre términos teoricos y
términos no teóricos estaba subordinado a la posibilidad de establecer una distinción entre
entidades observables y entidades inobservables, con el fin de distinguir cabalmente un
vocabulario observacional que refería a las entidades observables y un vocabulario no
observacional (el vocabulario teorico).
Achistein hace una serie de notas acerca de la noción de observabilidad. La que más se destaca
es el hecho de que hay ciertos casos en los que se puede afirmar justificadamente que
observamos entidades aunque esas entidades están de un modo u otro oculto a la vista.
1)El 1ro es un caso en el que podemos observar una entidad X fijandonos en alguna otra
entidad que está de algún modo asociada con ella.
Da criterios:
El 1er criterio: que X tiene que producir la 2da entidad, tiene que haber una relación de algún
tipo, probablemente una relación causal, tal que la entidad que estamos observando causa aquella
otra entidad que no está oculta a la vista en contraste con la 1ra que sí lo está.
El 2do requisito de este criterio es que esta entidad Y (que es producto de X) tiene que estar en la
vecindad general de X. Esto puede variar contextualmente, pero debe haber alguna clase de
proximidad entre estas 2 entidades.
Ultimo criterio: mirar esta entidad Y es la manera estándar de observar X. Ejemplos que
satisfacen los requisitos que pone este criterio: observar desde muy lejos un barco navegando en
el mar (no se observa el barco en sentido estricto sino l estela que el barco deja en el mar). Otro
ejemplo es el de átomos en una camara de niebla. El argumento de Achistein para afirmar que
hay un sentido en el que podemos observar átomos en una camara de niebla es central para
entender por qué rechaza o al menos relativiza la efectividad de la distinción observable e
inobservable para establecer la distinción entre términos teóricos y no teoricos.
2)Un segundo caso que según achistein estamos autorizados a decir que observamos esa entidad
a pesar de que esa entidad está de algún modo u otro oculta a la vista. En este caso se observa
un tipo particular de entidad que Achistein llama una imagen de X. Lo relevante es para qué
casos es interesante la aplicación de este criterio.
Los casos interesantes son los casos de observación de imagenes de ciertas entidades
inobservables en microscopios o la observación de imagenes de nuestro cuerpo a través de
resonancias magnéticas o tomografías. Esas imágenes guardan un parecido con las celulas o el
interior de nuestro cuerpo, varían cuando varía nuestro cuerpo y se producen relativamente al
mismo tiempo los cambios en la imagen y del objeto del cual esa imagen es imagen. Se cumplen
los requisitos que nos autorizan a decir que estamos observando nuestro cerebro o una célula a
pesar de que lo que observamos en sentido estricto no sea nuestro cerebro sino una imagen del
cerebro. Según achistein, en estos casos también se puede hablar de observación.
Un 2do nudo problemático para establecer la distinción entre teórico y no teorico a partir de la
distinción entre observable e inobservable es que lo que nosotros observamos puede ser descripto
de muchas maneras diferentes. El ejemplo para ilustrar este punto es el de los dos faros de un
coche. Se puede describir como dos luces en la noche o un auto y muchas otras, son todas
descripciones presumiblemente verdaderas y adecuadas pero diferentes del mismo fenómeno.
Resumiendo: las dos objeciones que Achistein levanta contra este criterio, contra la
posibilidad de establecer la distinción teórico y no teorico a partir de la diferencia entre
observable e inobservable son:
1) descansa sobre un supuesto. Ese supuesto es que hay ciertos items que pondríamos en la
lista teórica (ejemplo: electrones) que no son observables. Pero si hay casos en que entidades
ocultas a la vista son observables por medio de imágenes u otras entidades producidas por las
1ras, entonces el criterio de inobservable o observable para establecer la lista de terminos
teóricos o no teóricos no aplica porque no nos pone ciertos términos en el lugar de la lista que
quisieramos que estén.
2) Segunda razón: lo que observa un científico puede ser descripto de multiples maneras
utilizando vocabulario perteneciente tanto al vocabulario observacional como al vocabulario
teorico. Esta es una 2da razón para pensar que la distinción entre observable e inobservable, si
bien es una distinción que puede separar los términos en distintas listas, no separa los términos
en la lista que los miembros del círculo de Viena conformaron.
¿Qué pasa si ya no pienso, como en el caso de los electrones (observables a través de otras para
achistein), que se trata de entidades inobservables? Sino que intento decir que, a pesar de que
los electrones son entidades observables, no son en sí mismas observables sino que en
realidad lo son a través de otra entidad. Achistein responde que esto fracasa porque
observable en sí mismo nos impone un contraste. Cuando se dice que algo es observable en sí
mismo estoy diciendo que no observo aquello que digo que es inobservable en contraste con algo
que sí estoy observando. Y aquello que estoy observando es contextualmente variable, con lo
cual podría decir que no se puede observar el virus en sí mismo porque observo otra cosa como
una imagen o un conjunto de pixels en una PC. Dependiendo de la clase de contrastes que ubique
de en cada caso, algunos términos pueden quedar como observables y otros no, es decir, es una
distinción contextualmente dependiente, variables, no me da una distinción fija entre
términos teóricos y terminos no teóricos (y eso es lo que se buscaba).
Un intento adicional podría decir que no se refiere a términos que refieren a entidades que son en
sí mismas inobservables, porque se acepta ahora que es contextualmente variable, sino a
entidades que sean directamente observables como una silla (el electrón no seria directamente
observable porque se observa por medio de una distinta entidad). Esto también fracasa para
Achistein.
Podría querer decir en línea recta al observador, pero no aplica para algunas entidades a las que
presumiblemente refieran nuestras teorias o un montón de términos que aparecen en nuestras
teorias.
Podría querer decir "sin intermediarios", pero se trata de una distinción contextualmente variable
al igual que en el caso de los observables en sí mismos. Sin intermediarios puede variar
dependiendo que considere un intermediario y en qué contexto lo considere, y la distinción entre
entidades directamente observables y observable mediante algún intermediario va a ir variando
y nos dará distintas listas.
Otra posibilidad es que directamente observable signifique observable sin instrumentos. Eso nos
deja de nuevo ante el mismo problema porque el hecho de que para observar una entidad no
necesite ningún instrumento se opone en contraste al hecho de que hay entidades para las cuáles
sí se necesito instrumentos. ¿Qué quiere decir que necesito instrumentos para observar cierta
entidad en oposición a puedo observar directamente esa entidad porque puedo observarla sin
instrumentos? Puede querer decir que ningún aspecto de esa entidad es observable sin
instrumentos, que generalmente necesite un instrumento para detectar la presencia de ls entidad,
que generalmente requiero instrumentos para medir la magnitud o propiedad de esa entidad.
Estas distintas específicaciones del sentido de entidad inobservable sin la mediación de
instrumentos, me dan distintas listas y lo peor es que en ningún caso me dan las listas que quería
originalmente.
El resultado parece aporetico, pareciera que la distinción no puede establecerse, que sea
una distinción vacua.
Si esta distinción puede establecerse, un 2do punto es que este vocabulario observacional tiene
que ser teóricamente neutro. Esto último se va a discutir en un 2do texto de achistein y en el
texto de Gentile de esta unidad.
Churchland dice que hay carga teórica porque hay un sentido amplio en cual lo que uno observa
está condicionado, determinado fuertemente (en un sentido sustantivo) por los presupuestos
teoricos, por el marco conceptual desde el cual estoy efectuando o dentro del cual estoy
efectuando la observación.
(Lo que alguien observa depende del marco conceptual en el que se dan sus respuestas
perceptuales mundo).
Por otro lado, Fodor (filósofo de la mente) dice que el procesamiento perceptual está en algún
sentido aislado, encapsulado, eso significa que de ninguna manera cosas que yo sé, cosas que
pertenecen a mi marco conceptual son capaces de penetrar, de afectar la marcha, los mecanismos
que ocurren en el procesamiento visual. En algún sentido lo que veo es teóricamente neutral y no
está afectado, no está permeado ni penetrado por suposiciones, consideraciones o estructuras
conceptuales más generales.
2)Tesis de la plasticidad perceptual: los juicios acerca del mundo de la percepción son juicios
que implican la aplicación de ciertos conceptos, y esos concpetos que aplico no pertenecen a un
ámbito aislado, si ustedes quieren privilegiado, de mi red conceptual (llamemoslo conceptos
observacionales) sino que están definidos, determinados, se identifican por su posición en una
amplísima red de conceptos que incluye conceptos tanto observacionales como no. Otra manera
de decir esto es que no hay una manera clara, determinada, de trazar una linea entre
conceptos de observación y conceptos de alguna otra naturaleza. Por lo cual, los conceptos,
la identidad, el contenido, la naturaleza de cada concepto que aplico a cualquier juicio, incluso a
los juicios de observación, está determinada por la red conceptual en su conjunto, por lo tanto
hay plasticidad conceptual, mis juicios de percepción son juicios determinados por la identidad
de toda mi red conceptual, y no de cierto rango privilegiado de conceptos obervacionales. Según
Churchland esto se puede apreciar claramente en el caso de figuras ambiguas. Ejemplo del
docente: Si somos capaces de ver caras enfrentadas o una copa es porque tenemos esos
conceptos. Quién no tuviese el concepto de copa, dudosamente vería eso, vería solamente dos
caras enfrentadas. Lo que sabemos, las suposiciones teóricas que realizamos acerca de nuestro
objeto de observación determinan lo que vemos, determinan la percepción visual de ese objeto.
FODOR.
Por el contrario, Fodor piensa algo diferente en cuanto a lo que ocurre en la percepción, esto
deviene de una teoría de la mente que, a diferencia de la de Churchland, no es plástica, sino que
señala que la mente funciona como una estructura modular. Esto significa (en resumen) que
hay algo así como un centro o un conjunto de centros de procesamiento superior, centros
cognitivos superiores que están aislados de módulos particulares que tienen ciertas funciones. El
ejemplo por antonomasia es el módulo de procesamiento perceptual, más concretamente el
módulo de procesamiento visual. Estos módulos están encapsulados, esto quiere decir que la
información que ocurre, que circula en el módulo por ejemplo de procesamiento visual sube a los
centros cognitivos superiores pero la información que circula en los centros cognitivos superiores
no es posible que entre en el módulo de procesamiento visual, ese módulo está en algún sentido
aislado, sellado, es impermeable a la información disponible en los centros cognitivos superiores.
Esto tiene como consecuencias respecto de la percepción. Estas consecuencias se pueden
apreciar en ejemplos como este:
Ejemplos como este parecerían confirmar el carácter modular de la mente y el carácter
encapsulado del módulo de percepción visual. Si cualquiera de nosotros ve la figura de las
flechas, va a ver dos líneas tales que la de arriba parece más corta que la de abajo. Pero si
cualquiera de nosotros agarra una recta y mide las líneas, se va a dar cuenta que son iguales.
Parecen distintas, pero son iguales. Ahora sabemos que son iguales, no obstante, el hecho de que
tengamos la creencia fundada y bien justificada de que A y B son iguales, no afecta el modo
cómo las seguimos viendo. Las seguimos viendo diferentes a pesar de que sabemos que son
iguales. Hay muchas otras maneras en las cuales las suposiciones, tanto conscientes como
inconsciente, que nuestro sistema cognitivo hace acerca de lo que vemos, parecería modificar lo
que vemos. El punto es que saber cómo funciona la ilusión, el comprender teóricamente como
funciona una ilusión, no me permite modificar la manera en que un módulo de procesamiento
visual está procesando la información que viene del objeto de la percepción. Por lo tanto, el
resultado, la imagen que mi centro de procesamiento visual forma es independiente de mis
creencias, independiente del marco conceptual, y dado que está atado a condiciones fisiológicas,
cerebrales, biológicas, se puede presumir neutral para cualquiera de los observadores.
¿Qué pasa con las figuras ambiguas? Fodor dice que pasa lo mismo. Pero hay una pequeña
diferencia, pero no es una diferencia relevante. Lo que sí pueden hacer las suposiciones que yo
tenga respecto de la figura ambigua puede determinar que yo fije mi foco de atención en un
punto del objeto o en otro. En sentido estricto, todos vemos el mismo objeto, pero ciertas
suposiciones o informaciones que se nos den antes de mirar van a hacer que miremos, que
pongamos nuestro foco de atención en parte de ese objeto o lo desplacemos hacia otras partes del
objeto. Pero eso no prueba nada respecto del modularidad de la mente, respecto del
encapsulamiento del módulo perceptual y mucho menos prueba que la percepción sea
plástica.
Estas dos personas toman los resultados de los mismos experimentos como siendo evidencia a
favor de sus hipótesis diferentes. Gentile hace una observación respecto de la distinción entre
dos tipos o capas de hipótesis. Por un lado, están las hipótesis experimentales y por otro lado
están las hipótesis estrictamente epistemológicas que versan sobre la naturaleza plástica o
modular de la observación.
Esta distinción entre dos niveles o tipos de hipótesis es la que le permite mostrar o sugerir a
Gentile que no nos encontramos ante un caso de plasticidad perceptual sino ante un caso de
"subdeterminación de la teoría por los datos", a veces también se suele decir
subdeterminación empírica de las teorías. Esto significa que puedo tener dos teorías lógicamente
incompatibles y empíricamente equivalentes. Más que una Y se debería poner un “pero”: a pesar
de que son lógicamente incompatibles son empíricamente equivalentes.
¿Qué significa que 2 teorías sean lógicamente incompatibles? Significa que no pueden ser
ambas verdaderas al mismo tiempo. Pero podrían ser ambas falsas.
¿Qué significa que sean empíricamente equivalentes? Significa que tienen las mismas
consecuencias observacionales, que puedo derivar las mismas consecuencias observacionales.
Hay más de un sentido en el que 2 teorías pueden estar subdeterminadas por los datos,
subdeterminadas por la evidencia.
Según Gentile nos encontramos en esta situación porque ambos autores interpretan los mismos
experimentos a favor de hipótesis que son incompatibles (porque uno de ellos afirma que la
percepción es plástica y no encapsulada y el otro afirma que la percepción es encapsulada o los
módulos receptores (¿o perceptores?) está encapsulada y por lo tanto la percepción no es
plástica. Y por lo tanto no pueden ser ambas verdaderas al mismo tiempo, pero, sin embargo, son
al menos respecto de estos experimentos, empíricamente equivalentes. De ambas teorías se
deducen esos resultados experimentales y ser ambos resultados interpretados como
confirmatorios para esas posiciones teóricas).
Se suele decir que hay más de un tipo de subdeterminación de la teoría por la evidencia, de
subdeterminación de la teoría por los datos. La manera de decir esto es que hay
subdeterminación fuerte y subdeterminación débil. La diferencia es que hay subdeterminación
débil cuando dos teorias son empíricamente equivalentes respecto de toda la evidencia
disponible, de toda la evidencia que hasta hoy se tiene. Hay subdeterminación fuerte cuando dos
teorías son empíricamente equivalentes respecto de cualquier evidencia posible, de cualquier
evidencia que tengamos y podríamos llegar a tener. Una pregunta para hacerle al texto es, ¿ante
qué caso de subdeterminación nos encontramos en este caso de Churchland y Fodor? Parece
sugerirse en el texto que nos encontramos ante un caso de subdeterminación débil y que nuevos
experimentos que indaguen en la naturaleza de la percepción podrían eventualmente decidir la
cuestión para un lado o el otro.
La lista de términos teóricos, que son aquellos que se refieren a entidades, propiedades,
procesos o relaciones inobservables a través de los sentidos desnudos, por ejemplo, electrones,
energía cinética, etc.
Y por otro lado que podíamos hacer una lista de términos no teóricos, es decir que se refieren a
entidades, procesos o relaciones directamente observables a través de cualquiera de los 5
sentidos desnudos, por ejemplo, rojo, caliente, más largo que, a la izquierda de, etc.
¿Por qué esta distinción es tan importante para la filosofía clásica de la ciencia? La filosofía de la
ciencia surge como disciplina independiente aproximadamente en 1929 en el círculo de Viena.
Allí un conjunto de matemáticos, científicos y filósofos se empezaron a reunir confirmando el
circulo de Viena. Su preocupación era definir apropiadamente el concepto de ciencia ofreciendo
un criterio de demarcación lo suficientemente preciso como para distinguir las hipótesis
auténticamente científicas de aquellas hipótesis que se presentan como tales pero que no lo son,
que son pseudo científicas porque no se pueden poner a prueba. El criterio de demarcación que
ofrecieron los miembros del círculo fue lo que se llamó el criterio verificacionista del
significado.
En su versión fuerte, la inicial, la defendida por los positivistas lógicos, establecía que una
proposición contingente, para ser significativa, debe ser verificable empíricamente.
Luego Hempel y Carnap, miembros tardíos del círculo de Viena, que conformaron lo que hoy
denominamos el empirismo lógico, debilitaron el criterio verificacionista del significado,
ofreciendo una versión más débil que establecía que una proposición contingente, para ser
significativa y para ser científica, debe ser confirmable empíricamente, no ya verificable
dada la imposibilidad de probar la verdad concluyente de las hipótesis universales de la ciencia,
pero sí al menos aumentar la probabilidad de las hipótesis científicas en virtud del apoyo
inductiva con que ellas cuentan.
Lo que Achistein se pregunta es cuáles son los sentidos de la palabra teórico que resultan
relevantes para trazar esta distinción que la filosofía clásica de la ciencia intentó trazar. Achistein
se queda básicamente con 3.
1)En primer lugar se ha entendido teórico como "parte de una teoría". Un término es teórico si y
solo si es parte de una teoría científica.
3)Hay un tercer sentido que se ha asociado usualmente con la etiqueta termino teórico que es el
carácter conjetural o especulativo de un término (se trata en la sección 4). Un término sería tanto
más teórico cuanto mayor carácter conjetural o especulativo tenga dicho término.
Lo que señala Achistein es que (1) el primer sentido (parte de una teoría u ocurre en una teoría)
lo único que hace es posponer el problema principal, a saber, preguntarnos en virtud de qué
características un término dado ocurre de manera primordial en una teoría científica. Con lo cual
el primer sentido no resuelve nada, lo único que hace es dilatar el problema principal, que es
preguntarnos: ¿pero por qué un término dado ocurre de manera primordial en una teoría
científica? Con respecto (2) al segundo sentido, es un sentido muy relevante que ya han tratado
autores como Hanson y Ryle.
Más adelante, entonces, el propio Achistein piensa la posibilidad adelantada por Hanson de que,
a lo mejor, la distinción se pueda trazar en función de la amplitud: hay términos teóricamente
más amplios que otros, y en ese sentido serían más teóricos que esos otros, pero lo que ocurre
aquí es que no sabemos bien cómo interpretar esa metáfora de la amplitud, y entonces lo que se
le ocurre a Achistein es pensar que, tal vez, la mayor amplitud correspondería a la mayor
dependencia teórica, por eso, en la próxima sección del artículo analiza el criterio de la
dependencia teórica.
Ahora se pasa a analizar el criterio de dependencia teórica tal como es presentado por Ryle.
Este autor traza una analogía con un juego de cartas. Dice Ryle que para entender el significado
de la expresión "flor imperial", debemos antes conocer las reglas del poker. Quien no sepa jugar
al poker, no entenderá su significado. En cambio, la expresión reina de corazones se entendería
dado que no carga el equipaje particular de ningún juego de cartas. De la misma manera, en las
ciencias hay términos que cargan el equipaje de una teoría particular, y a esos términos se los
llama términos teóricos, y también hay términos que no cargarían el equipaje de ninguna teoría,
y estos serían los términos no teóricos. Términos tales como masa, volumen o carga serían
denominados términos teóricos porque cargan el equipaje particular de la física. Un término sería
teórico si y solo si se requiere la comprensión de la teoría en la cual aparece para entender su
significado. Sin embargo, esto da lugar a, al menos, 5 sentidos diferentes en los que se podría
entender la dependencia teórica.
1) uno podría querer decir que un término es teóricamente depende si y solo si denota algún ítem
x tal que las propiedades semánticamente relevantes de X son atribuidas por los principios de la
teoría en cuestión y solo por ellos. De modo tal que comprender los principios de la teoría
involucraría entender el aspecto semántico de uso. Pero este requisito, según Achistein, es
demasiado exigente, y daría como resultado un grupo muy pequeño de términos teóricos, un
grupo mucho más pequeño que el que teníamos en la lista inicial (la que da por supuesta la
filosofía clásica de la ciencia).
Este criterio establece que para entender la derivación de esa fórmula (energía interna +volumen
por presión), hace falta comprender los principios de la termodinámica.
3) Un tercer sentido: un término es teórico si y solo si se refiere a algún ítem X para el cual la
pregunta ¿qué es x? podría responderse solamente considerando los principios de la teoría.
Ejemplo: electrones. Si uno se pregunta qué son los electrones, podría responder esa pregunta
aludiendo a los cuantos de energía. Este 3er criterio, a diferencia del 1ro que daba un número
muy reducido de términos, nos da un número un poco mayor de términos que serían
considerados teóricos. Pero no nos daría la lista completa que queremos.
5) 5to sentido: un término es teórico si y solo si expresa un concepto cuyo papel en la teoría solo
puede apreciarse al considerar los principios en los que se emplea dicho concepto. Comprender
el significado de un término teórico implicaría comprender el papel o los papeles que el concepto
que exprese ese término teórico cumple. Ahora bien, cualquier concepto dentro de una teoría va
a cumplir presumiblemente alguna función, el papel o los papeles que un concepto teórico
cumplirían se puede describir de muchas maneras distintas.
La conclusión general a la que arriba Achistein en esta sección es que los varios tipos de
dependencia teórica generan diversas distinciones dentro de una teoría dada. En el caso de
algunas de esas distinciones la lista de términos teóricos podría ser bastante pequeña, por
ejemplo, si consideramos el criterio 1 (el que aludía a las propiedades semánticamente
relevantes). En el caso de otras distinciones la lista podría ser un poco mayor, por ejemplo, si
consideramos el criterio 3. En el caso del 5to criterio (el que se refería a papel que un concepto
teórico cumple en una teoría), la lista incluiría prácticamente todo término usado, casi cualquier
término que compone una teoría debería ser considerado teórico, lo cual no es deseable. En
definitiva, ninguno de los criterios que se han ofrecido no sirve para obtener la deseada lista
que divide de manera tajante los términos teóricos de los términos no teóricos.
En lo que resta del artículo se va a analizar otro sentido que se ha asociado con el concepto
terminó teórico, con la etiqueta término teórico, que es el sentido de un término teórico como
conjetural o especulativo (eso se ve en el próximo video).
Lo primero que señala es que, de los varios sentidos de conjetural que se han dado, el único
relevante para la distinción que la filosofía clásica de ciencia pretendió trazar, es el sentido de ir
más allá de lo dado o establecido. Esta idea de ir más allá por la evidencia genera al menos 3
bases posibles para la distinción entre teórico y no teórico.
1) La primera base tiene que ver con la afirmación de algo cuya verdad no se ha establecido. Se
inferiría la existencia de algo cuya verdad no se ha establecido. Aquí Achistein encuentra un
problema: uno podría hablar conjeturalmente en función de varias cuestiones. Podría hablar de la
existencia del objeto, de la magnitud del objeto en determinadas circunstancias, etc. No está de
ninguna manera claro en qué sentido de conjetural se está hablando. Ahora, dice Achistein, si
consideramos, por ejemplo, la existencia del objeto, ¿deberíamos decir que los electrones son no
teóricos? Dado que la comunidad científica considera hoy en día que su existencia se ha
establecido sobre la base de la evidencia disponible. Entonces caeríamos en una conclusión
absurda del tipo: los electrones son no teóricos mientras que el hombre de las nieves o los
platillos voladores serían teóricos o al menos más teóricos que los electrones. Con esta parodia
intenta mostrar que el criterio no funciona. Además, aclara que muchos ítems ni siquiera
podrían clasificarse en absoluto sobre esta base, pone el ejemplo de la energía cinética que no
involucrar la afirmación de la existencia de algo cuya verdad no se ha establecido, sino que
simplemente la energía cinética se define de manera tal que los objetos la poseen.
3. Último sentido relevante de conjetural para la distinción que se está buscando. Señala
Achistein que muchas veces se entiende como conjetural en el sentido de la defensa de una
afirmación para justificar la cual se requiere de una cadena de razonamiento compleja o
sofisticada. Esto quiere decir que para realizar una afirmación acerca de la masa de los electrones
supongamos, necesitamos realizar una cadena de razonamiento mucho más sofisticada que para
realizar una afirmación sobre el color de una mesa. Sin embargo, este criterio también tiene
varios problemas:
A) la noción relevante de complejidad no es clara. ¿En qué sentido dirían que una defensa es
compleja o es simple? ¿Estaríamos considerando el número de supuestos que utiliza? ¿El número
de inferencias? ¿Consideraríamos a su vez cada uno de esos supuestos e inferencias en su
complejidad? En fin, habría que definir con mayor claridad qué se entiende por complicado o
simple.
B) es posible hacer diferentes tipos de afirmaciones usando términos de las 2 listas. Por ejemplo,
podría decir que "tal edificio es el más antiguo de la ciudad". Si alguien le pregunta por qué dice
eso, podría responder que porque tiene un cartel que dice que fue construido en x año. Pues bien,
dependiendo de los intereses y del conocimiento de los interlocutores se podrán plantear mayores
o menores desafíos. El interlocutor podrá quedar conforme con el argumento o pedir mayor
especificación.
C) el tercer problema se relaciona con el 2do. Que una defensa sea simple o compleja depende
también del tipo de desafío que se plantee en el contexto. En definitiva, se pueden realizar
defensas simples tanto como complejas en referencia a términos de las 2 listas, no es algo que
tenga que ver especificarme con los términos de la lista teórica, de modo tal que hasta ahora no
se obtuvo la distinción deseada.
Achistein inicia la 5ta sección que otro criterio al que se ha recurrido para obtener la distinción
es el criterio de precisión. Reconoce que muchos autores no estarían dispuestos a reconocerlo
como criterio suficiente pero sí al menos como un criterio necesario o frecuente de la lista
teórica, los cuales serían más precisos que los de la lista no teórica. ¿Cómo definir el concepto de
precisión?
2) Hay un segundo sentido de precisión que podría ser relevante: un término T es preciso (o más
preciso que otro) si y solo si forma parte de un sistema de clasificación preciso y delimita más
nítidamente una clase de ítems o más específicamente que otro término. Por ejemplo, si agrega la
especie además del género. Una expresión sería como homo sapiens sería más preciso que la
expresión hombre. Sin embargo, este criterio tiene problemas. En primer lugar, no es algo
específico de la lista teórica puesto que dentro de los términos de la lista no teórica también hay
expresiones más precisas que otras. Por ejemplo, sedan de 4 puertas sería más preciso que sedan.
Pero, además, en muchos casos las comparaciones son imposibles, más aún muchos términos de
la lista teórica ("campo", "función de onda", etc.) no podrían ser descritos como parte de un
sistema de clasificación preciso. Algunos términos caen dentro de la etiqueta termino teórico,
pero otros que los filósofos de la ciencia quisieran incluir dentro de esa lista no caen dentro de
ella.
Problemas: 1) algunos de los términos que los filósofos colocan en la lista teórica no están
claramente definidos. Por ejemplo, el término super yo.
2) el científico frecuentemente introduce nuevas palabras y es cuidadoso para definirlas, mientras
que puede ser que no haga ningún esfuerzo especial de definición o explicación en el caso de
términos cotidianos (como "rojo") que son usados tanto por científicos como por no científicos.
Pero esto no hace que estos últimos términos sean más ambiguos o menos claros que los
primeros. Con lo cual, este sentido de precisión tampoco nos sirve para obtener la tan preciada
definición de precisión entre términos teóricos y términos observacionales.
Achistein evalúa una última etiqueta que puede ser relevante para entender el concepto de
termino teórico, a saber: entender a un término teórico como abstracto.
1) Hay un sentido de abstracción que filosóficamente es relevante pero que no se aplica en este
contexto. Entender que un término es abstracto si se refiere a una cualidad, independientemente
de los sujetos de los cuales se predique una cualidad. Ejemplo: la blancura u honestidad. No es
este el sentido de abstracción del cual hablamos cuando nos referimos a un término teórico, sino
más bien a un sentido más similar al que Carnap utilizó en uno de sus escritos cuando distinguió
el vocabulario de la ciencia en términos abstractos y términos elementales. Esa distinción
correspondió más tarde a la distinción entre términos teóricos y términos observacionales. Esto
nos da lugar a un primer sentido relevante de abstracción que estaría referido a algo que no
pertenece a la experiencia ordinaria. De las varias cosas que podrían no pertenecer a la
experiencia ordinaria, Carnap eligió la observabilidad, y afirmó que un término T sería más
abstracto que otro si se refiere a algo cuya observación requiere más métodos indirectos, de
modo tal que cuánto mayor número de métodos indirectos se requiera para observar el referente
de un término teórico, más abstracto será dicho termino. En este sentido, un término como
entropía sería más abstracto que temperatura, porque para determinar la entropía se requiere no
solo determinar los valores específicos, temperatura, etc. sino además realizar cálculos ulteriores,
un método mucho más complicado que el que había que usar para determinar la temperatura.
2) Por otra parte, hay un 2do sentido de abstracción que se puede considerar: la abstracción con
respecto a la definición. En este segundo sentido el término temperatura sí se consideraría
abstracto, al menos en la termodinámica, cuando se ofrece una definición estándar de
temperatura que la hace una cierta función de la presión y del volumen.
3) 3er sentido de abstracción: abstracción con respecto a los tipos de objetos a los cuáles se
aplica un término. Los términos como "presión" y "velocidad" se aplican a objetos familiares y
cotidianos, en tanto que un término como "potencial gravitacional" se aplica a objetos más
abstractos, se aplica a campos en los cuáles intervienen fuerzas de conservación, de modo tal que
el término potencial gravitacional sería mucho más abstracto que el término presión o
temperatura que se aplica a objetos más familiares y cotidianos.
4) un cuarto sentido de abstracción: en relación al papel que el término cumple en una teoría
dada.
En definitiva, el problema general que se plantea es que un término podría ser abstracto en uno
de los sentidos y no en el otro. Este es el problema general con el criterio de abstracción. Un
término que sea abstracto en uno de los sentidos podría no serlo en los otros sentidos
mencionados. De modo que la abstracción tampoco nos dio la etiqueta que se buscaba para
generar la deseada lista que divide a los términos teóricos de los no teóricos de una manera
tajante. Cada una de las etiquetas genera una distinción, pero una distinción diferente, y ninguna
da la lista que se buscaba desde el principio o que los filósofos de la ciencia buscaron desde el
principio.
Conclusiones:
1) ninguna de las etiquetas vistas genera la tan amplia distinción que de manera general se ha
asumido en la filosofía de la ciencia. ¿Pero entonces, tiene alguna utilidad el uso de estas
etiquetas? Achistein dice que sí, que la utilidad de estas etiquetas consiste en investigar desde un
punto de vista filosófico determinadas teorías y los conceptos que emplean. Por ejemplo, se ha
discutido mucho el carácter ambiguo de términos como masa o fuerza en la mecánica de
Newton. ¿Entonces dice Achistein que podríamos considerar dentro de la teoría de Newton por
ejemplo este concepto de masa cómo se relaciona con la observación? ¿De qué manera se
relaciona con la observación, y en contraste con otros términos de la misma teoría cómo se
relaciona con la observación? Cada una de las etiquetas vistas se puede utilizar para investigar
cómo se emplean los conceptos en una teoría particular (ejemplo: ¿el concepto de fuerza, en qué
sentido es conjetural? ¿Y si lo relacionamos con otros términos de la misma teoría? ¿Como se
relaciona con lo preciso, con lo abstracto?).
Achistein puso de manifiesto cómo la filosofía de la ciencia ofreció muchos criterios para
distinguir los términos teóricos de los términos observacionales, pero ninguno de esos criterios
abarcó todos los ejemplos que se buscaba abarcar. Algunos tomaban un grupo muy reducido de
términos como si fueran teóricos, otros prácticamente hacían pertenecer a todos los términos de
la ciencia como si fueran teóricos y otros hacían un intermedio, pero ninguno de esos criterios
que históricamente se han dado nos han permitido obtener la distinción que la filosofía clásica de
la ciencia dio por supuesta.
UNIDAD 4. Hanson
Patrones de descubrimiento, cap. 1.
La tesis de la "carga teorica de la observación" fue presentada por Hanson en este capítulo, será
una influencia fundamental para la nueva filosofía de la ciencia. En particular, cuando Kuhn en
1962 derribe cada uno de los pilares en los que se sustentó la filosofía clásica de la ciencia, uno
de los pilares que va a derribar es la distinción teórico observacional, la tesis de la carga teorica
de la observación, que en resumidas cuentas, afirma que toda percepción está cargada de teoría,
fue presentada por Hanson en este capítulo 1 llamado "observación".
Les comento que titulé, de una manera un tanto arbitraria, cada una de las secciones en que se
divide el capítulo. El capítulo se divide en 4 secciones: a, b, c y d. Lo titulé en función del
contenido principal de cada sección.
La sección A distingue lo que son los estados físicos de las experiencias visuales.
En la sección C tenemos una distinción fundamental de este capítulo, la distinción entre "ver
qué" y "ver cómo", entendiendo la cual vamos a estar mucho más cerca de comprender el
alcance real de la tesis de la carga teórica de la observación.
En la sección D marca la importante relación que hay entre las imágenes y el lenguaje en el
marco de la visión. De modo tal que esta última sección nos va a inmiscuir en cuestiones de
filosofía del lenguaje.
Una de las preguntas que se hace Hanson en estas primeras páginas es preguntarse si Kepler y
Tycho Brahe ven la misma cosa cuando miran hacia el este al amanecer, cuando miran el sol.
¿Ven la misma cosa Kepler, quien considera que el sol está fijo en el centro y que la tierra es un
planeta más que gira alrededor del sol (o sea, ya heliocentrista) y Brahe, quien siguiendo a
Ptolomeo considera que la tierra está fija y que el sol gira alrededor de la tierra? Hanson señala
que no se trata o probablemente no sea una cuestión de facto, sino, más bien, el comienzo de un
examen de los conceptos de visión y observación. Es evidente, dice Hanson, que el sol emite los
mismos fotones para ambos observadores; los fotones atraviesan el espacio solar y nuestra
atmósfera. Los dos astrónomos tienen una visión normal, de manera tal que pasaran esos fotones
a través de la córnea, el humor acuoso, el iris, el cristalino y el humor vítreo de sus ojos de la
misma manera. Finalmente, son afectadas sus retinas. En sus células de selenio ocurren cambios
electroquímicos similares. Es decir, que en las retinas de Kepler y de Brahe se formarán las
mismas configuraciones. Según esto, entonces, ellos ven la misma cosa. Hay un sentido según el
cual estos dos observadores con visión normal están viendo la misma cosa. Sin embargo, y acá
viene la distinción fundamental, una experiencia visual no es lo mismo que un estado físico, la
visión es algo más complejo que un mero estado físico, es una experiencia, mientras que una
reacción en la retina es solamente un estado físico, una excitación fotoquímica. Podemos
presumir que esa excitación fotoquímica será prácticamente la misma en ambos observadores, en
ese sentido que ven la misma cosa. Pero si tenemos en cuenta la experiencia visual, llegaremos a
una conclusión muy distinta, no van a ver la misma cosa porque evidentemente tienen distintas
perspectivas acerca de dónde está el sol y qué relación mantiene con la tierra y con los demás
planetas. Que Kepler y Brahe entonces vieran o no la misma cosa no puede argumentarse
mediante la referencia a estados físicos de sus retinas, sus nervios ópticos o sus cortezas visuales
no nos darán la respuesta; para ver es necesario algo más que la mera recepción en los globos
oculares. Lo que dice Hanson es que las cámaras fotográficas o los globos oculares son ciegos,
quienes ven son las personas, y cada persona va a tener una base de conocimientos diferentes,
entonces la carga teórica de la observación de Brahe y Kepler evidentemente no va a ser la
misma, y va a determinar que haya un sentido relevante en el cuál no están viendo la misma
cosa. Entonces Hanson dice básicamente que hay un aspecto visual que es idéntico para ambos:
un disco blanco amarillento y brillante, centrado entre manchas de color verdes y azul, la
excitación fotoquímica va a ser similar, inclusive el esquema de lo que ambos ven seria idéntico,
sería congruente, en este sentido Brahe y Kepler ven la misma cosa al amanecer, porque tienen
ante ellos la misma vista o escena. Sin embargo, y acá viene el punto central de esta primera
sección, decir que Kepler y Brahe ven la misma cosa al amanecer solo porque sus ojos son
afectados de un modo similar es un error elemental, porque un estado físico no es lo mismo
que una experiencia visual.
Para analizar cómo en la misma configuración se pueden ver entonces distintas cosas a través de
experiencias visuales distintas, Hanson nos lleva a analizar distintas figuras. En la figura 1 se
pregunta si vemos todos la misma cosa. Rápidamente responder que no, que algunos verán un
cubo en perspectiva desde abajo. Otros verán el mismo cubo, pero visto desde arriba. Otras
personas verán en la misma figura una cierta clase de piedra preciosa cortada poligonalmente.
¿Vemos todos, entonces, la misma cosa? Si aceptásemos una respuesta afirmativa, ¿cómo
podrían explicarse estas diferencias? Porque además se pueden ver muchas cosas que las que
Hanson analiza. Entonces, acá, con cierta ironía, Hanson dice que para explicar esto los filósofos
tienen a la mano una fórmula maravillosa (en la que Hanson no cree): "Existen diferentes
interpretaciones de lo que ven, en común, todos los observadores". Entonces, se resuelven esta
cuestión diciendo que todos vemos en algún sentido la misma cosa, pero tenemos distintas
interpretaciones acerca de lo que vemos. El problema que tiene esta respuesta, esta fórmula, es
que suena como si uno hiciese dos cosas diferentes, no una, cuando ve objetos como cajas o
bicicletas. Entonces, Hanson se pregunta si da diferentes interpretaciones de la figura 1 cuando la
ve primero como una caja vista desde abajo, y después como un cubo desde arriba. En realidad,
¿damos diferentes interpretaciones de la figura 1 o simplemente la vemos de una manera o de
otra? Es evidente que no somos conscientes de que ocurra tal cosa, de que haya dos pasos,
primero que la visión ocurra y que luego en un segundo paso uno haga una interpretación, sino
que pareciera que todo se da al mismo tiempo, o sea que en la visión ya está adjunta la propia
interpretación. Y esto es lo que va a decir a continuación Hanson, porque básicamente no hay
ningún sentido ordinario de la palabra interpretar según el cual uno interpreta la figura 1 de modo
diferente cuando su perspectiva se invierte para mí, por lo menos ningún sentido interesante en el
cual eso ocurra. Y entonces, agrega Hanson, que insistir en que las diferentes reacciones ante la
figura 1 deben descansar sobre interpretaciones hechas a partir de una experiencia visual común
es reiterar (sin razones) que la visión de X debe ser la misma para todos los observadores que
están mirando a X. Se está suponiendo que la visión es la misma para todos los observadores,
algo con lo cual no tenemos por qué estar de acuerdo, porque las teorías y las interpretaciones
están "allí", en la visión, desde el principio. Volvamos al ejemplo de la bicicleta: cuando uno
ve una bicicleta no es que primero recibe un estado físico en la retina y luego en un segundo paso
realiza una interpretación. No, ocurre todo junto. Si queremos hablar de la interpretación, la
interpretación es la propia visión del objeto.
Entonces pasa a una segunda figura que es un ejemplo típico de aquellas figuras que la
psicología de la Gestalt llamó de perspectiva variable o de perspectiva reversible porque de
acuerdo a dónde uno ponga el foco o el fondo, puede ver una imagen o la otra, por eso es de
perspectiva reversible, porque se pueden ver diferentes cosas si la percepción organiza la
configuración de manera diferente, es decir, alternativamente, a pesar de que todas las retinas
reciben la misma imagen, y nuestras imágenes de datos sensoriales deben ser las mismas, y
probablemente las imágenes que dibujemos de lo que vemos pueden llegar a ser
geométricamente indistinguibles (el esquema de lo que dibujemos será perfectamente
congruente), podemos decir que no vemos la misma cosa, y entonces el sentido en el cual vemos
la misma cosa empieza a perder su interés filosófico, porque es evidente que a pesar de que la
configuración es la misma, la organización de lo que vemos hace que cambie la visión cuando
uno ve por ejemplo dos caras enfrentadas o una copa (dibujo de Kohler). Entonces, ¿qué es lo
que cambia? Nada óptico o sensorial se ha modificado, y, sin embargo, uno ve cosas diferentes.
Cambia la organización de lo que uno ve.
En la figura 3 (oso trepando árbol), cuando uno se da cuenta de que es un oso trepando un árbol,
los elementos (las líneas) adquieren armonía, coherencia y se organizan, con lo cual pareciera
que en la visión está involucrada una cierta organización de los datos visuales que
recibimos. Hanson dice literalmente esto: "Si la organización faltara, nos quedaríamos nada
más con una configuración ininteligible de líneas " (lo mencionó como posible pregunta de
parcial explicar esa cita). De hecho, a continuación, Hanson, para mostrarnos cómo es posible la
visión, cómo llegan a organizarse las experiencias visuales, es presentar la figura 4 y 5, que en
realidad el contexto de la figura 5 es el que nos permite entender qué había en la figura 4. Al ver
la figura 4, pareciera ver un pájaro, pero es el contexto el que nos da la clave, ya que al ver la
figura 5 nos damos cuenta que lo que había en la figura 4 es un antílopes de la figura 5.
Entonces, el punto es que es el contexto el que nos da la clave cuando consideramos la figura 4
en función de la figura 5. ¿Pueden ver un antílope en la figura 4 las personas que nunca han visto
un antilope sino solamente pájaros? Probablemente no. Luego sí podrían al ver la figura 5.
La figura 8 es la figura del tubo de rayos x. Básicamente Hanson señala que el físico ve un tubo
de rayos X visto desde un cátodo. Entonces se pregunta, ¿verían lo mismo un físico y un niño
esquimal al mirar el tubo de rayos x? Sí y no. Sí, puesto que perciben visualmente el mismo
objeto (el estado físico es el mismo). No, porque las formas en que perciben visualmente son
muy diferentes. Entonces, la visión no es solamente el hecho de tener una experiencia visual;
es también la forma en la cual se tiene esta experiencia visual. De modo tal que, en el sentido
de la forma en la cual se tiene la experiencia visual, es evidente que el niño y el físico van a ver
lo mismo, pero ni siquiera el lego y el físico van a ver lo mismo, porque la forma en la que
percibe el objeto el físico va a ser distinta a la forma en la que lo percibe el lego. El físico y el
profano ven la misma cosa, pero no infieren la misma cosa a partir de lo que ve, el profano no
puede inferir nada, así como alguien no puede inferir nada de la palabra árabe que designa al
gato, aunque su impresión puramente visual puede ser indistinguible del árabe que sí puede. Se
debe aprender árabe para ver lo que el árabe ve, y el profano debe aprender física para poder ver
lo que ve el físico. Es evidente que pueden llegar a tener los mismos datos visuales, pero eso no
significa que su visión sea equivalente, la visión va a depender del conocimiento, de la forma en
que se organiza la experiencia visual. El niño y el profano pueden ver porque no son ciegos, pero
no pueden ver lo que el físico ve, son ciegos para lo que él ve. Si ver cosas diferentes implica la
posesión de conocimientos y teorías diferentes acerca de X, entonces, cuando ven la misma cosa
debe tomarse, quizá, como que los diferentes observadores comparten conocimientos y teorías
acerca de X. Si bien Hanson no dice explícitamente "carga teórica de la observación", en algún
sentido está dando una pauta fundamental de lo que es la tesis de la carga teórica de la
observación. Si 2 físicos ven la misma cosa al ver el tubo de rayos X es porque comparten
conocimientos y teorías acerca de eso. Hanson dice explícitamente esto: "En cierto sentido, la
visión es una acción que lleva una 'carga teórica'. La observación de X está moldeada por
un conocimiento previo de X". No dice explícitamente "esta es la tesis de la carga teórica de la
observación", pero es lo que más adelante los nuevos filósofos de la ciencia van a titular "la tesis
de la carga teórica de la observación". Es evidente, a partir de todo lo que dijo y a partir del
análisis desarrollado en la sección B que la visión es una acción que lleva una carga teórica. La
tesis de la carga teórica de la observación que se viene adelantando desde antes se hace explícita
en esta sección c. Y agrega, adelantando lo que va a ser la última sección del capítulo: "el
lenguaje o las notaciones usados para expresar lo que conocemos, y sin los cuales habría
muy poco que pudiera reconocerse como conocimiento ejercen también influencia sobre las
observaciones".
No es en modo alguno simple la relación que existe entre la visión y el cuerpo de nuestro
conocimiento. ¿Qué es ver cajas, escaleras, pájaros, antílopes, osos, tubos de rayos x? Es, al
menos, tener algún tipo de conocimiento, es ver que (y acá está la distinción entre "ver qué" y
"ver cómo"), si se hicieran ciertas cosas a los objetos que tenemos delante de nuestros ojos,
resultarían otras cosas distintas. En términos de un condicional contrafáctico tenemos explicado
el "ver qué". Ver que algo es una copa es ver que tiene el interior cóncavo, es ver que si se la
arroja al piso se va a romper porque la copa es frágil, entonces ver un objeto como algo implica
también ver que si se hicieran ciertas cosas ocurrirían otras diferentes, y eso depende del
conocimiento que tengamos acerca del objeto en cuestión. Por eso, agrega Hanson que " 'Smith
ve X' sugiere que Smith podría especificar algunas cosas relativas a X. Ver un tubo de rayos X,
es, al menos, ver que, si se deja caer sobre una piedra, se hará pedazos. Ver una copa es ver algo
con el interior cóncavo".
"Ver cómo" y ver qué" no son componentes de la visión en la misma medida en que las barras
y los cojinetes son parte de los motores; la visión no es compuesta. Con todo se pueden plantear
cuestiones lógicas". Esta es una distinción absolutamente analítica, no es que la visión contenga
dos elementos, que esté compuesta del "ver qué" y del "ver cómo" sino que en todo caso hay un
sentido lógico en el cual se pueden distinguir el "ver qué" y el "ver cómo", no son componentes
psicológicos de la visión, son elementos lógicamente distinguibles del lenguaje sobre la visión.
Y agrega, para terminar de explicar a qué se refiere con esta distinción entre "ver qué" y "ver
cómo", ver la figura 1 (la del cubo visto desde arriba o desde abajo) como una caja transparente,
un cubo de hielo o un bloque de cristal es ver que tiene 6 caras, 12 aristas y 8 vértices, es ver
todo lo que se infiere acerca de ese objeto.
"Ver que" inserta conocimiento dentro de nuestra visión; nos libra de reidentificar cada
cosa que encuentran nuestros ojos; permite al físico observar los nuevos datos como físico y
no como una cámara fotográfica".
Las cámaras fotográficas son ciegas, los globos oculares también son ciegos. El físico puede
observar, puede "ver que" del hecho de que algo sea un tubo de rayos X se siguen ciertas
implicaciones lógicas, precisamente porque tiene determinados conocimientos y teorías acerca
de X, entonces "ver que" inserta conocimiento dentro de nuestra visión, por eso no preguntamos
"¿qué es esto?" ante cada bicicleta que pasa delante de nosotros. El conocimiento está en la
visión y no es algo adjunto a ella, es parte de la misma visión. Como no es algo adjunto a ella,
sino que el conocimiento está en la visión, ver un objeto X es ver que este objeto puede
comportarse según sabemos que se comportan los objetos x; si el comportamiento del objeto no
concuerda con lo que esperamos de un X, nos veremos obligados a no verlo, en adelante, como
un x. O sea, si suelto algo y no se rompe, nos damos cuenta de que no era una copa frágil como
pensaba.
Hanson vuelve a la figura 8 y afirma: ver en la figura 8 un tubo de rayos-x es ver que, si se
colocara debajo de él una lámina fotosensible, recibirá radiación. Dos personas enfrentadas a un
mismo x pueden entender por x cosas diferentes. Cuando dicen "veo x", ¿significan que ven la
misma cosa? Un niño puede repetir "tubo de rayos-x" o "Kentucky" cuando se lo enfrenta con la
mencionada figura, pero no vería qué otras cosas se derivan de aquella. Y esto es lo que el físico
sí ve. Entonces, "la interpretación está allí, en la visión. Nos atreveríamos a decir que 'la
interpretación es la visión'". "No hay dos operaciones cuando se ve la figura 1 como un cubo
de hielo; simplemente la veo como un cubo de hielo. Análogamente, el físico ve un tubo de
rayos-x, no un proceso complejo en el que primero absorbe la luz reflejada para consolidar
después una interpretación, sino simplemente procede como usted cuando ve esta página
ante sus ojos".
Básicamente alude a ciertas cuestiones de filosofía del lenguaje que son fundamentales, el hecho
de que hay diferencias notables entre lo que son las representantes pictóricas y las representantes
lingüística. Imágenes y oraciones difieren en su tipo lógico, y los pasos que median entre las
imágenes visuales y los enunciados de lo que se ve son muchos e intrincados. La premisa de la
que tenemos que partir es que nuestra conciencia visual es dominada por imágenes; en tanto que
el conocimiento científico es primordialmente lingüístico. Partiendo de una concepción sintáctica
de las teorías, como las que veníamos viendo, en esto es muy clásico Hanson, nos dice que el
conocimiento científico es un conjunto de enunciados. Entonces, el abismo entre imágenes y
lenguaje localiza la función lógica del "ver qué". La visión es esencialmente pictórica, y el
conocimiento fundamentalmente lingüístico. Ahora bien, a pesar de eso, ambos, visión y
conocimiento, son elementos indispensables del ver; pero las diferencias entre las
representaciones pictóricas y las lingüísticas pueden marcar diferencias entre los rasgos ópticos y
conceptuales de la visión. Lo que está diciendo es que en la visión están involucrados tanto
rasgos ópticos como rasgos conceptuales, no pueden faltar ninguno de los 2 en el análisis.
Luego aclara una vez más: "conocimiento es aquí conocimiento de lo que existe, tal como se
expresa objetivamente en libros, informes y ensayos. No nos incumbe explicar cómo se
hacen las cosas [aquí estamos interesados en el tema del savoir, no en el savoir faire, lo que
importa en este contexto es el saber que propio específico de la ciencia, no el saber cómo o
saber por habilidad].
La figura 8 no dice nada, no afirma. Podría ser imprecisa, pero no podría ser una mentira. Aquí,
en ese hecho, radica la diferencia entre imágenes y lenguaje. La significancia o la relevancia son
conceptos que en realidad dependen del conocimiento que tenemos, son relativos al
conocimiento, los objetos, los sucesos y las imágenes, no son intrínsecamente significantes o
relevantes. Si la visión fuera solamente un proceso óptico-químico, nada de lo que viéramos sería
relevante para lo que conociéramos y nada de lo conocido podría tener significación para lo que
vemos. La vida visual sería ininteligible; a la vida intelectual le faltaría un aspecto visual.
Entonces Hanson vuelve a la figura 3 (para ver cómo copia el lenguaje). Consideremos la figura
3 como "el oso está en el árbol". La imagen contiene un elemento oso y un elemento árbol. Si
esto es conforme a la realidad, en el original hay, entonces, un oso y un árbol. Visto desde el
lenguaje y desde lo que es la concepción semántica de la verdad (o concepción aristotélica o
correspondentista de la verdad), si la oración es fiel a la realidad, entonces (así como contiene las
palabras "oso" y "árbol") la situación que describe también debe contener un oso y un árbol. Es
decir, la imagen combina sus elementos, refleja la relación real entre el oso y el árbol. Si la
oración es fiel a la realidad entonces la situación que describe va a contener aquello a lo que se
refieren las palabras, aquello que denotan las palabras "oso" y "árbol". E inclusive va a darse la
misma relación, los elementos de la imagen representan a los elementos del original: así lo hacen
"oso" y "árbol". Esto queda más claro cuando se expresa de forma simbólica como “o R a”,
donde o= oso, a=árbol y R=relación de estar sobre. Si la oración expresa que el oso está sobre el
árbol, eso simbólicamente se puede expresar con precisión o R a. Por la ordenación de sus
elementos dichas copias muestran la ordenación de la situación original.
La figura 3, "el oso está en el árbol" o "oRa" muestra lo que ocurre con el oso real y con el árbol
real; mientras que "el árbol está en el oso” y "aRo" y un cierto conjunto de líneas no muestran lo
que realmente ocurre. Las oraciones, a diferencia de lo que pasa con las imágenes o los mapas,
no representan cosas (si bien representan ciertas cosas) en virtud de la posesión de ciertas
propiedades del original: no reemplazan a nada, no tiene por qué haber nada parecido entre la
palabra “oso” y el oso. Hanson pone este ejemplo: no se necesita escribir "EL OSO es mayor que
su cría" para mostrar lo que se quiere decir. No hace falta que haya semejanza entre la palabra y
aquello que la palabra denota. No hace falta porque no todos los signos son icónicos, hay signos
icónicos y signos no icónicos (esto último no lo aclara Hanson, pero es algo que dice Morris y
está a la base de todo esto). Nada hay en la palabra "oso" que evoque la forma del oso. Nada hay
en el sonido de la palabra "oso" que parezca un gruñido. El que o-s-o haga referencia a osos es
debido a una convención que coordina la palabra con el objeto. De la misma forma, no hay nada
peligroso en una bandera roja, y, sin embargo, si vamos a la playa y vemos una bandera roja, la
interpretamos como una señal con la que se expresa peligro. Son las palabras las que denotan;
pero rara vez estas son parecidas a aquello que denotan (a veces sí, por ejemplo, con los sonidos
onomatopéyicos, pero son excepciones). Las diferencias entre representar y relatar son las que
existen entre los usos de la representación pictórica y del lenguaje. Si bien ver es al menos una
"copia visual" de los objetos, es también más que eso. Ver es una cierta clase de visión de los
objetos: es ver que, si se diera x, se seguiría y. Este hecho se pierde en todas las charlas acerca
del conocimiento proveniente de la experiencia sensorial, la memoria, la asociación y la
correlación (Hanson se opone a ciertas simplificaciones que se hacían en la época). Cuando se
ignoran el lenguaje y las notaciones en los estudios de observación, se considera que la física
descansa sobre la pura sensación y los experimentos de bajo nivel. Sin embargo, es más
compleja la ciencia física, no es solamente una sistemática exposición de los sentidos al mundo,
también es una manera de pensar acerca del mundo, una manera de formar concepciones. Y
termina Hanson con esto:
"La filosofía natural no consiste en el descubrimiento de hechos, sino en descubrir nuevas formas
de pensar acerca de ellos" (Bragg, the atom, historia de la ciencia, pág. 167).
"El ordenamiento armónico es la tarea del científico. Una ciencia se construye a partir de hechos,
lo mismo que una casa se construye a partir de ladrillos. Pero no se puede llamar ciencia a una
mera colección de hechos, como no puede llamarse casa a un montón de ladrillos" (Poincaré,
foundations of science, p. 127).
En la fase clásica, en la década de 1950, se produce el abandono de los dos pilares fundamentales
del empirismo lógico: el verificacionismo (que cede su lugar a una versión más débil con
respecto a la justificación, que es el confirmacionismo que gira en torno al concepto de
probabilidad) y el reduccionismo. Ambos son abandonados desde dentro de la etapa de la
filosofía clásica, el reduccionismo cede su lugar a una versión más débil, hay una especie de
retirada en la pretensión reduccionista y aparece allí la idea de definición parcial, de sistemas
interpretativos de definición parcial. Dos dogmas del empirismo se publica en 1951, en plena
fase clásica y consiste en un intento de desestimar por un lado la distinción analítico-sintético y
el reduccionismo y por otro lado proponer una versión alternativa acerca de la ciencia, una
versión epistemológica totalmente diferente. El objetivo es la institución de una nueva unidad de
análisis que es denominadas por Quine la "red" de creencias). El medio para dar validación a esta
nueva unidad de análisis, la estrategia, es la disolución de la distinción analítico-sintético y la
deslegitimación del reduccionismo. El efecto fue un "golpe definitivo" a los fundamentos de la
fase de la filosofía clásica (según Ulises Moulines). Esto por las consecuencias que tuvo:
Por otro lado, planteó el problema de la subdeterminación de la teoría por parte de la evidencia.
Esta tesis es una consecuencia que está en el artículo. El problema de la subeterminación que
consiste en la circunstancia que aparece frente a dos hipótesis rivales que son empíricamente
equivalente (es decir, hay dos hipótesis rivales de las cuales se infieren la misma clase de
consecuencias lógicas y empíricas, de ellas se infiere la misma clase de consecuencias lógicas y
empíricas, eso es lo que significa que son empíricamente equivalentes), el problema de la
subdeterminación aparece en la circunstancia de que se da en la indescirnibilidad epistémica
entre ellas, y no hay elementos ni lógicos ni elementos de juicio empírico que permitan elegir
entre estas teorías rivales.
Estructura: el artículo tiene una parte crítica (argumentos críticos contra la distinción analítico-
sintético y argumentos críticos contra la teoría de la verificación y el reduccionismo) y una parte
propositiva separadas por una articulación fundamental donde el autor busca identificar lo que a
su juicio es el origen de los 2 dogmas (tienen un origen común) y la relación que hay entre ellos
es de dependencia. Luego de los argumentos críticos, pasa a la parte de la articulación y luego a
la parte propositiva, donde presenta las tesis de esta propuesta alternativa de la red de creencias.
Si bien los argumentos críticos pueden no considerarse concluyentes, se pueden examinar las
consecuencias que tienen el abandono de los "2 dogmas". Esas consecuencias se proyectan a
controversias de la filosofía de la ciencia contemporánea como la controversia realismo-
antirealismo, la pregunta por la racionalidad científica, los cambios que se introdujeron en las
unidades de análisis de las corrientes posteriores, los paradigmas, los programas de investigación
científica, las tradiciones de investigación, todas estas son las unidades de análisis de las
corrientes postclásicas que reciben la influencia de Quine. Son problemas que se vinculan con su
artículo. Otra de las cuestiones que se va a ver es la cuestión del status de la filosofía, la
naturalización de la filosofía, donde se pone en juego una de las distinciones y tensiones más
fuertes de la disciplina porque afectan al status disciplinar mismo, que es la distinción entre lo
normativo y lo descriptivo, que están en el centro de la propuesta de la red de creencias que
ofrece Quine.
Argumentos críticos
Argumentos críticos para atacar las 2 creencias que Quine considera Dogmas.
Parte crítica.
Lo primero que Quine menciona son los antecedentes. Arranca retomando los antecedentes de la
distinción analítico-sintético. Por ejemplo, la distinción entre relaciones de ideas y cuestiones de
hecho que ya estaba en Hume, así como las verdades de hecho y verdades de razón en Leibniz
(estas verdades que eran verdaderas en todo mundo posible, y esto claramente contiene la noción
de analiticidad, la idea de que no pueden ser falsas, que su negación es auto-contradictorio), pero
la patente es claramente kantiana. Quine analiza cómo usa Kant la distinción analítico-sintético.
En Kant , la analiticidad reside en la relación entre sujeto y predicado de un enunciado o
proposición, la idea es que el concepto del predicado ya está contenido en el sujeto, y esto hace
que sea un tipo de enunciado cuya verdad depende de las significaciones, es decir, que la
distinción analítico-sintético en kant engloba tanto la cuestión de la característica del enunciado
cuánto la cuestión epistémica (es decir, acerca de cómo se determina su verdad, si se determina a
priori o se determina a posteriori). Como sea, la noción kantiana de analiticidad tiene debilidades
que Quine señala. La primera es que se restringe a enunciados de la forma S es P, de la forma
sujeto- predicado, y otra crítica a la noción kantiana es que emplea esa noción oscura de que el
concepto del predicado está contenido, y no se aclara en qué consiste esa relación de estar
contenido. Si bien acá se habla de términos, es interesante señalar que más tarde, en 1974,
Davidson va a cuestionar el tercer dogma del empirismo, la idea misma de esquema conceptual o
el dualismo de esquema y contenido, aunque acá no está tratándose de esquemas conceptuales y
se habla estrictamente de términos, esta idea de esquema y contenido está aquí anticipada y luego
será criticada como el 3er dogma del empirismo.
Volvamos a el modo en que Kant usa la noción de enunciado analítico. Es indudable que la
noción de significado está involucrada de manera crucial para determinar si un enunciado es
analítico o no. Una de las características que debemos analizar es si ese enunciado puede
considerarse verdadero en virtud de significaciones, y el foco gira entonces a la noción de
significación que va a adquirir un protagonismo especial. Quine va a empezar el abordaje y
problematización del concepto de significación, a partir de una digresión que no es accidental.
Allí va a introducir el marco conceptual y terminología que va recoger luego en los argumentos
que va a proponer más adelante. La digresión consiste en advertirnos, recordarnos que nombrar y
significar no son lo mismo. Quine analiza esta distinción aplicándola en primer lugar a términos
singulares, y luego a predicados, primero a términos singulares concretos, luego a términos
singulares abstractos y luego a predicados (que es lo que más interesa). En cuanto a los términos
singulares concretos, en cada caso va a ir mostrando que nombrar y significar no son lo mismo.
En los términos singulares hablamos de denotación y de significación, y lo que quiere mostrar es
que no son lo mismo, pueden no coincidir, y pone algunos ejemplos en el texto de este tipo: para
los términos singulares concretos se puede decir la expresión “La plata” tiene la misma
denotación que la expresión "la ciudad de las diagonales" pero que tienen distinto significado. En
cuando a los términos singulares abstractos, la expresión 3 y la expresión “el número de los
poderes del estado argentino" comparten denotación pero no tienen la misma significación. El
ejemplo de los planetas de Quine ilustra bien la cuestión de que no hay identidad en el
significado porque para el significado necesitamos información, y 9 y el número de los planetas
ya ni siquiera tienen la misma denotación porque fue corregida. Esta diferencia también se
expresa en los predicados. En los predicados no hablamos de denotación sino de extensión, es
decir, de la clase de los individuos a los que se aplica el predicado, y efectivamente pueden no
coincidir. El ejemplo de Quine es este: muestra dos predicados que tienen la misma extensión y
distinto significado, a esto le va a llamar coincidencia extensional (término clave). El predicado
"criaturas con corazón” y "criaturas con riñones" tienen la misma extensión pero distinto
significado, es decir, no son sinónimos.
Hecha esta digresión, Quine aborda algunas posibilidades para entender lo que es la
significación. Un antecedente de la significación está en el concepto aristotélico de esencia, pero
ese concepto no se aplica al concepto de significación requerido por la analiticidad porque
categorías como esencia o accidente se aplican a entidades, no se aplican a formas lingüísticas, y
la significación se atribuye a formas lingüísticas. Tampoco la idea de la referencia, la remisión a
la entidad mentada no implica la elucidación del significado del término, es decir, que ni la
expresión de esencia ni la referencia nos elucidan lo que significa significación. Para Quine el
objeto de la teoría de la significación es la sinonimia y la analiticidad. Quine considera que la
noción misma de significación es una postulación innecesaria, quizá por eso muestra ese carácter
esquivo al esclarecimiento, considera que hay que eliminarla, asumiendo que no solo no
esclarece la analiticidad sino que agrega un intermediario innecesario. Si hay algo que sea la
teoría de la significación, no es otra cosa que el análisis conceptual de la sinonimia y la
analiticidad. Esto es así porque según Quine hay dos clases de enunciados analíticos:
Vamos a mirar ahora los argumentos con respecto a la posibilidad de que la definición nos aporte
el elemento distintivo que dé fundamento a la sinonimia. Para esto Quine revisa distintos tipos de
definiciones. Ya que nos hemos privado de acudir a la noción de identidad de significado, ¿cuál
es el fundamento de esta sustitución de sinónimos por sinónimos? Quine va a examinar varias
posibilidades. ¿Es posible que la definición lexicográfica sea la que nos aporte el fundamento de
la sinonimia? Claramente no, dice Quine que la definición lexicográfica, el lexicógrafo trabaja
con una sinonimia que ya ha sido registrada en la observación que hace de… en rigor el
lexicógrafo solamente informa de una sinonimia preexistente que ha constatado, entonces estas
definiciones no nos aportan el fundamento sino que reposan en sinonimias preexistente. Pero hay
distintos tipos de definiciones. Hay un tipo más interesante, que es un tipo de paráfrasis con la
que filósofos y científicos definen expresiones con términos más familiares o más divulgados, y
vinculan el definiendum con el definiens en términos de esa paráfrasis (por ejemplo, una
definición de ciencia cognitiva dónde se específica el significado en términos de paráfrasis
reduciéndolo a otra terminología más familiar o más divulgada, no tan específica). Dice Quine,
que, en suma, lo cierto es que esto no deja de ser una apelación a una sinonimia presupuesta, a
una sinonimia preexistente a ese discurso, es decir a la sinonimia con respecto a estos términos
más conocidos o más divulgados.
Un tercer tipo de definición es lo que Quine le llama "explicación" pero se traduce con
frecuencia como elucidación. Acá no se busca una equivalencia entre expresiones sinónimas, o
sea entre el definiendum y el definiens, sino que se busca precisar, especificar la significación,
pero en cada contexto, es la reelaboración de un concepto que es inexacto, que tiene un uso
precientífico y su sustitución por uno científico. Nosotros vimos varios ejemplos, cuando
Hempel se interroga por el status del propio criterio empirista del significado, hace un trabajo de
elucidación, o cuando trata el concepto de confirmación. En el texto de Hanson sobre
observación también hay un ejemplo de elucidación del concepto de interpretación, cuando
Hanson se opone a la idea de que primero hay una recepción de datos y luego una interpretación,
ahí hay una elucidación, va viendo los usos que tiene en distintos contextos y le va dando
precisión e identificando contextos privilegiados de uso (eso es fundamental, esta clarificación
que proponía Carnap es parte de la ingeniería conceptual que está a la base de la investigación
filosófica, y esa ingeniería conceptual está determinada por el marco lingüístico que se haya
elegido). Sobre este tipo de elucidación, Quine va a decir que se basa en sinonimias
preexistentes, porque el contexto del definiendum termina siendo sinónimo del conjunto de los
contextos del definiens, es decir que habría una sinonimia presupuesta, pero sería una sinonimia
de contextos, en última instancia se da la presuposición de que hay sinonimia de contexto.
Un caso especial que analiza Quine es el de las notaciones convencionales que se introducen en
general para economizar en la expresión, y ahí la relación entre el definiens y el definiendum es
estipulativa, esa sinonimia se crea ad-hoc, pero se trata de un caso extremo y no se aplica el
concepto general de definición. Entonces vamos a analizar esta cuestión de las notaciones que
tienen como finalidad la abreviatura, la economía, ya sea en la expresión o ya sea en el
vocabulario y las reglas, a partir de la revisión de distintos tipos de notaciones que están guiados
por distintos intereses. Específicamente se refiere al caso de las ciencias formales porque es
donde las notaciones se introducen al servicio de los lenguajes artificiales. Y ahí la notación tiene
el propósito de la economía expresiva, pero en las ciencias formales hay dos tipos de economía
que entran en tensión mutuamente. Vamos a analizar esta cuestión para ver si alguna de ellas,
recordemos, retomemos el hilo, lo que estamos buscando es ver si a lo mejor en las ciencias
formales encontramos algún tipo de relación entre definiens y definiendum que no presuponga
una sinonimia dada anteriormente, sino que la instituya, lo que estamos buscando es la
institución de la sinonimia, ¿qué instituye la sinonimia? En las ciencias formales, este tipo de
notaciones se introducen con el propósito de la economía, pero esta economía tiene dos caras,
por un lado, se gana y por el otro se pierde.
Por un lado, se gana y por el otro se pierde. La economía puede ser o bien con respecto a la
expresión breve (la economía de la expresión, tenemos formulaciones breves de distintos tipos de
relaciones) o bien la economía en la reducción del vocabulario gramático (poco vocabulario y
pocas reglas). Entran en tensión porque cuando contamos con pocas reglas y poco vocabulario
(es decir, tenemos pocos términos fundamentales), tiene esto como ventaja que hay una
economía en la cantidad de términos, en la cantidad de reglas, en la cantidad de signos, y esto
según Quine facilita el discurso metalingüístico, el discurso acerca de las propiedades del
lenguaje en cuestión. Sin embargo, esto tiene un costo, que las formulaciones, las enunciaciones
se vuelven más extensas, se gana en un tipo de economía (en la de vocabulario y reglas) pero se
pierde en el otro. Cuando tenemos más vocabulario y reglas, las expresiones se vuelven más
económicas, si introducimos distintos signos vamos a tener expresiones más breves, si usamos
menos vocabulario básico o primitivo y menos signos, al reducir la cantidad de vocabulario y de
regla vamos a perder economía en la expresión. A la inversa, si lo que buscamos es la brevedad
en la expresión, vamos a necesitar mucho vocabulario y gramática, se van a requerir muchos
signos para más conceptos específicos, y eso va a llevar a que tengamos muchos términos
primitivos. Como hemos visto en los SAF, estos dos tipos de economía se combinan cuando un
lenguaje se considera parte del otro, cuando hablamos propiamente de términos primitivos y
definidos, entonces podemos considerar que el vocabulario de los términos primitivos es una
parte de un lenguaje más amplio que contiene todos los términos que se pueden definir a partir
de esos primitivos y sus derivaciones (ulteriores definiciones) utilizando reglas de traducción, es
decir, que estipulan cómo se hacen las definiciones. ¿Esta relación entre el definiens y el
definiendum, puede ser la fuente original que instituye la sinonimia? ¿O que al menos nos lleva a
pensar cuál es el componente esencial de la sinonimia? Quine dice que no, porque las reglas de
traducción siempre acuden a algunos de los recursos que ya hemos visto cuando hablamos de los
otros tipos de definición. Una de ellas la sinonimia directa (por paráfrasis), la explicación a la
Carnap (la elucidación) o bien la notación convencional que se crea ad-hoc. En este último caso,
cuando se introduce un signo nuevo deliberadamente, un signo que no existía y se introduce en
un vocabulario que no lo contenía, eso no presupone una sinonimia previa, sin embargo, esta
característica no se aplica al concepto general de sinonimia, las otras maneras de relacionar
definiens y definiendum sí se aplican, pero presuponen una sinonimia preexistente o presupuesta.
Dicho esto, retornamos con las manos vacías al concepto de sinonimia y Quine se va a dirigir a
un plan B, a ver si la sinonimia reside en un tipo especial de intercambiabilidad, de
intercambiabilidad salva veritate, que Quine va a analizar a continuación.
Lo primero que nos encontramos es que Quine parte de la idea de que en los lenguajes naturales
la distinción analítico-sintético es vaga, hay imprecisión a la hora de trazarla. Por otra parte,
sabemos que el carácter de analítico que se predica de un enunciado es relativo a un lenguaje, de
modo que, si digo que tal enunciado E es analítico, estoy diciendo que tal enunciado es analítico
para un lenguaje. La pregunta es si efectivamente hay un concepto de analiticidad que sirva para
todo lenguaje. En busca de ese concepto Quine va a analizar los lenguajes artificiales. Estos
lenguajes tienen la ventaja de que no están afectados por la vaguedad, la imprecisión de los
lenguajes naturales. En estos lenguajes con reglas semánticas precisas podríamos ver de qué
manera extraer modelos para identificar los enunciados analíticos. Y comienza Quine a analizar
posibles reglas semánticas.
Una de las posibilidades es directamente que las reglas semánticas constituyan especificaciones
de los enunciados. Así la regla semántica simplemente diría cuáles son los enunciados analíticos.
El problema es que el concepto de analiticidad está presupuesto en la regla semántica, de modo
que no puede servir para esclarecerlo. Por otra parte, podemos optar por definir un predicado que
Quine denomina K que nos sirve para estipular una clase, y los integrantes de esa clase tienen el
predicado K que por definición es ser analítico en LO. A este tipo de regla semántica le cabe la
misma crítica que al caso precedente: la regla semántica presupone la analiticidad.
Un tercer caso es delimitar el conjunto de los enunciados verdaderos, y que al conjunto de los
enunciados verdaderos se le delimite una subclase, y que a esa subclase se la denomine la clase
de los enunciados analíticos por regla semántica. La regla semántica así diría "estos son los
enunciados verdaderos, y analítico significa verdadero en virtud de la regla semántica", así que
una vez que trazamos esta equivalencia la regla semántica ha convertido estos enunciados que
antes eran solo verdaderos en analíticos. Sin embargo, es claro que la investidura de la
analiticidad se está desplazando a la regla semántica. Pero, ¿qué es una regla semántica? Quine
señala que el carácter de regla semántica es relativo a un sistema, es como en los sistemas
axiomáticos donde el carácter de cada enunciado es relativo, y de ese modo cualquier enunciado
puede ser regla semántica, y eso tiene la consecuencia de que cualquier enunciado puede ser
investido como analítico, entonces en realidad la regla semántica no aporta el concepto de
analiticidad, porque la regla semántica no tiene una vinculación especial con la analiticidad,
cualquier enunciado podría ser una regla semántica. Otra opción que se deriva de este problema,
para no tropezar con la cuestión de qué es una regla semántica y que cualquier enunciado del
lenguaje sea una regla semántica, entonces va considerar que L cero en realidad es un par
ordenado, que tiene dos elementos, uno es el lenguaje y otro son las reglas, para separar las
reglas y darles un status especial, pero Quine dice que esta propuesta no elucida la analiticidad
porque en resumidas cuentas solo está diciendo que al construir este par ordenado entre el
lenguaje y las reglas, esto sería equivalente a que el par ordenado no fuera un par sino que el
segundo elemento se descompusiera en la lista de los enunciados analíticos de este lenguaje. Es
una maniobra de esas que se llaman "bootsraping" y consiste en levantarnos tirando de nuestra
propia bota. Claramente presupone la lista de los enunciados analíticos, es necesario tenerla
previamente, y con ello estamos nuevamente conducidos hacia la distinción analítico-sintético,
no hemos encontrado entonces el fundamento de la distinción.
Quine se dirige entonces hacia la crítica al reductivismo. Al reductivismo entra por el lado de la
teoría de la verificación. Dice Quine que podríamos examinar esto de la teoría de la verificación
porque es una teoría del significado, podría aportar lo que se está buscando, definir sinonimia y
analiticidad, y la teoría de la verificación parece promisoria en ese sentido. La teoría de la
verificación sostiene que el sentido o significación de un enunciado es el método de
confirmación o refutación empírica del enunciado. Un enunciado analítico es aquel caso
límite que queda confirmado en cualquier supuesto. Acá tenemos la definición de
significación y también la definición de enunciado analítico, nos ha solucionado los 2 problemas.
Nos queda por ver qué pasa con la sinonimia. También nos soluciona este problema la teoria de
la verificación, los enunciados sinónimos son los que tienen el mismo método de verificación.
Entonces sinónimos tienen el mismo método de verificación, significación son los que tienen el
mismo método de confirmación o refutación y enunciado analítico es el que solamente puede ser
confirmado, nunca puede ser refutado. Finalmente, parece que se hubiera logrado elucidar el
concepto de analiticidad.
Sin embargo, surgen una serie de problemas. En primer lugar, mirando de cerca la teoría de la
verificación, Quine se pregunta ¿qué es ese método? ¿Qué quiere decir cuando dice que tienen el
mismo método de verificación? ¿Qué quiere decir eso? ¿Qué es un método de verificación? ¿En
qué sentido se puede decir que ese es el significado que comparten? Y, problema más importante
aún, ¿cuál es la relación entre un enunciado y esas experiencias? Cabe recordar que el método de
verificación es el método de verificación o refutación empírica, esto presupone directamente la
relación entre el enunciado y sus experiencias confirmatorias o refutatorias. ¿Cuál es la relación
entre un enunciado y "sus" experiencias confirmatorias o refutatorias? (Acá pone las comillas
entre sus experiencias, porque Quine va a tomar distancia con respecto a eso de que un
enunciado tenga sus experiencias). La primera respuesta es el reductivismo radical. Ese
reductivismo está presupuesto en la teoría de la verificación, para esa posición todo enunciado
con sentido debe ser traducible a un enunciado (verdadero o falso) acerca de la experiencia
inmediata, y supone que hay una relación entre enunciado y experiencia que es de
referencialidad directa. Esto deja al reductivismo radical frente a una serie de tareas. En primer
lugar, se necesita un lenguaje de datos sensibles. Por otra parte, se necesita un método de
traducción. Recordemos que todo enunciado con sentido debe ser traducible a un enunciado de
experiencia inmediata. Entonces necesitamos el lenguaje de experiencia inmediata y el método
de traducción para poder traducir todos los enunciados significativos a ese lenguaje de datos
sensibles. De esos dos problemas grandes se encargó Carnap, este autor se embarcó en la
construcción de enunciados sobre el mundo físico traducidos a la experiencia inmediata. La
propuesta de Carnap no es la de un lenguaje puro de datos sensibles sino una construcción
intermedia, porque la ontología del lenguaje que propuso Carnap contenía, además de lo que
llamaban acaecimientos sensoriales, tenía clases y relaciones matemáticas, la idea era explicar "
puntos- instantes", coordenadas espacio temporales pero identificables "puntos-instantes" y los
identificaba con 4 números reales, y la aplicación del enunciado consistía en asignar una cierta
cualidad sensible (o varias?) a cada punto instante siguiendo el principio de acción mínima, es
decir que la asignación de cualidades tenía que ser la que siguiera el criterio de la parsimonia, la
más económica que fuera consistente con el mundo de nuestra experiencia [ en la pantalla está
así: no era un lenguaje de datos sensibles (su ontología contenía además de hechos sensoriales,
clases y relaciones matemáticas. Identificaba "puntos-instantes" espaciotemporales como
conjuntos de 4 números reales, y estudiaba la asignación de cualidades sensibles a los "puntos-
instantes" siguiendo el principio de acción mínima].
Pero el lenguaje propuesto por Carnap no superó el estadio de esbozo, si bien avanzó y Quine lo
reconoce, pero tenía ciertas dificultades. Había que asignar un valor veritativo a enunciados de
este tipo: "la cualidad c se encuentra en el punto-instante x y z t" y el problema era ahora cómo
se traduce a un lenguaje de datos sensibles, recordemos que este lenguaje no era de datos
sensibles, hay que hacer una traducción ahora a un lenguaje puro de datos sensibles, ¿cómo se
hace? ¿Cómo se traduce "se encuentra en"? Esto es una conectiva, ¿de qué tipo? Las
complejidades de este tipo condujeron a que Carnap abandonara este proyecto dice Quine. Sin
embargo, el reductivismo persiste en el reductivismo atenuado, el cual ya no busca la traducción
total de los enunciados significativos (o de términos) pero sigue sosteniendo que hay un
enunciado y que a ese enunciado le corresponde un conjunto de sensaciones posibles que son
confirmatorias o refutatorias y la idea de que cada enunciado aislado es una unidad pasible de
contrastación independiente de los demás. Sobre este primer compromiso del reductivismo
atenuado dice Quine: "persiste la opinión de que con cada enunciado o con todo enunciado
sintético, está asociado un único campo posible de acaecimientos sensoriales, de tal modo
que la ocurrencia de uno de ellos añade probabilidad a la verdad del enunciado, y también
otro campo único de posibles acaeceres sensoriales cuya ocurrencia eliminaría aquella
probabilidad [está la idea de que cada enunciado tiene asociado un campo de hechos sensoriales
confirmatorias y otro refutatorio].
El segundo compromiso está implícito en el primero. Dice Quine: "el dogma reductivista
sobrevive en la suposición de que todo enunciado aislado de sus compañeros puede tener
confirmación o invalidación”. Entonces, esa asignación de campo sensorial confirmatorio y
campo sensorial refutatorio la tiene aislado de los demás, es independiente de los demás
enunciados, es decir, aislado de sus compañeros puede tener confirmación o invalidación. Y ahí
aparece una nota al pie que retoma el hecho de que Quine va a retomar y extender el holismo de
Pierre Duhem, esta idea de que las hipótesis no enfrentan el tribunal de la experiencia de manera
aislada sino componiendo un corpus. Eso lo había postulado Duhem específicamente para la
física teórica, pero Quine lo va a extender, y eso tiene consecuencias interesantes. Vamos a ver
qué ocurre cuando esta idea de que el enunciado aislado puede enfrentarse a la experiencia se
deja de lado, vamos a ver cómo Quine lo deja de lado, y lo deja de lado a partir mostrar qué
papel ha tenido esa creencia y otras en el origen de los dos dogmas del empirismo y en la
relación que los vincula, que es una relación de dependencia.
Conclusiones.
En esta última parte Quine recoge los frutos de la parte crítica y señala cuál es la relación que
hay entre los 2 dogmas y cuál es la creencia común que les da origen. Estos 2 dogmas se generan
a partir de una creencia errónea que va a criticar y frente a la cual propone una alternativa: el
empirismo sin dogmas.
La relación entre los dogmas es de dependencia, uno de los dogmas sostiene al otro: el
reductivismo sostiene a la distinción analítico-sintético:
"El primer dogma [el reductivismo] sostiene al segundo del modo siguiente: mientras se
considere significante en general hablar de la confirmación o la invalidación de un
enunciado [se refiere a un enunciado aislado, y ahí está el compromiso con el reductivismo],
parece también significante hablar de un tipo límite de enunciados que resultan
confirmados vacuamente [los enunciados analíticos], ipso facto, ocurra lo que ocurra; esos
enunciados son analíticos".
Este camino que nos lleva desde el reductivismo hacia el dogma de la distinción analítico-
sintético comienza con la teoría verificacionista del significado, la idea de que el significado de
un enunciado es su método de verificación o refutación, esto estaba asociado al reductivismo en
la medida en que se requiere el vínculo de referencialidad directa entre un enunciado y un campo
único de experiencias confirmatorias y un campo único de experiencias refutatorias, cada
enunciado aislado tenía su campo de experiencia asociadas. Esto lo criticaba Quine por la
imposibilidad de hacer la operación lingüística de la reducción, la imposibilidad de formular un
lenguaje de datos sensibles. Pero había mostrado que el reductivismo persistía y da lugar a la
distinción analítico-sintético en la medida en que seguimos sosteniendo que cada enunciado está
asociado, tiene su significado residiendo en un campo de experiencias confirmatorias o
refutatorias, se concibe como caso extremo a un enunciado que se confirma en todos los casos, es
solamente confirmable, es decir que en este tipo de enunciados el vínculo con el campo de
experiencias sería trivial o vacuo, estaría operativamente nulo, no decide nada acerca de la
verdad porque ese enunciado es verdadero, vamos a decirlo en nuestro lenguaje, es verdadero a
priori, es un enunciado analítico. Y eso nos lleva a analizar esta creencia que le da origen a
ambos Dogmas: es el compromiso con la idea de que la verdad de cada enunciado aislado
depende de un componente factico y un componente lingüístico, de dos componentes. Esta
creencia de la dependencia de la verdad de los enunciados en términos de elementos facticos y de
elemento lingüístico tiene una versión aceptable y una inaceptable.
Quine comienza por la aceptable: "en general la verdad de los enunciados depende
obviamente del lenguaje y del hecho extralingüístico". Acá está reconociendo esta doble
dependencia de la verdad de los enunciados en general. Pero ese compromiso con esa creencia
nos lleva a suponer (aunque no la implica ni que tiene como consecuencia necesaria) otra
creencia, a asumir como si fuera igualmente aceptable otra creencia: que la verdad de un
enunciado [la verdad de cada enunciado separado nos hubiera hecho un favor si ponía enunciado
aislado] es algo analizable en una componente lingüística y otra factual. Desde un punto de vista
empirista [sigue la creencia errónea, acá destaca la consecuencia], la componente factual debe
reducirse a un campo de experiencias confirmativas [acá tenemos el compromiso con el
reductivismo]. En el caso extremo de que lo único que importe sea la componente lingüística
[es decir, que la componente extralingüística o fáctica o el vínculo con la experiencia es trivial o
nulo], el enunciado es analítico" [y acá está la distinción analítico-sintético]. Esta creencia va a
ser rechazada por Quine, esta idea de que la verdad del enunciado aislado puede descomponerse
en elemento factico y elemento lingüístico va a ser rechazada por Quine, y lo va a llevar a
proponer el empirismo sin dogmas.
Vamos a analizar primero la propuesta general, luego las tesis de la parte propositiva y luego las
consecuencias del empirismo sin dogmas.
La versión alternativa con respecto a esta creencia rechazada es que a la ciencia hay que tomarla
en su conjunto (a eso se refería con en general). Dice Quine:
"Tomada en su conjunto, la ciencia presenta esa doble dependencia respecto del lenguaje y
respecto de los hechos: pero esta dualidad no puede perseguirse [es decir, no puede
distribuirse a los enunciados, esa doble dependencia no afecta, no determina la verdad de los
enunciados específicos, uno por uno] significativamente hasta los enunciados de la ciencia
tomados uno por uno".
Cita célebre de Quine:
"Si esta visión es correcta [se refiere al holismo que plantea] entonces será erróneo hablar del
contenido empírico de un determinado enunciado (especialmente si se trata de un
enunciado situado lejos de la periferia del campo). [Es decir, la totalidad del sistema tiene
contenido empírico, pero si queremos aislar el contenido empírico de un enunciado, no tiene
sentido. Parece que los enunciados con mayor contenido empírico son los que, en este símil del
campo de fuerza, se ubicarían más cercanos a la periferia. Vamos a ver qué significado tiene esto
de estar en la periferia y qué quiere decir que tienen contenido empírico. Por lo demás, ya parece
estar anticipando que la cuestión del contenido empírico es una cuestión de grado, de hecho,
hemos perdido la distinción analítico-sintético, así que de alguna manera hay que reponer la
noción de contenido empírico]. Además, resulta entonces absurdo buscar una divisoria entre
enunciados sintéticos, que valen contingentemente y por experiencia, y enunciados
analíticos que valen en cualquier caso".
Por otra parte, además de ser incompatible ese holismo con la distinción analítico-sintético, el
holismo es incompatible con el reductivismo porque el reductivismo decía que había una
asociación, una referencialidad directa entre el enunciado y el campo de experiencias específicas
que le darían confirmación. Al desestimar la posibilidad de hacer esta determinación de unión
con la experiencia en el enunciado aislado, esto cae, ninguna experiencia concreta y particular
está ligada directamente con un enunciado concreto y particular en el campo, sino que esos
vínculos van a ser indirectos, se establecen a través de consideraciones de equilibrio que afectan
al campo como un todo. Entonces, la relación entre los enunciados y las experiencias está
mediada por las relaciones de todos los enunciados entre sí con la experiencia, y en esta idea de
equilibrio, que es de preservación de la coherencia del sistema. Quine sostiene que su propuesta
es, pese a pretender haberse desecho de la distinción analítico-sintético y del reductivismo,
pretende sostener que su posición es aun así una posición empirista, y la razón por la que dice
que es empirista es la idea de que la ciencia sigue teniendo la finalidad de la predicción, la
ciencia busca en última medida la predicción de experiencias. Y esto nos lleva a la cuestión de
los términos y la relación con las entidades. La ciencia postula hechos, introduce ciertas
entidades, tanto observables como inobservables, y la razón por la que se las introduce son
razones pragmáticas, es decir, podemos inflar la ontología cuánto queramos, la ontología puede
expandirse si así conviene para generar leyes que permitan inferir predicciones. Esas entidades
postuladas cumplen toda la misma función. Cualquier postulación, ya sean postulaciones de lo
que llamaríamos en la versión tradicional una entidad observable, un hecho, un objeto físico y las
entidades inobservables (que se expresaban en términos teórico), todas esas postulaciones tienen
el mismo estatus, y ese estatus está dado por su función, y es una función que se determina en
términos de conveniencia, en términos de cuánto nos permite a nosotros por ejemplo abreviar la
formulación, cuánto nos permite obtener predicciones precisas por ejemplo. Finalmente, lo que
anticipamos, acerca de que la noción de contenido empírico de alguna manera había que
reponerla y acá está traducida en términos de esta red de creencia. La idea de Quine es que el
contenido empírico de un enunciado depende de la situación del enunciado dentro del corpus
total de creencias, dentro de los campos de fuerza. ¿Está determinada por la posibilidad de por
ejemplo deducir consecuencias observacionales? ¿O traducir, definir cada uno de sus términos en
términos observacionales? ¿O asociarlo con un campo privilegiado de experiencias
confirmatorias o refutatorias? No, el contenido empírico está determinado por algo en cierto
modo disposicional, y también tiene la marca de lo pragmático, en la medida en que
consideramos empírico o más empírico a un enunciado que está más cerca de ls periferia. Y que
esté más cerca de la periferia quiere decir que lo consideramos más factiblemente revisable. Pero
recordemos que las revisiones se hacen siempre guiados por la restricción conservadora, tratando
de hacer los mínimos cambios necesarios para restituir el equilibrio en el sistema, es decir,
algunos enunciados tienen menos costo en términos de revisabilidad, su revisión, corrección, su
modificación o eliminación, altera los valores de verdad de un número menor de componentes o
de un número de componentes que tienen a su vez menos relaciones o relaciones de distintos
tipos, y en ese sentido nos sale más "barato" modificarlo.
Dice Quine:
"Nuestra natural tendencia a perturbar lo menos posible el sistema en su conjunto nos lleva
a centrar la revisión en esos específicos enunciados relativos a casas de adobe o centauros.
Por eso se tiene la sensación de que esos enunciados tienen una referencia empírica más
precisa que los muy teoréticos enunciados de la física, de la lógica o de la ontología"
"Una vez redistribuidos los valores entre algunos enunciados, hay que redistribuir también
los de otros que pueden ser enunciados lógicamente conectados con los primeros o incluso
enunciados de conexiones lógicas".
En la cita se refiere a la situación que aparece frente a un caso refutatorio, ¿a quién le apuntamos
el dardo? Se lo apuntamos a los enunciados más vulnerables a la refutación, y esos son aquellos
que se consideren que tienen mayor contenido empírico. Pero tener contenido empírico no es
nada independientemente de esta idea de atribuir el estatus de más susceptibles a la revisión
guiados por el propósito de perturbar el sistema lo menos posible. Quine dice que este contenido
empírico se plasma en una impresión que tenemos de que hay una cierta hermandad entre los
enunciados y las experiencias. Algunos enunciados, aunque se refieren a objetos físicos no a
experiencias sensibles, pero los tratamos como si tuvieran un vínculo específico con la
experiencia sensible, y seguimos hablando como si un enunciado estaría asociado con una
experiencia en particular. Y dice: "en nuestra metáfora [la del campo de fuerza], los
enunciados que están especialmente hermanados con experiencias determinadas se
describen como próximos a la periferia. Pero en esa relación de 'hermandad" no veo más
que una laxa asociación que refleja la relativa probabilidad de que en la práctica escojamos
un enunciado en vez de otro para someterlo a revisión". Es decir, cuánto lo protegemos de la
refutación, cuánto estamos dispuestos a preservar a ese enunciado con respecto a la refutación.
"Todo enunciado puede concebirse como valedero en cualquier caso siempre que hagamos
reajustes suficientemente drásticos en otras zonas del sistema. Incluso un enunciado
situado muy cerca de la periferia puede sostenerse contra una recalcitrante experiencia
apelando a la posibilidad de estar sufriendo alucinaciones [podemos incluso impugnar la
observación] o reajustando enunciados de las llamadas leyes lógicas. A la inversa, y por la
misma razón, no hay enunciado algunos inmunes a la revisión. Hasta una revisión de la ley
lógica".
Entonces, también son revisables los enunciados de las leyes lógicas, pero esto tiene un costo
mucho más alto. La elección de revisar un enunciado de la lógica es mucho más alto, por eso
decimos que esos enunciados son los que están en el centro y no en la periferia, porque tienen
una función de articulación del sistema. Entonces modificar una ley lógica tiene un costo
estructural en el sistema, es mucho más complejo, por eso es más conveniente hacer otras
modificaciones, y eso nos lleva a la idea del pragmatismo. Si tenemos dos hipótesis rivales que
tienen la misma base o apoyo empírico, son epistémicamente indiscernibles, pero podemos
dirimir esta competencia a partir de la consideración de valores, de desideratas, de criterios que
no son empíricos, sino de índole pragmática como la simplicidad, el carácter predictivo, la
precisión, siempre guiándonos por la idea del conservadurismo y la simplicidad, esto es la idea
de introducir la menor cantidad de modificaciones en el sistema, de no perturbar al sistema más
de lo necesario
UNIDAD 6. Nagel
El carácter lógico de las leyes científicas (1961)
Nagel es un representante del empirismo lógico. El problema de las leyes científicas es un
problema clásico de la filosofía de la ciencia, pero extiende su relevancia hasta la actualidad. Se
discute mucho sobre qué es una ley científica. Si bien hay consenso en la práctica, y hay ciertos
conceptos generales, persisten los problemas. Entre los conceptos generales está este: se
considera una ley científica a un enunciado que expresa una relación regular y empíricamente
constatable entre fenómenos o propiedades de fenómenos. Existen leyes universales y leyes
probabilísticas que se emplean en la explicación científica. Sin embargo, el problema más
importante a través del cual emerge la relevancia de estipular con mayor precisión los criterios
para determinar cuándo algo es una ley científica, es el de establecer una diferencia entre leyes
genuinas y otros tipos de enunciados que expresan regularidades que se llaman generalizaciones
accidentales que tienen la misma estructura de una ley, cumplen aparentemente con un montón
de condiciones para ser leyes pero no pueden cumplir las funciones que las leyes deberían tener
(al menos las que le son atribuidas por la filosofía clásica de la ciencia: la explicación y la
predicción). Estos enunciados son como si fueran leyes en todo, pero no cumplen con las
funciones que deberían tener las leyes.
Con respecto a los criterios que permiten detectar cuando algo es una ley genuina, y cuando es en
cambio una generalización accidental existen dos tradiciones. Por un lado, la tradición
aristotélica, que sostiene que las leyes científicas establecen conexiones necesarias entre
propiedades, este tipo de necesidad es una necesidad natural, es una necesidad objetiva, que
vincula los fenómenos. Por otra parte, está la tradición de Hume, una tradición que se ha
denominado deflacionaria en la medida en que sostiene que ambas (las leyes y las
generalizaciones accidentales) lo único que expresan son conjunciones constantes de fenómenos.
Que no hay diferencia objetiva entre leyes y generalizaciones accidentales, la supuesta conexión
necesaria no puede fundamentarse ni conocerse. Algunos interpretes sostienen que Hume decía
que no existe y otras interpretaciones más recientes sostienen que la negación no era tan fuerte,
sino que la conexión necesaria no podía fundamentarse ni conocerse en última instancia. Lo
cierto es que la única diferencia que Hume señala es nuestra actitud epistémica con respecto a las
regularidades. De este modo, existen algunas regularidades que generan el hábito mental de
proyectar hacia el futuro, y esas regularidades son las leyes. Las regularidades que no generan
ese hábito mental simplemente no son leyes.
Ambas tradiciones tienen sus dificultades, y sobre eso trabaja la filosofía de la ciencia
contemporánea al pensar las leyes. La tradición aristotélica tiene el problema metafísico: ¿en qué
consiste esa condición necesaria? ¿Puede analizarse esa necesidad? ¿Puede conocerse? Por el
lado de la tradición de Hume, el problema es el carácter subjetivo de la actitud epistémica, con
mayor precisión, ¿por qué algunas regularidades generan el hábito mental de proyectar hacia el
futuro y otras no? ¿Cuál es en realidad la diferencia? Estos interrogantes generaron una serie de
discusiones que se prolongan hasta nuestros días en representantes de ambas tradiciones y
algunas alternativas que han surgido. Dentro de los representantes de las derivaciones de la
tradición humeana está Goodman que intento evitar el recurso a la postulación metafísica de la
necesidad, y sostuvo que las leyes genuinas lo que hacen es sustentar o justificar o permitir la
proyección de enunciados contrafacticos o enunciados condicionales subjuntivos. Nagel toma
esto y lo explica en detalle. Por ejemplo, estos enunciados son del tipo "si se calentara esta
porción de metal entonces se dilataría". También Nagel, y David Lewis y John Earman,
siguiendo a Nagel, intentan superar el carácter subjetivo de la actitud epistémica heredada de la
tradición humeana como criterio de reconocimiento de las leyes agregando el criterio de la
integración de esos enunciados, de los enunciados legales, a un sistema deductivo, comprensivo,
es decir, a una estructura coherente con nexos lógicos que permitan que esos enunciados se
brinden apoyo epistémico (¿y operan en sistemas explicativos?). La tradición aristotélica, por su
parte, tiene entre sus representantes a Popper. Este sostiene que existen necesidades físicas, esas
necesidades son conexiones necesarias que se mantienen en todos los mundos posibles que
difieren del nuestro solamente en las condiciones iniciales. Dretske, Armstrong y Tooley son
realistas nomológicos que sostienen que existe la necesidad nomica(?), una ley, en ese sentido, lo
que hace es expresar las relaciones entre propiedades o entre universales de modo que algo así
como la efeidad implica la geidad como propiedad. Alexander Bird sostiene que la relación
necesaria brota desde los "relata", desde los miembros de la relación, es decir que las
propiedades mismas son disposicionales por esencia, son potencia, y las leyes lo que hacen es
expresar las relaciones necesarias que brotan o emergen de las propiedades mismas. Hay
cuestiones metafísicas y epistemológicos que se pueden contrastar en estas posiciones, cada una
con sus matices.
También existen posiciones alternativas que toman la precaución de distanciarse con respecto al
compromiso de que hacer leyes sea el fin de la ciencia, el propósito de la ciencia. Bas van
Fraasen, Nancy Cartwright y Ronald Giere sostienen que las leyes, si las entendemos como
afirmaciones acerca de sistemas reales, estrictamente serían casi todas falsas, porque los sistemas
reales por lo general no son tan simples como para comportarse como lo estipulan las leyes
acerca de esos sistemas. En consecuencia, la finalidad de la ciencia no es hacer leyes acerca de
sistemas reales sino acerca de modelos ideales. Las leyes, entonces, se refieren a modelos ideales
para esos 3. La posición de Stephen Mumford es especial porque sostiene que existe la necesidad
en el mundo, pero sin embargo no hay leyes, las leyes no pueden cumplir las funciones que les
asignaban los realistas nomológicos. Estas posiciones y los debates entre ellos muestran la
relevancia en la filosofía contemporánea que tiene el tema, el problema de las leyes científicas.
Apartado II. La estructura de la ciencia, Nagel. El carácter lógico de las leyes científicas.
El tema central es la determinación de los criterios para el reconocimiento de las leyes. El primer
criterio que se analiza (uno muy básico) es la idea de considerar que una ley debe ser definida
como una generalización universal verdadera. Pero, inmediatamente, nos encontramos con que
aquí se alude a la cuestión de las funciones de las leyes, es decir, que las leyes se utilizan, de
acuerdo con la filosofía clásica de la ciencia, para explicar y predecir. La consideración de las
leyes como generalizaciones universales tiene ciertos problemas a la hora de aplicarlas en
explicaciones. Uno de esos problemas es la pregunta acerca de si toda generalización universal
verdadera debe ser considerada una ley (una ley que pueda usarse en explicación), y la otra es si
pueden usarse todas las generalizaciones universales verdaderas en explicaciones causales. Hay
explicaciones que tienen leyes pero que no sirven para construir explicaciones causales, por
ejemplo esta, a partir de la generalización empírica, " todos los cuervos son negros. Este animal
es cuervo. Por lo tanto, es negro". Se construye tomando como si fuera una condición inicial
"este animal es un cuervo" y el explanandum sería "por lo tanto es negro". Como se ve, tiene una
ley natural, se puede considerar ley natural al enunciado "todos los cuervos son negros", pero sin
embargo no explica casualmente. Esto en cuanto a si alguien tiene la pretensión de que toda
generalización universal sirva como explicación causal. Pero aun renunciando a esos queda ver si
son leyes. Ahí aparece el problema de las generalizaciones universales que no son legales, tienen
la característica de que no son ni leyes naturales ni causales, y tienen un problema especial: no
tienen poder explicativo. Por ejemplo, esta generalización: "todos los tornillos del auto de Pérez
están oxidados". ¿Puede usarse como ley junto con “este tornillo pertenece al auto de Pérez” para
dar cuenta del explanandum “este tornillo está oxidado”? No, carece de poder explicativo, hay
algo en ella que la priva de su carácter legal, no sirve como ley, no tiene poder explicativo.
Esto nos lleva a preguntarnos entonces, ¿cuáles son las condiciones que deben tener las leyes?
Esto da motivo a todo el enfoque de este texto. El autor señala que hay ciertos acuerdos acerca
de los enunciados que son leyes. Vamos a ver a lo largo de todo el texto que hay continuamente
apelaciones a la función de las leyes en la investigación científica, y hay también apelaciones a
las prácticas científicas. Acerca de muchos enunciados hay prácticamente unanimidad acerca de
que ciertos enunciados deben ser considerados leyes. Sin embargo, acerca de muchos otros hay
desacuerdo. Pero, aun acerca de aquellos en los que se cuenta con un reconocimiento
generalmente aceptado acerca de que hay que concederle el carácter de ley, cuando se intenta
determinar el criterio por medio del cual se la ha concedido ese status, aparecen criterios
divergentes, aparecen problemas porque hay diferentes razones para hacerlo. Por un lado, hay
quienes admiten que los enunciados legales refieren a entidades particulares, hay quienes no.
¿Qué pasa con las regularidades estadísticas? ¿Deben considerarse leyes? ¿Qué pasa con las
regularidades sociales? Esto lo comenta Nagel para mostrar que el de ley es un predicado vago,
que no hay una determinación precisa, que ha sido objeto de resignificación a lo largo de la
historia, que no hay ninguna característica real o esencial, ya sea de las regularidades o de los
enunciados, que permita reconocer en ellas un carácter esencial de leyes. Esto implica que el
reconocimiento de un enunciado como una ley es resultado de un acuerdo, de una convención. Y,
para dar fuerza a esa convención, lo más conveniente es identificar las condiciones. Lo ideal
sería identificar condiciones necesarias y suficientes para la clasificación de un enunciado como
una ley. Sin embargo, no se cuenta con esas condiciones, no hay una lista de condiciones
necesarias y suficientes, pero hay ciertas consideraciones que permiten clasificar los enunciados
como leyes. Lo primero que hay que saber (además de que no constituyen, ni siquiera
conjuntamente) condiciones necesarias y suficientes es que se solapan entre sí, se superponen en
alguna medida.
El primer tipo de consideración es la consideración sintáctica, es decir, la relativa a la forma
lógica del enunciado pasible de ser considerado ley. La siguiente consideración son las
relaciones lógicas que tiene dentro de un sistema explicativo. Esto significa que vamos a
prestarle atención, a la hora de determinar el carácter de ley, a cómo está inserto determinado
enunciado dentro de un sistema amplio de creencias, y que ese sistema funciona como un sistema
explicativo. Otra de las consideraciones es lo que se hace en las investigaciones científicas con el
enunciado, hay recursos a la práctica, ¿para qué puede servir? Esa es la pregunta que se hace. Por
ejemplo, si algo es vacuamente verdadero, si se puede usar para algo relativo a las funciones que
queremos que cumplan las leyes, entonces se puede salvar. Otro de los criterios es la actitud
epistémica, es decir, ¿cómo evaluamos una ley? ¿Cuán vulnerable es una ley bien establecida
frente a casos refutatorios? Ahí aparece la idea de que una ley bien establecida, bien ubicada
dentro de un sistema explicativo podría ser conservada contra la refutación. O, al menos,
comparativamente, la ciencia resiste más a abandonarla que a otros enunciados que no son
considerados leyes.
Es posible estipular condiciones de la universalidad nomica (está bien escrito), condiciones que
no necesariamente implican condiciones necesarias y suficientes, pero sí son parte de una
discusión que tiene por finalidad determinar cuáles son las condiciones aceptables y esclarecer
cada una de ellas, y ese es el objeto fundamental de este texto.
Vamos a empezar analizando las primeras de esas condiciones que se han propuesto. La primera
es esta idea de que la forma lógica (consideración sintáctica) del enunciado mismo podría
indicarnos que se trata de una ley, es decir, el enunciado universal (con el cuantificador
universal) que nos conecta ser F con ser x [se escribe así "(Vx) (Fx > Gx) “] . La cuestión está en
cómo interpretamos la conectiva (condicional). Hay 2 interpretaciones tradicionalmente
reconocidas: una interpretación sostiene que la conexión es necesaria, la otra interpretación
sostiene que es contingente (esta es la denominada interpretación humeana, tiene menor
compromiso ontológico. Es la que abraza Nagel). Cuando la versión más fuerte sostiene que la
conexión entre F y G es necesaria, pueden aludir a distintos tipos de necesidad: a) necesidad
lógica; b) necesidad causal; c) necesidad física. Cuando se hablan de necesidad física, se refieren
a que, por ejemplo, los metales son dilatables térmicamente, pero no solo que todos los metales
son dilatables térmicamente, sino que es imposible que no lo sean, a eso se refieren con
necesidad física (Nagel rechaza esta idea de necesidad).
Nagel abraza la interpretación humeana que sostiene que la relación mencionada (decir todo lo
que es F es también G ) es una relación de facto. Simplemente se constata que ocurre que todos
los F son G, es un tipo de conexión totalmente diferente, no aparece la necesidad, sino que es una
conexión fáctica, es contingente, podría no ocurrir y se trata de la mera constatación de la
conjunción constante, no decimos de ella nada más que lo que se ha constatado.
Otra posibilidad es que se trate de necesidad física o necesidad causal. Nagel también va a
rechazar esto, la noción misma de necesidad lo obliga a rechazarlo porque Nagel ha abrazado la
interpretación humeana de universalidad nomica (para esta versión, cuando se dice que C causa
E, lo que se dice no es que si se da C necesariamente te da E, sino que simplemente se dice que c
es un caso de la propiedad C y e es un caso de la propiedad E, y que de hecho se ha constatado
que se produce la conjunción constante sostenida en el tiempo de que todo C es E. Pero esto nos
genera la expectativa, los hábitos, pero solo tiene naturaleza psicológica, no hay necesidad según
Nagel.
Otra posibilidad ligada a la consideración sintáctica es la idea de necesidad lógica. ¿Podrá ser
que las universalizaciones legales sean lógicamente necesarias? Si esto fuera así, se encontraría
un criterio preciso para la determinación, es decir, para reconocer si algo es o no una ley,
tendríamos una manera inequívoca de resolverlo. La idea, entonces, es que las generalizaciones
universales nomológicas genuinas son lógicamente necesarias, esa es la propuesta de este
criterio. Eso significa que cuando decimos todo f es g queremos decir que ser F implica ser g.
Esto tiene la inmediata consecuencia, que sería considerada una ventaja para este enfoque, de
que, si fuera así, conociendo F podemos conocer, determinar a priori G, porque se trata de una
cuestión meramente de relación lógica, entonces no hace falta determinar nada empiricamente.
Pero, esa esperanza se ve frustrada por problemas que Nagel señala (también deudores del
análisis de Hume): el primero es que la negación de una generalización universal no es
contradictoria. Si la generalización universal fuera necesaria, esto por definición implica que su
negación debe ser contradictoria. Pero hay generalizaciones universales que consideramos leyes
pero que su negación no es contradictoria. Por otra parte, Nagel se pregunta ¿qué pasa si las
leyes son lógicamente necesarias? ¿Tienen carácter empírico? ¿Dónde queda la cuestión
empírica? Si son lógicamente necesarias, la determinación de su verdad no requeriría prueba
empírica, no haría falta el testeo, y esto contradice la práctica. Por otra parte, la función de las
leyes (que es explicar y predecir) no requiere en modo alguno un requisito tan fuerte como la
necesidad lógica, se puede explicar con leyes que sean contingentes, es decir, ninguna razón
justifica el considerar a las leyes como lógicamente necesarias. La necesidad lógica es irrelevante
para la función de las leyes.
Nagel explica de dónde viene la idea de que las leyes son lógicamente necesarias, dice que no es
una idea implausible, que existen razones por las cuáles podríamos considerar a las leyes como
lógicamente necesarias. Pero se trata de una confusión, que se debe a lo siguiente: una ley puede
en ciertos contextos expresar propiedades definitorias, es decir, una ley puede ser considerada en
cierta etapa de la investigación científica como contingente y en otra etapa de la investigación
como necesaria. Nagel pone este ejemplo: el cobre es buen conductor eléctrico. En la instancia
de la investigación en la cual la conductividad era considerada una propiedad del cobre pero no
una propiedad físicamente definitoria del cobre sino un hallazgo, se había constatado que los
casos tenían esa propiedad, entonces en esos casos, en ese estado de la investigación el
enunciado "el cobre es buen conductor eléctrico" era considerado verdadero pero lógicamente
contingente, es decir, nada excluía que aparecieran porciones de cobre que no fueran buenos
conductores eléctricos. Sin embargo, una vez que se usó la conductividad eléctrica como método
de determinación de la identificación del cobre, es decir, se la consideró una propiedad
definitoria del cobre, dicho de otra manera: si no es conductor eléctrico, definitivamente no es
cobre. Una vez que se le adjudicó ese estatuto, la función que cumplía en la taxonomía esa
propiedad, hace que el enunciado "el cobre es buen conductor eléctrico" se transforme en una
verdad lógicamente necesaria, porque expresaba una propiedad definitoria, y de ahí es donde
surge esta idea de que la ley es lógicamente necesaria. Entonces, surge de que, en algunos casos,
en algunos contextos de la historia de la ciencia, ese carácter de propiedad definitoria que
adquieren determinadas propiedades es reconocido por la ley y eso parece transformar a las leyes
en lógicamente necesarias.
Propuesta de la universalidad entendida como la idea de que en las leyes no puede haber
restricción a objetos particulares ni a fechas ni a periodos. Esta propuesta, que parece intuitiva,
tiene dificultades. La primera de ella es que hay algunas leyes ya reconocidas que quedarían
excluidas si esta propuesta se tomara como criterio. Por ejemplo, la primera ley de Kepler. ¿Sería
una ley o dejaría de ser ley la ley que dice que los planetas se mueven en órbitas elípticas con el
sol en uno de sus focos? Al mencionar un individuo particular (el sol) ocurre lo mismo que
ocurre en la ley que estipula que en la tierra la velocidad de la luz en el vacío es de 300.000 km
por segundo. En este caso se menciona la tierra, y esto operaria como una restricción que
invalidaría el carácter legal de esos enunciados que son, no obstante, considerados como leyes.
Para hacer frente a esta dificultad se ha propuesto la introducción de ciertas distinciones. La
primera de estas distinciones es una clasificación de los tipos de predicados que pueden tener las
leyes. Pueden ser de dos tipos esos predicados: a) los predicados cualitativos que no tienen
restricción (pueden referir a objetos particulares, a tiempos, etc.);
b) los predicados cualitativos puros. Son los que no mencionan objetos particulares ni regiones
espaciotemporales.
Esta primera distinción permite dar lugar a otra distinción que ofrece una propuesta de solución
ante la dificultad generada por las leyes que se consideran en la práctica como tales, pero de
aceptarse este requisito, no podrían ser consideras ya como leyes. Es la distinción entre leyes
fundamentales y leyes derivadas. Una ley, un enunciado podría ser considerado como ley,
siempre y cuando, esa ley, ese enunciado, se deduzca de una ley fundamental, y las leyes
fundamentales son aquellas que tienen solamente predicados cualitativos puros (no mencionan
además ningún individuo particular). Entonces, como solución, la ley derivada se deduce de la
ley fundamental y ambas son leyes. Esto es lo que se puede decir que ocurría con la ley de
Kepler, ya que se puede mostrar que se deduce lógicamente de las leyes de Newton (que son
consideradas fundamentales) y de este modo una ley que menciona un individuo particular puede
ser considerada como una ley. Pero esta propuesta también tiene algunas dificultades.
Frente a estas dificultades se propone un nuevo planteo: las leyes deben ser universales
irrestrictas. Esta se ha constituido como una condición necesaria, pero no suficiente, para el
reconocimiento del carácter legal. La idea es que el ámbito de predicación de la ley, el dominio
de la ley no tiene que estar restringido o bien a una región fija o bien a una región espacial
específica. Examinemos este requisito. Tenemos dos enunciados que tienen predicados no
cualitativos. Por ejemplo, para todo X, si X es un tornillo durante el periodo A, entonces está
oxidado durante A. Acá en la generalización accidental tenemos una restricción temporal. En
cambio, si reformulamos la ley de Kepler y la analizamos en su estructura interna, según la
propuesta de Nagel, podemos plantearla como "para todo individuo X, y para todo tiempo T, si x
es un planeta, entonces se mueve durante el periodo T en una órbita elíptica con el sol en uno de
sus focos". Aunque mencione un individuo, el ámbito de predicación no está restringido a una
duración espacio-temporal fija porque T acá es una variable, entonces al estar cuantificada
universalmente, la ley vale para todo individuo x y para todo tiempo T, de modo tal que el
ámbito de predicación no está restringido a una región fija ni a un espacio fijo. Pero también
tiene dificultades este requisito.
Nagel menciona dos dificultades de este requisito. La primera es que existen maneras, existen
recursos para ocultar la referencia a una región fija o a un espacio en particular. Esto se hace
construyendo predicados que contengan implícitamente esas referencias. Sería un predicado
maliciosamente construido, pero suficiente a criterio de Nagel para hacer el punto. Imaginemos
el predicado "periautornillo" que sería un tornillo del auto de Pérez está oxidado en el tiempo A.
Y ahí embocan el tiempo A dentro, es decir la restricción temporal, dentro del predicado y acá el
predicado parece puro, y la estructura gramatical no revela nada, parece un universal irrestricto,
una generalización universal irrestricta, pero no lo es. Ese sería uno de los problemas: la
estructura gramatical no es un signo fiable, no podemos valernos de la estructura gramatical o
lógica como criterio para determinar si hay o no universalidad irrestricta. Es decir, la estructura
gramatical no basta para determinar universalidad irrestricta. Por otra parte, las generalizaciones
universales pueden ser vacuamente verdaderas. Esto significa que el antecedente podría no ser
satisfecho, por ejemplo, "todos los unicornios vuelan" sería una ley de la naturaleza, porque el
antecedente de este condicional (para todo x, si x es un unicornio entonces x vuela) no se
satisface, de modo tal que queda como verdadero todo el enunciado, sería verdadero vacuamente.
Una estrategia posible para superar esto sería buscar de alguna manera garantizar que exista al
menos un caso, una instancia que satisfaga el antecedente. ¿Pero cómo podemos garantizar que
existe en el mundo al menos un objeto que satisface el antecedente? ¿Sabemos si existen esos
casos? Nagel pone este ejemplo para ilustrar este punto: sabemos que hay una ley que dice que el
cobre es buen conductor eléctrico. Sin embargo, si no sabemos si hay cobre sometido a menos
270 grados, pero, no obstante, debido a que sabemos que el cobre es buen conductor eléctrico de
manera universal, este enunciado "todo alambre de cobre a menos 270 grados centígrados es
conductor eléctrico", este enunciado tiene que tener el peso de ley puesto que se deriva del
anterior, y sin embargo no hay conocimiento de que existan instancias que satisfagan ese
antecedente, no hay conocimiento de casos del antecedente. ¿Ahora, le vamos a negar el carácter
de legal porque no conocemos casos? ¿Podemos evitar este problema? ¿Podemos garantizar que
existan estos casos? Si excluimos las leyes vacuamente verdaderas del ámbito de los enunciados
legales, tenemos que dejar de lado enunciados como los que acabamos de ver. Y, por otro lado,
¿qué pasa con las leyes vacuamente verdaderas? ¿Se puede contrastar un enunciado vacuamente
verdadero? No tenemos instancias.
Para dar respuesta a esto aparecen otras propuestas. Son las que aluden al apoyo empírico
indirecto. La propuesta consiste en que el enunciado de generalización universal considerado
vacuamente verdadero puede ser reconocido como ley si se deduce de otras leyes previamente
aceptadas. A esto se denomina apoyo empírico indirecto, es un apoyo empírico que viene "desde
arriba", porque le viene deductivamente. Es el ejemplo del cobre:" el cobre es conductor de
electricidad" (esto sería la ley) y ese enunciado implica la ley vacuamente verdadera: "el cobre a
menos 270 grados centígrados es conductor de electricidad". También debería ser considerado
una ley porque si bien es una generalización universal vacuamente verdadera, se deduce de una
ley previamente aceptada y hereda de ella ese carácter.
Ahora bien, como venimos viendo hasta ahora, a Nagel le interesa la consideración de la función
que cumplen los enunciados dentro de la ciencia, y esto le ofrece un problema para esta solución,
porque ¿cuál sería la función que cumplen leyes vacuamente verdaderas? Nagel propone dos:
2) Otra utilidad que puede tener una ley vacuamente verdadera es el papel fundamental que
puede tener en la contratación de aquellos enunciados de aquellas leyes ya aceptadas de las
cuales ella se deduce. La ley vacuamente verdadera puede emplearse para deducir enunciados
que permitan evaluar las leyes de las que esta recibe apoyo indirecto. Dado que se tenían ciertas
leyes aceptadas que resultaron implicar una ley vacuamente verdadera, y esas leyes le daban a
esta vacuamente verdadera un cierto apoyo indirecto ("desde arriba"), a su vez esta ley
vacuamente verdadera implica (junto con otros supuestos) ciertas condiciones observacionales.
Estas condiciones no se refieren a casos de la ley vacuamente verdadera, pero en conjunción con
otros supuestos sí pueden deducirse algunas consecuencias que pueden usarse para testear
indirectamente aquellas leyes aceptadas que ya forman parte del cuerpo de conocimiento vigente.
[Pantalla: Leyes aceptadas implican Leyes vacuamente verdaderas (apoyo indirecto) implica
JUNTO A OTROS SUPUESTOS condiciones observacionales para testear las leyes aceptadas]
Entonces, el hecho de que haya leyes vacuamente verdaderas no significa necesariamente que no
tengan ninguna función. Por eso Nagel no desestima la posibilidad de que se consideren leyes
porque cumplen ciertas condiciones y porque pueden justificarse a partir de la práctica.
Otro de los criterios: impacto de los casos refutatorios según tipo de apoyo empírico en función
de la pertenencia a un sistema explicativo.
Lo que hay que hacer es familiarizarse con el vínculo entre el tipo de apoyo empírico que va a
recibir una ley y cuál va a ser la función que esa ley tenga dentro de un sistema explicativo. Son
dos cuestiones que se relacionan para dar lugar a un criterio de reconocimiento de las leyes
genuinas.
Hay dos tipos de apoyo empírico: directo e indirecto. El apoyo empírico directo aparece cuando
tenemos una ley y aparece un caso (reputado un reporte observacional), y este caso es favorable
y de esa manera le confiere apoyo directo a la ley (se llama apoyo directo porque no hay otra
intermediación), es el caso típico de la contratación hipotético-deductiva.
Pero hay otro tipo de apoyo empírico: el apoyo empírico indirecto. Tiene 2 variantes:
1) Viene mediado por relaciones con otras leyes. La idea es tenemos la ley que nos interesa (ley
derivada 1). Bueno, resulta que sabemos que esa ley se deduce de otra ley más general. Pero, a su
vez, esa ley más general implica otras leyes derivadas, y sabemos que una de ellas (ley derivada
3) permite la inferencia de un enunciado que se ha constatado, un enunciado observacional que
ha recibido constatación empírica, de manera tal que esa ley ha recibido apoyo directo, desde el
caso hacia la ley aparece apoyo directo. En virtud del vínculo que hermana a estas 3 derivadas
por ser implicadas por esa ley más general, el crédito empírico que recibe esta ley derivada (la 3)
se transmite, vía esta inferencia, a las otras leyes derivadas. Esta es una manera que la ley
derivada 1 puede recibir apoyo empírico indirecto a partir de la ley derivada 3 (que recibió apoyo
empírico directo).
2) Hay otro tipo de apoyo empírico indirecto. Imaginemos que la ley 1 y acompañada de ciertos
supuestos adicionales (provisos, hipótesis, condiciones iniciales, etc.) permite obtener una ley
derivada. A su vez, esa ley derivada (5) cuenta con un caso favorable que le confiere apoyo
empírico directo. A través de inferencia, por la relación de implicación entre la ley 1 y la ley 5, el
apoyo directo que recibe la ley derivada (5) se transforma en apoyo indirecto que recibe la ley 1.
Vamos a ver para qué sirven estas ideas de que hay apoyo empírico directo e indirecto. Cuando
un enunciado, una hipótesis, cuenta solamente con apoyo empírico directo, ese enunciado es más
vulnerable a la refutación que otro que tenga apoyo empírico directo más apoyo empírico
indirecto, es claro que este segundo enunciado es más valioso. La razón es que el apoyo empírico
indirecto trae consigo la integración de la ley dentro de un sistema (por las relaciones
deductivas). Al formar parte de un sistema de leyes, su refutación es más complicada, porque
podemos preservarla de la refutación mediante estos recursos: aduciendo errores para impugnar
las observaciones adversas (como Quine) o postulando ad-hoc la intervención de una variable no
considerada. Esto se haría porque la revocación de una ley integrada en un sistema explicativo
tiene un costo enorme porque impacta en los valores de verdad del resto de los enunciados con
los que la ley está vinculada. La cuestión es que ocurre incluso que las leyes, cuando se
encuentran bien establecidas dentro de un sistema explicativo, dentro de un sistema de
conocimiento, pueden pasar a funcionar como reglas de inferencia empírica. Esto da lugar a este
concepto de una ley que cambia su estatus cuando forma parte del sistema explicativo. Podemos
utilizar una ley como premisa en una inferencia, en una explicación, o se puede usar como regla
de inferencia. Es decir, tomando solo una premisa y usando la ley como principio para obtener la
conclusión.
a es de cobre
a es de cobre
Todo objeto de cobre es buen conductor eléctrico (la ley que funciona como premisa). a es un
objeto de cobre. Estas son las premisas. La ley funciona como premisa y mediante la regla lógica
de instanciación del universal obtenemos que a es un buen conductor eléctrico. Acá la ley
funciona como premisa y no tiene ningún carácter de regla, funciona como premisa de orden
empírica.
En cambio, en este caso la ley funciona como regla de inferencia, pierde su carácter contingente.
Por eso podemos prescindir de ella como premisa y tomando como premisa el caso ella opera
regla para hacer predicciones, como regla para sacar conclusiones. Simplemente de "a es un
objeto de cobre" yo uso la ley "todo objeto de cobre es buen conductor eléctrico" como si fuera
una regla, y obtengo "a es buen conductor eléctrico". Lo que ocurre es que al convertirse en regla
de inferencia su contenido factico se transforma en determinante de rasgos definitorios. Y por
eso mismo, porque contiene indicaciones de las definiciones, forma parte de un sistema
taxonómico. Y al reajustar, si tuviera que modificarla, por ejemplo, darla por refutada, eso
impondría ciertos cambios en la taxonomía toda del sistema.
Veamos la comparación. "Todo objeto de cobre es buen conductor eléctrico" como premisa, debe
contrastarse empíricamente. Pero como ley establecida funciona como regla. Y se la preserva de
los casos refutatorios aislados porque simplemente se desestiman. Y cualquier caso refutatorio,
es decir "un objeto de cobre que no sea conductor eléctrico", simplemente va a ser considerado
como un objeto que no es de cobre, que está mal clasificado. Este criterio, el relativo al apoyo
empírico directo e indirecto, en relación con la función que cumple la ley dentro de un sistema
explicativo es claramente un ejemplo de la consideración epistémica que era una de las primeras
que se expuso al comienzo cuando se habló de los criterios que se tienen en cuenta para
determinar el carácter legal.
En una ley genuina, y acá estaría el criterio planteado, no depende de restricciones en el ámbito
de predicación. Justamente es por eso que el enunciado es irreductible a una conjunción finita de
enunciados. La aceptación de una ley genuina no impone restricciones en el ámbito de
predicación, es más, no debe imponerla, porque la idea es que la muestra (los casos examinados)
en cuestión no debe exhaustivar la clase. Esta evidencia, estos elementos de juicio empírico, no
deben ser equivalentes al ámbito de aplicación, y el dominio (el ámbito de predicación) no debe
estar cerrado a incrementos. Son justamente las 2 condiciones que no se cumplen en las
generalizaciones universales accidentales. ¿Por qué la muestra no debe agotar la clase y el
dominio no debe estar clausurado? Justamente, y acá vuelve Nagel a recurrir al criterio de las
funciones de las leyes, porque las funciones de las leyes requieren eso. Esa es la razón por la que
las generalizaciones universales accidentales no son útiles para explicar y predecir. Cuando
buscamos una explicación, buscamos que los elementos de juicio que apoyan la ley que se va a
usar en esta explicación no coincidan con el ámbito de predicación, porque si eso ocurriera no
sería explicativo [pantalla: si los elementos de juicio coinciden con el ámbito de aplicación, no es
explicativo de los casos]. Si alguien da el explanandum el diente 1 tiene caries, y se quiere saber
la explicación, ¿es decir “por qué el diente 1 tiene caries?", si alguien aduce "porque todos los
dientes del paciente 1 tienen caries", esto no opera como una explicación, no tiene poder
explicativo, y la manera de darse cuenta a través de la estructura lógica del enunciado es
constatando que es lo mismo en términos lógicos, es equivalente a una conjunción finita de
enunciados sobre los casos particulares. Una generalización accidental estaría diciendo "porque
tienen caries el 1, el 2, el 3" y así hasta llegar al 32. El poder explicativo es nulo en este sentido.
Lo mismo ocurre en el caso de la predicción: si los elementos de juicio coinciden con el ámbito
de aplicación, no es predictivo de los casos, porque se va a referir a algo que ya se ha dicho. Si
“todos los dientes del paciente tienen caries " es el enunciado que se ofrece como ley y es
equivalente a una conjunción acerca de cada diente particular, el enunciado "el diente 1 tiene
caries" no se puede decir que ese enunciado resulte como una predicción. En términos formales
sí, pero no cumple con la función predictiva puesto que está dando una información que está
presupuesta en el explanum, es decir, en la supuesta ley que en realidad no lo era, sin que se
trataba de una generalización universal accidental.
Ahora vamos a ver un criterio muy controvertido: la idea de que las leyes genuinas permiten
proyectar enunciados contrafacticos. Es decir, dan apoyo o sustento a enunciados contrafacticos.
Este criterio tiene varios problemas. El primer problema (los dos problemas están vinculados)
tiene que ver con la verdad: ¿cómo se determina la verdad de los enunciados contrafacticos? Lo
primero que muestra Nagel es que son enunciados condicionales, así que ya sabemos cuáles son
las condiciones de verdad, porque sabemos que solo son falsos cuando el antecedente es
verdadero y el consecuente es falso, pero no podemos decir esto porque los enunciados
condicionales materiales (Nagel les llama indicativos) no son equivalentes, y las condiciones de
verdad no son las mismas. Pensemos un condicional: "si la temperatura es inferior a menos 13
grados, entonces el agua se congela" no es equivalente a este otro: "no hubo temperatura inferior
a menos 13 grados" en conjunción con " si hubiera habido temperatura inferior a menos 13
grados, el agua se hubiera congelado". Examinemos el segundo ejemplo que es la versión
contrafactica que estamos usando para contrastar la estructura del condicional indicativo con el
condicional subjuntivo. [Pantalla: no son equivalentes: el condicional material con antecedente
falso es verdadero. ¿El condicional contrafactico con antecedente falso es?]. Cuando decimos "si
hubiera habido menos 13 grados el agua se hubiera congelado" estamos asumiendo que no hubo
una temperatura inferior a menos 13. ¿Cómo sería la versión contrafactica del condicional
normal? Tendríamos que poner no solamente "si hubiera habido una temperatura inferior a
menos 13 el agua se hubiera congelado" sino además asumir que "no hubo temperatura inferior a
menos 13". Pero claramente las condiciones de verdad son diferentes. Sabemos que cuando el
antecedente es falso, el condicional material es verdadero. Pero en el contrafactico sabemos que
el antecedente es falso, porque sabemos que no se cumplió esa condición. ¿Podemos decir si es
verdadero o falso? El problema de la verdad de los condicionales contrafacticos no puede
dirimirse tratando de reducirlos o traducirlos a condiciones indicativos. Esto porque de acuerdo
con Nagel, los enunciados contrafacticos son en realidad enunciados que hablan acerca de otros
enunciados. Esto es, los contrafacticos tienen contenido metalingüístico. Cuando decimos "no
hubo temperatura inferior a menos 13" y "si hubiera habido temperatura inferior a menos 13
entonces el agua se hubiera congelado" , en realidad ese enunciado está hablando de las
condiciones, de las relaciones lógicas entre la traducción al modo indicativo de este condicional,
entre las partes. Dice: "El consecuente [el agua se hubiera congelado] traducido al indicativo [el
agua se congeló] se deduce del antecedente [hubiera temperatura inferior a menos 13 grados]
traducido al indicativo [la temperatura fue inferior a menos 13], pero se deduce acomodado de
leyes y de condiciones iniciales”. Entonces, Nagel dice que el contrafactico señala esta relación
de deducibilidad de implicación del antecedente con respecto al consecuente pero acompañado
de leyes y condiciones iniciales. Y las condiciones de verdad de los contrafacticos son distintas a
la de los condicionales materiales, porque necesitamos asumir esas leyes y condiciones iniciales.
La verdad de un enunciado contrafactico depende de las suposiciones que se toman como
premisa. Un contrafactico que puede considerarse verdadero bajo ciertas premisas puede
considerarse falso o bien indeterminado si fuera acomodado junto con otras premisas. Y no
existe ninguna manera lógica de regular qué supuestos deben considerarse para establecer la
verdad del contrafactico y qué supuestos deben excluirse porque eso es un componente
pragmatico. Por ejemplo, si tomamos el enunciado contrafactico "si no se hubiera decretado el
ASPO, hubieran muerto más argentinos". Ese enunciado, bajo ciertos supuestos, puede
considerarse verdadero. Si uno toma en cuenta ciertas creencias, por ejemplo, ciertas
regularidades sobre los contagios o del número de muertos en otros lugares donde no hubo
aislamiento, uno puede considerarlo verdadero. Pero su verdad no es concluyente porque puede
haber supuestos alternativos junto a los cuales ese enunciado contrafactico no pueda ser
considerado verdadero, y ahí la discusión.
El segundo problema que presenta el sustento de los enunciados contrafacticos como requisito
para reconocer el carácter de ley genuina es que algunos enunciados universales parecen ser
leyes, pero no sustentan ciertos contrafacticos. Y acá se reedita la pelea entre los contrincantes
que aparecen en este artículo: los partidarios de la versión de Hume (entre los que se encuentra
Nagel) y los anti-humeanos (son los que insisten en exigir la necesidad como un requisito para
las leyes). El ejemplo que pone Nagel es este: "todo cuervo es negro” no sustenta el enunciado
"si un cuervo viviera en la región polar sería negro". Para los anti-humeanos no lo sustenta
porque es una generalización universal irrestricta, pero de facto, para hacer la proyección
contrafactica se requiere la necesidad nomica. Habría que agregar "necesariamente" al enunciado
"todo cuervo es negro". De esa forma se puede proyectar lo que se quiera, porque al agregarle la
necesidad nomica se tiene una ley y se puede proyectar para todos lados. Nagel sostiene que no
es porque falta la necesidad. Efectivamente, cuando tenemos una generalización universal
irrestricta, en algunos casos podría ocurrir que no se sustenten enunciados contrafacticos. En
primer lugar, podría ocurrir que no se trate de una ley, que no haya una ley. Dos maneras en la
que se podemos darnos cuenta de eso: 1) la condición de que los elementos de juicio no
exhaustiven el dominio, no exhaustiven el ámbito de predicación. Es decir, si los elementos de
juicio coinciden con el ámbito de predicación, entonces lo que tenemos no es una ley, y en ese
sentido no proyecta contrafacticos porque es una generalización accidental. 2) En otro caso,
podría ser porque solamente tienen apoyo empírico directo. Nadie le había exigido, como una de
las condiciones posibles, la disponibilidad de apoyo empírico directo más apoyo empírico
indirecto (que suponía la integración de la ley dentro de un sistema explicativo más amplio).
Pero también podría ocurrir que no se debe a que lo que hay no es una ley. Podría ocurrir que
efectivamente haya una ley, pero podría darse la circunstancia (y acá está el aporte más original)
de que no permita sustentar ciertos contrafacticos específicos como en este caso: hay ley pero el
sustento a contrafacticos específicos depende del conocimiento actualmente disponible acerca de
los casos referidos. Este enunciado en particular no lo sustenta porque la posibilidad de que una
ley sustente a un contrafactico depende de ciertas creencias, de cierto conocimiento disponible
acerca de los casos. En el ejemplo "que todo cuervo es negro" no sustenta "si un cuervo viviera
en la región polar seria negro", porque las dos creencias (que no hay cuervos en la región polar y
por otra parte que el color depende de los genes) en conjunción que provienen del corpus del
conocimiento vigente impide que el enunciado (pese a ser una ley) proyecte el contrafactico "si
un cuervo viviera en la región polar sería negro". Pero el enunciado "todo cuervo es negro"
permite sustentar otros contrafacticos, pero no el del ejemplo. En respuesta a los anti-humeanos,
la idea es que no es falso y tampoco es (como ellos dicen) una conexión débil la que establece
"todos los cuervos son negros" o que no sea legal. Es decir que sí puede tratarse de una ley
aunque no tenga el cartel de necesariamente.
Hemos revisado las condiciones de la universalidad nomica que analiza Nagel. Ahora vamos a
dirigir nuestra atención brevemente a una revisión que Nagel propone acerca de las leyes no
causales. Este tipo de leyes funcionan como leyes explicativas, es decir, cumplen una función
dentro de la predicción. Antes de mostrarnos cómo son estas leyes explicativas no causales, qué
tipos pudo identificar, como nos va a mostrar en cada caso por qué se trata de una ley que no es
casual, previamente revisamos algunas de las condiciones que se asignan a los enunciados de las
leyes causales. No se trata de una elucidación del concepto de causa, simplemente se busca
elucidar el tipo de relación que está supuesta por el uso que se hace de las leyes causales en las
explicaciones causales.
Se asume causa y efecto, pero entendidas como un tipo particular de condición, que va a ser
definido condiciones. Estas son las condiciones de las leyes causales:
2) En segundo lugar, para que una ley sea causal tiene que postular los fenómenos en
contigüidad espacial, aunque sea aproximada. Cuando hay una distancia mayor que no puede
considerarse contigüidad, se espera que haya una cadena de sucesos que sí sean contiguos.
3) La 3ra condición es la prioridad temporal de la causa y tiene que haber una continuidad
temporal en cuanto a la causa y el efecto. Y, del mismo modo que pasaba con la continuidad
espacial, en caso de que no haya cercanía temporal se debe aducir una cadena de sucesos que sí
sean continuos.
4) Asimetría: que el fenómeno llamado causa tenga la relación con el efecto, pero el efecto no
con la causa. Es decir, que no tengan la misma relación.
A) Variación concomitante. Una variación en una magnitud coincide con una variación en otras
magnitudes, por ejemplo, la ley de los gases ideales de Boyle-Charles que sostiene que a
temperatura constante la presión y el volumen son inversamente proporcionales entre sí. De
modo que la variación en una magnitud coincide con las variaciones en otras. No hay ley causal,
la concomitancia no supone la sucesión temporal presupuesta por las leyes causales, no hay tal
prioridad temporal sino concomitancia.
B) Leyes dinámicas o de estructura de procesos temporales. Acá lo que se menciona son tasas de
variaciones de una magnitud en relación con las variaciones de otras. Lo que se incorpora es un
tiempo, el cambio que se produce en una magnitud durante un tiempo se correlaciona con otras
magnitudes. Sin embargo, en este caso este tipo de leyes no se pueden considerar causales
porque la relación temporal es simétrica. Por ejemplo, si se conoce la velocidad de la lenteja del
péndulo en un instante t4, es posible determinar la velocidad en momentos anteriores y
posteriores. El estado en el momento t4 puede determinarse por el estado anterior pero también
por uno posterior. Esto significa que la prioridad temporal no está determinada.