Está en la página 1de 14

8.

LA VERDAD EN LAS MATEMÁTICAS Y EN LAS


CIENCIAS EMPÍRICAS (SOCIALES Y NATURALES)

Introducción......................................................................................................................1
1. La verdad en la matemática...........................................................................................1
1.1. La crisis de fundamentos de la matemática............................................................1
Logicismo..................................................................................................................2
Intuicionismo.............................................................................................................3
Formalismo...............................................................................................................3
1.2. La revolución copernicana de la matemática.........................................................4
1.3. Experiencia y mathesis. La fundación kantiana de la matemática ......................10
2. La verdad en las ciencias empíricas............................................................................11
2.1. El nacimiento de la ciencia moderna y el nuevo concepto de verdad..................11
2.2. Problemas con el nuevo concepto: aquilatación y extensión...............................12
La idea de verdad en las ciencias sociales ..............................................................14
Bibliografía.....................................................................................................................15

Introducción

El título del tema puede hacer pensar que la partícula “y” tiene funciones meramente
conjuntivas, y que lo que se pide es la exposición separada de la cuestión de la verdad
en la matemática por un lado y en las ciencias empíricas por otro. Pues bien, parte de
nuestro propósito es mostrar que en la cristalización del concepto moderno de “verdad
empírica” (y por tanto también lo que en ella se entiende por ‘verdad’) ha jugado un
papel fundamental la matemática.
Para ello, el recorrido que vamos a seguir es el siguiente: estudiaremos en primer
lugar la cuestión de la “verdad” en las ciencias matemáticas al hilo de la polémica
logicismo-intuicionismo-formalismo; después expondremos la fundamentación kantiana
en la forma de la experiencia y por último, y a partir de ahí, analizaremos la
comprensión moderna de la verdad empírica. Acabaremos señalando algunos de los
problemas sistemáticos que ha planteado esta noción fuerte de verdad para el conjunto
del saber.

1. La verdad en la matemática

1.1. La crisis de fundamentos de la matemática

Si bien siempre ha habido una cierta consideración filosófica acerca del quehacer
matemático, podemos decir que la reflexión expresa y temática y sistemática sobre la

1
cuestión de la “verdad” matemática alcanza plasmación disciplinar sólo a lo largo del
siglo XIX y en especial a partir de lo que ha dado en llamarse la “crisis de los
fundamentos de la matemática” (véanse las escuelas que surgen de ahí: el logicismo, el
formalismo, el intuicionismo). Por las limitaciones evidentes en este contexto, no vamos
a emprender ahora una arqueología de los orígenes de esta crisis. Nos contentaremos
con recordar lo siguiente: la práctica de la matemática en el siglo XIX –si bien sigue
avanzando mediante esos recursos- experimenta también una creciente insatisfacción
con el recurso a intuición y a la evidencia. En el mundo histórico del XIX empieza a
sentirse la exigencia de que en un razonamiento la evidencia no simplemente acontezca
sin más, sino que sepa en todo momento de dónde viene esa evidencia, en virtud de qué
reglas y de qué pasos. El rigor formalista empieza a desterrar a la intuición. Este
proceso de destierro de la intuición, en el cual habría que citar como hitos importantes la
construcción de geometrías no euclídeas (Lobatchevski, Riemman, Gauss) y la
aritmetización del análisis, acarrea una doble preocupación por: la axiomatización y la
formalización de las reglas de derivación.

Logicismo

En este contexto de intereses surge el proyecto logicista de reducción de la matemática


y nace la lógica simbólica de la mano de Frege. En efecto, puede decirse que el gran
programa de investigación que se impuso Frege fue precisamente este: demostrar que la
matemática es reducible a la lógica, en el sentido de que sus conceptos se pueden
definir a partir de los conceptos lógicos y sus principios y teoremas pueden deducirse de
los principios y teoremas lógicos. Se trataría de asentar firmemente la matemática en la
lógica, de modo que no hubiese lugar a dudas sobre la legitimidad de sus fundamentos.
En este contexto, la invención de una Conceptografía no era más que un medio
para la consecución de este fin. El programa logicista y sus objetivos aparecen
expuestos por primera vez en Los fundamentos de la aritmética (Die Grundlagen der
Arithmetik, 1844), y de manera sistemática en lo que Frege pensó que sería su obra
magna: Las leyes fundamentales de la aritmética (Die Grundgesetze der Arithmetik
1893/1903). Sin embargo, ésta obra nunca llegaría a ocupar el lugar deseado por su
autor, porque por el camino encontraría el obstáculo de la paradoja de Russell
(formada cuando se intenta construir el conjunto de todos los conjuntos que no se
pertenecen sí mismos).
Frege abandonó el proyecto de su vida y consideró inviable el programa
logicista, pero Russell se atuvo a él, consideró que la paradoja era más bien un acicate, y
propuso su teoría de los tipos (una restricción operativa que bloquea las
contradicciones) para corregir el programa (cuya versión más elaborada apareció en
1908, en el artículo “La teoría de tipos como base de la lógica matemática”). De hecho,
su obra lógica más ambiciosa, los Principia Mathematica (1910-1913, coescrita con
Whitehead) está consagrada precisamente a la ejecución de dicho programa.

Intuicionismo

El programa intuicionista representa una vía alternativa al logicismo en el tratamiento


de las paradojas de fundamentos de la matemática. En 1908 (el mismo año en que
Russell publicó su artículo sobre la teoría de tipos), L. E. J. Brouwer publicaba el
ensayo “La no fiabilidad de los principios de la lógica”, que fue el documento

2
fundacional del intuicionismo. El principio intuicionista dice: nada es verdadero si no
existe una prueba constructiva que lo demuestre. De acuerdo con los criterios
intuicionistas, una proposición existencial sólo es aceptable si se puede construir el
individuo al que se refiere. Dejan de ser válidas por tanto las siguientes reglas lógicas:

• , es decir: para validar un enunciado existencial no basta con probar


que el universal contrario es falso. Hay que construir efectivamente un objeto
con la propiedad P.

• El principio de tercio excluso (A ∨¬ A).

• La eliminación de la doble negación: ¬¬A → A.

Nótese que las restricciones intuicionistas alcanzan también a los cuantificadores: sólo
admite las disyunciones/conjunciones en tanto que los valores disponibles sean en
número finito y tengan nombre propio. En cierto modo la polémica del intuicionismo
con el formalismo y la teoría de conjuntos de Zermelo-Fraenkel se puede considerar
como una polémica en torno al infinito: si la tradición que va de Aristóteles a Kant y
Kronecker y Poincaré sólo admite un infinito potencial, la línea de Weierstrass,
Dedekind, Cantor y Hilbert admitía la existencia de un infinito actual, que es
justamente el que los intuicionistas rechazan.
Inicialmente el programa intuicionista se desarrolló sin fijar formalmente la
lógica subyacente a su modo de proceder, pero fue posteriormente desarrollada y
ampliada. La primera axiomatización de la lógica intuicionista proposicional la ofreció
A. Heyting en 1930: Die formalen regeln der intuitionistischen Logik. Hermann Weyl
fue, durante una época de su carrera, un ferviente defensor del intuicionismo.

Formalismo

Aunque era más exigente y más cauto metodológicamente que la escuela logicista, el
intuicionismo pagó muy caro su posición, y muchas partes de la matemática se
quedaban por el camino cuando se traducían a un lenguaje aceptable para él. El
formalismo –que durante los años 20 llegó a ser la corriente dominante en la filosofía
de la matemática– puede considerarse una vía intermedia entre ambas posturas, en el
sentido de que D. Hilbert se proponía aunar la formalización axiomática (propia del
logicismo) con el rigor constructivo (propio del intuicionismo). Para conseguirlo
proponía formalizar y axiomatizar la matemática clásica (incluidas sus tesis infinitistas)
y después probar la consistencia de dicho sistema formal, pero utilizando solamente
métodos finitistas/constructivos.
Hilbert considera, en efecto, que el investigador sobre los fundamentos de la
matemática debe dejar a un lado los contenidos y significados y debe concentrarse
exclusivamente en los símbolos y en sus reglas de combinación, es decir, en su
gramática. Lo único a lo que debe aspirar este investigador es a establecer la
consistencia del sistema. Hilbert considera además que esa demostración de
consistencia debe hacerse mediante procedimientos finitistas o constructivos.
Goldstein da una buena definición de lo que es un "sistema formal finitista": "...sistemas
formales finitistas... sistemas formales con un alfabeto finito o numerable (o contable)

3
de símbolos, fórmulas bien definidas de tamaño finito, y reglas de inferencia que sólo
impliquen un número finito de premisas”, pero la idea de fondo es clara: la
metamatemática debe cumplir los requisitos de rigor impuestos por el intuicionismo.

Dentro de la posición de Hilbert en este debate late una nueva concepción de lo que
significa la noción de “verdad” en matemáticas. En efecto, la problematización de los
fundamentos de la matemática puede considerarse uno de los episodios fundamentales
de una verdadera revolución histórica por la que el concepto de “verdad” alcanza su
lugar propio en las matemáticas. A ello nos remitimos ahora.

1.2. La revolución copernicana de la matemática

A. Se puede decir que todo empieza a cambiar, desde dentro, con la aparición del
cálculo infinitesimal. En el punto de nacimiento del cálculo infinitesimal yacen dos
problemas en principio independientes: a) el problema de determinar la recta tangente a
una curva en un punto cualquiera de la curva (al cual responde el cálculo diferencial), y
b) el problema de determinar el área de encerrada entre los dos ejes del plano y una
curva cualquiera (al cual responde el cálculo integral). Con el tiempo, ambas cuestiones
quedarán anudadas como las dos caras de un mismo problema, y con el andar del
tiempo se reconocerá también que lo que está detrás del cálculo diferencial y el cálculo
integral es una única e idéntica operación, la operación de paso al límite. En la propia
noción de derivada y en la crítica leibniciana del “extensionalismo” cartesiano
encontramos una primera expresión de la ruptura de lo matemático con lo espacial-
geométrico. Lo espacial-geométrico, concluimos con Leibniz, no es lo originario en la
matemática, y para acceder a ese nivel originario hay que romper su superficie
geométrica y extensional.

B. Por otro lado, la primera mitad del siglo XIX es testigo de la aparición de las
“geometrías no euclidianas”. Ya Gauss, el “príncipe de las matemáticas”, se había
interesado desde joven por la posibilidad de una geometría no euclidiana, y había
proyectado incluso escribir una obra con ese nombre, pero por temor a “das Geschrei
der Böotier” –el griterío de los beocios– (carta a Bessel, 1829), el proyecto quedó
confinado a sus papeles inéditos y a su famosa “libreta de apuntes”. Parece incluso que
la idea de una geometría no euclidiana se puede rastrear hasta bastante antes, pero lo
que nos interesa, en cualquier caso, es que es en la primera mitad del siglo XIX cuando
la cosa estalla y se da a conocer (con mayor o menor fortuna) por obra de Nicolaus
Ivanovich Lobatchevski y János Boylai.
La cuestión, como es sabido, tiene que ver con el famoso axioma V de la
geometría de Euclides o axioma de las paralelas, que reza así: “si una línea recta que se
encuentra con dos de la misma especie formara, en la misma dirección, ángulos
interiores, de tal modo que la suma de estos ángulos fuese menor que dos ángulos
rectos, entonces prolongando indefinidamente las dos rectas, se encontrarían en la
dirección en la que los ángulos son menores que dos rectos”. Esta suposición es
equivalente a esta otra, que resulta más intuitiva y se ha convertido en la formulación
más utilizada: “dada una línea recta y un punto exterior a ella, existe una única recta
paralela a dicha línea y que pasa por dicho punto”, donde “paralela” significa que las
dos rectas no se cortan en un ningún punto por mucho que se prolonguen.
Pues bien, lo que “descubren” Boylai, Lobatchevski y Gauss es que pueden
construirse sistemas geométricos internamente consistentes y alternativos al sistema

4
euclídeo. Es decir, sistemas geométricos que incorporan todos los axiomas de Euclides
excepto el axioma de las paralelas (y así, por ejemplo, en la geometría de Lobatchevski
puede trazarse más de una línea recta que pase por un punto exterior a una recta y que
sea paralela a ésta). La demostración completa de que estas geometrías no euclidianas
eran efectivamente consistentes, es decir, no solamente de que no habían producido
contradicción, sino de que no podían llevar a contradicción, la dio Eugenio Beltrami en
1868, construyendo un modelo para la geometría no euclidiana, pero los sistemas de
geometría no euclidiana estaban ahí desde mucho antes.
La “geometría imaginaria” de Lobatchevski, la “Ciencia Absoluta del Espacio”
de Boylai, y los posteriores desarrollos de la geometría del XIX, ponen contra las
cuerdas la concepción de la geometría euclidiana como la ciencia natural del espacio,
absolutamente verdadera en su ámbito. En efecto, si hay otras geometrías distintas
igualmente consistentes que la euclidiana, ¿cuál de todas ellas es la verdadera?

C. Otro de los grandes logros matemáticos del siglo XIX fue lo que se ha llamado “la
aritmetización del análisis”, es decir, la obtención por fin, unos dos siglos después de
su nacimiento, de un fundamento sólido y claro –según las exigencias internas del
momento– para el cálculo infinitesimal. El análisis o cálculo infinitesimal había nacido
de manos de Newton y Leibniz a finales del siglo XVII, y sus métodos habían sido
sistematizados por Euler y aplicados con gran éxito por Lagrange y Laplace en el siglo
XVIII. Sin embargo, “desde el punto de vista estrictamente matemático, esos métodos
continuaban “en el aire”, sin fundamentos sólidos”, y ello aunque se había tratado por
todos los medios de substituir “por conceptos más precisos aquellos vagos infinitamente
pequeños que eran y no eran cero, aquellos incrementos evanescentes que actuaban ya
como cantidades finitas, ya como valores nulos”. Había una falta de confianza al
manejar series infinitas y, de manera crucial, nadie sabía muy bien qué entender cuando
leía o escribía la expresión “número real”. En efecto, el éxito de estas nuevas y potentes
herramientas matemáticas no era discutido por nadie, pero durante mucho tiempo el
cálculo infinitesimal no fue más que precisamente eso: un conjunto de reglas que
permitían hacer cálculos, sin que estuviese demasiado claro qué es lo que se hacía
realmente cuando se utilizaban dichas reglas y, sobre todo, sin que estuviese demasiado
claro en virtud de qué principios se podía hacer lo que se pretendía hacer.
Esta debilidad e inseguridad de los fundamentos del análisis era especialmente
patente, como es sabido, para George Berkeley, quien dedicó su escrito de 1734 The
Analyst precisamente a criticar las bases conceptuales sobre las que Newton y Leibniz
pretendían construir los nuevos cálculos. Newton razonaba de la siguiente manera: para
obtener la pendiente de la recta tangente a la parábola y = x 2 en el punto x, hagamos que
el valor de x se incremente ligeramente, transformándolo en x + o. Entonces, y = x2 pasa
a ser y = (x + o)2. Pues bien, la razón de los incrementos será entonces [(x + o)2 – x2]/[(x
+ o) – x], que, simplificadamente es [2ox + o2]/o = 2x + o. Y, si hacemos que o tienda a
0, entonces la pendiente tiende a 2x, que es la pendiente de la recta tangente buscada o,
en terminología newtoniana, la fluxión de la fluente x2. Pero ¿qué son estas “fluxiones”
de las que nos hablan los nuevos matemáticos? ¿Qué son esos “momentos” que no son
cero pero que sin embargo se anulan posteriormente y desaparecen? Si o es cero,
entonces la expresión [2ox + o2]/o no tiene sentido, porque o no puede utilizarse como
divisor. Y si o no es exactamente cero, entonces el cálculo es erróneo (aunque no por
mucho). La expresión que utilizó Berkeley para designar semejantes objetos
–“fantasmas de cantidades desaparecidas”– formulaba una incomodidad ampliamente
compartida y “la influencia de la crítica de Berkeley se hizo sentir en forma más o
menos visibles en todos los matemáticos ingleses, contemporáneos o inmediatos

5
sucesores de Newton”. La crítica de Berkeley era incisiva, penetrante y ponía de
manifiesto la inmensa laguna lógica que contaminaba al análisis. Y, sin embargo,
aunque nadie tenía una respuesta a la crítica de Berkeley, el análisis se siguió utilizando,
porque sus éxitos eran indiscutibles.
Pues bien, resulta muy elocuente examinar cómo obtuvo la matemática ese
“fundamento sólido” que el análisis venía pidiendo, en vano, desde su fundación.
¿Cómo se produjo, en efecto, esa fundamentación? ¿Cómo disipó la matemática las
nieblas que envolvían los pilares del análisis? ¿Cómo consiguió acabar con aquellas
cantidades fantasmáticas que aparecían y desaparecían continuamente?
El proceso histórico por el cual se obtuvo dicho fundamento fue largo y
complejo, pero nos limitaremos a examinar ahora el producto final de dicho proceso, a
saber: el concepto formalizado y contemporáneo de límite, introducido por Karl
Weierstrass en torno a 1850. Ya dijimos que la operación característicamente novedosa
del análisis respecto de la matemática anterior era la operación del paso al límite, y que
esto sólo se entendió cuando se llevaba ya mucho tiempo haciendo análisis utilizando
derivadas e integrales. ¿En qué consiste el paso el límite? ¿Qué es un límite? Los
manuales actualmente en uso, y que estudian los alumnos de primer año de casi todas
las carreras de ciencias, lo definen de la siguiente manera:

Decimos que la función f(x) tiende al límite l en el punto a, si, para todo ε mayor que 0,
existe un δ mayor que 0 tal que, si 0 <x – a< δ, entones f(x) – l< ε.

Es decir, para cada número ε extremadamente pequeño (pero mayor que 0) que se nos
proponga, podemos encontrar otro número δ (mayor que 0) que cumple las condiciones
del enunciado. Si para cada ε que nos den somos capaces de encontrar un δ que
satisfaga la condición, entonces diremos que la función tiene límite en el punto a. En
caso de que no sea así, diremos que la función no tiene límite en el punto a. Nótese que
el proceso exigido para asegurar la existencia de límite es de facto infinito (pues abarca
una infinidad posible de casos concretos), aunque se resuelve sin problemas cuando
podemos probar que el número δ existe y es localizable en general (es decir, por la mera
forma de la función en cuestión).
Pues bien, ¿qué otra cosa es la noción contemporánea de límite sino una
traducción de los métodos infinitesimales a ese contar puro en el que consiste la
esencia de lo matemático? En efecto, la noción contemporánea de límite formulada por
Weierstrass elimina aquellas cantidades evanescentes y aquellos infinitésimos que tan
insatisfactorias resultaban al nuevo estándar de rigor del XIX mediante la introducción
de indicaciones procedimentales, constructivas, es decir, de las instrucciones que debe
seguir el enunciante de iure para determinar una respuesta inequívoca a la pregunta por
la existencia o inexistencia del límite. Lo que está detrás de la “aritmetización del
análisis”, y lo que satisface las exigencias de rigor de la matemática del XIX, no es otra
cosa que una profundización del hacer matemático en dirección a la esencia de su
disciplina, es decir, en dirección al poner puro y descualificado de la mente: el gran
logro de Weierstrass consiste en tomarse verdaderamente en serio la expresión “un valor
que se hace tan pequeño como se quiera” y reconstruirla desde las entrañas de lo
matemático. Ese valor no será ya una cantidad que crece o decrece espontánea y
arbitrariamente, sino un variable que varía dentro de un conjunto de valores posibles y
de la que puede construirse en términos aritméticos, para cada uno de esos valores, el
criterio de su validez. En esta concepción “estática” de las variables no hay ya entidades
flotantes, ni magnitudes que crecen o desaparecen. Hay solamente suma, resta y la
relación “menor que”.

6
Examinemos por último otro capítulo de la historia de la matemática contemporánea
que en cierto modo condensa y consuma todas las transformaciones anteriormente
mencionadas. En 1899, David Hilbert, reconocido ya como el matemático más grande
de su época, publicaba una obra titulada Grundlagen der Geometrie que recogía y
ampliaba el curso sobre fundamentos de la geometría euclídea impartido en la
Universidad de Gotinga en el semestre de invierno de 1898-1899. La aceptación
generalizada (aunque no sin reservas iniciales) de este libro y su estilo por el mundo
matemático suponían el fin de la concepción “tradicional” del método axiomático y
sancionaban la entrada de la matemática en el “hacer contemporáneo”. La aceptación,
decimos, no se produjo sin reservas iniciales porque hubo efectivamente oposición, y la
hubo por parte de autores tan destacados (aunque no necesariamente reconocidos en la
historia de la matemática) como Gottlob Frege. La polémica de Frege con Hilbert acerca
del método axiomático, de hecho, puede servirnos para ilustrar qué es lo que se estaba
jugando, en el fondo, en el paso de una concepción a otra.
En esta polémica Frege defendía, con una serie de artículos titulados “Über die
Grundlagen der Geometrie”, lo que algunos autores denominan concepción
“tradicional” del método axiomático. Esta concepción clásica o tradicional encuentra
su formulación paradigmática en los Elementos de Euclides y se puede resumir de la
siguiente manera: una teoría axiomática, según esta concepción, es un conjunto de
verdades sobre un determinado ámbito de realidad, con la peculiaridad de que todos los
conceptos empleados en esa teoría se definen a partir de unos pocos conceptos
primitivos no definidos y todas las verdades de esa teoría se obtienen a partir de unas
pocas verdades primeras no demostradas. Estas “verdades primeras no demostradas”
son precisamente los axiomas de la teoría.
Frente a esta concepción axiomática “tradicional”, Hilbert representa en 1899
una nueva manera de hacer matemáticas y, sobre todo, aunque sólo implícitamente, un
nuevo modo de entender qué se está haciendo cuando se hacen matemáticas. En una
carta de diciembre de ese año a Frege, Hilbert escribe: “Cada teoría no es sino un
tinglado o esquema de conceptos junto con ciertas relaciones necesarias entre ellos, y
sus elementos básicos pueden ser pensados arbitrariamente. Si entiendo por puntos, etc.,
cualquier sistema de cosas, por ejemplo el sistema formado por amor, ley,
deshollinador, etc., y considero que todos mis axiomas resultan válidos para esas cosas,
entonces también resultan válidos para esas cosas mis teoremas, como, por ejemplo, el
de Pitágoras”. Y, en efecto, aquí está recogida la característica esencial del nuevo
axiomatismo: una teoría axiomática no describe un determinado ámbito de objetos de la
realidad, sino que los propios axiomas de la teoría constituyen la definición (implícita)
de los objetos de la que ella trata, con absoluta independencia de que esos objetos sean o
no “reales”. Las palabras “punto”, “recta”, “plano”, etc., como se lamenta Frege, no
designan ya nada que tenga significado intuitivo, sino que ser un “punto”, una “recta” o
un “plano” se reduce a satisfacer los axiomas correspondientes de la teoría. Y
precisamente por ello, porque basta con cumplir los axiomas para ser un objeto de ese
tipo, todo aquello que satisfaga esos axiomas (incluso el “sistema formado por amor,
ley, deshollinador, etc.”) será un modelo de la teoría. Por supuesto, puesto que no tiene
objetos “externos” con los que medirse, el criterio de verdad de un sistema axiomático
no puede ser ya el criterio de la correspondencia, sino que tiene limitarse a la mera
consistencia: “Si los axiomas arbitrariamente establecidos, junto con sus consecuencias,
no se contradicen entre sí, entonces son verdaderos, entonces existen las cosas definidas
por los axiomas. Este es para mí el criterio de verdad y de existencia”.

7
Pues bien, todos estos avances y transformaciones indican que la matemática ha
alcanzado una nueva posición fundamental respecto de sí misma, y, de hecho, todos
esos avances y transformaciones son posibles solamente porque se ha alcanzado esa
nueva posición. Intentaremos indicarlo brevemente.
La matemática pre-leibniciana no se basaba en el hecho de la imaginación, pero
sí en lo que puede ser imaginado, en las posibilidades de la imaginación. Y esto
significa: en los materiales que proporciona la intuición empírica, en lo que puede
intuirse en el espacio-tiempo. En definitiva: en lo intuible en el mundo exterior. Lo que
no tenía viabilidad en dicho ámbito, no pertenecía a lo matemático. Lo que no fuese
representable extensamente no pertenecería a la matemática, al proceder puro de la
mente. La matemática helenística y moderna (concretamente, hasta Leibniz y el cálculo
infinitesimal) está todavía vinculada a esa restricción. La geometría analítica de
Descartes, por cierto, aun siendo un paso de gigante, no es en este punto diferente de lo
anterior. De hecho, la consideración de la geometría como una rama de la ciencia
natural, que es la concepción dominante hasta el siglo XIX y a la que sucumben, como
ya hemos visto, incluso Gauss y Frege, es especialmente elocuente en este punto: la
geometría se consideraba una ciencia racional fundada en principios empíricos, y por
tanto era la experiencia la que tenía que decidir en último término sobre cuál es la
geometría verdadera.
En todo ello se ve con claridad, en cualquier caso, la vinculación de la
matemática clásica con respecto al espacio, con lo extensional, con lo perceptible. Y se
ve también que el acontecimiento fundamental de la matemática contemporánea es que,
en sus propios fundamentos, ha roto con lo espacio-temporal, con lo extensional, y ello
quiere decir: con lo euclídeo. Leibniz había mostrado ya que lo extensional, lo euclídeo,
no es lo irreductible y esencial, sino que todo ello se basan en nociones que no son ellas
mismas cuantitativas. Y eso mismo es lo que entiende la matemática contemporánea. En
efecto, todo en matemáticas (véase Bourbaki) se ha retrotraído a las nociones de la
teoría de conjuntos y de estructura y axiomas, ninguna de las cuales son ‘cuantitativas’
en el sentido del continuo real. Todo en matemáticas se considera hoy en día susceptible
de ser expresado en términos de ciertos conjuntos dotados de ciertas estructuras
especificadas por axiomas. Y ambas cosas (conjuntos y axiomas) son efectivamente
“numéricas” en el sentido del contar primigenio, del contar de iure que hay en la triple
síntesis de la Deducción A de KrV, pero no son numéricas en el sentido del continuo de
los números reales.
Lo que, en definitiva, entiende y asume la matemática a lo largo de los siglos
XVII, XVIII y XIX y condensan los Grundlagen de Hilbert, es que la matemática no
tiene ni ha de tener pretensión alguna de verdad empírica, es decir, de representar
correctamente hechos de ningún tipo. Incluso podríamos decir que la matemática
abandona toda idea de verdad: lo que entiende la matemática en el arco histórico
señalado es que la noción de validez que corresponde a su disciplina no es la noción de
verdad como correspondencia con algo “externo” (se entienda como se entienda esto),
sino la coherencia o consistencia interna, es decir, la construibilidad de sus objetos sin
contradicción. En efecto, lo que entiende y asume la matemática durante este tiempo es
que su tarea esencial no consiste en describir cosas reales, sino en estipular y
determinar de antemano qué cosas pueden ser reales. La matemática (y especialmente
la más “natural” de las ciencias matemáticas: la geometría) entiende que en realidad no
es ni ha sido nunca una ciencia natural y accede con ello a un nuevo nivel de
consciencia de sí.
Hoy en día todo el hacer matemático está dentro de este marco, y la victoria del
método axiomático á la Hilbert es indiscutible, pero la lucha interna –como hemos

8
visto– no dejó de ser problemática. La matemática se independiza de la física. La
matemática se hace autónoma. Que la matemática tenía que independizarse de la física
estaba ya dicho, en germen, en cualquiera de las líneas de las Regulae de Descartes,
pero, como hemos visto, hicieron faltas varios siglos para que ese germen fructificase, y
terminase imponiéndose “la idea de una matemática abstracta y de entes matemáticos
fruto de la libre creación de la mente”. La matemática contemporánea, en resumen, se
ha independizado de la física y de lo extensional.
No se piense, sin embargo, que esta independización de la matemática supuso,
como quizás podría pensarse a priori, un debilitamiento de la física, por haber perdido
parte de sus dominios. Muy al contrario, la toma de conciencia de la matemática abrió
las puertas a las revoluciones contemporáneas en física (como, en parte, intentaremos
mostrar más adelante). Sólo separándose de la física pudo la matemática contribuir
verdaderamente al desarrollo de ésta: sólo conquistando su esencia más originaria pudo
la matemática ofrecer a la física todo su potencial. En efecto, precisamente porque
renuncia a la verdad empírica, la matemática conquista por fin el campo que le
pertenecía propiamente en el horizonte moderno de la teoría: el campo de la verdad
trascendental, y con ello abre las puertas a una nueva manera de entender lo físico,
como hemos visto.
Si algo se extrae de todo, es que la pregunta por la “verdad” no tiene sentido en
los sistemas axiomáticos.

1.3. Experiencia y mathesis. La fundación kantiana de la matemática

Este pequeño recorrido histórico por la crisis de fundamentos de la matemática y por lo


que hemos llamado la “revolución copernicana” de la matemática puede encontrar su
fundamento último en las páginas de la Crítica de la razón pura, concretamente en el
esquematismo y la Disciplina de la razón pura en su uso dogmático, donde se deslinda
el proceder acroamático y el proceder matemático. De hecho, la delimitación de sendos
modos de proceder había sido ya el tema fundamental del Preisschrift de 1762/1763,
escrito como respuesta a la pregunta de la Academia de Berlín acerca precisamente de
"si las verdades metafísicas en general, y en particular los primeros principios de la
Theologia naturalis y de la moral admiten las mismas pruebas claras que las verdades
geométricas". Pero el interés por esta cuestión se puede llevar incluso más atrás, pues el
asunto del Preisschrift, escribe Kant en 1763, "ha ocupado mis meditaciones desde hace
ya algunos años". Por lo demás, este interés no tiene nada de sorprendente, puesto que
la consecución del concepto crítico de "metafísica” se jugaría precisamente en el
deslindamiento kantiano del método metafísico frente al método matemático, en un
triángulo polémico en el que están también el racionalismo de Leibniz-Wolff y el
empirismo de Hume.
Como es relativamente sencillo constatar, y como ha sido reconocido por
multitud de comentaristas, el centro neurálgico de la concepción kantiana de la
matemática en estos escritos es la idea de construcción en la intuición pura. Ahora no
vamos a detenernos en ello, pero sí queremos indicar cómo en la Crítica de la razón
pura se produce una fundamentación de la matemática que: a) la separa de lo que Kant
entiende por “lógica”, y b) la vincula con la forma o esencia de la experiencia.
En efecto, la matemática es –kantianamente– el proceder por construcción de
conceptos, y “construir” un concepto es exhibir a priori la intuición que le corresponde.
En su proceder hay, pues, construcción, y no mera manipulación de notas conceptuales.
Es sintética.

9
[Excurso: Esto conviene subrayarlo porque inhiere en una malinterpretación histórica de Kant que llevó a
cabo el positivismo y del que todavía hoy se oye a hablar a veces. La pretensión programática del
positivismo, como es sabido, era la de reducir todos los enunciados con sentido a enunciados lógico-
matemáticos interpretados. La matemática era el lenguaje de todo lo que tiene sentido y precisamente
porque ella, por sí misma, no dice nada, es vacía. La mostración de esto era tanto, según sus promotores,
como mostrar que la matemática era analítica. Como Kant había dicho que la matemática era sintética, se
entendía que si se conseguía reducir la matemática a lógica se habría mostrado que Kant se equivocaba.
Hoy sabemos que: a) el programa fracasó, y b) aunque no hubiese fracasado, no habría refutado la tesis
kantiana de la sinteticidad de la matemática. Pues hoy en día se entiende ya que lo que estaban haciendo
los logicistas era reducir la matemática no a la nuda lógica, sino a la lógica más la teoría de conjuntos,
como bien señaló Quine, con lo cual desaparecía el alcance filosófico del programa: lo que se estaba
haciendo era reducir la matemática a una base sintética, no analítica. Por otro lado, el teorema de Gödel y
el fracaso del programa formalista pusieron de manifiesto la existencia pertinaz de una frontera
precisamente en el lugar que había señalado Kant: entre la lógica y la aritmética (que es, en cierto modo,
lo más básico de la matemática). Por último, la raigambre kantiana del programa intuicionista es más que
evidente: sus restricciones operativas apuntan precisamente a la noción de construibilidad, que es nuclear
en la concepción de Kant. La matemática, pues, sigue siendo construcción sintética de conceptos].

Ahora bien, por otro lado, la matemática se basa kantianamente en las posibilidades
constructivas que dan lugar a la experiencia, pero consideradas a priori. Concretamente
tomadas a priori en una dirección muy determinada, y que la diferencia de la síntesis
ontológica, también a priori, que hay en la Deducción trascendental de las categorías), a
saber: tomadas precisamente como reglas de construcción de espacios y tiempos al
margen de cualquier existencia real. En este sentido, la matemática se basa en la forma
de la experiencia y dibuja las posibilidades esenciales de lo real (situación de la que la
matemática sólo se ha hecho consciente en 1899, como hemos visto).

El desarrollo que acabamos de exponer no es sólo el correspondiente a la primera parte


del tema, sino que, por las razones que vamos a ver a continuación, era en un sentido
muy fuerte un requisito necesario para poder exponer la cuestión de la verdad en las
ciencias empíricas.

2. La verdad en las ciencias empíricas

2.1. El nacimiento de la ciencia moderna y el nuevo concepto de verdad

Lo que hoy en día entendemos por “ciencias empíricas” a secas responde a un modelo
de saber que es específico de la Edad Moderna, que cristalizó al comienzo de dicha
Edad (digamos con Galileo) y que se caracteriza por conceder a la matemática un papel
preponderante. Dicha estructuración del saber científico –que, estamos diciendo, no
existe ni en la Edad Antigua ni en la Edad Moderna– se puede resumir en la
introducción de la siguiente exigencia: ahora sólo se convalidará como válido, como
objetivo, esto es, como verdadero en sentido fuerte, aquello que puede ser
(re)construido en el proceder absoluto y espontáneo de la Razón. Es decir, aquello
que sea expresable sin resto en el lenguaje de la matemática. Ahora bien, lo único que
puede ser construido sin resto en el proceder absoluto y espontáneo de la razón son las
magnitudes, es decir, lo producible en una mera “síntesis de lo homogéneo”. En efecto,
"sólo el concepto de cantidades se puede construir", mientras que "las cualidades no se
pueden exhibir en ninguna otra intuición que la empírica" (KrV, A 714 B 742.)
Vemos entonces cómo la noción de verdad inherente al concepto moderno de
ciencia está inextricablemente ligada a la matemática por una razón de fondo: sólo

10
puede ser verdadero, objetivo, aquello puede ser íntegramente construido por la lumen
rationis en su proceder puro, pero lo íntegramente construible coincide con lo
matemático. La formulación más ajustada de esto, por cierto, sigue siendo la de Kant en
el Prefacio de los Principios metafísicos de la naturaleza: en una disciplina hay tanta
ciencia como matemática haya en ella). Ahora bien, precisamente porque es
matemática, la ciencia moderna es también y no puede no ser experimental.
En efecto, el punto de vista de la ciencia moderna considera, hemos dicho, que la
única descripción valida de los fenómenos es la descripción matemática. Ahora bien,
para saber que una descripción matemática que nosotros hemos excogitado
independientemente se corresponde con los fenómenos en cuestión en cada caso es
necesario confrontar el esquema con los hechos, y ello de modo que se den en la
realidad las condiciones iniciales que permiten confrontar los hechos con el esquema.
Esto que acabamos de definir es la noción moderna de experimento. La ciencia
moderna no es experiencial (también lo había sido la ciencia griega) sino matemático-
experimental.
Y este es también el modelo que subyace a la concepción moderna de la verdad
en las ciencias empíricas. Un enunciado científico verdadero acerca de un determinado
ámbito de fenómenos es un enunciado matemático refrendado por los hechos. Por
supuesto esto, dicho así, es muy general y vago y necesita ulteriores precisiones.

2.2. Problemas con el nuevo concepto: aquilatación y extensión

El modelo que a grandes rasgos hemos descrito es de un modo u otro el modelo


subyacente a toda la filosofía de la ciencia contemporánea, y ello se puede constatar en
el hecho de que buena parte de sus discusiones esenciales son intentos de precisar y
aquilatar dicho modelo. En efecto, es precisamente en la labor de precisar los detalles de
este modelo que acabamos de describir donde se insertan buena parte de las discusiones
contemporáneas en la filosofía de la ciencia y cuyo estudio somero puede servirnos para
al menos situar los debates principales sobre la noción de verdad en las ciencias
empíricas. El esquema general, como hemos repetido ya varias veces, es el de unos
esquemas producidos por la mente al margen de los hechos que se confrontan
precisamente con los hechos para recibir o no confirmación de ellos. En un nivel muy
básico y en el que todavía no hemos problematizado nada, “verdadero” en las ciencias
empíricas sería precisamente el esquema matemático avalado por la experiencia como el
esquema ‘real’ de un cierto estado de cosas. Ahora bien, una vez dicho es necesario
problematizar inmediatamente lo que hemos dicho, y esto es, en cierto modo, lo que ha
hecho la filosofía de la ciencia.
Un primer y evidente problema del modelo general ya señalado es que no
precisa suficientemente cómo se produce la confirmación del esquema por los hechos.
En efecto, ¿cómo, en qué medida, y bajo qué condiciones se produce exactamente el
aval de la experiencia? Tanto la teoría clásica (hempeliana) de la confirmación
científica, como la epistemología contemporánea de la ciencia, que reacciona contra
dicho modelo en torno a la década de 1970, han tratado de colmar ese vacío,
especificando cuáles son las condiciones que hacen de algo una explicación científica y
de una teoría científica una teoría confirmada. En la misma dirección, como un intento
de precisar el modelo general, cabe también incluir las precisiones que se asocian
generalmente a K. Popper y a su criterio de falsabilidad (aunque estas precisiones, en
el caso de Popper, se prolongan en una teoría más amplia acerca de qué es la ciencia y
cómo procede). Y también debe entenderse como una problematización a partir del

11
modelo general la discusión sobre la “carga teórica de los hechos”, que ha sido
absolutamente fundamental para la contemporánea epistemología científica (en el
sentido de que una de las motivaciones esenciales de la “nueva filosofía de la ciencia” –
que incluye a T. Kuhn, S. Toulmin, I. Lakatos y P. Feyerabend, entre otros– es
precisamente ofrecer una nueva visión de la ciencia que sea coherente y compatible con
el fenómeno de la carga teórica de los hechos). Desde P. Duhem hasta N. R. Hanson,
pasando por O. Neurath y K. Popper y la discusión sobre la neutralidad de los informes
protocolares, la distinción de lo teórico y lo observacional –asumida acríticamente en un
primer momento– fue sofisticándose hasta alcanzar el reconocimiento de que toda
observación se hace a la luz de una teoría y en virtud de ella. Pero en cualquier caso, y
es lo que nos interesa subrayar ahora, la discusión sobre la carga teórica de los hechos –
al igual que las demás– sólo es comprensible desde el modelo general esbozado en este
capítulo, y lo presupone.

[Excurso sobre el problema de la base empírica. Recordemos que la distinción teórico / observacional y
su subsiguiente complementación apareció en un contexto determinado –el de la filosofía de la ciencia de
entreguerras– con la finalidad doble. En efecto, el aporte observacional a las teorías empíricas aparecía
como fundamental para: a) legitimar los términos que a primera vista parecen más sospechosos según los
criterios neopositivistas (a saber los términos teóricos, que no tienen conexión empírica inmediata); b)
garantizar la neutralidad de la contrastación empírica: se supone que la base observacional de
contrastación es neutra. Antes incluso de la sedimentación de la Concepción Heredada ya alertó Duhem
de que todo informe observacional es una interpretación de datos de los sentidos, y que en esa
interpretación hay ya una conceptualización teórica determinada. Quizás la teoría que se usa
implícitamente en un informe observacional no sea precisamente la que se quiere constrastar, y en este
sentido no hay un círculo autojustificativo inmediato de cada teoría, pero sí hay un círculo global de
autojustificación. De los miembros formales del Círculo de Viena fue sin duda Otto Neurath el que más
se opuso a la tesis temprana de que los ‘informes protocolares son neutrales’. Pero fue K. Popper (quien
insistía en no pertenecer al Círculo) el que expresó de modo más explícito en esa época la idea de que la
base empírica de contrastación comporta un componente teórico. Popper no llegó a extraer todas las
consecuencias, no obstante. Fue Hanson el que dio mayor importancia a lo que denominó como fenómeno
de la ‘carga teórica de los hechos’. En efecto, Hanson puso a este fenómeno en un lugar central y
consideró que su asimilación consecuente suponía un cambio trascendental en la comprensión de la
ciencia. Para ilustrar su tesis adujo casos de ambigüedad perceptiva estudiados por la Gestaltpsychologie.]

Por último, y antes de pasar a los problemas relacionados con la extensión del modelo,
debemos recordar, aunque sea brevísimamente, el debate contemporáneo entre realistas
y antirrealistas, que puede comprenderse bajo la pregunta: ¿no será el concepto de
verdad un concepto dogmático? Es decir, ¿no estaremos presuponiendo demasiadas a
la luz de los resultados de las ciencias? En este debate puede decirse que:

a) El argumento realista fundamental es el argumento de los no-milagros (Hilary


Putnam, 1972) Éste es el más famoso de los argumentos realistas, aunque
Putnam lo haya abandonado dos veces. Se puede formular mediante una
pregunta: ¿no sería un milagro el que una teoría falsa pudiera predecir o explicar
correctamente todos los fenómenos? Esto descansa sobre una idea bastante
intuitiva, a saber, que el éxito explicativo de una teoría es un indicio razonable
de su verdad (de hecho, es el mejor indicio que poseemos). La intuición que
tiene Putnam es que existe una relación lógica entre explicación/predicción y
verdad.

b) Y el argumento antirrealista fundamental es el argumento de la (meta)inducción


pesimista, de Larry Laudan. Dado que la historia de la ciencia está repleta de
ejemplos de teorías explicativas que finalmente resultaron ser falsas, Laudan nos

12
ofrece un argumento inductivo que nos permite afirmar que todas las teorías
(explicativas) son falsas. Lo que intenta demostrar este argumento es que el
argumento de los no-milagros de Putnam está basado implícitamente en
consideraciones inductivas. Ante esto ha habido dos respuestas: → Puesto que
es un argumento inductivo, no nos puede convencer (anti-inductivismo
popperiano) → Este argumento ni siquiera es válido inductivamente, porque la
base inductiva es demasiado pequeña. Además, no se puede decir que las teorías
superadas sean completamente falsas (hay una parte verdadera, que es
justamente la que se transfiere).

La idea de verdad en las ciencias sociales

Es cierto que determinadas corrientes filosóficas (en particular la Escuela de Frankfurt y


aún más en particular J. Habermas en el proyecto de Conocimiento e interés, 1968) han
analizado la cuestión del análisis de las ciencias sociales como ciencias crítico-
emancipatorias, pero aquí, en consonancia con el resto del tema, solamente nos vamos
a detener en los problemas que plantea la extensión del modelo de verdad empírica
anteriormente señalado a las llamadas ciencias humanas.
De hecho, otra prueba más de que la autocomprensión fundamental de la ciencia
moderna es la que hemos indicado se puede encontrar en el hecho de que las ciencias
sociales siguen encontrándose en cierta situación de subalternancia frente a las ciencias
“duras” (fisico-matemáticas) en la medida en que no han sido capaces de producir en
ellas la matematización y metrización y que sólo pueden hacer valer sus credenciales
de ciencia en la medida en que lo van consiguiendo.
Esto se puede ejemplificar modélicamente en la psicología, tomada ahora como
paradigma de las ciencias del hombre. Hemos visto que la comprensión moderna de la
ciencia impone unas condiciones muy fuertes en cuanto a la aplicabilidad de la
matemática, la posibilidad de medir, etc. Por otro lado, hemos visto que la noción de “lo
mental” o “lo psíquico” se contrapone a lo físico. Por todo ello, la idea misma de una
ciencia natural de lo mental nació siendo ya muy problemática, por (al menos) las
siguientes razones:

1) En el ámbito de los fenómenos psíquicos no es posible realizar medidas exactas


de los fenómenos que se estudian. Y además esta imposibilidad no se reduce a
dificultades técnicas, sino que tiene que ver con la carencia de sentido de la
pretensión de cuantificar de estos fenómenos: decir que una sensación es 2,26
más “intensa” que otra no tiene sentido a no ser que por “sensación” o
“intensidad” estemos entendiendo algo físico.

2) Por otro lado, la ciencia matemático-experimental se basa en el experimento, y


el experimento es la producción o fijación de condiciones determinadas de
antemano y controlables por el investigador de tal modo que se observe lo que
acontece en esas condiciones. Esta exigencia pone en apuros a la idea de una
psicología experimental, pues: las condiciones psíquicas no son determinables
con precisión (tanto de cara a fijarlas como de cara a medirlas). Para que sean
determinables con precisión, las condiciones deben ser físicas, no psíquicas,
pero entonces se nos ha esfumado ya la posibilidad de objetivar lo psíquico
mismo.

13
a) En cuanto a la fijación: no es posible controlar las condiciones del
experimento con precisión cuando esas condiciones son psíquicas. No es
posible seleccionar con precisión una muestra de personas con determinadas
cualidades psíquicas, sino que ello sólo es posible con condiciones físicas,
por ejemplo, que sean mujeres, o que tengan 35 años.

b) En cuanto a la medición: el objeto a observar puede variar por el mero hecho


de “saberse” observado (que es lo que ocurre, por ejemplo, en el llamado
“síndrome de la bata blanca”). El objeto que se quiere estudiar parece que
rechaza la posibilidad de un estudio objetivo. La noción clásica de
experimento encuentra aquí, en este sentido, muchas dificultades, y quizá lo
conviertan en inaplicable.

Bibliografía

• M. Suárez, Filosofía de la Ciencia I (apuntes).


• U. Moulines, J. A. Díez, Fundamentos de filosofía de la ciencia.
• M. Garrido, Lógica simbólica, Tecnos, 1974.
• La tesis.

14

También podría gustarte