Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La Teoría de Teorías
Ya sabes lo que dicen acerca de las teorías: todo el mundo tiene una. De hecho, algunas
personas tienen una teoría acerca de casi todo. Aunque eso no es una Teoría Maestra
del Todo... es una teoría separada acerca de cada pequeña cosa bajo el sol. (Para tener
una Teoría Maestra, debes ser capaz de atar todas esas pequeñas teorías unas con
otras).
Pero, ¿qué es una “teoría”? ¿Es una teoría simplemente una historia que puedes
construir acerca de algo, que sea tan fantástica como te apetezca? ¿O una teoría al
menos tiene que parecer que podría ser cierta? Incluso, más rigurosamente, ¿es una
teoría algo que tiene que ser plasmado en forma de símbolos lógicos y matemáticos, y
descrito en lenguaje sencillo solamente después de que los garabatos originales hayan
hecho una ronda de visitas por la academia?
Una teoría es todo lo anterior. Una teoría puede ser buena o mala, fantástica o
plausible, verdadera o falsa. Los únicos requisitos firmes son que (1) tenga un tema, y
(2) esté expresada en un lenguaje que permita que el tema pueda describirse de forma
coherente. Donde estos criterios se cumplen, la teoría puede siempre “formalizarse”, o
traducirse al lenguaje simbólico de la lógica y las matemáticas. Una vez formalizada, la
teoría puede someterse a varios tests matemáticos para comprobar su veracidad y
consistencia interna.
Pero, ¿no hace eso que esencialmente “teoría” sea sinónimo de “descripción”? Sí. Una
teoría es simplemente una descripción de algo. Si podemos usar las implicaciones
lógicas de esta descripción para relacionar los componentes de ese algo con otros
componentes de formas reveladoras, entonces la teoría se dice que tiene “poder
explicativo”. Y si podemos usar las implicaciones lógicas de la descripción para realizar
predicciones correctas acerca de cómo ese algo se comporta bajo varias circunstancias,
entonces la teoría se dice que tiene “poder predictivo”.
Desde una perspectiva práctica, ¿en qué tipos de teorías debemos interesarnos? La
mayoría de la gente estará de acuerdo en que, con objeto de ser interesante, una
teoría debe tratar un tema importante... un tema que implique algo útil o valioso para
nosotros, aunque sea siquiera a un nivel puramente abstracto. Y la mayoría también
estará de acuerdo en que, con objeto de que nos facilite extraer y maximizar ese valor,
la teoría debe tener poder explicativo o predictivo. Por ahora, permite que llamemos a
cualquier teoría que cumpla ambos criterios una teoría “seria”.
Entre los interesados en teorías serias se encuentra prácticamente todo el mundo,
desde ingenieros y corredores de bolsa hasta doctores, mecánicos de automóviles y
detectives de la policía. Prácticamente cualquiera que da consejos, resuelve problemas
o construye cosas que funcionan necesita una teoría seria a partir de la cual trabajar.
Pero tres grupos que están especialmente interesados en teorías serias son los
científicos, los matemáticos y los filósofos. Estos son los grupos que plantean los
requisitos más estrictos sobre las teorías que usan y construyen.
Aunque hay similitudes importantes entre los tipos de teorías tratadas por los
científicos, matemáticos y filósofos, también hay diferencias importantes. Las
diferencias más importantes implican el tema de las teorías. A los científicos les gusta
basar sus teorías en la experimentación y observación del mundo real... no en las
percepciones en sí mismas, sino en lo que ellos llaman “objetos de los sentidos”
concretos. Es decir, les gusta que sus teorías sean empíricas. A los matemáticos, por
otro lado, les gusta que sus teorías sean esencialmente racionales... que estén basadas
en deducciones lógicas relativas a objetos matemáticos abstractos existentes en la
mente, independientemente de los sentidos. Y a los filósofos les gusta buscar extensas
teorías de la realidad dirigidas a relacionar los dos tipos de objetos anteriores. (Esto en
realidad exige un tercer tipo de objeto, el operador sintáctico infocognitivo... pero eso
será en otro momento).
De los tres tipos de teoría, las teorías de la ciencia lideran la mayor parte de la
popularidad. Desafortunadamente, esto presenta un problema. Pues, mientras que la
ciencia tiene una gran deuda hacia la filosofía y las matemáticas —puede
caracterizarse como la hija de la primera y la hermana de la segunda— ni siquiera las
trata como sus iguales. Trata a su padre, la filosofía, como no merecedor de
consideración. Y, aunque tolera y usa las matemáticas a su conveniencia, dependiendo
del razonamiento matemático en casi cada curva, acepta la extraordinaria obediencia
de la realidad objetiva a los principios matemáticos como poco más que un “golpe de
suerte” cósmico.
En lugar del método científico, las matemáticas puras se basan en un principio llamado
el método axiomático. El método axiomático comienza con un pequeño número de
declaraciones obvias llamadas axiomas y unas pocas reglas de deducción a través de las
cuales pueden derivarse nuevas declaraciones, llamadas teoremas, a partir de las
declaraciones existentes. De un modo paralelo al método científico, el método
axiomático dice que el trabajo de todo matemático es (1) conceptualizar una clase de
objetos matemáticos; (2) aislar sus elementos básicos, sus principios más generales y
obvios, y las reglas por las cuales sus verdades pueden derivarse de esos principios; (3)
usar esos principios y reglas para derivar teoremas, definir nuevos objetos, y formular
nuevas proposiciones acerca del conjunto extendido de teoremas y objetos; (4) probar
o desaprobar esas proposiciones; (5) donde la proposición es verdadera, hacerla un
teorema y añadirla a la teoría; y (6) repetir desde el paso 3 en adelante.
Los métodos científico y axiomático son como imágenes especulares el uno del otro,
pero localizadas en dominios opuestos. Simplemente sustituye “observar” por
“conceptualizar” y “parte del mundo” por “clase de objetos matemáticos”, y la analogía
prácticamente se completa a sí misma. No es ninguna sorpresa, por lo tanto, que los
científicos y los matemáticos a menudo se profesen mutuo respeto. Sin embargo, esto
oculta un desequilibrio, pues, mientras que la actividad del matemático es esencial
para el método científico, la del científico es irrelevante para el matemático (excepto
para el tipo de científico llamado “informático”, que juega el papel de embajador entre
los dos ámbitos). Al menos en principio, el matemático es más necesario para la ciencia
de lo que el científico lo es para las matemáticas.
A partir de esto, uno podría estar tentado a teorizar que el método axiomático no sufre
del mismo tipo de insuficiencia que el método científico... que él, y él solo, es suficiente
para descubrir todas las verdades abstractas legítimamente llamadas “matemáticas”.
Pero, ay, eso sería demasiado práctico. En 1931, un lógico matemático austríaco
llamado Kurt Gödel probó que existen declaraciones matemáticas verdaderas que no
pueden comprobarse por medio del método axiomático. Tales declaraciones se llaman
“indecidibles”. El hallazgo de Gödel sacudió el mundo intelectual a tal punto que,
incluso hoy, matemáticos, científicos y filósofos por igual se esfuerzan en averiguar
cómo tejer el hilo suelto de indecidibilidad en la tela sin costuras de la realidad.
Pero las matemáticas tienen sus propios problemas. Mientras que la ciencia sufre de
los problemas que se acaban de describir —los de indiscernibilidad e inducción,
irreplicabilidad y subjetividad—, las matemáticas sufren de indecidibilidad. Por lo tanto
parece natural preguntar si podría haber algunas otras debilidades inherentes a la
metodología combinada de matemáticas y ciencia. En efecto, las hay. Conocidas como
el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine son los respectivos
recursos de disciplinas llamadas teoría de modelos y la filosofía de la ciencia (como
cualquier padre, la filosofía siempre tiene la última palabra). Estas debilidades tienen
que ver con la ambigüedad... con la dificultad de decir si una teoría dada se aplica a
una cosa u otra, o si una teoría es “más verdadera” que otra con respecto a lo que
ambas teorías pretenden describir.
Simplemente para obtener una idea rudimentaria del tema, echemos un vistazo más
detenido a la Tesis Duhem-Quine. Las declaraciones de observación, los datos en
crudo de la ciencia, son declaraciones que pueden demostrarse verdaderas o falsas
mediante observación o experimentación. Pero la observación no es independiente de
la teoría; una observación se interpreta siempre en algún contexto teórico. De modo
que un experimento en física no es meramente una observación, sino la interpretación
de una observación. Esto lleva a la Tesis Duhem, que afirma que las declaraciones y
experimentos científicos no pueden invalidar hipótesis aisladas, sino solamente
conjuntos completos de declaraciones teóricas a la vez. Esto se debe a que una teoría
T compuesta por varias leyes {Li}, i=1,2,3,... casi nunca implica una declaración de
observación excepto en conjunción con varias hipótesis auxiliares {Aj}, j=1,2,3,... Por lo
tanto, una declaración de observación como mucho refuta el complejo {Li+Aj}. Para
tomar un ejemplo histórico bien conocido, permitamos a T = {L1,L2,L3} ser las tres
leyes del movimiento de Newton, y supongamos que estas leyes parecen implicar la
consecuencia observable de que la órbita del planeta Urano es O. Pero, de hecho, las
leyes de Newton solas no determinan la órbita de Urano. Debemos considerar además
cosas como la presencia o ausencia de otras fuerzas, otros cuerpos próximos que
podrían ejercer influencia gravitacional apreciable sobre Urano, y así sucesivamente. En
consecuencia, determinar la órbita de Urano requiere hipóteis auxiliares como A1 =
“solamente las fuerzas gravitacionales actúan sobre los planetas”, A2 = “el número
total de planetas solares, incluyendo Urano, es 7”, etcétera. De modo que, si se
encuentra que la órbita en cuestión difiere del valor O predicho, entonces, en lugar de
simplemente invalidar la teoría T de la mecánica newtoniana, esta observación invalida
la totalidad del complejo de leyes e hipótesis auxiliares {L1,L2,L3;A1,A2,...}. Se
desprendería que al menos un elemento de este complejo es falso, pero, ¿cuál? ¿Hay
alguna forma 100% segura de decidirlo? La realidad era que el enlace débil en este
ejemplo era la hipótesis A2 = “el número total de planetas solares, incluyendo a Urano,
es 7”. De hecho, resultó que había un planeta grande adicional, Neptuno, que
posteriormente fue buscado y localizado precisamente gracias a que esta hipótesis
(A2) parecía abierta a la duda. Pero, desafortunadamente, no hay ninguna regla
general para adoptar tales decisiones. Supón que tenemos dos teorías T1 y T2 que
predicen las observaciones O y no-O respectivamente. Entonces, un experimento es
crucial con respecto a T1 y T2 si genera exactamente una de las dos declaraciones de
observación O o no-O. Los argumentos de Duhem demuestran que, en general, uno
no puede contar con encontrar tal experimento u observación. En lugar de las
observaciones cruciales, Duhem cita le bon sens (el buen sentido), una facultad no
lógica en virtud de la cual los científicos supuestamente deciden tales temas. En
relación con la naturaleza de esta facultad, no existe en principio nada que descarte el
gusto personal y el sesgo cultural. Que los científicos prefieran nobles apelaciones a
la navaja de Occam, mientras que los matemáticos empleen términos justificativos
como belleza y elegancia, no excluye influencias menos apetecibles.
Todo esto acerca de Duheim; y ahora, ¿qué pasa con Quine? La tesis de Quine se
divide en dos tesis relacionadas. La primera dice que no existe distinción entre las
declaraciones analíticas (p. ej. definiciones) y las declaraciones sintéticas (p. ej.
afirmaciones empíricas), y, por lo tanto, que la tesis de Duhem se aplica por igual a las
así llamadas disciplinas a priori. Para darle sentido a esto, necesitamos conocer la
diferencia entre declaraciones analíticas ysintéticas. Las declaraciones analíticas se
supone que son verdaderas por sus solos significados, asuntos de hecho empírico no
obstante, mientras que las declaraciones sintéticas equivalen a hechos empíricos en sí
mismos. Ya que las declaraciones analíticas son necesariamente declaraciones
verdaderas del tipo encontrado en la lógica y las matemáticas, mientras que las
declaraciones sintéticas son declaraciones contingentemente verdaderas del tipo
encontrado en la ciencia, la primera tesis de Quine presupone un tipo de equivalencia
entre las matemáticas y la ciencia. En particular, dice que las declaraciones
epistemológicas acerca de las ciencias deben aplicarse también a las matemáticas, y
que la tesis de Duhem debe por lo tanto aplicarse a ambas.
Quine combinó sus dos tesis como sigue. En primer lugar, afirmó que una reducción es
esencialmente una declaración analítica que hace que una teoría, p. ej., una teoría de la
mente, sea definida en otra teoría, p. ej., una teoría de química. Seguidamente, afirmó
que, si no existen declaraciones analíticas, entonces las reducciones son imposibles. A
partir de aquí, concluyó que sus dos tesis eran esencialmente idénticas. Pero, aunque
la tesis unificada resultante se pareciese a la de Duhem, difería en su alcance. Pues,
mientras que Duhem había aplicado su propia tesis solamente a teorías físicas, y tal vez
solamente a hipótesis teóricas más que a teorías con consecuencias directamente
observables, Quine aplicó su versión a la totalidad del conocimiento humano,
incluyendo las matemáticas. Si barremos esta bastante importante distinción bajo la
alfombra, obtenemos la así llamada “tesis Duhem-Quine”.
Ya que la tesis Duhem-Quine implica que las teorías científicas están subdeterminadas
por evidencias físicas, es a veces llamada Tesis de Subdeterminación. Específicamente,
dice que, ya que la adición de nuevas hipótesis auxiliares, p. ej. condicionales que
involucran declaraciones “si... entonces”, posibilitaría cada una de dos teorías
diferentes sobre el mismo tema científico o matemático para acomodarse a cualquier
nueva evidencia, ninguna observación física podría jamás decidir entre ellas.
¿Cómo, entonces, podemos formar una imagen verdadera de la realidad? Debe existir
un modo. Por ejemplo, podríamos empezar con la premisa de que tal imagen existe, si
acaso como un “límite” de teorización (ignorando por ahora el asunto de demostrar
que tal límite existe). Entonces podríamos sacar relaciones categóricas que implicasen
a las propiedades lógicas de este límite para llegar a una descripción de la realidad en
términos de la realidad en sí misma. En otras palabras, podríamos construir una teoría
auto-referencial de la realidad cuyas variables representasen a la realidad en sí misma,
y cuyas relaciones fuesen tautologías lógicas. Entonces podríamos añadir una
distorsión instructiva. Ya que la lógica consiste en las reglas del pensamiento, p. ej., de
la mente, lo que realmente estaríamos haciendo sería interpretar la realidad en una
teoría genérica de la mente basada en la lógica. Por definición, el resultado sería
un modelo cognitivo-teórico del universo.
Gödel usó el término “incompletitud” para describir aquella propiedad de los sistemas
axiomáticos debido a la cual contienen declaraciones indecidibles. Esencialmente,
demostró que todos los sistemas axiomáticos suficientemente poderosos están
incompletos al demostrar que, si no lo estuviesen, serían “inconsistentes”. Decir que
una teoría es “inconsistente” equivale a decir que contiene una o más paradojas
irresolubles. Desafortunadamente, ya que tales paradojas destruyen la distinción entre
lo verdadero y lo falso con respecto a la teoría, la teoría en su conjunto está mutilada
por la inclusión de una sola. Esto hace que la consistencia sea una necesidad primaria
en la construcción de teorías, dándole prioridad sobre la demostración y la predicción.
Un modelo cognitivo-teórico del universo situaría la realidad científica y matemática
en un entorno lógico auto-consistente, donde aguardar soluciones para sus paradojas
más intratables.
Por ejemplo, la física moderna está aquejada de paradojas que implican al origen y la
direccionalidad del tiempo, el colapso de la función de onda cuántica, la no localidad
cuántica, y el problema de contención de la cosmología. Si alguien presentase una
teoría simple y elegante que resolviese estas paradojas sin sacrificar los beneficios de
las teorías existentes, las soluciones acarrearían más peso que cualquier número de
predicciones. Similarmente, cualquier teoría y modelo que resolviese
conservadoramente las paradojas de auto-inclusión acosando la teoría matemática de
conjuntos, que es la base de casi cualquier tipo de matemáticas, podría demandar
aceptación en esa sola base. Dondequiera que exista una paradoja científica o
matemática intratable, hay una necesidad desesperada de una teoría y modelo que la
resuelva.
Si tal teoría y modelo existen —y, por el bien del conocimiento humano,
sería mejor que existiesen—, usan un metalenguaje lógico con suficiente poder
expresivo para caracterizar y analizar las limitaciones de la ciencia y las matemáticas, y
son por lo tanto filosóficos y metamatemáticos en su naturaleza. Esto se debe a que
ningún bajo nivel de discurso es capaz de casar dos disciplinas que excluyen
mutuamente sus contenidos tan a fondo como lo hacen la ciencia y las matemáticas.
Finalmente, esta es la conclusión: tal teoría y modelo efectivamente existen. Pero, por
ahora, satisfagámonos con haber vislumbrado el arcoiris bajo el que esta maceta de
oro nos espera.