Está en la página 1de 10

Modelo cognitivo-teórico del universo

La Teoría de Teorías

Por Cristopher Michael Langan

Ya sabes lo que dicen acerca de las teorías: todo el mundo tiene una. De hecho, algunas
personas tienen una teoría acerca de casi todo. Aunque eso no es una Teoría Maestra
del Todo... es una teoría separada acerca de cada pequeña cosa bajo el sol. (Para tener
una Teoría Maestra, debes ser capaz de atar todas esas pequeñas teorías unas con
otras).

Pero, ¿qué es una “teoría”? ¿Es una teoría simplemente una historia que puedes
construir acerca de algo, que sea tan fantástica como te apetezca? ¿O una teoría al
menos tiene que parecer que podría ser cierta? Incluso, más rigurosamente, ¿es una
teoría algo que tiene que ser plasmado en forma de símbolos lógicos y matemáticos, y
descrito en lenguaje sencillo solamente después de que los garabatos originales hayan
hecho una ronda de visitas por la academia?

Una teoría es todo lo anterior. Una teoría puede ser buena o mala, fantástica o
plausible, verdadera o falsa. Los únicos requisitos firmes son que (1) tenga un tema, y
(2) esté expresada en un lenguaje que permita que el tema pueda describirse de forma
coherente. Donde estos criterios se cumplen, la teoría puede siempre “formalizarse”, o
traducirse al lenguaje simbólico de la lógica y las matemáticas. Una vez formalizada, la
teoría puede someterse a varios tests matemáticos para comprobar su veracidad y
consistencia interna.

Pero, ¿no hace eso que esencialmente “teoría” sea sinónimo de “descripción”? Sí. Una
teoría es simplemente una descripción de algo. Si podemos usar las implicaciones
lógicas de esta descripción para relacionar los componentes de ese algo con otros
componentes de formas reveladoras, entonces la teoría se dice que tiene “poder
explicativo”. Y si podemos usar las implicaciones lógicas de la descripción para realizar
predicciones correctas acerca de cómo ese algo se comporta bajo varias circunstancias,
entonces la teoría se dice que tiene “poder predictivo”.

Desde una perspectiva práctica, ¿en qué tipos de teorías debemos interesarnos? La
mayoría de la gente estará de acuerdo en que, con objeto de ser interesante, una
teoría debe tratar un tema importante... un tema que implique algo útil o valioso para
nosotros, aunque sea siquiera a un nivel puramente abstracto. Y la mayoría también
estará de acuerdo en que, con objeto de que nos facilite extraer y maximizar ese valor,
la teoría debe tener poder explicativo o predictivo. Por ahora, permite que llamemos a
cualquier teoría que cumpla ambos criterios una teoría “seria”.
Entre los interesados en teorías serias se encuentra prácticamente todo el mundo,
desde ingenieros y corredores de bolsa hasta doctores, mecánicos de automóviles y
detectives de la policía. Prácticamente cualquiera que da consejos, resuelve problemas
o construye cosas que funcionan necesita una teoría seria a partir de la cual trabajar.
Pero tres grupos que están especialmente interesados en teorías serias son los
científicos, los matemáticos y los filósofos. Estos son los grupos que plantean los
requisitos más estrictos sobre las teorías que usan y construyen.

Aunque hay similitudes importantes entre los tipos de teorías tratadas por los
científicos, matemáticos y filósofos, también hay diferencias importantes. Las
diferencias más importantes implican el tema de las teorías. A los científicos les gusta
basar sus teorías en la experimentación y observación del mundo real... no en las
percepciones en sí mismas, sino en lo que ellos llaman “objetos de los sentidos”
concretos. Es decir, les gusta que sus teorías sean empíricas. A los matemáticos, por
otro lado, les gusta que sus teorías sean esencialmente racionales... que estén basadas
en deducciones lógicas relativas a objetos matemáticos abstractos existentes en la
mente, independientemente de los sentidos. Y a los filósofos les gusta buscar extensas
teorías de la realidad dirigidas a relacionar los dos tipos de objetos anteriores. (Esto en
realidad exige un tercer tipo de objeto, el operador sintáctico infocognitivo... pero eso
será en otro momento).

De los tres tipos de teoría, las teorías de la ciencia lideran la mayor parte de la
popularidad. Desafortunadamente, esto presenta un problema. Pues, mientras que la
ciencia tiene una gran deuda hacia la filosofía y las matemáticas —puede
caracterizarse como la hija de la primera y la hermana de la segunda— ni siquiera las
trata como sus iguales. Trata a su padre, la filosofía, como no merecedor de
consideración. Y, aunque tolera y usa las matemáticas a su conveniencia, dependiendo
del razonamiento matemático en casi cada curva, acepta la extraordinaria obediencia
de la realidad objetiva a los principios matemáticos como poco más que un “golpe de
suerte” cósmico.

La ciencia es capaz de disfrutar de su relación superficial con las matemáticas


precisamente debido a su majestuoso rechazo de la filosofía. Rechazando considerar la
relación filosófica entre lo abstracto y lo concreto en los campos en los que se supone
que la filosofía es inherentemente poco viable e improductiva, se reserva el derecho de
ignorar esa relación incluso cuando la explota en la construcción de teorías científicas.
¡Y realmente explota esa relación! Hay un tópico científico que afirma que si uno no
puede poner un número en la información de uno, entonces no puede probar nada en
absoluto. Pero, desde el momento en que los números están aritmética y
algebraicamente relacionados por varias estructuras matemáticas, el tópico equivale a
una afirmación velada de la base matemática del conocimiento.
Aunque a los científicos les gusta pensar que todo está abierto a la investigación
científica, tienen una regla que les permite explícitamente descartar ciertos hechos.
Esta regla es llamada el método científico. Esencialmente, el método científico dice que
el trabajo de todo científico es (1) observar algo en el mundo, (2) inventar una teoría
que encaje con las observaciones, (3) usar la teoría para hacer predicciones, (4)
comprobar experimental u observacionalmente las predicciones, (5) modificar la teoría
a la luz de nuevos hallazgos, y (6) repetir el ciclo desde el paso 3 en adelante. Pero,
aunque este método es muy efectivo para recoger hechos que cumplen sus
suposiciones subyacentes, no sirve para recoger los que no las cumplen.

De hecho, si consideramos el método científico como una teoría sobre la naturaleza y


adquisición de conocimiento científico (y podemos), no es una teoría del conocimiento
en general. Es solamente una teoría de las cosas accesibles para los sentidos. Aún peor,
es una teoría de las cosas sensibles que presentan dos atributos adicionales: no son
universales y pueden por lo tanto distinguirse del resto de la realidad sensorial, y
pueden verse por múltiples observadores que sean capaces de “replicar” unos a partir
de otros las observaciones bajo condiciones similares. No hace falta decir que no existe
ninguna razón para asumir que estos atributos son necesarios incluso en el ámbito
sensorial. El primero no describe nada suficientemente general como para coincidir
con la realidad como un todo —por ejemplo, el medio homogéneo del que está
compuesta la realidad, o un principio matemático abstracto que sea cierto en todas
partes— y el segundo no describe nada que sea, bien subjetivo, como la conciencia
humana, o bien objetivo pero raro e impredecible... p. ej. fantasmas, ovnis y yetis, de
los cuales se hacen chistes pero que pueden, dado el número de observadores
individuales que informan de ellos, corresponder a fenómenos reales.

El hecho de que el método científico no permite la investigación de principios


matemáticos abstractos es especialmente embarazoso a la luz de uno de sus pasos
más cruciales: “inventar una teoría que encaje en las observaciones”. Una teoría resulta
ser un constructo lógico y/o matemático cuyos elementos básicos de descripción son
unidades matemáticas y relaciones. Si el método científico se interpretase como una
interpretación exhaustiva de la realidad, lo cual es demasiado a menudo el caso, el
resultado sería algo como esto: “La realidad consiste en todo y solamente aquello a lo
que podemos aplicar un protocolo que no puede aplicarse a sus propios ingredientes
(matemáticos) y que por lo tanto es irreal”. Exigir el uso de la “irrealidad” para describir
la “realidad” es bastante cuestionable en el protocolo de cualquiera.

¿Qué sucede con las matemáticas en sí mismas? El hecho es que la ciencia no es la


única ciudad amurallada en el paisaje intelectual. Con iguales y opuestos prejuicios, los
métodos mutuamente exclusivistas de las matemáticas y la ciencia garantizan su
separación continuada a pesar de los esfuerzos de otra época de la filosofía. Mientras
que la ciencia se esconde tras el método científico, que excluye eficazmente de la
investigación a sus propios ingredientes matemáticos, las matemáticas se dividen a sí
mismas en ramas “pura” y “aplicada” y explícitamente divorcian a la rama “pura” del
mundo real. Nótese que esto hace que “aplicada” sea sinónimo de “impura”. Aunque el
campo de las matemáticas aplicadas por definición contenga todos los usos prácticos
que se hayan dado a las matemáticas, es visto como “no precisamente matemáticas”, y
por lo tanto más allá de la consideración de cualquier matemático “puro”.

En lugar del método científico, las matemáticas puras se basan en un principio llamado
el método axiomático. El método axiomático comienza con un pequeño número de
declaraciones obvias llamadas axiomas y unas pocas reglas de deducción a través de las
cuales pueden derivarse nuevas declaraciones, llamadas teoremas, a partir de las
declaraciones existentes. De un modo paralelo al método científico, el método
axiomático dice que el trabajo de todo matemático es (1) conceptualizar una clase de
objetos matemáticos; (2) aislar sus elementos básicos, sus principios más generales y
obvios, y las reglas por las cuales sus verdades pueden derivarse de esos principios; (3)
usar esos principios y reglas para derivar teoremas, definir nuevos objetos, y formular
nuevas proposiciones acerca del conjunto extendido de teoremas y objetos; (4) probar
o desaprobar esas proposiciones; (5) donde la proposición es verdadera, hacerla un
teorema y añadirla a la teoría; y (6) repetir desde el paso 3 en adelante.

Los métodos científico y axiomático son como imágenes especulares el uno del otro,
pero localizadas en dominios opuestos. Simplemente sustituye “observar” por
“conceptualizar” y “parte del mundo” por “clase de objetos matemáticos”, y la analogía
prácticamente se completa a sí misma. No es ninguna sorpresa, por lo tanto, que los
científicos y los matemáticos a menudo se profesen mutuo respeto. Sin embargo, esto
oculta un desequilibrio, pues, mientras que la actividad del matemático es esencial
para el método científico, la del científico es irrelevante para el matemático (excepto
para el tipo de científico llamado “informático”, que juega el papel de embajador entre
los dos ámbitos). Al menos en principio, el matemático es más necesario para la ciencia
de lo que el científico lo es para las matemáticas.

Como un filósofo podría decir, el científico y el matemático trabajan en lados opuestos


del separador cartesiano entre la realidad mental y física. Si el científico se queda en su
propio lado del separador y meramente acepta lo que el matemático elige arrojarle a
su través, el matemático hace su trabajo muy bien. Por otro lado, si el matemático no
arroja lo que el científico necesita, entonces el científico tiene problemas. Sin las
funciones y ecuaciones del matemático a partir de las cuales construir teorías
científicas, el científico estaría confinado a poco más que taxonomía. Por lo que
concerniese a hacer predicciones cuantitativas, él o ella bien podría estar adivinando el
número de gominolas en un frasco.

A partir de esto, uno podría estar tentado a teorizar que el método axiomático no sufre
del mismo tipo de insuficiencia que el método científico... que él, y él solo, es suficiente
para descubrir todas las verdades abstractas legítimamente llamadas “matemáticas”.
Pero, ay, eso sería demasiado práctico. En 1931, un lógico matemático austríaco
llamado Kurt Gödel probó que existen declaraciones matemáticas verdaderas que no
pueden comprobarse por medio del método axiomático. Tales declaraciones se llaman
“indecidibles”. El hallazgo de Gödel sacudió el mundo intelectual a tal punto que,
incluso hoy, matemáticos, científicos y filósofos por igual se esfuerzan en averiguar
cómo tejer el hilo suelto de indecidibilidad en la tela sin costuras de la realidad.

Para demostrar la existencia de la indecidibilidad, Gödel usó un truco simple


llamado auto-referencia. Considera la declaración “esta oración es falsa”. Es fácil vestir
esta declaración como una fórmula lógica. Aparte de ser verdadera o falsa, ¿qué más
podría una fórmula decir de sí misma? ¿Podría declararse a sí misma, digamos,
indemostrable? Intentémoslo: “Esta fórmula es indemostrable”. Si la fórmula dada es
indemostrable, entonces es verdadera y por lo tanto un teorema. Desafortunadamente,
el método axiomático no puede reconocerla como tal sin una prueba. Por otro lado,
supón que es demostrable. ¡Entonces es en sí misma aparentemente falsa (ya que su
demostrabilidad contradice lo que dice de sí misma) y además verdadera (ya que es
demostrable sin respeto a su contenido)! Parece que de todos modos creamos una
paradoja... una declaración que es “indemostrablemente demostrable”, y por lo tanto
absurda.

Pero, ¿qué tal si introducimos una distinción entre niveles de demostración? Por


ejemplo, ¿qué tal si definimos un metalenguaje como un lenguaje usado para hablar,
analizar o demostrar cosas respecto a declaraciones en un lenguaje objeto de más bajo
nivel, y llamamos al nivel base de la fórmula de Gödel el nivel “objeto” y el nivel (de
demostración) superior el nivel de “metalenguaje”? Ahora tenemos dos cosas: una
declaración que metalingüísticamente puede demostrarse ser
lingüisticamente indemostrable, lo cual, aunque poco informativo, al menos no es una
paradoja. Voilà: ¡auto-referencia sin paradoja! Resulta que ese “esta fórmula es
indemostrable” puede traducirse a un ejemplo genérico de una verdad matemática
indecidible. Ya que el razonamiento asociado implica un metalenguaje de
matemáticas, es llamado “metamatemático”.

Sería suficientemente malo si la indecidibilidad fuese la única cosa inaccesible a los


métodos científico y axiomático juntos. Pero el problema no termina aquí. Como
señalamos antes, la verdad matemática es la única de las cosas que el método
científico no puede tocar. Entre los otros se encuentran no solamente fenómenos raros
e impredecibles que no pueden ser fácilmente captados por microscopios, telescopios
y otros instrumentos científicos, sino cosas que son demasiado grandes o demasiado
pequeñas para ser captadas, como todo el universo y la más diminuta de las partículas
subatómicas; cosas que son “demasiado universales” y por lo tanto indiscernibles,
como el medio homogéneo del que está formada la realidad; y cosas que son
“demasiado subjetivas”, como la conciencia humana, las emociones humanas, y las así
llamadas “cualidades puras” o qualia. Ya que las matemáticas no han ofrecido hasta
ahora ningún medio de compensación para estos puntos ciegos científicos, continúan
marcando agujeros en nuestro dibujo de la realidad científica y matemática.

Pero las matemáticas tienen sus propios problemas. Mientras que la ciencia sufre de
los problemas que se acaban de describir —los de indiscernibilidad e inducción,
irreplicabilidad y subjetividad—, las matemáticas sufren de indecidibilidad. Por lo tanto
parece natural preguntar si podría haber algunas otras debilidades inherentes a la
metodología combinada de matemáticas y ciencia. En efecto, las hay. Conocidas como
el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine son los respectivos
recursos de disciplinas llamadas teoría de modelos y la filosofía de la ciencia (como
cualquier padre, la filosofía siempre tiene la última palabra). Estas debilidades tienen
que ver con la ambigüedad... con la dificultad de decir si una teoría dada se aplica a
una cosa u otra, o si una teoría es “más verdadera” que otra con respecto a lo que
ambas teorías pretenden describir.

Pero antes de dar una explicación de Lowenheim-Skolem y Duhem-Quine,


necesitamos una breve introducción a la teoría de modelos. La teoría de modelos es
parte de la lógica de las “teorías formalizadas”, una rama de las matemáticas que trata
más bien auto-referencialmente de la estructura e interpretación de teorías que han
sido formuladas en la notación simbólica de la lógica matemática... es decir, el tipo de
garabatos aturdidores de la mente que a todos excepto a un matemático les encanta
odiar. Debido a que cualquier teoría útil puede formalizarse, la teoría de modelos es
un sine qua non de la teorización significativa.

Hagamos que esto sea breve y contundente. Empezamos con la lógica proposicional,


que no está compuesta sino por relaciones tautológicas, siempre verdaderas, entre
oraciones representadas por variables únicas. Luego nos movemos a la lógica
predictiva, que considera el contenido de estas variables oracionales... lo que las frases
dicen en realidad. En general, estas oraciones usan símbolos
llamados cuantificadores para asignar atributos a variables que semánticamente
representan los objetos matemáticos o del mundo real. Tales tareas son llamadas
“predicados”. A continuación, consideramos las teorías, que son predicados complejos
que se dividen en sistemas de predicados relacionados; los universos de teorías, que
son los sistemas matemáticos o del mundo real descritos por las teorías; y las
correspondencias descriptivas en sí mismas, que son llamadas interpretaciones.
Un modelo de una teoría es cualquier interpretación bajo la cual todas las
declaraciones de la teoría son verdaderas. Si nos referimos a una teoría como
un lenguaje objeto y a su referente como el universo objeto, el modelo intermedio
solamente puede describirse y validarse en un metalenguaje del complejo lenguaje-
universo.

Aunque formuladas en los ámbitos matemático y científico respectivamente,


Lowenheim-Skolem y Duhem-Quine pueden pensarse como lados opuestos de la
misma moneda modelo-teórica. Lowenheim-Skolem dice que una teoría no puede en
general distinguir entre dos diferentes modelos; por ejemplo, cualquier teoría
verdadera acerca de la relación numérica de los puntos de un segmento lineal
continuo también puede interpretarse como una teoría de los números enteros
(números de cálculo). Por otro lado, Duhem-Quine dice que dos teorías no pueden en
general ser distinguidas sobre la base de cualquier declaración de observación relativa
al universo.

Simplemente para obtener una idea rudimentaria del tema, echemos un vistazo más
detenido a la Tesis Duhem-Quine. Las declaraciones de observación, los datos en
crudo de la ciencia, son declaraciones que pueden demostrarse verdaderas o falsas
mediante observación o experimentación. Pero la observación no es independiente de
la teoría; una observación se interpreta siempre en algún contexto teórico. De modo
que un experimento en física no es meramente una observación, sino la interpretación
de una observación. Esto lleva a la Tesis Duhem, que afirma que las declaraciones y
experimentos científicos no pueden invalidar hipótesis aisladas, sino solamente
conjuntos completos de declaraciones teóricas a la vez. Esto se debe a que una teoría
T compuesta por varias leyes {Li}, i=1,2,3,... casi nunca implica una declaración de
observación excepto en conjunción con varias hipótesis auxiliares {Aj}, j=1,2,3,... Por lo
tanto, una declaración de observación como mucho refuta el complejo {Li+Aj}. Para
tomar un ejemplo histórico bien conocido, permitamos a T = {L1,L2,L3} ser las tres
leyes del movimiento de Newton, y supongamos que estas leyes parecen implicar la
consecuencia observable de que la órbita del planeta Urano es O. Pero, de hecho, las
leyes de Newton solas no determinan la órbita de Urano. Debemos considerar además
cosas como la presencia o ausencia de otras fuerzas, otros cuerpos próximos que
podrían ejercer influencia gravitacional apreciable sobre Urano, y así sucesivamente. En
consecuencia, determinar la órbita de Urano requiere hipóteis auxiliares como A1 =
“solamente las fuerzas gravitacionales actúan sobre los planetas”, A2 = “el número
total de planetas solares, incluyendo Urano, es 7”, etcétera. De modo que, si se
encuentra que la órbita en cuestión difiere del valor O predicho, entonces, en lugar de
simplemente invalidar la teoría T de la mecánica newtoniana, esta observación invalida
la totalidad del complejo de leyes e hipótesis auxiliares {L1,L2,L3;A1,A2,...}. Se
desprendería que al menos un elemento de este complejo es falso, pero, ¿cuál? ¿Hay
alguna forma 100% segura de decidirlo? La realidad era que el enlace débil en este
ejemplo era la hipótesis A2 = “el número total de planetas solares, incluyendo a Urano,
es 7”. De hecho, resultó que había un planeta grande adicional, Neptuno, que
posteriormente fue buscado y localizado precisamente gracias a que esta hipótesis
(A2) parecía abierta a la duda. Pero, desafortunadamente, no hay ninguna regla
general para adoptar tales decisiones. Supón que tenemos dos teorías T1 y T2 que
predicen las observaciones O y no-O respectivamente. Entonces, un experimento es
crucial con respecto a T1 y T2 si genera exactamente una de las dos declaraciones de
observación O o no-O. Los argumentos de Duhem demuestran que, en general, uno
no puede contar con encontrar tal experimento u observación. En lugar de las
observaciones cruciales, Duhem cita le bon sens (el buen sentido), una facultad no
lógica en virtud de la cual los científicos supuestamente deciden tales temas. En
relación con la naturaleza de esta facultad, no existe en principio nada que descarte el
gusto personal y el sesgo cultural. Que los científicos prefieran nobles apelaciones a
la navaja de Occam, mientras que los matemáticos empleen términos justificativos
como belleza y elegancia, no excluye influencias menos apetecibles.

Todo esto acerca de Duheim; y ahora, ¿qué pasa con Quine? La tesis de Quine se
divide en dos tesis relacionadas. La primera dice que no existe distinción entre las
declaraciones analíticas (p. ej. definiciones) y las declaraciones sintéticas (p. ej.
afirmaciones empíricas), y, por lo tanto, que la tesis de Duhem se aplica por igual a las
así llamadas disciplinas a priori. Para darle sentido a esto, necesitamos conocer la
diferencia entre declaraciones analíticas ysintéticas. Las declaraciones analíticas se
supone que son verdaderas por sus solos significados, asuntos de hecho empírico no
obstante, mientras que las declaraciones sintéticas equivalen a hechos empíricos en sí
mismos. Ya que las declaraciones analíticas son necesariamente declaraciones
verdaderas del tipo encontrado en la lógica y las matemáticas, mientras que las
declaraciones sintéticas son declaraciones contingentemente verdaderas del tipo
encontrado en la ciencia, la primera tesis de Quine presupone un tipo de equivalencia
entre las matemáticas y la ciencia. En particular, dice que las declaraciones
epistemológicas acerca de las ciencias deben aplicarse también a las matemáticas, y
que la tesis de Duhem debe por lo tanto aplicarse a ambas.

La segunda tesis de Quine involucra el concepto de reduccionismo. El reduccionismo es


la afirmación de que las declaraciones acerca de algún tema pueden reducirse a, o
explicarse completamente en términos de, declaraciones acerca de algún tema
(normalmente más básico). Por ejemplo, buscar reduccionismo químico respecto a la
mente es afirmar que los procesos mentales realmente no son más que interacciones
bioquímicas. Específicamente, Quine suspende a Duhem manteniendo que no todas
las afirmaciones teóricas, p. ej., teorías, pueden reducirse a declaraciones de
observación. Pero, entonces, las observaciones empíricas “subdeterminan” teorías y no
pueden decidir entre ellas. Esto lleva a un concepto conocido como holismo de Quine;
ya que ninguna observación puede revelar qué miembro(s) de un conjunto de
declaraciones teóricas deben ser reevaluadas, la reevaluación de algunas declaraciones
implica la reevaluación de todas.

Quine combinó sus dos tesis como sigue. En primer lugar, afirmó que una reducción es
esencialmente una declaración analítica que hace que una teoría, p. ej., una teoría de la
mente, sea definida en otra teoría, p. ej., una teoría de química. Seguidamente, afirmó
que, si no existen declaraciones analíticas, entonces las reducciones son imposibles. A
partir de aquí, concluyó que sus dos tesis eran esencialmente idénticas. Pero, aunque
la tesis unificada resultante se pareciese a la de Duhem, difería en su alcance. Pues,
mientras que Duhem había aplicado su propia tesis solamente a teorías físicas, y tal vez
solamente a hipótesis teóricas más que a teorías con consecuencias directamente
observables, Quine aplicó su versión a la totalidad del conocimiento humano,
incluyendo las matemáticas. Si barremos esta bastante importante distinción bajo la
alfombra, obtenemos la así llamada “tesis Duhem-Quine”.

Ya que la tesis Duhem-Quine implica que las teorías científicas están subdeterminadas
por evidencias físicas, es a veces llamada Tesis de Subdeterminación. Específicamente,
dice que, ya que la adición de nuevas hipótesis auxiliares, p. ej. condicionales que
involucran declaraciones “si... entonces”, posibilitaría cada una de dos teorías
diferentes sobre el mismo tema científico o matemático para acomodarse a cualquier
nueva evidencia, ninguna observación física podría jamás decidir entre ellas.

Los mensajes de Duhem-Quine y Lowenheim-Skolem son como sigue: los universos no


determinan de forma exclusiva teorías de acuerdo a leyes empíricas de observación
científica, y las teorías no determinan de forma exclusiva universos de acuerdo a las
leyes racionales de las matemáticas. La correspondencia modelo-teórica entre teorías y
sus universos está sujeta a ambigüedad en ambas direcciones. Si añadimos este tipo
descriptivo de ambigüedad a las ambigüedades de medición, p. ej., el Principio de
Incertidumbre de Heisenberg que gobierna la escala subatómica de la realidad, y la
ambigüedad teórica interna captada por la indecidibilidad, vemos que la ambigüedad
es un ingrediente ineludible de nuestro conocimiento del mundo. Parece que las
matemáticas y la ciencia son... bueno, ciencias inexactas.

¿Cómo, entonces, podemos formar una imagen verdadera de la realidad? Debe existir
un modo. Por ejemplo, podríamos empezar con la premisa de que tal imagen existe, si
acaso como un “límite” de teorización (ignorando por ahora el asunto de demostrar
que tal límite existe). Entonces podríamos sacar relaciones categóricas que implicasen
a las propiedades lógicas de este límite para llegar a una descripción de la realidad en
términos de la realidad en sí misma. En otras palabras, podríamos construir una teoría
auto-referencial de la realidad cuyas variables representasen a la realidad en sí misma,
y cuyas relaciones fuesen tautologías lógicas. Entonces podríamos añadir una
distorsión instructiva. Ya que la lógica consiste en las reglas del pensamiento, p. ej., de
la mente, lo que realmente estaríamos haciendo sería interpretar la realidad en una
teoría genérica de la mente basada en la lógica. Por definición, el resultado sería
un modelo cognitivo-teórico del universo.

Gödel usó el término “incompletitud” para describir aquella propiedad de los sistemas
axiomáticos debido a la cual contienen declaraciones indecidibles. Esencialmente,
demostró que todos los sistemas axiomáticos suficientemente poderosos están
incompletos al demostrar que, si no lo estuviesen, serían “inconsistentes”. Decir que
una teoría es “inconsistente” equivale a decir que contiene una o más paradojas
irresolubles. Desafortunadamente, ya que tales paradojas destruyen la distinción entre
lo verdadero y lo falso con respecto a la teoría, la teoría en su conjunto está mutilada
por la inclusión de una sola. Esto hace que la consistencia sea una necesidad primaria
en la construcción de teorías, dándole prioridad sobre la demostración y la predicción.
Un modelo cognitivo-teórico del universo situaría la realidad científica y matemática
en un entorno lógico auto-consistente, donde aguardar soluciones para sus paradojas
más intratables.

Por ejemplo, la física moderna está aquejada de paradojas que implican al origen y la
direccionalidad del tiempo, el colapso de la función de onda cuántica, la no localidad
cuántica, y el problema de contención de la cosmología. Si alguien presentase una
teoría simple y elegante que resolviese estas paradojas sin sacrificar los beneficios de
las teorías existentes, las soluciones acarrearían más peso que cualquier número de
predicciones. Similarmente, cualquier teoría y modelo que resolviese
conservadoramente las paradojas de auto-inclusión acosando la teoría matemática de
conjuntos, que es la base de casi cualquier tipo de matemáticas, podría demandar
aceptación en esa sola base. Dondequiera que exista una paradoja científica o
matemática intratable, hay una necesidad desesperada de una teoría y modelo que la
resuelva.

Si tal teoría y modelo existen —y, por el bien del conocimiento humano,
sería mejor que existiesen—, usan un metalenguaje lógico con suficiente poder
expresivo para caracterizar y analizar las limitaciones de la ciencia y las matemáticas, y
son por lo tanto filosóficos y metamatemáticos en su naturaleza. Esto se debe a que
ningún bajo nivel de discurso es capaz de casar dos disciplinas que excluyen
mutuamente sus contenidos tan a fondo como lo hacen la ciencia y las matemáticas.

Finalmente, esta es la conclusión: tal teoría y modelo efectivamente existen. Pero, por
ahora, satisfagámonos con haber vislumbrado el arcoiris bajo el que esta maceta de
oro nos espera.

También podría gustarte