Está en la página 1de 23

1

Dedicado a una adulta, Nhelsyr, y a 6 jóvenes


preocupados por temas como estos: Yaleika, Sebastián,
Jesús Rafael, María Angélica, José Carlos y Mauricio.
3

INDICE

Pag.

Presentación de la serie “Elogio del ensayo” 3

Presentación de este ensayo 4

I INTRODUCION 6

II PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG 9

III TEOREMA DE INCOMPLETITUD DE GÖDEL 10

IV TEORÍA DEL CAOS 14

V VISIÓN EPISTEMOLÓGICA DE KARL POPPER 17

VI CONCLUCIONES 18

Referencias 22
4

Presentación de la serie “Elogio del ensayo”

Stephen Jay Gould y Niles Eldredge, introdujeron un importante cambio en la


visión "gradualista" de la teoría evolutiva de Charles Darwin con un artículo de
apenas 33 páginas; Albert Einstein resquebrajó el paradigma newtoniano, el cual
tenía más de 200 años de reinado, con un escrito de sólo 46 páginas, y James Watson
y Francis Crick provocaron una revolución en la Biología cuando revelaron la
estructura molecular del ADN, con un escrito de apenas 2 páginas. Como se puede
ver, la visión de que hay que realizar escritos extensos para plantear ideas
importantes, no es necesariamente correcta. Pero además, por otra parte, un escrito
corto no sólo puede plantear ideas muy importantes sino que, también, lo puede hacer
de manera más clara. Por el contrario, textos muy largos, como El Capital de Carlos
Marx, pueden servir para oscurecer planteamientos en vez de hacerlos entendibles;
de haber sido lo contrario, tal vez los textos de Marx no habrían provocado los
desastres humanos que provocaron.

Partimos por considerar como principales características del “Ensayo”,


aquellas que le asigna Wikipedia: es “un género literario comprendido dentro
del género didáctico”, generalmente “breve” “y fundamentado que sintetiza un tema
significativo” (https://es.wikipedia.org/wiki/Ensayo).

Entonces, en esta serie "Elogio del ensayo", pretendemos escribir textos


breves, didácticos, bien informados y fundamentados sobre temas significativos,
teniendo en mente, principalmente, a jóvenes con espíritu de exploradores del
conocimiento. Textos que no apabullen a nuestros chicos con lo excesivo de su
extensión, tratados con un mínimo de seriedad y profundidad y que, a la vez, sean de
interés para nosotros como autor. Por último, para facilitar que nuestros chicos
continúen su exploración si así lo desean, indicamos que en los textos que se
publiquen en la presente serie se referenciarán adecuadamente los autores y las obras
consultadas, apegándonos a las normas de la American Psychological Association.
5

Presentación de este ensayo

El positivismo es como el geocentrismo; ambos han sido paradigmas


“naturales” y no vemos razones para agarrar una rabieta personal con ellos, aunque si
tenemos muchas razones para someterlos a nuestro ojo crítico. Era natural ser
geocentrista antes del invento del telescopio, y ser positivista antes de tener mayores
pruebas de que la medición afecta lo medido, particularmente en el mundo de las
partículas atómicas y, más particularmente, ante el famoso “experimento de la doble
rendija”.

Las liebres (que no han inventado el telescopio) son geocentristas y más le


vale que sean también positivistas si oyen un rugido afuera de su cueva justo cuando
van a salir a buscar comida; más le vale que crean que ese rugido es parte de una
realidad externa a ellas que funciona con sus propias leyes y regularidades, las cuales
les conviene descubrir, de manera “objetiva”, en función de poder hacer predicciones
que garanticen su propia sobrevivencia.

En el experimento de la doble rendija, que las liebres tampoco han realizado,


cuando se hace pasar un haz de partículas, por ejemplo fotones, por una pantalla con
dos rendijas, en la siguiente pantalla se forma un patrón de distribución de los fotones
que es típico de las ondas: franjas iluminadas y franjas oscurecidas. Las franjas
oscurecidas corresponden a aquellas zonas en donde las ondas de las dos rendijas se
encuentran de manera desfasada y, en vez de reforzarse, se anulan. Lo extraordinario
del caso es que lo mismo ocurre si se hace pasar un fotón a la vez; el resultado final
es el mismo, como si cada fotón pasara, al mismo tiempo, por ambas rendijas, tal
como lo hace una onda. Pero si, en este último caso, se colocan detectores en cada
rendija para saber por donde pasa “realmente” cada fotón, automáticamente
desaparece el efecto tipo onda y aparece un patrón de iluminación típico de
“partículas” que pasan por una rendija o por la otra, pero no por ambas a la vez. De lo
anterior se ha deducido que no hay un “realmente” porque la medición afecta lo
medido. Preferimos decir que “la medición afecta lo medido” a diferencia de decir
que “la observación afecta lo observado”, lo cual, desde nuestro punto de vista, abre
campo a las especulaciones místicas como aquella de que es “la conciencia” lo que
6

cambia el comportamiento de los fotones de nuestro ejemplo; lo que cambia su


comportamiento es, para decirlo de una manera, “encender la luz” para poder
“verlas”, es cuando las impactamos con otras partículas de sus mismas dimensiones
para detectarlas. En todo caso lo que queremos decir, en esta parte de esta
“Presentación”, es que los homo sapiens (no las liebres) nos hemos tropezado con un
límite dentro de la visión “natural” y ontológica del positivismo, según la cual “existe
una realidad externa” al observador y, la misma, está “conducida por leyes naturales
inmutables” que están esperando por nosotros para descubrirlas (Guba dixit, 1990, p.
19)

En los siglos XVIII y XIX, fue tal el éxito que acompañó al criterio positivista
de que era posible descubrir las leyes que gobiernan la realidad que nos rodea
mediante investigaciones “objetivas”, vale decir, mediante mediciones que no
afectaran lo medido para no sacar conclusiones sesgadas, que hubo quienes
plantearon la posibilidad de que era posible llegar a conocer esas leyes
completamente; tal fue el caso de Pierre Laplace:

Una inteligencia que conociera, en cualquier momento dado, todas las


fuerzas que actúan sobre la naturaleza, así como las posiciones
momentáneas de todas las cosas que componen el universo, debería ser
capaz de encerrar en una sola fórmula los movimientos de los cuerpos
más grandes del mundo y de los más pequeños átomos, a condición de
que fuera lo suficientemente poderosa para someter todos los datos a
análisis; para ella, nada sería incierto, futuro y pasado estarían
presentes ante sus ojos (1985, en Davies, p. 36)
Pero, desde hace un tiempo, y este es el tema central de este ensayo, los Homo
Sapiens vienen descubriendo algunas cosas que le ponen límites a esa visión
positivista, que le ponen límites a su capacidad de descubrir la totalidad de esas leyes,
que le ponen límites a su capacidad para conocer la naturaleza última de la realidad
que lo rodea; son descubrimientos que nos obligan a la humildad1 ante este universo
que, como veremos, no puede respondernos TODAS las preguntas que nos hacemos
acerca de su naturaleza última.

1
Aclarando que no usamos el término “humildad” en el mismo sentido en el que lo suelen usar las
religiones.
7

I. INTRODUCCION

Desde que el filósofo alemán Jacob Lorhard utilizó por primera vez, en
sentido filosófico, el término “ontología” en 1606, éste ha sido tratado con
variaciones en su significado y no es el objetivo de este escrito ahondar en las
mismas. Para nuestros fines, onto-logía es la rama de la filosofía que estudia al ente,
lo que hay, lo que existe, la realidad. Por lo tanto, tal como plantea Egon Guba en su
libro The paradigm dialog (1990), una pregunta propia de la ontología es la siguiente:

¿Cuál es la naturaleza de la realidad?

Si sobrevolamos en un planeador la historia de nosotros, los homo sapiens2,


tal vez una de las conclusiones más inevitables a la que llegaremos es que no
podemos acostarnos cada noche, de manera despreocupada, sin portar bajo la solapa
de la conciencia teorías explicativas acerca de la realidad que nos circunda; vale
decir, no podemos dormir serenamente sin una concepción ontológica. La más
popular de todas esas explicaciones ontológicas tiene un nombre bastante corto: Dios.
La hipótesis Dios ha sido manejada durante la historia de los homo sapiens con tal
flexibilidad ad líbitum, con tal flexibilidad a placer, que la despoja de la condición de
hipótesis y que la dota de una total capacidad explicativa: con ella se puede explicar
desde como apareció el universo hasta actos de los menos influyentes para el devenir
del mismo, como puede ser el porqué nos salvamos de mojarnos en un aguacero.
Sin embargo, paralelo a ese tipo de explicaciones (cuya característica
principal es que no son falsables, no son contrastables, no se dejan contradecir debido
a que ellas se sostienen sobre un acto de fe), hace unos 2600 años nació en Grecia
otra manera de intentar explicar la realidad y cuya característica principal es la de
mantener una actitud permanentemente crítica ante las hipótesis que arrojamos, como
“redes” (Popper dixit), sobre la realidad e, incluso, una actitud crítica ante la manera
misma en que se lleva a cabo la construcción de dichas hipótesis. Es imposible dejar
2
Nótese que hablamos de “nosotros los Homo Sapiens”, y no de “nosotros los humanos”. Esto es
debido a que, consideramos, ya no es pertinente atribuirnos la exclusividad de la naturaleza humana
por cuanto, ya se sabe, han existido por lo menos 7 tipos de “hombres” u “Homos”: Homo rudolfensis,
Homo habilis, Homo erectus, Homo heidelbergensis, Homo neardenthalensis, Homo floresiensis y
Homo sapiens (Wong, 2014, p. 40 – 41)
8

de citar en el nacimiento de dicha “otra” actitud, a un filósofo de los injustamente


llamados “pre socrático”, cuando que debería hablarse de todos los demás filósofos
antecediéndoles el prefijo “post”, post Tales de Mileto (625-546 a.C.). Karl Popper
hipotetiza que este pensador, al que muchos consideran con razón el padre de la
filosofía, provocó una revolución epistemológica al promover en sus seguidores un
“pequeño”, pero revolucionario, cambio de postura ante la manera de producir el
conocimiento: en vez de aceptar sumisamente el “conocimiento” heredado, se permite
la libertad de criticar al mismo y, aun más, se promueve algo inaudito para la época:
asumir una actitud crítica, también, ante nuestras propias hipótesis:

No puede ser un mero accidente que Anaximandro, el discípulo de


Tales, desarrollase explícita y conscientemente una teoría que se
apartaba de la de su maestro ni que Anaxímedes, el discípulo de
Anaximandro, se apartase de un modo igualmente consciente de la
doctrina de su maestro. La única explicación plausible es que el propio
fundador de la escuela desafiaba a sus discípulos a que criticasen su
teoría y los discípulos convirtieron esta nueva actitud de su maestro en
una tradición. (Popper, 1992, p. 4)

Esta nueva actitud representó una clara ruptura con la que, hasta aquél
momento, era la actitud dominante en la producción y transmisión del conocimiento:
el mito. Entendemos el mito más allá de lo que pueda representar su loable dimensión
literaria popular, pero sin perder de vista su otra dimensión castradora (dimensiones
ambas que suelen venir en un mismo combo), expresada en explicaciones que se
heredan a los niños y a las nuevas generaciones de una sociedad de manera inapelable
y sin derecho a contestación; explicaciones que no se dejan criticar. La nueva postura
que, según Popper, debió haber promovido Tales de Mileto entre sus discípulos
Anaximandro y Anaxímedes, representó el paso del mito al logos, entendido este
ultimo como palabra “meditada, reflexionada o razonada”3; es decir, el paso de
explicaciones o respuestas tradicionales, que no se podían revisar porque estaban
basadas en la fe, a explicaciones razonadas que se pueden someter a discusión. Ese
“pequeño” cambio de postura epistemológica que apareció 600 años antes de Cristo
en una zona llamada Grecia, la cual servía de conexión entre múltiples culturas y

3
En https://es.wikipedia.org/wiki/Logos
9

múltiples ideas y en donde no se había impuesto, todavía, el pensamiento militar de


Alejandro Magno ni el pensamiento único de los 3 principales monoteísmos que
terminaron en una guerra de 2 siglos; representó, nada más y nada menos que, el
nacimiento de la filosofía y de la ciencia.
Durante los 26 siglos que han pasado desde entonces, la relación entre las
actitudes de la fe y la del pensamiento crítico ha sido entreverada y ha presentado
muchas variaciones. Han transcurridos épocas de separación de aguas, como la edad
media, el stalinismo en la ex URSS o, incluso, la era Bush en los Estados Unidos, en
las que la fe se ha hecho del poder político y ha intentado o ha mantenido arrinconado
al pensamiento crítico; y otras, como en el siglo de las luces (época acerca de la que
el filósofo Immanuel Kant llegó a decir que su lema principal era “sapere aude”, es
decir, “atrévete a saber” o “ten el valor de usar tu propia razón”), en las que el
pensamiento crítico ha logrado hacer avanzar una visión secular de la sociedad y ha
abierto campo a la libertad en la búsqueda de explicaciones acerca de la realidad que
nos rodea.
Como actitud ante el universo, cada una de las dos que hemos citado puede
ser caracterizada en cuanto a su nivel de “prevalencia ontológica”4 vale decir, el nivel
de considerar que es superior porque “tiene todas las respuestas” frente a las
interrogantes acerca de los orígenes y la naturaleza de la realidad. Obviamente que la
actitud del mito y de la fe a ciegas en constructos religiosos o, en sus hermanos,
constructos ideológicos, es poseedora de una mucho mayor “prevalencia ontológica”
que la del pensamiento crítico; la actitud de la fe considera que ha tomado por la
chiva al universo y que posee todas las explicaciones acerca del mismo. Los
miembros de una fe no necesitan pensar porque ya ellos están pensados por su propia
fe. Los preceptos de su fe piensan por ellos, solo queda repetirlos, ya no queda más
nada que buscar. Por el contrario, para la otra actitud, no hay otro camino que la duda
y la búsqueda incesante.
Ahora bien, resulta que de la casa gobernada por la actitud del pensamiento
crítico, han surgido unos descubrimientos hechos durante el siglo que acaba de

4
En el sentido de “Prevalecer”, es decir, “tener alguna superioridad o ventaja entre otras”. En
https://dle.rae.es/prevalencia?m=form
10

terminar, el siglo XX, que apuntan en dirección de una posición incluso menos
prevalente que la de la búsqueda incesante, ya que indican que aun la misma
indagación sólo puede producir frutos limitados. Después de esos descubrimientos,
realizados particularmente en los campos de la física, la matemática y la
epistemología, ya no es posible esperar, como lo supuso Laplace en el siglo XIX, que
tendremos algún día un conocimiento pleno y final acerca de la realidad y, por lo
tanto, una plena capacidad predictiva acerca del universo. Esos descubrimientos son,
entre otros más, los siguientes:

1. El principio de incertidumbre de Heisenberg


2. El teorema de incompletitud de Gödel
3. La teoría del caos
4. La visión epistemológica de Karl Popper.

II. PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG


La primera revolución, a la que haremos referencia, le puso límites al
conocimiento que los homo sapiens podemos alcanzar acerca de la realidad: el
universo es cognoscible, pero hasta los límites establecidos por el principio de
incertidumbre de Heisenberg:

El principio de incertidumbre tiene profundas implicaciones sobre el


modo que tenemos de ver el mundo. Incluso más de cincuenta años
después, éstas no han sido totalmente apreciadas por muchos filósofos,
y aun son objeto de mucha controversia. El principio de incertidumbre
marcó el final del sueño de Laplace de una teoría de la ciencia, un
modelo del universo que sería totalmente determinista: ciertamente,
¡no se pueden predecir los acontecimientos futuros con exactitud si ni
siquiera se puede medir el estado presente del universo en forma
precisa!. (Hawking, 1988, p. 83, 84).

Este principio indica que para poder conocer la posición (x) y el momento
lineal (p)5 futuro de una partícula (y por lo tanto, de todas), debemos conocer su
posición y momento lineal actuales; pero al medir ambas variables, la incertidumbre

5
El momento o “cantidad de movimiento” de una partícula, viene dado por la multiplicación de su
velocidad y su masa; de manera que p = v . m
11

de la primera medida multiplicada por la incertidumbre de la segunda, siempre dará


un resultado que no puede ser menor a una cantidad conocida como la constante de
Planck6:
Δx . Δp ≥ h

Es decir, que la incertidumbre en el conocimiento de ambas condiciones de la


partícula nunca puede ser reducida a cero. Por otra parte, si se aumenta la precisión en
la medida de una de las dos variables aumenta la incertidumbre en la medida de la
otra. Albert Einstein no pudo creer que el universo contuviese tal nivel de
incertidumbre y soltó aquello de que “Dios no juega a los dados”. En el marco de su
polémica con Bohr y otros padres de la física cuántica, los experimentos teóricos
propuestos por Einstein con el fin de borrar toda incertidumbre en la medición
simultánea de la posición y momento de las partículas atómicas, han sido
posteriormente refutados, con lo que, según parece, Dios si juega a los dados aunque,
en el mundo lleno de propensiones de Karl Popper (1996), estos estén cargados.
Los límites impuestos por el principio de incertidumbre nos hablan del
descubrimiento de una condición intrínseca de la naturaleza y no de limitaciones en
nuestras posibilidades perceptivas o en nuestras posibilidades técnicas (Hawking,
1988, p. 83); vale decir, el principio establece un límite al conocimiento de la
realidad. A partir del principio de incertidumbre, la ciencia tiene conciencia (a
diferencia de por ejemplo las religiones, las ideologías y, seguramente, gran cantidad
de investigadores no actualizados) que no puede hablar del universo con la arrogancia
de quien piensa que lo sabe todo. Hoy por hoy, la ciencia sabe que no lo sabe todo,
pero sobre todo sabe… que nunca podrá saberlo todo.

III. TEOREMA DE INCOMPLETITUD DE GÖDEL

El otro gran hito científico al que queremos hacer referencia, y del que
seguramente se tiene menos conciencia, es aquel que fue provocado por Kurt Gödel
(1906-1978). Este matemático y lógico nacido en Brünn, ciudad cercana a Viena
(en la actual República Checa), demostró en 1931 y sin hacer referencia a

6
h = 6.62607015 x 10-34 J/s (julios por segundo)
12

experimento empírico alguno (¿Esto reforzaría la opinión de quienes piensan que el


libro del universo está escrito en lenguaje matemático?), que ningún sistema de
proposiciones puede contener la demostración de su propia coherencia; esto sólo
puede hacerse mediante referencia a un sistema de proposiciones mayor, el cual a
su vez no puede justificar su propia coherencia sino mediante referencia a otro
sistema mayor. Esto nos conduce a una secuencia infinita de sistemas.

Las teorías matemáticas se construyen sobre la base de dos elementos


fundamentales: axiomas (premisas o principios básicos que son asumidos como
verdaderos sin recurrir a demostración alguna) y reglas para llevar a cabo
inferencias con dichos axiomas. Por otra parte, el sueño de todo matemático es
demostrar que su ciencia posee dos grandes cualidades: que es consistente y que es
completa. Por consistente se quiere decir que la matemática está libre de
contradicciones en sus razonamientos, vale decir, que está inmunizada a cualquier
tipo de asalto; y por completa, que toda proposición que haya sido pensada o pueda
ser pensada, puede ser probada o refutada dentro del sistema axiomático.

Kurt Gödel demostró que es imposible cumplir ese sueño: no es posible


concebir un conjunto de axiomas y un juego de reglas de transformación que
suministren todas las verdades formales; siempre será posible pensar verdades
indemostrables. En otras palabras, Gödel probó que si tomamos un conjunto de
axiomas suficientemente amplio (que cuanto menos contenga los axiomas de la
aritmética), no es posible demostrar, con las reglas de deducción del sistema, que
ese conjunto de axiomas es simultáneamente consistente y completo. Si es
consistente siempre existirán teoremas verdaderos que nunca se podrán demostrar
con el sistema y, por lo tanto, no será completo; y si es completo necesariamente
contendrá contradicciones, es decir que no será consistente. En este sentido el
teorema de Gödel tiene cierta analogía con el principio de incertidumbre de
Heisenberg, el cual establece que si intentamos precisar la posición de una partícula
obtendremos una mayor incertidumbre en su momento y si intentamos precisar su
momento, obtendremos una mayor incertidumbre en su posición.
13

Es justificado considerar, como lo consideran muchos pensadores, que el


Teorema de Incompletitud de Gödel es una de las más grandes producciones de la
mente humana, ya que lo que se encuentra detrás de él, es el establecimiento de un
límite a la razón.

“Los limites de la razón” (Chaitin, 2006), eso es lo que también otro


matemático contemporáneo y, además, científico de la computación, plantea haber
encontrado en una rama moderna de la matemática llamada “Teoría algorítmica de
la información”, la cual él fundó junto con el matemático ruso Andrei N.
Kolmogorov. Se trata de Gregory Chaitin, quien es un investigador del IBM
Thomas J. Watson Research Center, es profesor de las Universidades de Buenos
Aires, Argentina y de Auckland, Nueva Zelanda. Desde niño quedó fascinado por
un libro llamado Gödel’s Proof (La prueba de Gödel), de los autores Ernest Nagel
and James R. Newman, publicado en 1958, el cual siempre llevaba consigo para
tratar de explicárselo a otros niños. De este libro Chaitin ha dicho que “Este me
fascinó debido a que Kurt Gödel usó las matemáticas para mostrar que las mismas
matemáticas tienen limitaciones7” (ibídem, p. 75)

75 años después que Gödel publicara su teorema de incompletitud, Chaitin


publicó un libro (Meta Math!, 2004) donde también trata acerca de las limitaciones
de la matemáticas, pero con la diferencia que lo hace desde la medición de la, así
llamada, “Información algorítmica”; esto es la cantidad de bits de un programa de
computación necesarios para producir un resultado especifico.

Actualmente la “Teoría algorítmica de la información” es una rama de las


matemáticas, la cual pone en términos cuantitativos precisos las nociones de
complejidad y simplicidad. Mientras que la Teoría ordinaria de la información se
pregunta cuantos bits son necesarios para codificar la información de una data
determinada, por su parte, la Teoría algorítmica de la información se pregunta cuál
es el tamaño del programa de computación para generar dicha data. El mínimo
numero de bits necesarios para guardar el programa en cuestión, es llamado el

7
“It fascinated me because Kurt Gödel used mathematics to show that mathematics itself has
limitations”
14

“contenido de información algorítmica de la data”. Por ejemplo, la sucesión


infinita de los números naturales (1, 2, 3,. . . etc) tiene muy poca “información
algorítmica”, debido a que un programa de computadora muy corto puede generar
todos esos números. Lo mismo pasa con el número Pi, el cual tiene una cantidad
infinita de dígitos, pero su descripción puede ocupar unas pocas líneas de código
informático.

Por el contrario, un número con sólo un millón de dígitos aleatorios, tiene


una “información algorítmica” enorme, no puede ser generado por ningún programa
de computación más corto que él. Esto es una consecuencia de que el número
carece de un patrón definitorio, el programa más corto para generarlo será tan largo
como el número mismo. Dicho de otra manera, tales flujos de dígitos son
“incompresibles” o “irreducibles”.

Chaitin afirma haber encontrado un número de este tipo, un número


incompresible, un número que no responde a más leyes que las del azar. El camino
que condujo a Chaitin a tal hallazgo, partió de un problema que planteó quien es
considerado el padre de la computación, el matemático Alan Turing, en 1936 en un
artículo publicado en Proceedings of the London Mathematical Society (1937). En
dicho artículo Turing planteó la siguiente pregunta: ¿Podemos determinar si un
programa de computación se detendrá?

Este es para Chaitin un ejemplo tomado del mundo real que desemboca en
un “número incompresible”, al cual él llama un número Omega. La probabilidad de
que una computadora se detenga, puede representarse numéricamente, pero, dice
Chaitin:

Como concepto matemático parece simple, pero resulta que si uno


trata de averiguar su valor numérico descubre que no se puede
calcular: todos sus dígitos parecen escogidos al azar” (Chaitin, 2001)
(El subrayado es nuestro).

Chaitin sostiene que, así como el numero Omega, hay muchas verdades en
matemática que están infectadas por la insidia del azar: “lo que yo descubrí es una
infinidad de hechos matemáticos que se cumplen sin ninguna razón, no se sabe por
15

qué" (ibídem). En otras palabras, hay infinidad de “hechos matemáticos”


“irreducibles” mediante cualquier programa de computación, pero si, como planteó
Gottfried Wilhelm Leibniz (filósofo y matemático alemán del siglo XVII), es inútil
una teoría que es del mismo tamaño en bits que los datos que explica, por lo tanto
un programa de computación que es del mismo tamaño que la data que produce,
también es inútil.

… algunos hechos matemáticos no pueden ser comprimidos en una


teoría porque son demasiado complicados. Este nuevo enfoque
sugiere que lo que Gödeld descubrió era sólo la punta del iceberg:
existe un número infinito de teoremas matemáticos verdaderos que
no se pueden demostrar de cualquier sistema finito de axiomas8.
(Chaitin, 2006, p. 75 – 76)

Kurt Gödel demostró que las matemáticas son incompletas y contienen


afirmaciones verdaderas que no pueden probarse formalmente. El número
propuesto por Chaitin, el número Omega, revela ahora que hay una incompletitud
aún mayor porque dicho número proporciona un número infinito de teoremas que
no pueden ser demostrados por ningún sistema finito de axiomas. Eso quiere decir
que una "teoría del todo" para las matemáticas… es imposible.

Hoy la razón sabe que no puede demostrarlo todo y, sobretodo, sabe que no
puede demostrar la total completitud de sus sistemas axiomáticos.

IV. TEORÍA DEL CAOS

De la casa de la física también ha salido otra constatación que le pone


límites a nuestras posibilidades de hablar ante otros, o de poner ante la cara de
otros, certezas acerca de cómo son las cosas. Esta otra limitación viene de la mano
de la teoría del caos.

En el marco del paradigma newtoniano, una diferencia fundamental entre las


ciencias naturales y las ciencias sociales era que estás, a diferencia de las primeras,

8
“ … some mathematical facts cannot be compressed into a theory because they are too complicated.
This new approach suggests that what Gödel discovered was just the tip of the iceberg: an infinite
number of true mathematical theorems exist that cannot be proved from any finite system of axioms”.
16

históricamente han considerado “la flecha del tiempo”. Sus objetos de estudio son
sucesos, los mismos poseen historia, cuentan con un pasado que da razón de ellos y
con un futuro no fácilmente determinable. Por el contrario, para las ciencias
naturales newtonianas, particularmente para la física clásica, la flecha del tiempo no
existe, el comportamiento de las leyes físicas newtonianas no contempla ningún
tipo de asimetría temporal, es lo mismo decir pasado que presente o futuro. Las
leyes que gobiernan la naturaleza no cambian con el paso del tiempo. Según Ilya
Prigogine (Químico y físico nacido en Moscú en 1917, premio Nobel de química
1977), la excomulgación del tiempo por parte de la ciencia clásica está relacionada
con el control que la visión religiosa ha ejercido sobre las sociedades durante
mucho tiempo; a los ojos de Dios todo está dado, no existen diferencias entre
pasado presente y futuro.

Pero se ha presentado una ruptura paradigmática a raíz de que un grupo de


científicos y pensadores, a la cabeza de los cuales se encuentra Prigogine, han
prestado cada vez más atención a las llamadas “estructuras de no equilibrio”,
aquellas en las que la flecha del tiempo y los fenómenos irreversibles juegan un
papel fundamental. La diversidad de estructuras de no equilibrio (entre ellas la vida,
el clima, una columna de humo, las sociedades humanas y la bolsa de valores) que
van descubriendo los investigadores, es asombrosa y se ha tomado conciencia que
ellas forman la mayor parte de los sistemas existentes en el universo, mientras que
los llamados “sistemas dinámicos estables” (a los que básicamente se dedicaba la
física clásica, como la repetible caída de una piedra en una cámara al vacio), son
más bien excepcionales. En el devenir de las estructuras de no equilibrio, ocurren
momentos de bifurcación en los que el sistema tiene ante si varios posibles
caminos. Veamos que nos dice al respecto el físico belga Grégoire Nicoli:

Desde el punto de vista físico la situación es todavía más


sorprendente. En efecto, la bifurcación es en realidad un momento de
toma de decisión, ya que más allá de λ el sistema se ve confrontado
con múltiples elecciones. Se torna entonces muy sensible a los
efectos aleatorios que, debido al sesgo de las fluctuaciones
estadísticas, terminarán por privilegiar uno de los estados accesibles.
Una vez canalizado sobre una rama particular de estados, el sistema
seguirá un curso que estará determinado fundamentalmente por esta
17

elección crítica. Se torna así en un objeto histórico, que conservará


para siempre, en su seno y en su orden cronológico, el recuerdo de
los hechos pasados encontrados sucesivamente que han prevalecido
en los umbrales de bifurcación (el subrayado es nuestro) (en Brans,
Stengers y Vincke, 2000, p. 79)

En estos puntos de bifurcación, las condiciones iniciales son vitales para el


desenvolvimiento futuro del sistema, dado que cualquier minúscula variación en
ellas lleva a una ampliación exponencial que introduce una gran impredicibilidad en
el devenir de los mismos. De aquí es de donde se ha hecho famoso el denominado
“efecto mariposa”, según el cual el revolotear de una mariposa en un bosque de
Japón puede terminar provocando una gran tormenta sobre Nueva York.

Son tales las consecuencias que el estudio de las estructuras de no equilibrio


ha traído tanto para la visión ontológica como epistemológica de quienes se han
percatado de sus implicaciones, que se ha llegado a pedir disculpas por lo que,
ahora, se considera fue una posición científica errada:

Llegados a este punto debo hacer un alto y hablar en nombre de la


gran hermandad de los expertos de la mecánica. Hoy somos
conscientes de que el entusiasmo que sentían nuestros predecesores
por el éxito maravilloso de la mecánica newtoniana les llevó a hacer
generalizaciones, en el campo de la predicción…, que hoy han
resultado ser falsas. Queremos pedir disculpas colectivamente por
haber inducido a error al público culto al propagar, a propósito del
determinismo de los sistemas que cumplen las leyes newtonianas del
movimiento, unas ideas que después de 1960 ya no se pueden
sostener (Sir James Lighthill en Prigogine, 1999, p. 43 y 44)

A finales del siglo XIX, la pretensión era que “las ciencias sociales” se
acercasen a la visión paradigmática de “las ciencias naturales”, las cuales, como
vimos al principio, no consideraban la flecha del tiempo; es por eso por lo que, en
esa época, a la Sociología se le llamaba “Física social”. Sin embargo, como hemos
visto, el acercamiento si se ha dado, pero al revés: son las ciencias naturales las que
se han acercado a la visión paradigmática de las sociales, al descubrir que la
mayoría de los fenómenos que les corresponde estudiar, son probabilísticos e
irreversibles en el tiempo, es decir, son fenómenos con historia. Las consecuencias
18

de esos descubrimientos han llegado a alterar, incluso, la concepción clásica que se


tenía acerca de las leyes de la naturaleza:

Tradicionalmente estas leyes estaban asociadas al determinismo y a


la reversibilidad del tiempo. En los sistemas inestables las leyes de la
naturaleza se tornan fundamentalmente probabilísticas. Expresan lo
que es posible, y no lo que es cierto (el subrayado es nuestro)
(Prigogine, 1999, p. 108, 109)

Creemos que en esas palabras de Ilya Prigogine, se encuentra encerrada una


nueva confirmación de nuestra limitada capacidad de conocimiento acerca de la
realidad que nos rodea: los sistemas de no equilibrio, que conforman la mayor parte
de la realidad conocida, son altamente impredecibles. No es posible hablar de ellos
desde la certeza sino desde las posibilidades.

V. VISIÓN EPISTEMOLÓGICA DE KARL POPPER

Por último nos referiremos a la que nos parece la más importante propuesta
epistemológica del siglo XX, la propuesta de Karl Popper. Para Popper, la
inducción no sirve para sustentar el conocimiento científico: conseguir cisnes
blancos no sustenta de manera lógica la conclusión de que todos lo sean. Sin
embargo, una sola prueba en contrario (un solo cisne negro), es decir una sola
falsación, es suficiente para derrumbar la propuesta teórica de que todos los cisnes
son blancos. Vale decir, de enunciados particulares no se pueden derivar
enunciados universales, pero una sola falsación puede derribar un enunciado
universal. Esto implica que entre la verificación y la falsación hay una relación
asimétrica según la cual la falsación es mucho más poderosa que la verificación.
Producto de todo esto, la conclusión popperiana es que las especulaciones teóricas
no pueden verificarse definitivamente, pero si falsarse (Popper, 1998). Oigamos
directamente a Popper:

.... tomemos un caso trivial en que la gente habla de inducción; por


ejemplo, el caso de los muchos cisnes blancos que conducen a la
proposición ‘todos los cisnes son blancos’. ¿Qué es lo que sucede
realmente? Lo que sucede realmente es que ante un cisne blanco
reaccionamos con la hipótesis – una hipótesis creadora- de que todos
19

los cisnes son blancos. ¿Por qué es una hipótesis creadora? Porque va
más allá de todo aquello que hemos visto. Y entonces se retiene esta
hipótesis creadora. Intentamos estamparla en el mundo hasta que ya no
funciona. Esto es así en todas las aparentes, o así llamadas,
inducciones. Reaccionamos creativamente ante cualquier cosa en el
mundo, se somete a prueba esta reacción creadora y, si hubiera lugar a
ello, el mismo mundo la destruye. (Los subrayados son nuestros)
(1997, p. 82)

Por esto para Popper, es científico lo que es falsable, y la principal


herramienta de todo investigador debe ser la crítica más que la defensa, incluso, de
sus propias proposiciones; es decir, el desbaratamiento que logra Popper con la que
se consideraba una piedra angular de la ciencia, el inductivismo (un trabajo que ya
había comenzado el filósofo David Hume en el siglo XVIII), termina conectándose
con la tradición critica que inaugura Tales de Mileto 2600 años antes. Seguramente,
y en concordancia con todo lo anterior, es por lo que Prigogine ha dicho que la
ciencia es siempre un encadenamiento de proposiciones refutables (en Sorman,
1989, p. 41).

Para Popper, no hay manera de establecer nuestros enunciados como


dogmas eternos; no podemos predecir si, algún día, aparecerá un cisne negro que
los false. No por casualidad él tituló su autobiografía como una “Búsqueda sin fin”.
No por casualidad él llegó a decir….

“No sabemos, tan solo suponemos”

VI. CONCLUSIONES

1. El universo no puede ser totalmente cognoscible.

2. Todo conjunto de axiomas que propongamos nunca podrá ser totalmente


completo y/o coherente.

3. La mayoría y los más interesantes sistemas que conforman la realidad, son


sistemas de no equilibrio, caóticos e impredecibles en sí mismos.
20

4. Toda propuesta explicativa o teórica que arrojemos sobre el universo o sobre


parte de él para intentar comprenderlo, nunca podrá ser verificada de manera
definitiva.

A todo lo anterior hay que sumarle que, ya se sabe, todo el gigantesco


universo que vemos9 apenas representa el 5 % de todo lo que existe; el resto, el 95
%, está formado por materia oscura y energía oscura, acerca de las cuales no
sabemos de que están formadas, al momento de escribir este ensayo.

Puestos sobre la mesa los argumentos anteriores, tenemos que concluir que
la ciencia, siendo algo recién inventado al igual que su propia filosofía, la
epistemología (recordemos que Descartes murió hace tan solo 350 años), pronto ha
hecho descubrimientos que hacen necesario que el hombre acepte sus limitaciones y
se asuma en el marco de una búsqueda de posibilidades limitadas. Es por lo tanto
necesaria la humildad a la hora de acercarnos con nuestro estetoscopio a oír el
corazón del universo que nos rodea. Hablamos de una “humildad” que no se parece
a la que conciben algunas religiones, una humildad ésta que es, más bien, más
cercana a la sumisión y a un rogatorio permanente.

Hablamos más bien de la humildad de quien toma conciencia de sus


limitaciones en cuanto a las posibilidades de conocer, totalmente, la realidad y el
universo que le rodea, pero que, no por eso, deja de tener “el valor de usar” su
“propia razón”. Hablamos de la humildad de la persona que, ante la pregunta
¿Cuál es la naturaleza de la realidad?, no se encuentra constreñida por un
paradigma que piensa por ella y que lo obliga a defender respuestas prefabricadas.
Hablamos más bien de la humildad de la persona que no tiene temor a contestar, en
muchos casos, “NO SE”, porque esa es la verdad, en realidad no sabemos, con total
certeza, cuales son las respuestas a las preguntas fundamentales que nos hacemos

9
Tan gigantesco es el pedacito del universo que logramos observar, apenas el 5 %, que ni siquiera
hemos logrado visitar la estrella más cercana fuera de nuestro sistema solar, Alfa Centauri, la cual
está apenas a 3 años luz. A pesar de lo cerquita que está esa estrella (tómese en cuenta que hay
galaxias que están a 13.280 millones de años luz), sin embargo nuestra nave espacial “Voyager 1”,
va a tardar en llegar a ella 17 mil años!!
21

acerca del universo, acerca de nuestra existencia, acerca de la naturaleza de la


realidad.

Es verdad que, a partir de aquí, puede embargarnos el pesimismo y la


soledad ante el peso absoluto de sentirnos solos ante un universo que se niega a
responder las preguntas existenciales más fundamentales. A partir de aquí es
tentador dejarse deslizar hacia visiones como la contenida en un texto publicado por
la UNESCO con motivo del coloquio “La ciencia y la diversidad de las culturas”:

El desarrollo científico desemboca en una verdadera elección


metafísica, trágica y abstracta: el hombre tiene que elegir entre la
tentación tranquilizadora pero irracional, de buscar en la naturaleza
la garantía de los valores humanos, la manifestación de una
pertenencia esencial,……. y la fidelidad a una racionalidad que le
deja sólo ante un mundo mudo y estúpido (el subrayado es nuestro)
(en Prigogine, 1999, p. 112).

Pero por otra parte, se puede asumir una postura que, aunque aceptando que
no tenemos muletas ni analgésicos que nos tranquilicen ante el miedo que provoca
en nuestra alma el hecho de mirar directo a los ojos del universo, asume también la
responsabilidad de elegir y labrar nuestro propio destino. Como diría Jacques
Monod, Premio Nobel de Fisiología y Medicina 1965:

La antigua alianza está ya rota; el hombre sabe al fin que está solo en
la inmensidad indiferente del universo de donde ha emergido por
azar. Igual que su destino, su deber no está escrito en ninguna parte.
Puede escoger entre el reino y las tinieblas (el subrayado es nuestro)
(1971, p. 193)
Planteamos, entonces, la posibilidad de establecer una alianza entre…

1. este universo que, aunque bastante mudo, se nos presta, se nos facilita de
alguna manera (aclarando que, cuando decimos “este mundo”, decimos este
barrio, esta urbanización, esta luna, este rio, en fin, esta “circunstancia”
espacial de existencia; decimos también este tiempo que tenemos de vida y
decimos, también, estos “otros” que me rodean)

2. y nuestra capacidad de hacer una reverencia interior, personal, intima, que


puede decidir darle una direccionalidad a este tiempo que tenemos de vida; que
22

puede decidir un “para que” del espacio temporal con el que voy a contar
mientras mantenga los ojos abiertos…. más allá de comer, dormir,
sobrevivir….

Entonces entre nuestras limitadas circunstancias y nuestro firme propósito


de vida, podemos llegar a ser, nosotros mismos, humildes creadores de pequeños
mundos dentro de este mundo. Podemos proponernos dejar más bonito el rinconcito
del mundo que nos tocó habitar, dejar rastros de colores en el camino que nos tocó
transitar. Espacios que, por pequeños que sean, pueden llegar a emitir el destello
propio de la serena bonitura que acompaña a la bondad.

Ramón Francisco Reyes Echegaray


Ex Maestro rural
06 de Febrero de 2021
23

Referencias

Brans, Jean-Pierre; Stengers, Isabelle; Vincke, Philippe (Compiladores) (2000). Ilya


Prigogine: El tiempo y el devenir. Barcelona (España): Editorial Gedisa S.A.

Chaitin, Gregory (March. 2006). The limits of reason. Scientific American. March
2006 Volume 294, Number 3. 74 – 81.
Chaitin, G. (Abril. 2001). Entrevista a Gregory Chaitin, el mago del azar. En
https://www.lanacion.com.ar/ciencia/omega-un-numero-que-desafia-las-leyes-de-
la-matematica-nid301390/. 01 de Enero de 2021.
Guba, Egon (1990). The paradigm dialog. New York: Sage

Hawking, Stephen (1988). Historia del tiempo. Barcelona (España): Editorial Crítica.

Monod, Jacques (1971). El azar y la necesidad. Ensayo sobre la filosofía natural de


la biología moderna. Barcelona (España): Barral Editores, S.A.

Prigogine, Ilya (1999). Las leyes del caos. Barcelona (España): Editorial Crítica
Popper, Karl (1992). Conocimiento objetivo. Madrid: Editorial Tecnos. S.A.
Popper, Karl (1996). Un mundo de propensiones. Madrid: Editorial Tecnos. S.A.

Popper, Karl (1997). Sociedad abierta, universo abierto. Conversación con Franz
Kreuzer. Madrid: Editorial Tecnos
Popper, Karl (1999). La lógica de la investigación científica. Madrid: Editorial
Tecnos
Sorman, Guy (1989) Los verdaderos pensadores del siglo XX. Buenos Aires:
Editorial Atlántida
Wong, Kate (Sept. 2014). Man saga. Scientific American. September 2014 Volume
311, Number 3. 36 – 39.

También podría gustarte