Está en la página 1de 19

¿El ser humano como una máquina de Turing?

La pregunta por la inteligencia artificial en una perspectiva filosófica y teológica

Dirk Evers

La pregunta por la posibilidad y por los límites de la inteligencia artificial plantea la pregunta
por la simulabilidad de los procesos mentales a través de máquinas producidas por los seres huma-
nos. La respuesta dependerá también de cómo respondamos la pregunta sobre nosotros mismos, y
repercutirá a su vez en nuestra autocomprensión. En este artículo, la pregunta será abordada de la
siguiente manera: En la primera parte se preguntará por las posibilidades de la inteligencia artificial en
general. Esto se desarrollará en tres secciones, en las cuales –a partir de la teoría de las máquinas de
Turing– se busca entender de forma más precisa la diferencia entre la inteligencia natural y la inteli-
gencia artificial. En la segunda parte, las ideas desarrolladas antes serán aprovechadas –de nuevo en
tres secciones– en relación con cuestiones antropológicas, éticas y teológicas.

I. La inteligencia artificial

1. Máquinas de Turing

La pregunta por la inteligencia artificial puede formularse como la pregunta de si es posible


simular las funciones de la inteligencia humana con ayuda de sistemas formales que operan con base
en reglas matemáticas, y realizar esas funciones en máquinas producidas artificialmente, a las cuales
haya entonces que atribuirles inteligencia. Pero en la medida que lo anterior supone que de esa forma
pueden reconstruirse en forma controlada propiedades que se le han atribuido tradicionalmente al ser
humano, se advierte en ello la pretensión de comprender de un modo objetivo, con la certeza irrevo-
cable del conocimiento matemático, qué es lo que constituye la inteligencia en general. La conclusión
subsiguiente es que la teoría y la pragmática de los sistemas técnicos comprenden la inteligencia y la
práctica de la inteligencia humana, y más aún, que justo por su forma matemática, esos sistemas per-
miten que la comprensión de la inteligencia transite desde un simple tanteo incierto al camino seguro
de una ciencia.
Así como la mecánica clásica redujo las leyes del movimiento a movimientos ideales libres de
fricción, del mismo modo la teoría de la inteligencia artificial reduce el pensamiento a la máquina

1
ideal. La máquina universal de Turing se considera como el modelo de una máquina ideal de pensa-
miento1, una máquina con un control finito y una capacidad ilimitada de espacio de almacenamiento,
que puede realizarse de forma electromecánica o que también puede simularse con los ordenadores
actuales –por supuesto que sin las propiedades ideales subyacentes a la teoría, como son la capacidad
ilimitada de almacenamiento y un tiempo de procesamiento infinito–. Es posible demostrar que to-
dos los procedimientos recursivos pueden simularse en la máquina universal de Turing.
Entretanto se han desarrollado muchos ordenadores y robots que obedecen a la teoría de las
máquinas de Turing y procesan datos algorítmicamente, de modo que poseen un comportamiento
diferenciado para la solución de problemas y pueden reaccionar de forma “inteligente” frente a de-
terminadas tareas. Entre estas tareas se encuentran procesos complejos de decisión como los que
tienen lugar en computadores de ajedrez o en aparatos de análisis químico y de diagnóstico médico,
y que han sido desarrollados partiendo de la teoría inicial del General Problem Solver (GPS)2, el Solucio-
nador General de Problemas, hasta los sistemas expertos actuales basados en reglas. Esos sistemas de
decisión controlados por ordenador reciben su información a través de receptores que convierten
estímulos olfativos, acústicos y visuales, además de otros, en datos procesables, de modo que poseen
un comportamiento para la solución de problemas bastante diferenciado. Pero aquí también cabría

1 Alan M. Turing (1912-1954), matemático, lógico e informático británico, desarrolló entre 1936 y 1937 la teoría de las
máquinas que llevan su nombre (Alan M. TURING, On Computable Numbers, With An Application to the
Entscheidungsproblem [1937], in: Del mismo autor., Intelligence Service. Schriften, Bernhard DOTZLER/Friedrich
KITTLER, Berlin 1987, 18–60). Una máquina de Turing dispone de una cantidad finita de estados discretos internos y
tiene un dispositivo externo de almacenamiento en forma de cinta magnética. Esta cinta, que en principio es infinita, está
dividida en celdas que pasan por una cabeza de lectura y de escritura. Esa cabeza está en condición de leer un símbolo
consignado en la celda correspondiente, de escribir un símbolo en una celda vacía, o de borrar un símbolo existente. La
cabeza de lectura y escritura, así como el movimiento hacia adelante o hacia atrás de la cinta, son controlados por los
estados internos de la máquina, que además determinan cómo debe transitarse de un estado interno a otro según los
símbolos que son leídos por la máquina. Turing logró demostrar que las máquinas de Turing pueden realizar en principio
cualquier cosa que haga cualquier máquina de cómputo independientemente de la manera como esta esté construida.
Turing también mostró que tampoco existe un procedimiento de decisión finito que pueda decidir para todas las máqui-
nas de Turing, y para todas las posibles entradas, si la máquina de Turing para con esa entrada después de un número
finito de pasos, o si continúa andando hasta el infinito, lo cual corresponde al llamado “problema de la parada”.
2 Sobre esto, véase Herbert A. SIMON/Allen NEWELL, Informationsverarbeitung in Computer und Mensch, in:
Walther Ch. ZIMMERLI/Stefan WOLF (Hg.), Künstliche Intelligenz. Philosophische Probleme, Stuttgart 1994, 112–
145, en especial 135 y siguientes.

2
mencionar los sistemas de comunicación cada vez más sofisticados, los programas de análisis lingüís-
tico y los robots que actúan de forma autónoma y que reaccionan frente a su entorno.
Desde un punto de vista teológico no resulta problemático atribuirle inteligencia a esas má-
quinas y etiquetarlas como “inteligencia artificial”3, puesto que producen resultados que denomina-
ríamos “inteligentes” en caso de que los produjera un ser humano. En la medida que no es un ser
humano el que los produce, sino una máquina, tiene sentido atribuirle a dicha máquina, ya no una
inteligencia surgida de forma natural, sino una inteligencia artificial, esto es, una inteligencia construi-
da por el ser humano. Tampoco se malentiende la inteligencia si se comprende como un proceso basa-
do en reglas que persigue fines predeterminados y responde con reacciones adecuadas a datos exter-
nos procesados en forma simbólica, y eventualmente analiza además las reacciones que resultan a
consecuencia de la respuesta inicial en relación con los fines perseguidos para optimizar de ese modo
la reglas que controlan el proceso. Entendida en ese sentido, la expresión “inteligencia artificial” no
implica demasiado.
La pregunta fundamental que se plantea a continuación, es si los principios que subyacen a
esa máquina representan sólo las condiciones necesarias de la inteligencia, o si contienen también las
condiciones suficientes de esta. Que lo último puede ser el caso, se sugiere dentro del marco de una
visión fundamental orientada a las ciencias naturales y que se denomina “naturalismo”. Por naturalis-
mo se entiende en este contexto la tesis según la cual todos los sistemas reales, ya sean estrellas, plane-
tas, rocas, plantas, animales o seres humanos, “están compuestos por configuraciones de entidades
materiales más o menos complejas, que se mantienen unidas por un número reducido de interaccio-
nes dinámicas”4, que son justo las interacciones que pueden describir las ciencias naturales matemati-
zadas. También sería posible reducir, por lo menos en principio, el comportamiento de grandes sis-
temas complejos en toda su diversidad a las propiedades de sus elementos básicos y a las interaccio-
nes que existen entre estos.
Se sabe que el cerebro es el órgano responsable de todos los procesos de la inteligencia, por
cuanto se trata del sistema que procesa datos simbólicos a partir de receptores y, con base en reglas,
los convierte en comportamientos apropiados. Hoy en día es posible establecer una correspondencia
entre determinadas operaciones mentales y determinadas áreas del cerebro, sabemos que las capaci-
dades cognitivas y emocionales se afectan de forma específica mediante lesiones en ciertos sistemas

3 Eilert Herms sostiene la misma tesis, Eilert HERMS, Künstliche Intelligenz, in: Del mismo autor, Gesellschaft gestal-
ten. Beiträge zur evangelischen Sozialethik, Tübingen 1991, 284–295, aquí: 288.
4 Bernulf KANITSCHEIDER, Vorwort, in: Del mismo autor/Franz J. WETZ (Hg.), Hermeneutik und Naturalismus,
Tübingen 1998, V.

3
cerebrales, y los elementos constitutivos del cerebro, las neuronas, también se conocen y se han ana-
lizado en algunos de los aspectos relacionados con su funcionalidad. Las neuronas parecen funcionar
en principio como interruptores electroquímicos, y se espera que puedan representarse mediante
funciones calculables. Además, en el marco de una imagen científica del mundo se considera que la
totalidad del aparato cognitivo es el producto del desarrollo y la optimización evolutivas, de manera
que los fines que le están dados externamente consisten en comportamientos adecuados al entorno y
favorables para la supervivencia, ello tanto en el sentido de la supervivencia del individuo como en el
de la supervivencia general de la especie.
Con base en ello se insinúa la conclusión de que el aparato cognitivo humano no es más que
un “Solucionador General de Problemas”, con lo cual constituye un caso especial de una máquina de
Turing. Alan Turing siguió esa misma línea de argumentación para establecer a la inteligencia artificial
como el paradigma de la inteligencia en sí misma. Si bien Turing admite que con seguridad el sistema
nervioso no es una máquina de estado discreto, es decir una máquina que procede paso por paso5,
sostiene sin embargo que los cerebros evidentemente son muy parecidos a esa clase de sistemas dis-
cretos, “y que parece haber muy buenas razones para suponer que también podrían estar constituidas
de modo que se correspondan del todo con ellos, sin que esto conlleve ninguna modificación en sus
propiedades esenciales”6. Por esa razón, todos los estados en que se encuentra el cerebro cuando
resuelve operaciones de decisión deben poder representarse por completo mediante los correspon-
dientes estados de una máquina de Turing: “A cada estado mental de la persona que opera un cálculo
le corresponde un estado-m de la máquina.”7
En conexión con lo anterior, Turing desarrolló el conocido test, el cual luego se denominó
Test de Turing, que debe poder resolver la pregunta de cuándo puede atribuírsele inteligencia a una
máquina. Se trata de un juego en el que participan un ser humano, una máquina y un interrogador.
Todos los tres se encuentran en cuartos separados, y el interrogador no sabe en qué cuarto está la
máquina ni en qué cuarto está el ser humano. Su objetivo es interrogar al ser humano y a la máquina
para identificar en qué cuarto se encuentra la máquina. La máquina debe programarse de manera que
trate de engañar al interrogador. Si después de un número suficiente de veces el interrogador identifi-

5 Alan M. TURING, Computing Machinery and Intelligence (1950), in: Del mismo autor., Intelligence Service. Schriften
(cf. nota 1), 148–182, aquí: 171.
6 Alan M. TURING, Intelligent Machinery (1969), in: Turing, op. cit., 82–113, aquí: 87. Cf. también Turing, op. cit., 96:
„Los circuitos que se emplean en máquinas de computación parecen tener las propiedades esenciales de los nervios.“
7 TURING, On Computable Numbers (cf. nota 1), 43.

4
ca correctamente al ser humano en no mucho más de la mitad de los intentos, entonces la máquina
pasa el test, de manera que hay que atribuirle una capacidad de pensamiento análoga a la humana.

2. Sobre la diferencia entre la inteligencia natural y artificial

Con su procedimiento de prueba para la atribución de inteligencia, Turing produjo un argu-


mento en principio irrefutable: Dime de forma clara y distinta en qué consiste la diferencia entre el
comportamiento del ser humano y la máquina, y yo construyo una máquina que simule esa diferen-
cia, puesto que tan pronto como describes algo de manera clara y distinta, puede reconstruirse con
base en reglas, es decir por medio de algoritmos.
Partiendo de la argumentación difícil de refutar, de que tan pronto como podemos especificar
de forma clara –y no simplemente afirmar intuitivamente o adivinar– en qué consiste fenomenológi-
camente una diferencia entre el comportamiento del ser humano y el de la máquina, esa diferencia
puede simularse, resultan dos posibles figuras de argumentación. Por un lado, lo anterior puede aducir-
se como un argumento a favor del reduccionismo para afirmar que en principio la inteligencia natural
no es nada distinto de la inteligencia artificial. Turing concibió su test con esa intención. A través de
la exigencia, que por principio está condenada al fracaso, de enunciar de forma clara y distinta una
diferencia fenomenológica que después no pueda programarse, los reduccionistas pueden sentirse
legitimados en defender la afirmación de que los computadores pueden pensar al igual que los hu-
manos hasta tanto no se haya descubierto cuál es la esencia particular de la inteligencia natural. Pero
tan pronto como se determinan de forma clara y distinta los criterios fenomenológicos para su iden-
tificación, puede postularse al mismo tiempo una nueva máquina que también simule esas supuestas
propiedades esenciales de la inteligencia natural.
Por el otro lado, el procedimiento de prueba de Turing también puede comprenderse como un
argumento en contra del reduccionismo. Los adversarios del reduccionismo siempre podrán señalar
que la diferencia entre el ser humano y la máquina radica justo en lo no empírico, en aquello que no
puede determinarse de forma clara y distinta, sino que debe ser captado intuitivamente. Puede argu-
mentarse que una máquina de Turing, que opera de forma discreta, por principio no está en condi-
ción de alcanzar por medio de la simulación lo que sólo puede conocerse intuitivamente y no según
reglas formales y que sólo le pertenece a la inteligencia natural, que por esa razón tiene que ser algo
distinto de lo que puede modelarse funcionalmente a través de máquinas.
Ambas estrategias de argumentación llevan a que cada uno de sus protagonistas siempre ten-
ga la razón. Con ello resulta evidente que el test de Turing en realidad no resuelve nada en relación
5
con nuestra cuestión, sino que lleva a una situación aporética de tablas, que hay que resolver desde
otro lugar y mediante argumentos que atañen a la relación entre el comportamiento empíricamente
determinable y nuestras experiencias pre-empíricas de lo evidente, procedentes de la experiencia que
tenemos de nosotros mismos y de nuestra autointerpretación. El test de Turing es instructivo por
cuanto llama la atención sobre el hecho de que, si hay una diferencia entre los sistemas de inteligencia
artificial y el ser humano, esa diferencia debe consistir en que los sistemas de inteligencia natural no
están determinados por completo por su funcionalidad gobernada por reglas y empíricamente determina-
ble.
Lo anterior también puede ilustrarse por medio del siguiente razonamiento. Una máquina de
Turing es tan sólo la esclava de su programa, y se describe de manera suficiente a través de la funcio-
nalidad de ese programa. En sus trabajos, Turing diseño una máquina concreta y la tomó como base,
pero sólo para desarrollar mediante ella la teoría de las funciones recursivas. La ejecución técnica es
irrelevante para ese fin. En lugar de una cinta magnética sobre la cual se pueden escribir, leer y borrar
caracteres con ayuda de una cabeza magnética, podría emplearse también una cinta de papel, un bolí-
grafo, un sensor y un borrador para escribir, leer y borrar, sin que con ello se modificara la fórmula
que describe la funcionalidad de esa máquina.
Hoy en día diríamos que la particularidad de una máquina de Turing consiste en su software,
el hardware es arbitrario. Por esa razón, podemos realizar el programa, la función de la máquina,
mediante máquinas muy diversas, entre las cuales se encuentran máquinas a las que intuitivamente no
les atribuiríamos ninguna capacidad de pensamiento. Así, cualquier máquina de Turing podría reali-
zarse en principio mediante una máquina neumático-mecánica. Sin embargo, no resulta para nada
fácil afirmar que las válvulas y los pistones poseen inteligencia artificial en el sentido de pensamien-
to8.

8 La tesis de la llamada inteligencia artificial fuerte, según la cual las formas de la conciencia y de la inteligencia humanas pue-
den generarse por medio de circuitos electrónicos en lugar de neuronas, se fundamenta en la diferencia entre hardware y
software. Sin embargo, no es claro que esa diferencia se piense siempre de manera consecuente. En la comparación entre
el ser humano y el ordenador se supone que es irrelevante si el programa se ejecuta mediante estructuras neuronales o
con circuitos electrónicos. Lo decisivo es la funcionalidad, puesto que sólo esta puede determinarse empíricamente. Tan
pronto como dos sistemas distintos producen efectos indistinguibles, es posible atribuirle a ambos las mismas propieda-
des en relación con sus efectos. No obstante, si afirmamos que lo decisivo es exclusivamente el programa, entonces se-
gún la teoría de las máquinas de Turing el pensamiento, la conciencia, etc., podrían simularse en principio en máquinas
mecánicas, puesto que la funcionalidad de cualquier computador electrónico puede simularse a su vez mediante máquinas
mecánicas. La fuerza sugestiva de la inteligencia artificial fuerte se fundamenta con seguridad también en la fuerza miste-
riosa de la electricidad, que está asociada con lo mental y que opera con una velocidad formidable y prácticamente sin

6
A la inversa, es posible que un ser consciente, capaz de pensar, esto es, un ser humano, ejecu-
te las funciones de una máquina de Turing sin que comprenda en modo alguno lo que está haciendo.
Este es el conocido argumento de la habitación china, de John Searle9. En ese experimento mental, una
persona que domina el idioma español, pero no el chino, se encuentra en una habitación cerrada con
una lista de reglas que especifican cómo deben sustituirse las palabras del español mediante caracte-
res chinos que ya tiene preparados a su disposición. Siempre que a la persona le envían a través de
una ranura un papel con un texto en español, devuelve después de un momento un conjunto de ca-
racteres chinos que contiene una traducción del texto en español. Suponiendo que las reglas, cuya
aplicación es puramente mecánica, son correctas, y que la persona las aplica a conciencia, la traduc-
ción será buena, de manera que desde afuera se tendrá la impresión de que en la habitación hay al-
guien que domina el chino. No obstante, quien aplica las reglas lo hace de una manera tan sólo me-
cánica, sin comprender en lo más mínimo lo que está haciendo, aun cuando en principio, debido a
sus capacidades mentales, se encuentre en condición de dominar el chino. De lo anterior se despren-
de la siguiente conclusión: Un programa, una función, un comportamiento basado en reglas, no tiene
él mismo que poder pensar y comprender para funcionar.
Si las máquinas que constan de elementos a los cuales les negaríamos por principio una ver-
dadera capacidad de pensar y de poseer inteligencia consciente pueden equipararse en su funcionali-
dad con cualquier ordenador, y si resulta a la inversa que un ser pensante puede realizar todo lo que
hace un computador sin desarrollar ninguna comprensión consciente de lo que está haciendo, enton-
ces es claro qué es lo que diferencia la inteligencia artificial de la inteligencia natural: La inteligencia
artificial sigue reglas, en tanto que la inteligencia natural comprende significados. Aun cuando el
comportamiento observable entre ambos sistemas no pudiera distinguirse en principio, y en situacio-
nes como la del test de Turing no pudiera diferenciarse fenomenológicamente en modo alguno, es
necesario retener esa diferencia. A cualquier máquina que opere únicamente de manera formal hay
que atribuirle sólo inteligencia artificial, es decir, una inteligencia que no es portadora de significado y
que no comprende. O a la inversa: Los sistemas naturales inteligentes no son sólo máquinas que ope-
ran de manera formal.

disipación alguna, con lo cual sin embargo no es observable para nosotros. Sin embargo, intuitivamente no resulta arbi-
trario para nosotros si los “procesos de pensamiento” son realizados por neuronas, por circuitos electrónicos o por vál-
vulas neumáticas. Le atribuimos más capacidad a las neuronas que a los circuitos electrónicos, y a estos más que a las
válvulas neumáticas. En la teoría de las máquinas de Turing, el hardware resulta arbitrario, pero en la realidad nuestras
intuiciones, entrenadas en el trato con nosotros y con las demás personas, juzgan de otra manera.
9 John SEARLE, Geist, Gehirn, Computer, in: ZIMMERLI/WOLF (Cf. Nota 2), 232–265.

7
3. Apertura semántica

Que por razones fundamentales las máquinas de Turing no pueden hacer cualquier cosa, se
evidencia en una particularidad de las máquinas de Turing descubierta por el mismo Turing, a saber,
en el llamado “problema de la parada”10. El problema sostiene que si bien para cualquier problema es
posible construir una máquina que está en condiciones de resolverlo, no existe sin embargo una má-
quina que esté en la capacidad de resolver cualquier problema. Que hay un problema equivalente al
problema de la parada en las máquinas de Turing en todos aquellos sistemas formales lo suficiente-
mente fuertes como para simbolizar la aritmética, se manifiesta ya en los dos teoremas de la incom-
pletitud publicados por Kurt Gödel (1906-1978) en 193111. El primero de ellos afirma, formulado de
manera informal, que en cualquier sistema fuerte (informal) hay enunciados verdaderos que no pue-
den demostrarse de manera formal con los medios de ese sistema. De lo anterior se sigue, con ayuda
de algunos razonamientos adicionales procedentes del segundo teorema, que si uno de estos sistemas
se supone como libre de contradicciones, esa falta de contradicciones resulta indemostrable. Por esa
razón, ningún sistema puede estar al mismo tiempo libre de contradicciones y ser además completo.
Si el sistema está libre de contradicciones, entonces necesariamente contiene enunciados indecidibles.
No obstante, los teoremas de Gödel también llaman la atención sobre un fenómeno que nos
remite de nuevo a la diferencia que destacamos antes entre la inteligencia mecánico-maquinal y la
inteligencia natural humana. Los demostraciones de Gödel dejan claro que el concepto de verdad
matemática no puede construirse dentro del mismo sistema. Gödel demostró que mediante su proce-
dimiento de Gödelización puede prescindirse de la diferencia entre lenguaje objeto y metalenguaje.
El concepto de demostrabilidad puede representarse con los medios del sistema mismo. No obstan-
te, precisamente cuando ocurre lo anterior, no es posible determinar entonces que el sistema está
libre de contradicciones y es completo. De acuerdo con esto, tampoco es la simple autorreferenciali-
dad la que provoca la incompletitud del sistema mediante cierres autorreferenciales, lo que provoca
dicha incompletitud es el hecho de que un sistema evalúa semánticamente sus propios enunciados en
el momento en que se plantea a sí mismo la pregunta por la verdad. La máquinas de Turing son sis-

10 Cf. Nota 1.
11 Kurt GÖDEL, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, in: Monats-
hefte für Mathematik und Physik 38 (1931), 173–198.

8
temas semánticamente cerrados, para los cuales está predeterminado un concepto de verdad mediante su
respectivo programa y por el carácter discreto de los pasos del programa. Los sistemas comprensivos
naturales son sistemas semánticamente abiertos, que generan en sí mismos a su vez la diferencia entre
lenguaje objeto y metalenguaje, y de ese modo preguntan constantemente de nuevo por la verdad y
deben decidirse por determinadas condiciones de verdad.
El mismo Gödel interpretó en ese sentido las consecuencias de su descubrimiento. Para él, el
progreso de la matemática, así como del conocimiento humano en su conjunto, debe comprenderse
en el sentido de una permanente clarificación de sentido que no deja de cuestionar y que por princi-
pio no puede desembocar en una teoría definitiva y concluyente. El pensamiento humano puede y
debe sobrepasarse constantemente a sí mismo, encaminándose a la obtención de nuevos conoci-
mientos y verdades posibles: “Se muestra que al postular de manera sistemática los axiomas de la
matemática, se hacen evidentes una y otra vez nuevos axiomas que no se siguen de manera lógico
formal de los que han sido postulados antes […] el hecho de que una y otra vez se hagan evidentes
axiomas nuevos debido al sentido de los conceptos fundamentales, es justamente algo que una má-
quina no puede simular.”12
En un sistema semánticamente cerrado, un concepto de verdad puramente sintáctico lleva a
contradicciones y a la incompletitud. Entonces hay que afirmar a la inversa que la verdad es un con-
cepto relacional, el cual sólo tiene sentido si se formula relativamente a, y a diferencia de, un sistema
sintáctico que opera de forma recursiva algorítmica. Y ese carácter relacional de la verdad no es fini-
to, no puede formalizarse a su vez a través de una teoría general concluyente, insertándola en ella por
medio de una regla de cálculo. Si bien en principio es posible representar cualquier semántica con los
medios de los sistemas interpretados, convirtiéndola de ese modo en parte del sistema formal, por el
contrario también es cierto que para cada uno de esos sistema pueden postularse proposiciones
“verdaderas” que no son demostrables con los medios del sistema. En todo caso se insinúa la con-
clusión, que ha sido formulada en múltiples ocasiones, “de que las fuentes del intelecto humano no
fueron formalizadas por completo, y que esto tampoco es posible en un futuro”13.

II. La inteligencia artificial en una perspectiva teológica

12 Véase el esbozo de una conferencia The modern development of the foundations of mathematics in the light of philosophy de 1961 in:
Kurt GÖDEL, Collected Works, vol. III, hg. v. Solomon FEFERMAN, New York/Oxford 1995, 372–387, aquí: 384.
13 Ernest NAGEL/James R. NEWMANN, Der Gödelsche Beweis, München 62001, 99.

9
A partir de lo que ha sido expuesto hasta ahora pueden desarrollarse bajo diversos aspectos
consecuencias y perspectivas que son de importancia para la teología y la ética. Para ello se plantearán
a continuación algunas reflexiones relevantes que están relacionadas con tres cuestiones: 1. ¿Cuál es
el significado de la inteligencia artificial para nuestra imagen del mundo? 2. ¿Cuáles son las preguntas
éticas y las áreas problemáticas referentes a los sistemas de inteligencia artificial que se plantean? 3.
¿Cuál es el significado de esas reflexiones para una imagen teológica de Dios y para las capacidades y
los límites del conocimiento pertenecientes a la teología?

1. El ser humano y la máquina

En primer lugar hay que considerar como incompleta una explicación de la conciencia que se
formule dentro del marco de una imagen del mundo evolucionista y que trate de explicarla en el sen-
tido de un aparato para la solución de problemas que aumenta la posibilidad de supervivencia. Desde
que la teoría de la evolución se estableció como el paradigma constante para la explicación genética
de los sistemas biológicos, el aparato cognitivo de los seres humanos también fue visto en analogía a
los órganos del cuerpo meramente fisiológicos como un instrumento que garantiza una ventaja de
supervivencia. Aquí cabe cederle la palabra al físico Ludwig Boltzmann como una voz entre muchas
otras: “Al cerebro lo consideramos como el aparato, el órgano para la producción de imágenes del
mundo, el cual evolucionó con especial perfección en el ser humano, del mismo modo que el cuello
en la jirafa o el pico en la cigüeña evolucionaron con una longitud inusitada, ello debido a la enorme
utilidad de esas imágenes del mundo para la conservación de la especie, conforme a la teoría de Dar-
win.”14
Lo anterior no es incorrecto en cuanto explicación genética, pero es inadecuado como una
descripción suficiente. La ventaja de supervivencia de la dimensión auténtica de la comprensión se
vuelve en todo caso superflua si se la reduce meramente a funciones de control y de regulación. Para
ese fin hubiera bastado un aparato cibernético central carente de conciencia. No obstante, un aparato
semejante no habría estado en condición de generar una verdadera comprensión y una apertura se-
mántica. El preguntar por el significado y el comprender el significado, es empero una condición
necesaria para el surgimiento del lenguaje, de la comunicación, de la sociedad y de la ciencia, pero
también para el surgimiento de la religión.

14 Ludwig BOLTZMANN, Über die Frage nach der objektiven Existenz der Vorgänge in der unbelebten Natur, in: Del
mismo autor, Populäre Schriften, Leipzig 1905, 162–187, aquí: 179.

10
La diferencia entre el sujeto que percibe y la realidad percibida, resulta fundamental para la
percepción comprensiva del mundo. Es sólo por el carácter ineludible de esa diferencia, la cual no
puede capturarse a su vez en forma reconstructiva por el sistema cognoscitivo, que puede explicarse
p. ej. el esfuerzo de nuestro aparato perceptual para construir un mundo de la experiencia uniforme,
en el cual incluso se retoca el punto ciego de nuestro campo visual, de modo que nos sale al encuen-
tro un mundo coherente. Como seres conscientes tenemos un mundo, en el cual existimos y que al
mismo tiempo está frente a nosotros, un Solucionador General de Problema sólo requeriría un con-
junto de informaciones para la regulación de procesos. Y del mismo modo, no tenemos tan sólo un mo-
delo de nosotros mismos que funcione como una representación formal interna de nuestra relación
con el mundo15, sino que somos un yo verdadero. Necesitamos la oposición entre mundo y sujeto para
poder romper con el carácter semánticamente cerrado de un mero sistema formal para la solución de
problemas.
No obstante, nuestra subjetividad se encuentra contenida a su vez en otro nivel de la jerar-
quía, a saber, en la comunidad social comunicativa de los sujetos, en el cual está entretejida a su vez la
diferencia entre sujeto y mundo. Un ser humano sólo se vuelve un yo de cara a un tú, dice la sencilla
fórmula mediante la cual Martin Buber expresa esa idea. Tenemos que aprender que somos un sujeto
en primer lugar mediante las relaciones con las cuales crecemos, y a través del lenguaje con el cual
nos perfilamos en el trato con otros. Necesitamos del otro para poder desarrollar en primer lugar una
relación con nosotros mismos, para poder desarrollar una personalidad y una subjetividad.
Pero la pluralidad de las semánticas, de las interpretaciones que generamos en la comunica-
ción, tampoco puede compendiarse a su vez por completo en un “súper sistema” sin destruirla. Ello
es así, puesto que nuestra acción comunicativa tampoco puede formalizarse de manera puramente
funcional, ya que el yo del otro permanece inaccesible para mí de una manera directa. Esto no quiere
decir que la acción comunicativa no obedezca a fines funcionales, es sólo que no se deja reducir a
ellos sin que pierda su particularidad, que consiste en la generación y en la atribución de sentido y
significado. La acción comunicativa tampoco se deja disolver en la acción meramente instrumental.
En la medida que no sólo operamos de manera funcional y con base en reglas, una categoría
también muy relevante teológicamente pertenece asimismo a la caracterización de la personalidad y

15 Así, Thomas Metzinger comprende p. ej. el cerebro humano como un “Solucionador General de Problemas”, y lo compara
con un simulador de vuelo, que sin embargo genera al mismo tiempo nuestra autoconciencia como un modelo interno de
nosotros mismos junto con los escenarios del mundo externo: “Los cerebros humanos simulan al mismo tiempo al piloto”.
(Thomas METZINGER, Subjekt und Selbstmodell. Die Perspektivität phänomenalen Bewußtseins vor dem Hintergrund
einer naturalistischen Theorie mentaler Repräsentation, Paderborn 1993, 243).

11
del ser humano. Se trata de la categoría de la interrupción16, que en contextos técnicos se comprende
casi siempre en el sentido de una falla. Podemos incluso sentir temor de nosotros mismos cuando
nos damos cuenta de que sólo estamos corriendo un programa, de que hemos caído en un mero fun-
cionar obtuso en el cual sólo seguimos reglas. ¿Puede una máquina cibernética de control, programada
para la optimización, sentir temor de sí misma, y debido a una deficiencia preguntarse en un sentido
ético o intelectual: ¿Qué es lo que estás haciendo de veras? ¿Por qué estás funcionando apenas? En
todo caso, un aspecto importante de la religión es que quiere provocar esas interrupciones, bien sea
en la misa, en la oración y en la meditación, así como en muchas otras ocasiones. Pero también en el
plano mundano, una ocurrencia espontánea o una percepción intuitiva se advierte como una inte-
rrupción de la rutina.
La sola funcionalidad sería en todo caso el fundamento de una imagen pobre del ser humano.
Ignora la indisponibilidad última en la cual nos encontramos como sujetos actuantes, e ignora que
nos debemos a relaciones que no son controlables formalmente sin que se destruyan. La doctrina
teológica de la justificación entronca con esa estructura fundamental del ser humano: No somos
nuestra propia obra ni tampoco el artificio de un creador que nos haya producido. Y no debemos
someter a nuestra acción productora lo que se constituye a través de relaciones, y al contrario, tam-
poco debemos sustituir por objetos producidos lo que se constituye a través de relaciones.
El peligro de la metáfora de la máquina es entonces que, dado que en muchos contextos el
ser humano es instrumentalizado cada vez más y de manera más eficiente, la afirmación referente a la
simulación de propiedades humanas refuerce la tendencia a que los criterios de eficiencia, dictados
desde afuera, determinen la medida de una existencia lograda. A mi modo de ver, el problema que
está en juego en la discusión sobre la robótica y la inteligencia artificial, no es tanto que los robots y
los ordenadores se parezcan cada vez más a nosotros, de manera que amenacen nuestro carácter único,
sino que cada vez más nos vemos obligados, o al menos tentados, a asemejarnos a ellos. Según vimos,
las máquinas operan de forma heterónoma, conforme a criterios de eficiencia dictados externamente,
que cumplen de forma pasiva y, si mi interpretación es correcta, sin ninguna comprensión. A primera
vista, esa instrumentalización parece ser congruente con una visión de la evolución que se compren-
de en el sentido de la supervivencia del más apto y se impone como la ley de la naturaleza por anto-
nomasia. Y al mismo tiempo, esa ley es la misma de la economía globalizada, a la cual se subordinan

16 Cf. Eberhard JÜNGEL, Wertlose Wahrheit. Christliche Wahrheitserfahrung im Streit gegen die ›Tyrannei der Werte‹,
in: Del mismo autor, Wertlose Wahrheit. Zur Identität und Relevanz des christlichen Glaubens (Theologische Erörterun-

gen III), Tübingen (1990) 22003, 90–109, aquí: 100 y siguientes.

12
cada vez más ámbitos de la existencia humana. “Allí donde naturaleza y sociedad cooperan ambas
para establecer una imagen del ser humano que se reduce al simple pensamiento orientado a la efi-
ciencia, se impone una atmósfera ideológica bajo la cual resulta plausible la tesis de que, a fin de
cuentas, el ser humano tampoco es más que un robot.”17 La completa racionalización de la sociedad,
que procede de acuerdo con criterios de eficiencia, ha progresado ya hasta tal punto, que a menudo
no representa ninguna diferencia cuando se sustituye al ser humano por una máquina. Es ahí donde a
mi juicio radican los verdaderos reparos contra la difuminación de la diferencia entre la inteligencia
natural y artificial, y no en el temor demasiado abstracto de que seamos destronados como la “coro-
na de la Creación”. Con ello avistamos la dimensión verdaderamente ética de nuestro tema.

2. Cuestiones éticas

Para las siguientes reflexiones tenemos que remitirnos de nuevo a la pregunta de si estamos
en condición de producir una inteligencia artificial, y de qué manera podríamos hacerlo. Como una
consecuencia que se desprende de los teoremas de Gödel, sostuvimos que en el caso de los sistemas
de decisión puramente formales no cabe suponer una comprensión semántica en el marco de los
procesos que se desarrollan en ellos. Pero si esa comprensión no puede producirse directamente por
medio de la programación algorítmica, quizás pueda generarse entonces, como ya lo había sugerido el
mismo Turing, a través de sistemas de aprendizaje18 que podrían estar insertados en un contexto social
y comunicativo con seres humanos, y que estarían basados en unidades funcionales que no operan en
forma del todo discreta, por lo que no corresponderían a una máquina exacta de Turing.
No es posible excluir con certeza que lo anterior sea posible. Con otro tipo de hardware y
con estructuras de programación más abiertas, puede que sea posible desarrollar sistemas a los cuales
no les hayamos programado de antemano una conciencia, sino en los cuales surja, a lo largo de pro-
cesos de aprendizaje, algo semejante a una conciencia en el sentido de una comprensión semántica.
Pero entonces ya no sólo se plantea la pregunta de si podemos construir máquinas semejantes, sino que
también hay que cuestionar si queremos hacerlo.

17 Hans-Dieter MUTSCHLER, Ist der Mensch ein Roboter?, in: Matthias KOSSLER/Reinhard ZECHER (Hg.), Von
der Perspektive der Philosophie. Beiträge zur Bestimmung eines philosophischen Standpunkts in einer von den Natur-
wissenschaften geprägten Zeit, Hamburg 2002, 291–308, aquí: 306.
18 Cf. TURING, Computing Machinery (cf. Nota 5), 177: “¿Por qué no se intenta más bien producir un programa para
que imite la inteligencia de un niño en lugar de uno que imite la inteligencia de un adulto? Si a este se le somete luego a
un proceso de educación adecuado, se obtendría la inteligencia de un adulto.”

13
En el caso de una máquina semejante, también sería válido lo que afirmamos antes sobre la
conciencia humana, a saber, que su propio estado interno de comprensión no sería accesible de una
manera directa desde afuera. Turing también captó esto: “Una característica importante de una má-
quina de aprendizaje, es que con frecuencia su maestro sabe muy poco de lo que en verdad ocurre en
ella, aunque por otra parte pueda estar hasta cierto punto en condición de predecir el comportamien-
to de su alumno.”19 Si queremos realizar en una máquina la capacidad de la diferencia y la apertura
semánticas, entonces también tenemos que permitir que la máquina modifique de forma autónoma
los fines que la controlan. Eventualmente podría darse sus propios fines y revocar los fines preesta-
blecidos. Un robot al cual pudiéramos atribuirle conciencia y una inteligencia capaz de comprender,
debería de alguna manera poder darse él mismo su propia ley. Con ello también estaría en capacidad
de interrumpirse y de preguntarse qué es lo que está haciendo y por qué lo hace. Podría declararse en
huelga. Podría “degenerar”. En suma, un ser semejante contradeciría el concepto de una máquina
que debe ejecutar determinadas funciones conforme a fines externos.
La pregunta es si queremos construir semejantes robots. ¿Pero por qué construimos sistemas
con una inteligencia artificial lo más poderosa posible? Hay tres razones que me parecen de especial
importancia.
1. Determinados instrumentos de objetivación y de cálculo, que sirven para preparar decisio-
nes, nos resultan de gran utilidad justo en la medida que nosotros mismos no funcionamos de una
manera sólo instrumental (sistemas expertos).
2. Las máquinas mecánicas, controladas de forma “inteligente”, pueden asumir múltiples ta-
reas y hacer cosas que físicamente nos cuestan trabajo, pero en las cuales son necesarias decisiones
complejas (robots en complejas misiones espaciales, en la lucha contra la delincuencia, en procesos
de producción), y que intelectualmente nos cuestan trabajo, porque debido a su complejidad son
difíciles de abordar de manera heurística (motores de búsqueda en internet).
3. Queremos saber “cómo marcha”, y con base en ello poder inferir cómo funcionamos no-
sotros. En el caso de los robots con los cuales procuramos reconstruir exclusivamente un compor-
tamiento semejante al humano, puede que la curiosidad de construir una racionalidad también
desempeñe un papel. Y en ello a menudo también se entremezclan visiones que nos presentan a los
sistemas artificiales como si fueran los mejores seres humanos. Algunas frases de Hans Moravec, un
constructor de robots, sirven para ilustrar esto:

19 Ibíd., 181.

14
“Veo a esas máquinas como nuestras descendientes. Ahora mismo es difícil creerlo, porque son apenas tan inte-
ligentes como los insectos. Pero con el tiempo reconoceremos el gran potencial que encierran. Y nos encantarán nuestros
hijos robots, pues serán más agradables que los humanos. No hace falta integrar en esas máquinas todas las cualidades
humanas negativas que datan de la Edad de Piedra. En aquellos tiempos, esas cualidades eran importantes para el ser
humano. Necesitaba p. ej. agresiones para sobrevivir. Hoy en día, en nuestras grandes sociedades civilizadas esos instintos
ya no tienen ningún sentido. Esas cosas pueden simplemente omitirse –al igual que aquel rasgo esencial del ser humano
que consiste en querer asegurar su propia vida a costa de la vida de otros–. Un robot no tiene nada de eso. Es una pura
criatura de nuestra cultura, y su éxito depende de la manera como se siga desarrollando esa cultura. Se van a integrar
entonces mucho mejor que muchos seres humanos. Nos van a agradar, y nos vamos a identificar con ellos. Los vamos a
aceptar como hijos –como hijos que no están determinados por nuestros genes, sino que hemos construido con nuestras
manos y con nuestra mente–. ”20

Aunque semejantes visiones sean pura ficción y todavía quede mucho camino por recorrer, es
bastante pertinente desarrollar lineamientos para responder a la pregunta sobre el tipo de máquinas
inteligentes que queremos tener, y para cuáles fines queremos tenerlas. Considero que los siguientes
tres puntos son imprescindibles en relación con esa tarea.
1) Un problema central se refiere a la pregunta por la delegación de responsabilidad a las máquinas.
El pensamiento orientado a la eficiencia y el problema de la responsabilidad en caso de daño, provo-
can la tentación de delegar la responsabilidad personal a sistemas expertos. Sin embargo, las decisiones
éticas calificadas que por su envergadura afectan la vida humana en forma directa, imponen aquí un
límite claro. No es lícito dejar que un sistema experto decida p. ej. sobre la desconexión de una má-
quina de corazón-pulmón, que un sistema de armas disponga sobre el empleo de armas letales o que
un programa de estrategia resuelva decisiones políticas, puesto que aquí las decisiones no formaliza-
bles sobre el significado de la vida y la existencia humana representan el papel decisivo.
2) Por una razón similar, hay que valorar a la jurisprudencia como un arte que requiere una res-
ponsabilidad, una capacidad humana de juzgar, y que no puede ser el resultado de un procedimiento
aplicable mecánicamente, por lo cual no debe delegarse a un sistema experto. No es por casualidad
que el concepto kantiano de una “capacidad de juzgar” procede originalmente de la esfera del dere-
cho. Quien falla juicios requiere esa “capacidad de juzgar”, que no puede formalizarse por completo
e incluye consideraciones relativas la aplicación adecuada de las leyes que son responsabilidad exclu-
siva de la persona.
Pero esa capacidad de juzgar también resulta imprescindible en muchos otros ámbitos de la
acción y del conocimiento humanos. Si bien estos ámbitos no se desarrollan de forma caótica, sino

20 Hans MORAVEC, Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelligenz, Hamburg 1999, 136.

15
conforme a reglas, estas últimas son sin embargo abiertas en gran medida, de manera que sólo ad-
quieren forma en relación con la responsabilidad y la interpretación individuales, como ocurre p. ej.
en la pedagogía, en la estética o en la hermenéutica literaria. Aquí también conviene ser escépticos en el
momento en que comience a imponerse la inteligencia artificial.
3) El otro punto atañe a la pregunta por el componente social de la relación entre los computado-
res y el ser humano. Aquí hay que subrayar que la interacción con los sistemas de inteligencia artifi-
cial no puede ni debe remplazar la interacción entre los humanos. La interacción con robots enfer-
meros para personas mayores y enfermas, que quizás se haga realidad dentro de poco, no debe rem-
plazar el encuentro humano.
En contra de estas posibilidades no vale simplemente creer que “lo que no debe ser tampoco
puede ser”, sino que más bien hay que mantener despierta la pregunta de si es necesario hacer reali-
dad lo que es posible. Hay que interrumpir por lo tanto la dinámica propia de los desarrollos técnicos
y plantear la pregunta ¿para qué?, con el fin de que no se optimicen ciertos artefactos tan sólo bajo el
punto de vista de su utilidad, que sin embargo luego, junto con imperativos políticos y económicos,
desencadenan tendencias problemáticas. Pero entonces resulta muy cuestionable querer producir
seres artificiales conscientes –y también resulta innecesario hacerlo desde un punto de vista técnico y
económico– que ya no podrían considerarse como meras máquinas, sino como seres “animados”. Y
nuestra curiosidad de saber cómo es que funcionamos (¡pero gracias a Dios nosotros no sólo funcio-
namos!) tampoco se vería satisfecha, puesto que no podríamos comprender mejor a esas máquinas
de lo que nos comprendemos a nosotros mismos.

3. Creer y conocer

Volvamos de nuevo a nuestras reflexiones en torno a la imagen del ser humano y desarrolle-
mos el correspondiente concepto de Dios como Creador. Si el ser humano no es un aparato para la
solución de problemas optimizado por la evolución, y en su ser y en su esencia no se manifiestan
sólo fines externos, sino que en cuanto ser semánticamente abierto el ser humano procura compren-
derse a sí mismo y a su mundo, y sólo puede existir como un ser relacional, entonces profesar la
creencia en Dios como Creador no es referirse a un ingeniero o programador transmundano. El pro-
ceso de desarrollo de la Creación, que se lleva a cabo en el descomunal espacio-tiempo del cosmos,
no es la expresión de una acción productora. Al igual que las demás criaturas, el ser humano como
un ser que se pregunta sobre sí mismo, que surge en un niche especialmente privilegiado a partir de
orígenes muy modestos y en medio de una profusión exuberante de formas, tampoco es el artefacto
16
de un constructor divino. Al igual que toda la Creación, nosotros también existimos por nuestro
propio bien. Y al contemplar nuestra existencia, no hay que alabar a Dios como nuestro “fabricante”,
sino como la fuente, como el fundamento y el impulso de una profusión de posibilidades, que per-
manece presente para su creación y nos afirma como criaturas que surgen y desaparecen, y nos llama
a la autenticidad de nuestra existencia cargada de relaciones.
Pero esto también significa que hay que rechazar la idea de un Creador independiente de la
Creación que se está llevando a cabo, el cual se encuentra “completamente informado”21 de todo lo
que acontece. O para expresarlo de forma más precisa, recurriendo también a Gödel: De la suposi-
ción de que la esencia de todas verdades podría captarse en un solo sistema, es posible derivar una
contradicción si se presupone que el sistema está libre de contradicciones. La conocida frase de Witt-
genstein, según la cual el mundo es la totalidad de los hechos, resulta problemática porque los hechos
verdaderos no representan una totalidad completa y libre de contradicciones22. En un lenguaje se-
mánticamente abierto no puede concebirse sin contradicción un sujeto “que pudiese adoptar un pun-
to de vista externo epistémicamente privilegiado, desde el cual tenga un acceso a todos los enuncia-
dos verdaderos o estados de cosas”23. El concepto teológico de la “verdad” de Dios debe determi-
narse entonces esencialmente a partir del concepto de la “veracidad” de Dios, y no desde la idea refe-
rente a la posesión de una totalidad de proposiciones verdaderas24.
Por esa razón tampoco es posible una demostración de la existencia de Dios, puesto que el
concepto de una totalidad insuperable es inalcanzable para nosotros. Cualquier demostración sólo
puede formularse en relación con un sistema de presuposiciones. No es posible una demostración
libre de presuposiciones. Lo absoluto es inalcanzable justamente desde presuposiciones relativas. Por
ello, la afirmación de que Dios existe es ciertamente una implicación y una presuposición necesaria

21 Manfred EIGEN/Ruth WINKLER, Das Spiel, München 51983, 224.


22 Vgl. Patrick GRIM, The Incomplete Universe, Cambridge, Mass./London 1991, 2 y siguiente y 6.

23 Elke BRENDEL, Wahrheit und Wissen, Paderborn 1999, 165.

24 Quizás también se da a entender esto en Jn 14,6 cuando el Hijo de Dios dice de sí mismo que él es el camino, la verdad
y la vida. Las lenguas semitas no conocen los substantivos abstractos, de modo que los tres conceptos forman un conjun-
to y hay que disponerlos en el mismo plano semántico. El punto de referencia de nuestro pensamiento, de nuestra creen-
cia y nuestra opinión no son entonces las verdades eternas de la razón que se encuentran en la inteligencia divina, sino es
la veracidad de Dios que experimentamos en su Creación, en su justificación, a las cuales nos confiamos en situaciones
concretas de la vida, en las cuales tenemos esperanza en relación con la afirmación de nuestra existencia.

17
de la fe, pero la pregunta por la verdad de esa afirmación remoto fide es al mismo tiempo una cuestión
irresoluble en un sentido absoluto.
Pero la fe no exige demostraciones, ni tampoco la completitud o la ausencia de contradiccio-
nes pertenecientes a un argumento o a un sistema, puesto que incluso el mejor de los conocimientos
sólo podría hacer que la fe resultara probable en relación con el estado actual del conocimiento. Pero
“el cristianismo como lo probable […] es la eliminación del cristianismo”25. La fe exige más bien una
interrupción, una suspensión de la razón discursiva formalizada, que brinda espacio para vivir con con-
fianza. La religión trata de la dimensión de la existencia humana que no puede postularse mediante
demostraciones ni puede producirse formalmente, y que es fundamental para nuestra existencia car-
gada de relaciones: “Simpatía, confianza, respeto y reconocimiento recíprocos, amabilidad, bondad, o
en el contexto de la comunicación cristiana de la fe, amor y misercordia.”26 La religión procura volver
comunicable y accesible esa dimensión de la vida, pero sin formalizarla y controlarla de ese modo.
Esto es lo que tratan de hacer a lo sumo la magia y la superstición. Pero me parece que los teoremas
de Gödel sugieren que la razón científica y secular siempre exigen también confianza. La compren-
sión no es posible sin un acuerdo previo, la racionalidad es irracional sin la confianza, la verdad es
vacía sin la veracidad.
De lo anterior se sigue lo que también sostiene el filósofo y teórico de las ciencias Wolfgang
Stegmüller como consecuencia de un análisis de la lógica y de los teoremas de Gödel: “Está excluida
de cualquier ámbito una ‘garantía’ del pensamiento humano. No es posible obtener un resultado po-
sitivo estando completamente ‘libre de presuposiciones’. Hay que creer ya en algo para poder justifi-
car otra cosa. Sólo tendría sentido exigir algo más si fuéramos capaces de superar la finitud de nues-
tra existencia. Pero el punto de apoyo externo a nuestra realidad finita es, al menos para nosotros,
una ficción.”27
Por esa razón, la teología cristiana debe comprenderse en primer lugar como una heurística
para orientarse en lo abierto y finito, y no como una teoría sobre objetos trascendentales que pueda
concluirse. Y también es cierto respecto a la teología, que “hay que renunciar del todo a los intentos
de fundamentación última, y con ello a la búsqueda de hechos indiscutibles, a las identidades últimas
y a estados de cosas incuestionables ajenos a la teología”. La teología tampoco tiene a su disposición

25 Søren KIERKEGAARD, Papirer, Kopenhagen 21968 y siguientes, V, Bd. X-4, A 633.


26 Johannes FISCHER, Pluralismus, Wahrheit und die Krise der Dogmatik, in: ZThK 91 (1994), 487–539, aquí: 496.
27 Wolfgang STEGMÜLLER, Metaphysik, Skepsis, Wissenschaft, Berlin/Heidelberg/New York 21969, 307.

18
razones últimas absolutas, “sino sólo criterios relativos, internos y locales”28. Pero entendida como
un esfuerzo en busca del conocimiento, no está sola en el entramado del pensamiento interpretativo
del ser humano, mediante el cual este también –y antes que nada– se pregunta por sí mismo. Así,
cabe concluir nuestras reflexiones con una frase audaz que proviene de un autor libre de sospechas, a
saber, de Wolfgang Stegmüller: “Pensar, amar y orar tienen entonces algo en común.”29

Traducido por Sebastián Pereira Restrepo

SUMMARY

The article asks for the conditions and restraints of artificial intelligence and reflects on its relevance for hu-
mans in a theological perspective. It first presents an account of Alan M. Turing’s analysis of computational
intelligence and uses it to specify the difference between (up to date) artificial and natural intelligence. It is
claimed with reference to Kurt Gödel’s Incompleteness Theoremes that natural intelligence is distinguished
from currently possible forms of artificial intelligence by semantic openness. The second part of the article
develops consequences for human self-understanding in difference to machines, answers the question which
robots to which purposes we should and should not build, and asks for the relation between faith and reason
with respect to the incompleteness of formal knowledge and description.

28 Ingolf U. DALFERTH, Subjektivität und Glaube. Zur Problematik der theologischen Verwendung einer philosophi-
schen Kategorie, in: NZSTh 36 (1991), 18–58, aquí: 49.
29 STEGMÜLLER (Cf. Nota 27), 456.

19