Está en la página 1de 12

1.

Introducción
¿Puede un robot tener alma? Quizás sea esta una de las preguntas que vienen a la mente de cualquier
persona interesada en cuestiones de fondo sobre la inteligencia artificial (IA). Bastaría espigar los
relatos de ciencia ficción sobre robots para darnos cuenta de porqué la pregunta no puede ser
postergada. Si rechazamos la visión del fantasma en la máquina, del homúnculo y del Dios
intervencionista no parecería haber razones a priori que lo impidan: o bien el alma está ya en la
naturaleza como principio irreducible, o bien es un epifenómeno. Tanto en uno como en otro caso,
no parece imposible ensamblar materia capaz de pensar y querer, actividades superiores reservadas
tradicionalmente al alma humana inmortal.

Ciertamente, con los desarrollos actuales en el campo de la IA parece que nos encontramos en una
situación nueva, difícilmente imaginable en otra época de la historia. No se trata evidentemente de
que filosofemos desde cero, pero sí que lo hagamos teniendo en cuenta la realidad de los avances
técnicos. La IA es testigo de un incremento exponencial en su utilización de artefactos y aplicaciones
y, aunque no estemos en absoluto cerca de construir una máquina que tenga las capacidades de un
ser humano o que sea capaz de actuar “racionalmente” en todos los escenarios posibles, hay cada
vez más algoritmos para multitud de tareas en una gran variedad de dominios (Bringsjord and
Govindarajulu 2018).

Ahora bien, ¿qué se entiende habitualmente por filosofía de la IA? Poco podemos decir respecto a la
automatización de procesos susceptibles de ser reproducidos como algoritmos que, a fin de cuentas,
no son más que una ayuda para otras actividades más propiamente humanas. Ayudar no es sustituir.
No se trata por tanto de abordar el hecho incontrovertible de si las máquinas pueden ayudar en
actividades humanas, sino la cuestión más controvertida acerca de si pueden pensar, desarrollar una
conciencia o llegar a ser libres. Según la entrada de la Stanford Encyclopedia of Philosophy, el campo
de la IA puede definirse como el ocupado en la construcción de un artefacto capaz de pasar el test
de Turing. Y, de manera más general, puede definirse como el de las máquinas que piensan y/o
actúan de manera humana y/o racional. (Bringsjord and Govindarajulu 2018).
La afirmación de que las máquinas podrían actuar como sifueran inteligentes es denominada la
hipótesis de la IA débil, mientras que la afirmación de que las máquinas que actúan así, en realidad
están pensando (y no solo simulanel pensamiento) se denomina la hipótesis de la IA fuerte. Y no está
de más tener en cuenta que la IA se fundó asumiendo que, al menos, la IA débil es posible (Russell
and Norvig 2009, 1020). Hay que tener en cuenta, además, que la primera conjetura acerca de los
procesos mentales requeridos para producir un comportamiento dado suele ser errónea (Russell
and Norvig 2009, 1022). Por eso se antoja extremadamente difícil para los filósofos derrocar a la IA
en su versión débil —construir máquinas que parecen tener todo el repertorio mental y el
comportamiento de los seres humanos. ¿Qué razón filosófica puede oponerse a que la IA produzca
artefactos que aparentan ser animales o incluso humanos? (Bringsjord and Govindarajulu 2018)
Alan Turing apostaba a que con el tiempo, la distinción entre IA débil y fuerte se disolvería. Pero
quizás eso es mucho apostar, aunque solo sea por el hecho de que para nosotros, seres humanos,
sigue teniendo todo el sentido una distinción fuerte entre interioridad y exterioridad, entre realidad
y simulación. Puede no ser imposible simular el comportamiento humano, pero las cuestiones
referidas a la autoconciencia, el conocimiento (saber que se sabe), las emociones o la intencionalidad
continúan siendo cruciales en cualquier acercamiento realista a la naturaleza humana.
Evidentemente, todo ello toca también de lleno el llamado problema mente-cerebro o, si se prefiere,
el problema de la naturalización de la mente humana.

2. Las objeciones tradicionales


contra las pretensiones de la IA
Es usual considerar tres grandes grupos de críticas contra las pretensiones de la IA. Me centraré
ahora en los dos primeros —los argumentos derivados de los teoremas de Gödel y de la habitación
china de Searle— porque apuntan más directamente a la cuestión del conocimiento, de la
fundamentación del símbolo y de la inmaterialidad. La tercera gran crítica tiene que ver, a su vez, con
la crítica de la inteligencia como simbólica (Dreyfus 1972)(Dreyfus and Dreyfus 1987)(Dreyfus 1992).
En este último grupo podríamos incluir los argumentos que subrayan la informalidad de los
razonamientos humanos y el problema de la “cualificación”. No obstante, los defensores de IA
afirman que las imposibilidades de las que hablan los Dreyfus son oportunidades de mejora para la
IA y no imposibilidades reales (Russell and Norvig 2009, 1024–26). Una crítica más actualizada en esta
misma línea tendría que ver con una confusión de los defensores de la IA, al menos en sentido fuerte,
respecto de la realidad. Para que la IA pudiera seguir avanzando se haría necesario pasar de la
perspectiva del pensamiento orientado a objetos a la perspectiva del pensamiento orientado a
eventos (Baer 2018).

2.1. Críticas “a la Gödel”


¿Es posible “mecanizar” la mente humana? Desde los descubrimientos de Gödel en 1931 se ha
desarrollado toda una línea crítica respecto de esta posibilidad, iniciada por Lucas (Lucas 1961)y
continuada por Penrose (Penrose 1989)(Penrose 1994). El punto fuerte de estas argumentaciones
estriba en hacer uso del teorema de incompletitud de Gödel para mostrar que existen verdades
accesibles a la mente humana que, sin embargo, quedarían fuera de lo que puede alcanzar a
demostrar como verdadero un algoritmo. Pero esta línea de argumentación resulta criticada a su vez
desde diversas perspectivas. Quizás la más potente es la de los lógicos que ponen en evidencia
ciertos presupuestos críticos y usos implícitos de un tipo de lógica que restan universalidad a los
argumentos de Lucas y Penrose. A riesgo de hacer una simplificación, se podría decir que los
teoremas de Gödel conducen a un dilema lógico respecto de la posibilidad de mecanizar la mente
humana: o bien cualquier intento de mecanizar la mente humana es inferior a las capacidades reales
de la mente humana (no necesariamente de cualquier mente humana); o bien podría ser superior,
pero inferior a un ámbito mental de verdades lógico-matemáticas, de corte platónico, no
necesariamente humano.

Las críticas a Lucas y Penrose han venido también del mundo más terrenal de los defensores de la
IA. Por una parte, se niega que un sistema inteligente tenga que ser capaz de probar la verdad o
falsedad de todas sus afirmaciones (ser completamente consistente); por otra, es posible que
también los humanos caigan bajo la limitación que imponen los teoremas de Gödel (Russell and
Norvig 2009, 1022–23). Ahora bien, aunque formal o lógicamente esas objeciones sean todas
relevantes, es problemático que no afronten el fondo del argumento de Gödel, que tiene que ver con
la recursividad y con la capacidad, en principio universal, de la inteligencia humana para objetivar la
realidad. Volveré sobre ello más adelante.

De una manera derivada pero en cierto modo natural, las objeciones inspiradas en Gödel han llevado
a introducir la relevancia de la mecánica cuántica y sus interpretaciones para discernir los posibles
límites de la IA. La cuestión es que la mecánica cuántica y, en particular, el problema de la medida,
podrían resultar esenciales, en línea de principio, para resolver el problema mente-cerebro (Sánchez-
Cañizares 2014). Desde luego, parecen existir argumentos fuertes para hacer incompatibles las
diferentes versiones compatibilistas de la libertad con la indeterminación ontológica de la naturaleza
a la que apuntan las correlaciones cuánticas tipo EPR (Sánchez-Cañizares 2017), cada vez mejor
testeadas. La única vía de salida para los deterministas extremos es la asunción de un
superdeterminismo que tiene poco de científico y mucho de metafísico. La otra cara de la moneda
es que quizás la IA haya de reconvertirse en IA cuántica.

La misteriosa y controvertida realidad del proceso de reducción (R) de la función de onda podría ser
clave para pasar de una IA en modo “clásico”, que solo simula la inteligencia —sin tener capacidad
interpretativa, de conocimiento o de representación más allá de aquello que le ha sido
implementado— a una IA “cuántica”, capaz de verdadero conocimiento y agencia (Laskey 2018). Sin
embargo, el problema de fondo con el que chocamos una y otra vez llegados a este punto es que R
no explica qué es la inteligencia y la volición sino que, por el contrario, asume que hay inteligencia y
volición capaz de efectuar el proceso de reducción R al establecerse, por ejemplo, una configuración
experimental capaz de obtener información sobre un sistema físico. De este modo, invocando a la
mecánica cuántica, ganamos espacio para un verdadero ejercicio de libertad (no compatibilista) en
una naturaleza fundamentalmente indeterminista, pero no nos acercamos necesariamente a una
comprensión naturalista de la inteligencia y volición humanas.

2.2. La habitación china y el problema de la


fundamentación del símbolo
Quizás el argumento más famoso para demostrar la imposibilidad de la IA, al menos en su sentido
fuerte, sea el de la habitación china de John Searle (Searle 1980). A pesar de las propuestas acerca
de cómo podría llegar a “entender” un robot, todas acaban cayendo en algún tipo de falacia o petición
de principio, pues el lenguaje (la comunicación simbólica) es crucial para la inteligencia. Sin embargo,
no parece existir un lenguaje “natural”, pues ni la semántica ni la sintaxis son intrínsecas a la
naturaleza según Searle (Searle 1997, 14–17)si no se da antes el conocimiento.

Ya se argumentaba en 1988 que los sistemas de inteligencia artificial pueden ser realmente
sintácticos y la sintaxis correcta puede constituir una semántica. Mas hemos de reconocer que las
técnicas de aprendizaje en IA han avanzado escasamente en el importante problema de construir
nuevas representaciones en niveles de abstracción superiores al vocabulario de entrada (Russell and
Norvig 2009, chap. 27). El aprendizaje se considera, sobre todo, a partir del modelo de obtención de
una función que correlaciona correctamente parejas de datos, pero esto no resuelve para las
máquinas el problema del aprendizaje mediante la lectura. Y el hecho es que o bien las máquinas
obtienen “conocimiento” a través de los seres humanos que codifican e insertan manualmente
información, o bien deberán ser capaces de leer y escuchar sin supervisión alguna.
El problema, evidentemente, tiene que ver con la interpretación, el conocimiento de formas, y la
capacidad —aparentemente innata en los humanos— de desarrollar de modo natural y autónomo
un lenguaje simbólico. Luciano Floridi ha explicado brillantemente la dificultad del problema de la
fundamentación del símbolo (symbol grounding problem) en el contexto de la naturalización de la
información y la necesidad de pedir inicialmente el cumplimiento de la condición del “nulo
compromiso semántico” (zero semantic commitment), si se quiere de verdad avanzar (Floridi 2011,
134–61). A mi modo de ver, este problema es insoluble, pues ni siquiera la “semántica basada en la
acción” (action-based semantics) propuesta por el mismo Floridi (Floridi 2011, 162–81)se libra de
circularidad en la argumentación (Sánchez-Cañizares 2016). La impresión es que el argumento de la
habitación china sigue siendo bastante sólido, a pesar de su rechazo por parte de los defensores de
la IA fuerte, recayendo sobre estos últimos la carga de la prueba.
En cierto modo, las últimas discusiones giran en torno al papel de la complejidad en la naturaleza y
si esta, por si sola, es capaz de hacer que emerjan capacidades superiores como la inteligencia, la
conciencia o la libertad. Los defensores de un materialismo no reduccionista, por ejemplo, critican el
microfisicalismo usado en argumentos clásicos como el de la habitación china o el argumento zombi
de Chalmers. Pero si el microfisicalismo no es cierto, como parece no serlo, se podría abrir la puerta
a la emergencia de la conciencia a través de la complejidad material (Velasquez 2016), basada en la
superveniencia nomológica. Parece que la complejidad, como proceso, está ínsita en la naturaleza y
que en esta se da la aparición de ciertas leyes “formales”, que trascienden la pura materialidad o
especificidad de los sistemas (Mitchell 2009). El concepto de conciencia como información integrada
(Tononi 2008)resulta extremadamente sugerente a este respecto, por su alianza con la idea de
complejidad, pero sigue resultando muy controvertido y ha sido criticado también desde
presupuestos funcionalistas (Fallon 2017). La cuestión es que la complejidad, por sí sola, no parece
suficiente para explicar qué es la inteligencia o la intencionalidad (Deutsch 2011)(Barrett, García-
Valdecasas, and Sánchez-Cañizares, n.d.)

Una reflexión relevante, llegados a este punto, es la cuestión de si, en el fondo, es necesario el
acontecer de toda la historia del universo para que aparezca la inteligencia. Ciertamente, no se
pueden desechar a la ligera ideas como la de que el universo mismo esté llevando a cabo una gran
computación (Mitchell 2009, pt. 3), aunque solo sea por su solidaridad de base con las perspectivas
superdeterministas y el creciente número de artículos y ficciones al respecto. Pero si estamos dentro
de una gran computación, se trata, desde luego, de una computación no algorítmica. Paradojas como
la de Boltzmann (es más fácil, estadísticamente hablando, producir cerebros humanos como mera
fluctuación aleatoria de la dinámica de nuestro sistema solar que llevar a cabo todo el proceso
evolutivo), insinúan que debe haber algo más profundo detrás de la misma evolución del universo y
su intrínseca historicidad. No parece posible sustituir la causalidad que se da en la historia real del
universo para la emergencia de determinadas formas naturales. En el universo mismo parece haber
una direccionalidad –como apunta la bajísima entropía inicial del Big Bang, quizás el misterio más
importante de la cosmología actual (Penrose 2016)— y un ajuste fino que lo hace globalmente
habitable (biofriendly) (Davies 2013). Pero si la evolución y la historia del universo no son
computables, estaríamos perdiendo parte de la fuerza del argumento de los defensores de la IA
fuerte. Es la evolución y no nuestra inteligencia la que permite emerger a la inteligencia.

3. Consideraciones filosóficas
Al acabar la sección anterior enfatizábamos implícitamente la importancia de lo natural frente a lo
artificial. Se trata ahora de elucidar algunas cuestiones relativas al concepto de inteligencia y ver, por
ejemplo, en qué medida podría resultar producida o ser un efecto colateral o secundario de la
evolución o la complejidad de las máquinas.

3.1. El conocimiento como compresión de


información
Una primera connotación que viene a la mente a la hora de hablar de inteligencia es su oposición al
concepto de azar o aleatoriedad como desconocimiento o incapacidad de ordenación desde algún
respecto. En este sentido, el desarrollo de algoritmos para producir resultados o acciones
aparentemente muy complejas resulta muy revelador de las capacidades de la inteligencia humana
para comprimir información. Así, por ejemplo, la teoría de la información integrada acaba por
identificar el fenómeno de la conciencia con información no ulteriormente simplificable. Sería injusto
entonces no reconocer los aportes de la teoría de la información algorítmica al desarrollo de la IA y
a nuestra misma comprensión más general de la inteligencia. Dicha teoría, supuestamente,
proporciona un marco natural para estudiar y cuantificar la conciencia a partir de datos
neurofisiológicos o de neuroimagen, asumiendo que la función principal del cerebro es el
procesamiento de información. La compresión de esta última proporcionaría la estructura para la
experiencia fenoménica (Ruffini 2017).

De hecho, cuando analizamos la estructura del deep learning, podemos aprender de algoritmos de
optimización abiertos de qué manera, dentro de los mismos algoritmos, se generan determinadas
estructuras y organizaciones capaces de optimizar resultados que hubiesen pasado inadvertidas en
el proceso de aprendizaje humano. De modo análogo, el estudio de las correlaciones neurales en
determinadas tareas puede enseñarnos acerca del mejor modo de codificar la información para
abordar un determinado problema (Kasabov 2019). La investigación sobre IA y la organización del
cerebro se estimulan mutuamente; de modo que la organización arquitectónica de uno puede servir
para comprender mejor el trabajo en el otro. Pero, obviamente, que la organización cerebral, natural
y artificial, resulten cruciales para entender la actividad cognitiva humana no significa que sean
suficientes para entender qué es el conocimiento. Algunos siguen considerando esta brecha como
algo meramente computacional (Reggia, Huang, and Katz 2017)y, ciertamente, el viaje entre las
computadoras y el cerebro humano es de ida y vuelta, pero la brecha respecto del conocimiento no
tiene visos de cerrarse (Lake et al. 2016).

3.2. La brecha entre información y


conocimiento
A fin de cuentas, ¿qué es comprender?, ¿qué es conocer? La filosofía tradicional ha subrayado la
existencia de niveles de abstracción, de diferentes operaciones cognitivas y, en último término, la
inmaterialidad o intencionalidad del conocimiento: su referencia inmediata, como objeto, a una
realidad extramental. Parece por tanto existir una distinción radical y fundamental entre el contenido
o el objeto del conocimiento y sus correlatos neurales en la persona que conoce. Sin duda, hay entre
ambos un vínculo que va más allá de las categorías de lo necesario y lo suficiente y que, al mismo
tiempo, ha necesitado de un largo proceso histórico, evolutivo, para hacerse presente en la
naturaleza. Como apuntábamos antes, la historicidad del universo señala una cierta necesidad de la
evolución para que la inteligencia humana pueda aparecer. No se ve manera mejor de expresar la
solidaridad del hombre con el cosmos y su proveniencia natural.

Dentro de una lógica diacrónica, parece difícil que la IA sea un sustituto de la inteligencia humana.
Le correspondería a la primera más bien un rol de ayuda para la progresiva expansión de la segunda.
La evolución del software, mientras que puede ser realmente potente en un sentido, parece ir
siempre detrás del entendimiento humano en cuestiones más profundas (de recurrencia, identidad
y sentido común). La capacidad creativa humana es clave. Pero cómo se alcanza a tener creatividad
está lejos de ser una cuestión algorítmica y programable. Quizás no tanto por la cuestión de la
novedad —que se puede simular, pero solo hasta cierto punto (Barrett and Sánchez-Cañizares 2018),
introduciendo donde sea necesario cambios pseudoaleatorios— sino por la cuestión de cómo
seleccionar las creaciones más prometedoras. Pero el criterio de selección que se alcanza con el
conocimiento inmaterial —el de una cierta adecuacióncon (parte de) la realidad— no puede definirse
de manera universal y a priori.
Una posible solución para salir del atolladero sería dejar que la propia IA evolucione para que se lleve
a cabo la selección de las buenas creaciones (en esa línea van los programas de selección natural de
algoritmos para resolver problemas específicos). Lo que resulta menos claro es cuál es el fin de la IA
así definida, el problema al que se enfrenta y cuál es su dominio de variabilidad. Dicho con otras
palabras, la evolución real no se puede representar de manera algorítmica —ni siquiera sabemos
cuáles son los grados de libertad relevantes en la biosfera y mucho menos en el universo (Kauffman
2016)— y es bastante improbable, por no decir imposible, que podamos simular artificialmente toda
la evolución (y no digamos ya la evolución de todo el universo). Por tanto, si el problema de la
emergencia de la inteligencia personal no es un problema local sino global, que afecta a las
condiciones de contorno y al valor de las constantes físicas del universo que nos acoge, resultaría
una quimera pretender reproducir esa inteligencia from scratch. Así pues, mi intuición al respecto es
que la evolución es necesaria para la aparición de la inteligencia humana: la inteligencia de un
viviente particular con una capacidad de objetualización potencialmente infinita. ¿Pero es la
evolución suficiente?

3.3. Conciencia y qualia


El conocimiento lleva anejo la autoconciencia como cierta reflexión a partir de lo conocido: conocer
que se conoce. Sin embargo, para algunos defensores de la IA fuerte, las experiencias subjetivas
llamadas qualiason un efecto secundario de la computación, que se produce involuntariamente
mientras se procesa la información, de manera similar a la generación de calor, el ruido o la radiación
electromagnética y sería igualmente no intencional. Se plantea por tanto la posibilidad de crear
únicamente programas que se comporten de manera inteligente.
Ahora bien, si se deja al margen el problema de la autoconciencia y la experiencia subjetiva de lo
conocido como un pseudoproblema, ¿podría convertirse el programa de la IA en un
pseudoprograma? Como bien explica Searle, nuestra experiencia de la conciencia es la
conciencia(Searle 1997)o, como espetó Rowan Williams a Richard Dawkins en el debate que
mantuvieron en Oxford en 2012, si la conciencia es una ilusión, ¿qué no lo es? ¿Se puede pretender
negar la “apariencia de realidad” a partir de una “realidad más profunda”? ¿No debería ser cualquier
programa honesto de IA uno que pretenda seriamente recuperar la experiencia de primera persona
desde sus propios presupuestos, en vez de simplemente negarla? El problema sería entonces cómo
reconocer dicha experiencia de una manera no extrínseca.
3.4. Retorno al alma y al conocimiento
inmaterial
Empezábamos esta contribución con la pregunta sobre el alma de los robots. Pero es notorio cómo
este término se halla cada vez más ausente en las discusiones acerca de qué sea la inteligencia,
artificial o natural. Curiosamente, el término “alma” se puede encontrar en cada período de la
historia, en cada civilización, en cada filosofía y en cada religión. Sin embargo, las referencias al alma
son prácticamente inexistentes en las ciencias contemporáneas. En mi opinión, las razones que han
llevado a este olvido tienen que ver con la tendencia general en la ciencia moderna a identificar la
causalidad con causalidad eficiente y material, de abajo a arriba (bottom-up) y la novedad con una
emergencia epistémica o débil. Pero las explicaciones bottom-upsobre la emergencia de la mente,
basándose en la causa eficiente de las interacciones físicas en el cerebro, descuida formas más
sutiles de causalidad que operan en la naturaleza desde el principio y parecen ofrecer una mejor
explicación, por ejemplo, de la existencia de sistemas adaptativos complejos. La verdadera
causalidad de arriba hacia abajo (top-down), irreducible a la suma de las causaciones bottom-up, se
desarrolla en aquellos seres naturales donde las condiciones de frontera y su relación específica con
el entorno seleccionan la dinámica de los niveles inferiores compatibles con la existencia y los
objetivos del ser en cuestión.
Se considera usualmente que los sistemas adaptativos complejos combinan óptimamente resiliencia
y adaptabilidad para mantener su identidad en un entorno cambiante. Gozan de una plasticidad
capaz de dedicar solo los recursos verdaderamente necesarios para afrontar con éxito las diversas
condiciones ambientales. Ahora bien, ¿no podríamos ver entonces el conocimiento intelectual como
aquella facultad que redefine los contextos relevantes para el hombre en cada situación y por ello
resulta máximamente plástica? Como explica Gianfranco Basti, gracias a su capacidad para
generalizar y abstraer con respecto a todos los datos singulares, el conocimiento humano se puede
enfocar en una infinidad de casos similares. Y cuando el enfoque resulta inadecuado para un nuevo
conjunto de datos, el procedimiento de adaptación cognoscitiva puede repetirse indefinidamente.
Todo esto apunta a una clausura trascendente de la jerarquía finita de los sentidos internos y
externos: una autoconciencia de índole no orgánica que no está condicionada materialmente por el
pasado (es capaz de novedad) y que los antiguos solían denominar intelecto(Basti 2002).
Ya para Descartes, la diferencia específica que marca a la inteligencia humana se encuentra en que
los procesos mecánicos no pueden en ningún caso alcanzar la universalidad de la primera. Por ello,
la IA no es capaz de crear una inteligencia general o universal. En este sentido, Descartes parece ser
mejor profeta que Turing (Bringsjord and Govindarajulu 2018). Mientras que todo ente material tiene
necesidad de una adaptación especial para cada acción, el entendimiento humano, gracias a su
inmaterialidad, es universal. En otras palabras, aunque también hunda sus raíces en la evolución, el
conocimiento inmaterial que brinda el intelecto permite al ser humano abordar nuevos problemas
más allá del peligroso ciclo de ensayo y error, sin estar totalmente condicionado por un entorno físico
siempre amenazante para su vida, y sin tener que abordarlos de manera algorítmica. A diferencia de
lo que sucede con la expresión genética, los conceptos e ideas se comparten y seleccionan entre los
humanos de acuerdo con su validez intrínseca para describir adecuadamente el mundo. Por lo tanto,
amén de conferir unidad a todas las actividades corporales, las operaciones cruciales y distintivas del
alma humana no son fisiológicas sino informativas: aquellas que permiten un verdadero
conocimiento del mundo.
“El alma es, en cierto modo, todo lo existente” (Aristóteles, De Anima, III, 8). ¿Lo puede ser un robot?
Mucho me temo que no, pues eso significaría que los humanos hemos sabido desentrañar
absolutamente todo el misterio del conocimiento intelectual, que perdería así su carácter de don
para convertirse en un producto. Como recuerda la filosofía clásica, lo natural es generado y lo
artificial es producido.

4. Reflexiones teológicas
4.1. La pista del lenguaje
Realizo ahora una serie de consideraciones teológicas en relación con lo específicamente humano:
la existencia de un alma inmaterial como forma del viviente hombre. Sé que asumo un riesgo al
hablar de especificidad humana; no solo por la posibilidad de error sino por la proximidad a la
denostada visión de Dios como “dios de los agujeros” (god of the gaps). Nada más lejos de mi intención
que caer en dicha caricatura de lo divino, pero también creo que es necesario reconocer que hay
agujeros y agujeros. Y no todos son del mismo tamaño ni se pueden rellenar con el mismo “material”
en nuestro conocimiento.
En el último apartado he realizado una defensa fuerte del concepto de inmaterialidad como lo
específico del intelecto humano. Para ser más preciso ahora, lo que quiero decir con ello no es que
no haya inmaterialidad en la naturaleza infrahumana —pienso que la hay desde el principio— sino
que en el ser humano se da lo que doy en llamar el “despegue” de la inmaterialidad: aquella
singularidad en que lo material y lo inmaterial no tienen que estar necesariamente unidos, aunque
de hecho lo estén mientras el hombre está vivo. Quizás sea en la convencionalidad del lenguaje
donde esto se ilustre más claramente. Tenemos, como seres humanos, la libertad de utilizar el
soporte material que deseemos para transmitir nuestros conceptos e ideas, de modo que la
aparición de la capacidad de lenguaje simbólico y del hombre sobre la tierra parecen ser solidarios,
siendo el primero manifestación inequívoca del segundo.

Parece ser comúnmente aceptado que la construcción del lenguaje está estrechamente ligada a la
necesidad de comunicación social, esencial al hombre. Nos moveríamos aquí dentro de una
comprensión más relacional de la naturaleza humana. Ahora bien, ¿dónde está la especificidad
respecto de la comunicación que se da entre otros animales sociales? Pues bien, como señala
Pannenberg, en la cuestión de los orígenes del lenguaje dentro de la historia humana, el verdadero
enigma es su función representativa: la representación de objetos en palabras y oraciones. Los
animales entienden las señales y se dan señales para influir en el comportamiento de los congéneres.
Pero el paso decisivo en la construcción del lenguaje es la transición de las señales a nombres
dirigidos a objetos (Pannenberg 2008, 79).

Más aún, el sonido reemplaza el objeto con el que se juega, evoca el significado asociado y representa
para el individuo la objetividad del objeto. La presencia en la palabra del objeto ausente constituye
la esencia de la palabra como símbolo. ¿Cómo es posible esto en un mundo supuestamente solo
material, gobernado de modo efectivo por interacciones locales? Quizás porque la naturaleza no es
solamente material con interacciones locales. Para Pannenberg, de hecho, el lenguaje surge de una
emoción originalmente religiosa. Por lo tanto, no es menos una creación humana, pero precisamente
como tal, como toda actividad humana creadora, está en deuda con la experiencia y la inspiración.
Pero entonces, resulta una evidencia importante para reforzar la tesis de que la vida humana
finalmente se sostiene y se mantiene en movimiento desde un estrato religioso más profundo
(Pannenberg 2008, 80).
¿Cuál es este estrato religioso más profundo del que estamos hablando? Si resulta algo definitivo y
definitorio de la especie humana, ¿podría tenerlo o desarrollarlo la IA? No existen muchas referencias
a una eventual religiosidad de las máquinas. Podemos preguntar a Siri, Cortana o Google al respecto
para escuchar su respuesta. La cuestión es que el lenguaje simbólico permite no solo el despegue de
la inmaterialidad, sino el despegue relacional del hombre, capaz de relaciones cada vez más
numerosas y cada vez más integradas —capaz, en definitiva, de una singular complejidad. El vértice
o ápice de esta singularidad viene determinado por la capacidad de conocer el universo —la
tendencia humana a la verdad como fin de su vida— y de ser interlocutor de Dios —una verdad que
no es poseída o integrada sino en la que somos asumidos e integrados, “hasta que Dios sea todo en
todos” (1Co15,28).
Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos, pues quedan al
margen de las finalidades y capacidades que corresponden a la inteligencia natural. ¿Qué finalidad
última puede tener la IA más allá de la que le venga impuesta por sus creadores (hombre o robot
construido por un hombre)? El tema no parece ser muy tratado por los teóricos de la IA, confiando
quizás en que de la complejidad de los procesos emergerán las finalidades de las máquinas. ¿Pero
cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay finalidades intrínsecas
de las máquinas o se trata más bien de finalidades subrepticiamente impuestas por los creadores
humanos en base a su ser natural con tendencias? ¿La finalidad última de la inteligencia humana, del
hombre como ser con orexis, puede ser recreada artificialmente?

4.2. La relación personal con Dios como


constitutivo esencial de la inteligencia natural
Estas preguntas nos conducen derechamente a la consideración clásica de la inteligencia como lo
más directamente dado por Dios. Entiéndaseme bien: dado directamente no como producido
directamente (en el sentido de la eficiencia), sino en el sentido de una relación directa, especial y
única en todo el universo con el Creador: lo más transparente a Dios. Para Aristóteles, la
inmaterialidad del noûses el elemento divino en el hombre, quizás más divino que aquel primer
motor inmóvil al que corresponde el papel de deus ex machinaen la física del Estagirita. El Catecismo
de la Iglesia Católica recuerda, en su número 356 que “de todas las criaturas visibles sólo el hombre
es ‘capaz de conocer y amar a su Creador’ (…); es la ‘única criatura en la tierra a la que Dios ha amado
por sí misma’ (…); sólo él está llamado a participar, por el conocimiento y el amor, en la vida de Dios.
Para este fin ha sido creado y ésta es la razón fundamental de su dignidad”.
Nótese bien que el fin y la razón última de la dignidad coinciden. Y coinciden, a mi modo de ver,
porque la inteligencia, como chispazo de la imagen divina, hace al hombre capax Dei, de un Dios que,
de hecho, quiere entrar en relación con él, por sí mismo, desde su creación. Cuando, en el ya citado
debate de Oxford, Richard Dawkins pregunta al arzobispo Williams si los cristianos aún siguen
creyendo en la supervivencia de algo así como el alma después de la muerte, la respuesta del
arzobispo resulta paradigmática a la hora de entender correctamente la subsistencia del alma y la
especificidad humana: “los cristianos creemos que el diálogo que Dios inicia con cada uno de
nosotros en la creación no resulta interrumpido ni siquiera con la muerte”. El problema de la
subsistencia del alma se suaviza cuando la perspectiva fundamental es relacional y no sustancialista,
sin que ello prejuzgue el que se pueda recuperar la individualidad y racionalidad de la definición
boeciana de persona desde la relación fundamental con Dios.
Si nos atenemos al contenido del n. 22 de Gaudium et spesen un sentido fuerte, el misterio del
hombre solo se revela plenamente a la luz del misterio del Dios encarnado. Entonces, la figura de
Jesús significa que el hombre no es un producto trivial de la evolución sino algo radicalmente referido
a otra cosa: el contenido de la vida de Jesús consiste precisamente en el encuentro, en el intercambio
con aquel a quien llama Padre. En que se acepta desde Él y desde Él encuentra su camino. Creer en
Jesús quiere decir, por consiguiente, creer que existe una verdad desde la que el hombre viene y que
es su verdad más íntima, su verdadera esencia (Ratzinger 1985, 109). Pero el hombre pertenece a la
naturaleza, es naturaleza. Por eso la encarnación posee una dimensión de recapitulación cósmica a
través del envío del Espíritu Santo, de modo que el universo mismo está a la espera de adquirir su
significado pleno mediante el hombre redimido (Rm8,19), capaz de superar el pacto roto con la
naturaleza (Novo, Sánchez-Cañizares, and Pereda 2018). En mi opinión, la etiqueta “inteligencia
artificial” es una metáfora, en el mejor de los casos, y un oxímoron en el peor. La inteligencia solo
puede ser natural, porque solo Dios puede crear seres verdaderamente inteligentes llamados a la
comunión con Él en la recapitulación universal.

5. Conclusiones
Según Russell y Norwig, los argumentos a favor y en contra de la IA fuerte no son concluyentes. Pocos
investigadores de la corriente principal de la IA creen que algo significativo depende del resultado
del debate y la conciencia sigue siendo un misterio (Russell and Norvig 2009, 1040). ¿Pero por qué es
tan difícil llegar a un acuerdo sobre estas cuestiones? Quizás porque el punto de partida es
verdaderamente diverso y se dan muchas peticiones de principio escondidas. También la inteligencia
es un misterio para los creyentes y, en la práctica, solo se puede aspirar a describirla. Pero no es esta,
desde luego, la perspectiva del funcionalismo, la filosofía de la mente más naturalmente sugerida
por la IA (Russell and Norvig 2009, 1042).

Para el funcionalismo, la perspectiva “basta con el cerebro” (narrow content) es la más apropiada y
resulta suficiente: simplemente no tiene sentido decir que si un sistema de IA está realmente
pensando o no depende de las condiciones fuera de ese sistema(Russell and Norvig 2009, 1029).
Ahora bien, aquí se ve de modo muy claro el a priori funcionalista. Si solo se admite una definición
funcional de la inteligencia es lógico que la IA aspire a producirla. Por el contrario, solo desde una
perspectiva ampliada (wide content) —en el espacio y en el tiempo— tiene sentido decir que el estado
físico del cerebro no determina el contenido mental. El estado mental no solo depende del cerebro.
Los cerebros no son sistemas cerrados; están en continua interacción con el cuerpo y con el entorno.
Tienen una historia. Se hace por ello también necesaria una teoría de la mente extendida (Fuchs
2017).
El funcionalismo, mediante el experimento mental del reemplazo de cerebro por su equivalente
funcional, afirma que se debe creer que la conciencia se mantiene cuando todo el cerebro es
reemplazado por un circuito que actualiza su estado y mapea las entradas y salidas a través de una
enorme tabla de entradas y salidas (Russell and Norvig 2009, 1030). Pero el problema de fondo es la
reducción que pretende encerrar la conciencia en un sistema físico aislado. El experimento es
imposible porque el cerebro necesita estar en un ser vivo, lo que significa estar en un tipo de
interacción muy determinada (y únicamente determinada por toda la historia del universo) con el
entorno. Es difícil no estar de acuerdo con Searle en este punto cuando afirma que los estados
mentales no se pueden duplicar solo sobre la base de que algún programa tenga la misma estructura
funcional, con el mismo comportamiento de inputs y outputs. Necesitaríamos que el programa se
ejecute en una arquitectura con el mismo poder causal que las neuronas. Pero mis objeciones van
más allá de las de Searle.
Lo que sostengo en esta contribución es que hay inmaterialidad en la naturaleza. Es más, está desde
el principio en ella como lo dado, y no como lo producido. La emergencia de la inteligencia personal
—junto con la autoconciencia y la libertad— es un proceso evolutivo no algorítmico en el que se
alcanza un vértice en el nivel de complejidad del viviente: la posibilidad de una inmaterialidad no
ligada a la materia. Por eso, un robot solo puede aproximarse a simular el comportamiento humano
en un rango determinado de tareas, susceptible de compresión algorítmica. Si este argumento no se
admite creo que solo se puede añadir que la carga de la prueba reside en la IA. Para ello, la IA no
debe simplemente constatar que se dan, supuestamente, comportamientos inteligentes en las
máquinas, sino explicar, causalmente, cómo se llegarían a producir.
Las condiciones de habitabilidad e inteligibilidad globales del universo en que vivimos resultan, a mi
modo de ver, una pista muy relevante para entender por qué la inteligencia está en la naturaleza
como lo dado y no como lo producido. La pregunta adicional que ha de abordar el programa de IA
es si en su visión del mundo hay lugar para la manifestación del don o simplemente para el dominio
explotador de la producción. Quizás pocos discursos han expresado mejor este dilema como el del
replicante Roy Batty, en el primer Blade Runner, después de buscar desesperadamente a su creador
antes de morir: “Yo… he visto cosas que vosotros no creeríais: naves de combate en llamas más allá
de Orión. He visto rayos C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos
momentos se perderán… en el tiempo… como lágrimas en la lluvia. Es hora de morir”. Roy parece
quedarse a las puertas de alcanzar el punto crucial de humanidad: la posibilidad, que trasciende a la
muerte, de relacionarse con su auténtico Creador.

6. Referencias
Baer, Wolfgang. 2018. “Countering the Artificial Intelligence Threat.” Cosmos and History: The Journal
of Natural and Social Philosophy14 (1): 17–26.
Barrett, Nathaniel F., Miguel García-Valdecasas, and Javier Sánchez-Cañizares. n.d. “‘I Can’ vs. ‘I Want’:
What’s Missing from Gallagher’s Picture of Non-Reductive Cognitive Science.” Australasian
Philosophical Review. doi:10.1080/24740500.2018.1552099.
Barrett, Nathaniel F., and Javier Sánchez-Cañizares. 2018. “Causation as the Self-Determination of a
Singular and Freely Chosen Optimality.” The Review of Metaphysics71 (4): 755–87.
Basti, Gianfranco. 2002. “Mind-Body Relationship.” INTERS – Interdisciplinary Encyclopedia of Religion
and Science. doi:10.17421/2037-2329-2002-GB-2.
Bringsjord, Selmer, and Naveen Sundar Govindarajulu. 2018. “Artificial Intelligence.” The Stanford
Encyclopedia of Philosophy. Edward N. Zalta.
https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.
Davies, Paul. 2013. “The Nature of the Laws of Physics and Their Mysterious Biofriendliness.” Euresis5
(Summer): 15–36.
Deutsch, David. 2011. The Beginning of Infinity. Explanations That Transform the World. London: Penguin
Books.
Dreyfus, Hubert. 1972. What Computers Can’t Do. Cambridge, MA: MIT Press.
———. 1992. What Computers Still Can’t Do. Cambridge, MA: MIT Press.
Dreyfus, Hubert, and Stuart Dreyfus. 1987. Mind Over Machine: The Power of Human Intuition and
Expertise in the Era of the Computer. New York, NY: Free Press.
Fallon, Francis. 2017. “Integrated Information Theory (IIT) and Artificial Consciousness.” In Advanced
Research on Biologically Inspired Cognitive Architectures, edited by Jordi Vallverdu, Manuel Mazzara,
Max Talanov, Salvatore Distefano, and Robert Lowe, 1–23. Hershey, PA: IGI Global. doi:10.4018/978-
1-5225-1947-8.ch001.
Floridi, Luciano. 2011. The Philosophy of Information. Oxford: Oxford University Press.
Fuchs, Thomas. 2017. Ecology of the Brain: The Phenomenology and Biology of the Embodied Mind.
Oxford: Oxford University Press.
Kasabov, Nikola K. 2019. “From Brain-Inspired AI to a Symbiosis of Human Intelligence and Artificial
Intelligence.” In , 701–14. Springer, Berlin, Heidelberg. doi:10.1007/978-3-662-57715-8_22.

Kauffman, Stuart A. 2016. Humanity in a Creative Universe. Oxford: Oxford University Press.
https://global.oup.com/academic/product/humanity-in-a-creative-universe-
9780199390458?cc=es&lang=en&.
Lake, Brenden M., Tomer D. Ullman, Joshua B. Tenenbaum, and Samuel J. Gershman. 2016. “Building
Machines That Learn and Think like People.”ArXiv:1604.00289v1[Cs.AI], no. c: 1–55. doi:1511.09249v1.
Laskey, Kathryn Blackmond. 2018. “A Theory of Physically Embodied and Causally Effective
Agency.” Information9 (10): 249. doi:10.3390/info9100249.
Lucas, John R. 1961. “Minds, Machines and Gödel.” Philosophy36: 112–27.
Mitchell, Melanie. 2009. Complexity: A Guided Tour. New York: Oxford University Press.
Novo, Javier, Javier Sánchez-Cañizares, and Rubén Pereda. 2018. Naturaleza Creativa. Madrid: Rialp.
Pannenberg, Wolfhart. 2008. The Historicity of Nature. Essays on Science and Theology. West
Conshohocken, Pa.: Templeton Foundation Press.
Penrose, Roger. 1989. The Emperor’s New Mind. Concerning Computers, Minds, and The Laws of Physics.
Oxford: Oxford University Press.
———. 1994. Shadows of the Mind. Oxford: Oxford University Press.
———. 2016. Fashion, Faith and Fantasy in the New Physics of the Universe. Princeton – Oxford:
Princeton University Press.
Ratzinger, Joseph. 1985. Teoría de Los Prncipios Teológicos. Materiales Para Una Teología Fundamental.
Barcelona: Herder.
Reggia, James A, Di-wei Huang, and Garrett Katz. 2017. “Exploring the Computational Explanatory
Gap,” 1–20. doi:10.3390/philosophies2010005.

Ruffini, Giulio. 2017. “An Algorithmic Information Theory of Consciousness.” Neuroscience of


Consciousness3 (1). doi:10.1093/nc/nix019.
Russell, Stuart, and Peter Norvig. 2009. Artificial Intelligence: A Modern Approach. 3rd ed. Saddle River,
NJ: Prentice-Hall.
Sánchez-Cañizares, Javier. 2014. “The Mind-Brain Problem and the Measurement Paradox of
Quantum Mechanics: Should We Disentangle Them?” NeuroQuantology12 (1): 76–95.
doi:10.14704/nq.2014.12.1.696.
———. 2016. “Entropy, Quantum Mechanics, and Information in Complex Systems a Plea for
Ontological Pluralism.” European Journal of Science and Theology12 (1).
———. 2017. “¿Es Compatible El Compatibilismo Con La Existencia de Correlaciones Cuánticas Del
Tipo EPR?” Pensamiento73 (276): 599–602. doi:pen.v73.i276.y2017.027.
Searle, John R. 1997. The Mystery of Consciousness. New York: New York Review of Books.
Searle, John R. 1980. “Minds, Brains, and Programs.” Behavioral and Brain Sciences3 (3): 417–57.
Tononi, Giulio. 2008. “Consciousness as Integrated Information: A Provisional Manifesto.” Biological
Bulletin, no. December: 216–42.
Velasquez, Reinaldo Bernal. 2016. “An Emergentist Argument for the Impossibility of Zombie
Duplicates.” FMSH-WP-2016-120Décembre.

También podría gustarte