Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
¿Puede un robot tener alma? Quizás sea esta una de las preguntas que vienen a la mente de cualquier
persona interesada en cuestiones de fondo sobre la inteligencia artificial (IA). Bastaría espigar los
relatos de ciencia ficción sobre robots para darnos cuenta de porqué la pregunta no puede ser
postergada. Si rechazamos la visión del fantasma en la máquina, del homúnculo y del Dios
intervencionista no parecería haber razones a priori que lo impidan: o bien el alma está ya en la
naturaleza como principio irreducible, o bien es un epifenómeno. Tanto en uno como en otro caso,
no parece imposible ensamblar materia capaz de pensar y querer, actividades superiores reservadas
tradicionalmente al alma humana inmortal.
Ciertamente, con los desarrollos actuales en el campo de la IA parece que nos encontramos en una
situación nueva, difícilmente imaginable en otra época de la historia. No se trata evidentemente de
que filosofemos desde cero, pero sí que lo hagamos teniendo en cuenta la realidad de los avances
técnicos. La IA es testigo de un incremento exponencial en su utilización de artefactos y aplicaciones
y, aunque no estemos en absoluto cerca de construir una máquina que tenga las capacidades de un
ser humano o que sea capaz de actuar “racionalmente” en todos los escenarios posibles, hay cada
vez más algoritmos para multitud de tareas en una gran variedad de dominios (Bringsjord and
Govindarajulu 2018).
Ahora bien, ¿qué se entiende habitualmente por filosofía de la IA? Poco podemos decir respecto a la
automatización de procesos susceptibles de ser reproducidos como algoritmos que, a fin de cuentas,
no son más que una ayuda para otras actividades más propiamente humanas. Ayudar no es sustituir.
No se trata por tanto de abordar el hecho incontrovertible de si las máquinas pueden ayudar en
actividades humanas, sino la cuestión más controvertida acerca de si pueden pensar, desarrollar una
conciencia o llegar a ser libres. Según la entrada de la Stanford Encyclopedia of Philosophy, el campo
de la IA puede definirse como el ocupado en la construcción de un artefacto capaz de pasar el test
de Turing. Y, de manera más general, puede definirse como el de las máquinas que piensan y/o
actúan de manera humana y/o racional. (Bringsjord and Govindarajulu 2018).
La afirmación de que las máquinas podrían actuar como sifueran inteligentes es denominada la
hipótesis de la IA débil, mientras que la afirmación de que las máquinas que actúan así, en realidad
están pensando (y no solo simulanel pensamiento) se denomina la hipótesis de la IA fuerte. Y no está
de más tener en cuenta que la IA se fundó asumiendo que, al menos, la IA débil es posible (Russell
and Norvig 2009, 1020). Hay que tener en cuenta, además, que la primera conjetura acerca de los
procesos mentales requeridos para producir un comportamiento dado suele ser errónea (Russell
and Norvig 2009, 1022). Por eso se antoja extremadamente difícil para los filósofos derrocar a la IA
en su versión débil —construir máquinas que parecen tener todo el repertorio mental y el
comportamiento de los seres humanos. ¿Qué razón filosófica puede oponerse a que la IA produzca
artefactos que aparentan ser animales o incluso humanos? (Bringsjord and Govindarajulu 2018)
Alan Turing apostaba a que con el tiempo, la distinción entre IA débil y fuerte se disolvería. Pero
quizás eso es mucho apostar, aunque solo sea por el hecho de que para nosotros, seres humanos,
sigue teniendo todo el sentido una distinción fuerte entre interioridad y exterioridad, entre realidad
y simulación. Puede no ser imposible simular el comportamiento humano, pero las cuestiones
referidas a la autoconciencia, el conocimiento (saber que se sabe), las emociones o la intencionalidad
continúan siendo cruciales en cualquier acercamiento realista a la naturaleza humana.
Evidentemente, todo ello toca también de lleno el llamado problema mente-cerebro o, si se prefiere,
el problema de la naturalización de la mente humana.
Las críticas a Lucas y Penrose han venido también del mundo más terrenal de los defensores de la
IA. Por una parte, se niega que un sistema inteligente tenga que ser capaz de probar la verdad o
falsedad de todas sus afirmaciones (ser completamente consistente); por otra, es posible que
también los humanos caigan bajo la limitación que imponen los teoremas de Gödel (Russell and
Norvig 2009, 1022–23). Ahora bien, aunque formal o lógicamente esas objeciones sean todas
relevantes, es problemático que no afronten el fondo del argumento de Gödel, que tiene que ver con
la recursividad y con la capacidad, en principio universal, de la inteligencia humana para objetivar la
realidad. Volveré sobre ello más adelante.
De una manera derivada pero en cierto modo natural, las objeciones inspiradas en Gödel han llevado
a introducir la relevancia de la mecánica cuántica y sus interpretaciones para discernir los posibles
límites de la IA. La cuestión es que la mecánica cuántica y, en particular, el problema de la medida,
podrían resultar esenciales, en línea de principio, para resolver el problema mente-cerebro (Sánchez-
Cañizares 2014). Desde luego, parecen existir argumentos fuertes para hacer incompatibles las
diferentes versiones compatibilistas de la libertad con la indeterminación ontológica de la naturaleza
a la que apuntan las correlaciones cuánticas tipo EPR (Sánchez-Cañizares 2017), cada vez mejor
testeadas. La única vía de salida para los deterministas extremos es la asunción de un
superdeterminismo que tiene poco de científico y mucho de metafísico. La otra cara de la moneda
es que quizás la IA haya de reconvertirse en IA cuántica.
La misteriosa y controvertida realidad del proceso de reducción (R) de la función de onda podría ser
clave para pasar de una IA en modo “clásico”, que solo simula la inteligencia —sin tener capacidad
interpretativa, de conocimiento o de representación más allá de aquello que le ha sido
implementado— a una IA “cuántica”, capaz de verdadero conocimiento y agencia (Laskey 2018). Sin
embargo, el problema de fondo con el que chocamos una y otra vez llegados a este punto es que R
no explica qué es la inteligencia y la volición sino que, por el contrario, asume que hay inteligencia y
volición capaz de efectuar el proceso de reducción R al establecerse, por ejemplo, una configuración
experimental capaz de obtener información sobre un sistema físico. De este modo, invocando a la
mecánica cuántica, ganamos espacio para un verdadero ejercicio de libertad (no compatibilista) en
una naturaleza fundamentalmente indeterminista, pero no nos acercamos necesariamente a una
comprensión naturalista de la inteligencia y volición humanas.
Ya se argumentaba en 1988 que los sistemas de inteligencia artificial pueden ser realmente
sintácticos y la sintaxis correcta puede constituir una semántica. Mas hemos de reconocer que las
técnicas de aprendizaje en IA han avanzado escasamente en el importante problema de construir
nuevas representaciones en niveles de abstracción superiores al vocabulario de entrada (Russell and
Norvig 2009, chap. 27). El aprendizaje se considera, sobre todo, a partir del modelo de obtención de
una función que correlaciona correctamente parejas de datos, pero esto no resuelve para las
máquinas el problema del aprendizaje mediante la lectura. Y el hecho es que o bien las máquinas
obtienen “conocimiento” a través de los seres humanos que codifican e insertan manualmente
información, o bien deberán ser capaces de leer y escuchar sin supervisión alguna.
El problema, evidentemente, tiene que ver con la interpretación, el conocimiento de formas, y la
capacidad —aparentemente innata en los humanos— de desarrollar de modo natural y autónomo
un lenguaje simbólico. Luciano Floridi ha explicado brillantemente la dificultad del problema de la
fundamentación del símbolo (symbol grounding problem) en el contexto de la naturalización de la
información y la necesidad de pedir inicialmente el cumplimiento de la condición del “nulo
compromiso semántico” (zero semantic commitment), si se quiere de verdad avanzar (Floridi 2011,
134–61). A mi modo de ver, este problema es insoluble, pues ni siquiera la “semántica basada en la
acción” (action-based semantics) propuesta por el mismo Floridi (Floridi 2011, 162–81)se libra de
circularidad en la argumentación (Sánchez-Cañizares 2016). La impresión es que el argumento de la
habitación china sigue siendo bastante sólido, a pesar de su rechazo por parte de los defensores de
la IA fuerte, recayendo sobre estos últimos la carga de la prueba.
En cierto modo, las últimas discusiones giran en torno al papel de la complejidad en la naturaleza y
si esta, por si sola, es capaz de hacer que emerjan capacidades superiores como la inteligencia, la
conciencia o la libertad. Los defensores de un materialismo no reduccionista, por ejemplo, critican el
microfisicalismo usado en argumentos clásicos como el de la habitación china o el argumento zombi
de Chalmers. Pero si el microfisicalismo no es cierto, como parece no serlo, se podría abrir la puerta
a la emergencia de la conciencia a través de la complejidad material (Velasquez 2016), basada en la
superveniencia nomológica. Parece que la complejidad, como proceso, está ínsita en la naturaleza y
que en esta se da la aparición de ciertas leyes “formales”, que trascienden la pura materialidad o
especificidad de los sistemas (Mitchell 2009). El concepto de conciencia como información integrada
(Tononi 2008)resulta extremadamente sugerente a este respecto, por su alianza con la idea de
complejidad, pero sigue resultando muy controvertido y ha sido criticado también desde
presupuestos funcionalistas (Fallon 2017). La cuestión es que la complejidad, por sí sola, no parece
suficiente para explicar qué es la inteligencia o la intencionalidad (Deutsch 2011)(Barrett, García-
Valdecasas, and Sánchez-Cañizares, n.d.)
Una reflexión relevante, llegados a este punto, es la cuestión de si, en el fondo, es necesario el
acontecer de toda la historia del universo para que aparezca la inteligencia. Ciertamente, no se
pueden desechar a la ligera ideas como la de que el universo mismo esté llevando a cabo una gran
computación (Mitchell 2009, pt. 3), aunque solo sea por su solidaridad de base con las perspectivas
superdeterministas y el creciente número de artículos y ficciones al respecto. Pero si estamos dentro
de una gran computación, se trata, desde luego, de una computación no algorítmica. Paradojas como
la de Boltzmann (es más fácil, estadísticamente hablando, producir cerebros humanos como mera
fluctuación aleatoria de la dinámica de nuestro sistema solar que llevar a cabo todo el proceso
evolutivo), insinúan que debe haber algo más profundo detrás de la misma evolución del universo y
su intrínseca historicidad. No parece posible sustituir la causalidad que se da en la historia real del
universo para la emergencia de determinadas formas naturales. En el universo mismo parece haber
una direccionalidad –como apunta la bajísima entropía inicial del Big Bang, quizás el misterio más
importante de la cosmología actual (Penrose 2016)— y un ajuste fino que lo hace globalmente
habitable (biofriendly) (Davies 2013). Pero si la evolución y la historia del universo no son
computables, estaríamos perdiendo parte de la fuerza del argumento de los defensores de la IA
fuerte. Es la evolución y no nuestra inteligencia la que permite emerger a la inteligencia.
3. Consideraciones filosóficas
Al acabar la sección anterior enfatizábamos implícitamente la importancia de lo natural frente a lo
artificial. Se trata ahora de elucidar algunas cuestiones relativas al concepto de inteligencia y ver, por
ejemplo, en qué medida podría resultar producida o ser un efecto colateral o secundario de la
evolución o la complejidad de las máquinas.
De hecho, cuando analizamos la estructura del deep learning, podemos aprender de algoritmos de
optimización abiertos de qué manera, dentro de los mismos algoritmos, se generan determinadas
estructuras y organizaciones capaces de optimizar resultados que hubiesen pasado inadvertidas en
el proceso de aprendizaje humano. De modo análogo, el estudio de las correlaciones neurales en
determinadas tareas puede enseñarnos acerca del mejor modo de codificar la información para
abordar un determinado problema (Kasabov 2019). La investigación sobre IA y la organización del
cerebro se estimulan mutuamente; de modo que la organización arquitectónica de uno puede servir
para comprender mejor el trabajo en el otro. Pero, obviamente, que la organización cerebral, natural
y artificial, resulten cruciales para entender la actividad cognitiva humana no significa que sean
suficientes para entender qué es el conocimiento. Algunos siguen considerando esta brecha como
algo meramente computacional (Reggia, Huang, and Katz 2017)y, ciertamente, el viaje entre las
computadoras y el cerebro humano es de ida y vuelta, pero la brecha respecto del conocimiento no
tiene visos de cerrarse (Lake et al. 2016).
Dentro de una lógica diacrónica, parece difícil que la IA sea un sustituto de la inteligencia humana.
Le correspondería a la primera más bien un rol de ayuda para la progresiva expansión de la segunda.
La evolución del software, mientras que puede ser realmente potente en un sentido, parece ir
siempre detrás del entendimiento humano en cuestiones más profundas (de recurrencia, identidad
y sentido común). La capacidad creativa humana es clave. Pero cómo se alcanza a tener creatividad
está lejos de ser una cuestión algorítmica y programable. Quizás no tanto por la cuestión de la
novedad —que se puede simular, pero solo hasta cierto punto (Barrett and Sánchez-Cañizares 2018),
introduciendo donde sea necesario cambios pseudoaleatorios— sino por la cuestión de cómo
seleccionar las creaciones más prometedoras. Pero el criterio de selección que se alcanza con el
conocimiento inmaterial —el de una cierta adecuacióncon (parte de) la realidad— no puede definirse
de manera universal y a priori.
Una posible solución para salir del atolladero sería dejar que la propia IA evolucione para que se lleve
a cabo la selección de las buenas creaciones (en esa línea van los programas de selección natural de
algoritmos para resolver problemas específicos). Lo que resulta menos claro es cuál es el fin de la IA
así definida, el problema al que se enfrenta y cuál es su dominio de variabilidad. Dicho con otras
palabras, la evolución real no se puede representar de manera algorítmica —ni siquiera sabemos
cuáles son los grados de libertad relevantes en la biosfera y mucho menos en el universo (Kauffman
2016)— y es bastante improbable, por no decir imposible, que podamos simular artificialmente toda
la evolución (y no digamos ya la evolución de todo el universo). Por tanto, si el problema de la
emergencia de la inteligencia personal no es un problema local sino global, que afecta a las
condiciones de contorno y al valor de las constantes físicas del universo que nos acoge, resultaría
una quimera pretender reproducir esa inteligencia from scratch. Así pues, mi intuición al respecto es
que la evolución es necesaria para la aparición de la inteligencia humana: la inteligencia de un
viviente particular con una capacidad de objetualización potencialmente infinita. ¿Pero es la
evolución suficiente?
4. Reflexiones teológicas
4.1. La pista del lenguaje
Realizo ahora una serie de consideraciones teológicas en relación con lo específicamente humano:
la existencia de un alma inmaterial como forma del viviente hombre. Sé que asumo un riesgo al
hablar de especificidad humana; no solo por la posibilidad de error sino por la proximidad a la
denostada visión de Dios como “dios de los agujeros” (god of the gaps). Nada más lejos de mi intención
que caer en dicha caricatura de lo divino, pero también creo que es necesario reconocer que hay
agujeros y agujeros. Y no todos son del mismo tamaño ni se pueden rellenar con el mismo “material”
en nuestro conocimiento.
En el último apartado he realizado una defensa fuerte del concepto de inmaterialidad como lo
específico del intelecto humano. Para ser más preciso ahora, lo que quiero decir con ello no es que
no haya inmaterialidad en la naturaleza infrahumana —pienso que la hay desde el principio— sino
que en el ser humano se da lo que doy en llamar el “despegue” de la inmaterialidad: aquella
singularidad en que lo material y lo inmaterial no tienen que estar necesariamente unidos, aunque
de hecho lo estén mientras el hombre está vivo. Quizás sea en la convencionalidad del lenguaje
donde esto se ilustre más claramente. Tenemos, como seres humanos, la libertad de utilizar el
soporte material que deseemos para transmitir nuestros conceptos e ideas, de modo que la
aparición de la capacidad de lenguaje simbólico y del hombre sobre la tierra parecen ser solidarios,
siendo el primero manifestación inequívoca del segundo.
Parece ser comúnmente aceptado que la construcción del lenguaje está estrechamente ligada a la
necesidad de comunicación social, esencial al hombre. Nos moveríamos aquí dentro de una
comprensión más relacional de la naturaleza humana. Ahora bien, ¿dónde está la especificidad
respecto de la comunicación que se da entre otros animales sociales? Pues bien, como señala
Pannenberg, en la cuestión de los orígenes del lenguaje dentro de la historia humana, el verdadero
enigma es su función representativa: la representación de objetos en palabras y oraciones. Los
animales entienden las señales y se dan señales para influir en el comportamiento de los congéneres.
Pero el paso decisivo en la construcción del lenguaje es la transición de las señales a nombres
dirigidos a objetos (Pannenberg 2008, 79).
Más aún, el sonido reemplaza el objeto con el que se juega, evoca el significado asociado y representa
para el individuo la objetividad del objeto. La presencia en la palabra del objeto ausente constituye
la esencia de la palabra como símbolo. ¿Cómo es posible esto en un mundo supuestamente solo
material, gobernado de modo efectivo por interacciones locales? Quizás porque la naturaleza no es
solamente material con interacciones locales. Para Pannenberg, de hecho, el lenguaje surge de una
emoción originalmente religiosa. Por lo tanto, no es menos una creación humana, pero precisamente
como tal, como toda actividad humana creadora, está en deuda con la experiencia y la inspiración.
Pero entonces, resulta una evidencia importante para reforzar la tesis de que la vida humana
finalmente se sostiene y se mantiene en movimiento desde un estrato religioso más profundo
(Pannenberg 2008, 80).
¿Cuál es este estrato religioso más profundo del que estamos hablando? Si resulta algo definitivo y
definitorio de la especie humana, ¿podría tenerlo o desarrollarlo la IA? No existen muchas referencias
a una eventual religiosidad de las máquinas. Podemos preguntar a Siri, Cortana o Google al respecto
para escuchar su respuesta. La cuestión es que el lenguaje simbólico permite no solo el despegue de
la inmaterialidad, sino el despegue relacional del hombre, capaz de relaciones cada vez más
numerosas y cada vez más integradas —capaz, en definitiva, de una singular complejidad. El vértice
o ápice de esta singularidad viene determinado por la capacidad de conocer el universo —la
tendencia humana a la verdad como fin de su vida— y de ser interlocutor de Dios —una verdad que
no es poseída o integrada sino en la que somos asumidos e integrados, “hasta que Dios sea todo en
todos” (1Co15,28).
Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos, pues quedan al
margen de las finalidades y capacidades que corresponden a la inteligencia natural. ¿Qué finalidad
última puede tener la IA más allá de la que le venga impuesta por sus creadores (hombre o robot
construido por un hombre)? El tema no parece ser muy tratado por los teóricos de la IA, confiando
quizás en que de la complejidad de los procesos emergerán las finalidades de las máquinas. ¿Pero
cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay finalidades intrínsecas
de las máquinas o se trata más bien de finalidades subrepticiamente impuestas por los creadores
humanos en base a su ser natural con tendencias? ¿La finalidad última de la inteligencia humana, del
hombre como ser con orexis, puede ser recreada artificialmente?
5. Conclusiones
Según Russell y Norwig, los argumentos a favor y en contra de la IA fuerte no son concluyentes. Pocos
investigadores de la corriente principal de la IA creen que algo significativo depende del resultado
del debate y la conciencia sigue siendo un misterio (Russell and Norvig 2009, 1040). ¿Pero por qué es
tan difícil llegar a un acuerdo sobre estas cuestiones? Quizás porque el punto de partida es
verdaderamente diverso y se dan muchas peticiones de principio escondidas. También la inteligencia
es un misterio para los creyentes y, en la práctica, solo se puede aspirar a describirla. Pero no es esta,
desde luego, la perspectiva del funcionalismo, la filosofía de la mente más naturalmente sugerida
por la IA (Russell and Norvig 2009, 1042).
Para el funcionalismo, la perspectiva “basta con el cerebro” (narrow content) es la más apropiada y
resulta suficiente: simplemente no tiene sentido decir que si un sistema de IA está realmente
pensando o no depende de las condiciones fuera de ese sistema(Russell and Norvig 2009, 1029).
Ahora bien, aquí se ve de modo muy claro el a priori funcionalista. Si solo se admite una definición
funcional de la inteligencia es lógico que la IA aspire a producirla. Por el contrario, solo desde una
perspectiva ampliada (wide content) —en el espacio y en el tiempo— tiene sentido decir que el estado
físico del cerebro no determina el contenido mental. El estado mental no solo depende del cerebro.
Los cerebros no son sistemas cerrados; están en continua interacción con el cuerpo y con el entorno.
Tienen una historia. Se hace por ello también necesaria una teoría de la mente extendida (Fuchs
2017).
El funcionalismo, mediante el experimento mental del reemplazo de cerebro por su equivalente
funcional, afirma que se debe creer que la conciencia se mantiene cuando todo el cerebro es
reemplazado por un circuito que actualiza su estado y mapea las entradas y salidas a través de una
enorme tabla de entradas y salidas (Russell and Norvig 2009, 1030). Pero el problema de fondo es la
reducción que pretende encerrar la conciencia en un sistema físico aislado. El experimento es
imposible porque el cerebro necesita estar en un ser vivo, lo que significa estar en un tipo de
interacción muy determinada (y únicamente determinada por toda la historia del universo) con el
entorno. Es difícil no estar de acuerdo con Searle en este punto cuando afirma que los estados
mentales no se pueden duplicar solo sobre la base de que algún programa tenga la misma estructura
funcional, con el mismo comportamiento de inputs y outputs. Necesitaríamos que el programa se
ejecute en una arquitectura con el mismo poder causal que las neuronas. Pero mis objeciones van
más allá de las de Searle.
Lo que sostengo en esta contribución es que hay inmaterialidad en la naturaleza. Es más, está desde
el principio en ella como lo dado, y no como lo producido. La emergencia de la inteligencia personal
—junto con la autoconciencia y la libertad— es un proceso evolutivo no algorítmico en el que se
alcanza un vértice en el nivel de complejidad del viviente: la posibilidad de una inmaterialidad no
ligada a la materia. Por eso, un robot solo puede aproximarse a simular el comportamiento humano
en un rango determinado de tareas, susceptible de compresión algorítmica. Si este argumento no se
admite creo que solo se puede añadir que la carga de la prueba reside en la IA. Para ello, la IA no
debe simplemente constatar que se dan, supuestamente, comportamientos inteligentes en las
máquinas, sino explicar, causalmente, cómo se llegarían a producir.
Las condiciones de habitabilidad e inteligibilidad globales del universo en que vivimos resultan, a mi
modo de ver, una pista muy relevante para entender por qué la inteligencia está en la naturaleza
como lo dado y no como lo producido. La pregunta adicional que ha de abordar el programa de IA
es si en su visión del mundo hay lugar para la manifestación del don o simplemente para el dominio
explotador de la producción. Quizás pocos discursos han expresado mejor este dilema como el del
replicante Roy Batty, en el primer Blade Runner, después de buscar desesperadamente a su creador
antes de morir: “Yo… he visto cosas que vosotros no creeríais: naves de combate en llamas más allá
de Orión. He visto rayos C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos
momentos se perderán… en el tiempo… como lágrimas en la lluvia. Es hora de morir”. Roy parece
quedarse a las puertas de alcanzar el punto crucial de humanidad: la posibilidad, que trasciende a la
muerte, de relacionarse con su auténtico Creador.
6. Referencias
Baer, Wolfgang. 2018. “Countering the Artificial Intelligence Threat.” Cosmos and History: The Journal
of Natural and Social Philosophy14 (1): 17–26.
Barrett, Nathaniel F., Miguel García-Valdecasas, and Javier Sánchez-Cañizares. n.d. “‘I Can’ vs. ‘I Want’:
What’s Missing from Gallagher’s Picture of Non-Reductive Cognitive Science.” Australasian
Philosophical Review. doi:10.1080/24740500.2018.1552099.
Barrett, Nathaniel F., and Javier Sánchez-Cañizares. 2018. “Causation as the Self-Determination of a
Singular and Freely Chosen Optimality.” The Review of Metaphysics71 (4): 755–87.
Basti, Gianfranco. 2002. “Mind-Body Relationship.” INTERS – Interdisciplinary Encyclopedia of Religion
and Science. doi:10.17421/2037-2329-2002-GB-2.
Bringsjord, Selmer, and Naveen Sundar Govindarajulu. 2018. “Artificial Intelligence.” The Stanford
Encyclopedia of Philosophy. Edward N. Zalta.
https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.
Davies, Paul. 2013. “The Nature of the Laws of Physics and Their Mysterious Biofriendliness.” Euresis5
(Summer): 15–36.
Deutsch, David. 2011. The Beginning of Infinity. Explanations That Transform the World. London: Penguin
Books.
Dreyfus, Hubert. 1972. What Computers Can’t Do. Cambridge, MA: MIT Press.
———. 1992. What Computers Still Can’t Do. Cambridge, MA: MIT Press.
Dreyfus, Hubert, and Stuart Dreyfus. 1987. Mind Over Machine: The Power of Human Intuition and
Expertise in the Era of the Computer. New York, NY: Free Press.
Fallon, Francis. 2017. “Integrated Information Theory (IIT) and Artificial Consciousness.” In Advanced
Research on Biologically Inspired Cognitive Architectures, edited by Jordi Vallverdu, Manuel Mazzara,
Max Talanov, Salvatore Distefano, and Robert Lowe, 1–23. Hershey, PA: IGI Global. doi:10.4018/978-
1-5225-1947-8.ch001.
Floridi, Luciano. 2011. The Philosophy of Information. Oxford: Oxford University Press.
Fuchs, Thomas. 2017. Ecology of the Brain: The Phenomenology and Biology of the Embodied Mind.
Oxford: Oxford University Press.
Kasabov, Nikola K. 2019. “From Brain-Inspired AI to a Symbiosis of Human Intelligence and Artificial
Intelligence.” In , 701–14. Springer, Berlin, Heidelberg. doi:10.1007/978-3-662-57715-8_22.
Kauffman, Stuart A. 2016. Humanity in a Creative Universe. Oxford: Oxford University Press.
https://global.oup.com/academic/product/humanity-in-a-creative-universe-
9780199390458?cc=es&lang=en&.
Lake, Brenden M., Tomer D. Ullman, Joshua B. Tenenbaum, and Samuel J. Gershman. 2016. “Building
Machines That Learn and Think like People.”ArXiv:1604.00289v1[Cs.AI], no. c: 1–55. doi:1511.09249v1.
Laskey, Kathryn Blackmond. 2018. “A Theory of Physically Embodied and Causally Effective
Agency.” Information9 (10): 249. doi:10.3390/info9100249.
Lucas, John R. 1961. “Minds, Machines and Gödel.” Philosophy36: 112–27.
Mitchell, Melanie. 2009. Complexity: A Guided Tour. New York: Oxford University Press.
Novo, Javier, Javier Sánchez-Cañizares, and Rubén Pereda. 2018. Naturaleza Creativa. Madrid: Rialp.
Pannenberg, Wolfhart. 2008. The Historicity of Nature. Essays on Science and Theology. West
Conshohocken, Pa.: Templeton Foundation Press.
Penrose, Roger. 1989. The Emperor’s New Mind. Concerning Computers, Minds, and The Laws of Physics.
Oxford: Oxford University Press.
———. 1994. Shadows of the Mind. Oxford: Oxford University Press.
———. 2016. Fashion, Faith and Fantasy in the New Physics of the Universe. Princeton – Oxford:
Princeton University Press.
Ratzinger, Joseph. 1985. Teoría de Los Prncipios Teológicos. Materiales Para Una Teología Fundamental.
Barcelona: Herder.
Reggia, James A, Di-wei Huang, and Garrett Katz. 2017. “Exploring the Computational Explanatory
Gap,” 1–20. doi:10.3390/philosophies2010005.