Está en la página 1de 35

Mente, conciencia e

inteligencia artificial
Fernando Soler Toscano
¿QUIÉN SOY?

Universidad de Sevilla
• Profesor Titular de Universidad, Departamento de Filosofía, Lógica y Filosofía de la
Ciencia
• Licenciado en Filosofía, Ingeniero Técnico Informático y Doctor
• Responsable del Grupo de Lógica, Lenguaje e Información
• Miembro de la Junta Directiva de la Sociedad de Lógica, Metodología y Filosofía de la
Ciencia en España
• Investigador Principal de “Complejidad y sistemas dinámicos: teoría matemática y
aplicaciones a ecología y a la neurociencia de la consciencia”
• Contacto: fsoler@us.es
• Página personal: https://personal.us.es/fsoler/
• ORCID: 0000-0003-1953-4136
• Twitter: @FerSolerToscano
Filosofía de la Mente

Preguntas centrales
• ¿Qué es una
experiencia?
• ¿Cómo se produce?
• ¿En qué organismos u
objetos puede darse?
Diferentes respuestas desde la filosofía
● Conductismo: No se puede estudiar científicamente la mente, la
experiencia que el individuo reporta no tiene valor en un análisis
de la conducta.
● Dualismo: La mente es una sustancia distinta del cuerpo, es en su
ámbito donde ocurren las experiencias, sensaciones, etc.
● Materialismo: La mente es la actividad del cerebro. Una sensación
es idéntica a la estimulación de ciertas fibras nerviosas.
● Funcionalismo: Los estados mentales son estados funcionales en
los que se encuentra el “software” que regula nuestro cerebro.
También distintas respuestas en neurociencia
¿Dónde se producen las experiencias conscientes?
Integrated
Global Information
Workspace Theory
Theories

Seth, A.K., Bayne, T. Theories of consciousness. Nat Rev Neurosci 23, 439–452 (2022).
https://doi.org/10.1038/s41583-022-00587-4
Leibniz (1646-1716)
Hay que confesar que la percepción y lo que de ella
depende es inexplicable por razones mecánicas, es decir,
por medio de las figuras y de los movimientos. Y si se
imagina que existe una máquina, cuya estructura haga
pensar, sentir, tener percepción, se le podrá concebir
agrandada, conservando las mismas proporciones, de tal
manera que se pueda entrar en ella como si fuera un
molino. Supuesto esto, no se hallarán, visitándola por
dentro, más que piezas que se impulsan las unas a las otras,
y nunca nada con qué explicar una percepción.
(GP: VI, 609/AG: 215, edición de https://www.philosophia.cl/)

Imagen: Molinos de Consuegra


Todo lo que (no) sabemos
“El sucio secreto de la neurociencia contemporánea es que no
tenemos un principio teórico unificador. El objetivo central del ahora
majestuoso programa de investigación en neurociencia sigue
estando fuera de nuestro alcance: sólo existe la comprensión más
vacilante de cómo el cerebro engendra la mente…”
J. Searle, El misterio de la Conciencia, 1995.

“The dirty secret of computational neuroscience is that we still do not


have a complete dynamic model of the nervous system of the worm
C.elegans, though it only has 302 nerve cells and its wiring diagram,
its connectome, is known. So here we are, trying to understand the
human brain, when we do not yet understand the worm brain”

C. Koch, The Feeling of Life Itself, 2019.


¿Puede pensar una máquina?
• Distintas respuestas según la capacidad que nos
interese:
• Inteligencia
• Conciencia
• Pero también según lo que entendamos que es la
mente:
• La experiencia fenomenológica, ¿es real?
• Problema duro de la conciencia (Chalmers), ¿es
realmente un problema?
• Vamos a ver algunas de las respuestas más populares
en la filosofía de la mente
Alan Turing (1912 – 1954)
• Matemático, lógico, filósofo, criptógrafo…
• Padre de la computación
• Turing, A.M. (1936). «On Computable
Numbers, with an Application to the
Entscheidungsproblem». Proceedings of the
London Mathematical Society. 2 (1937) 42:
230-265
• Máquina de Turing: modelo lógico de un
computador digital capaz de implementar
cualquier función computable
Máquina de Turing

En cada paso de computación, la


máquina:
• Cambia de estado (que puede ser
el de parada)
• Escribe un símbolo en la cinta
• Se desplaza a izquierda o derecha

Ejemplo de: https://math.hws.edu/eck/js/turing-machine/TM.html


Máquina universal de Turing
• Una máquina de Turing Ma recibe una entrada E y produce una salida S
ejecutando las instrucciones de su tabla de máquina.
• Una máquina universal de Turing Mu recibe como entrada una
codificación de (M’,E), donde M’ es cualquier máquina de Turing y
devuelve la salida que M’ produciría para E.
• La máquina Mu simula M’ porque va leyendo sus instrucciones,
codificadas en la entrada (M’,E).
• Modelo lógico de un computador digital que sirve, entre otras cosas,
para estudiar los límites de la computabilidad
• Problemas incomputables (parada) e intratables, de importancia en
seguridad informática.
Test de Turing
¿Puede pensar una máquina? (1947, 1950)

Alan Turing, “Computing Machinery and Intelligence”, Mind, 1950.


Imágenes: Wikipedia
Observaciones sobre el test de Turing
• Carácter conductista de la
prueba
• Lo importante es lo que la
máquina hace (engañar al sujeto
humano), no el modo de hacerlo
• Turing plantea la posibilidad de
que la máquina aprenda
mediante castigos y
recompensas Imagen: Wikimedia
Hilary Putnam (1926 - 2016)
• Matemático, lógico, científico de la computación,
filósofo del lenguaje y de la mente, etc.
• Padre del funcionalismo, teoría hegemónica en
ciencias cognitivas y filosofía de la mente a partir
de los años 60.
• Metáfora del computador:
mente/cerebro = software/hardware
• Realizabilidad múltiple: los estados mentales son
estados funcionales que se caracterizan solo por
las relaciones que guardan con otros estados, en
términos de entradas y salidas, por lo que un
mismo software puede funcionar igual en
diferente hardware
Funcionalismo e Inteligencia Artificial
• Conferencia de Dartmouth, 1956
Proponemos que durante el verano de 1956 tenga lugar en el Dartmouth College
en Hanover, Nuevo Hampshire un estudio que dure 2 meses, para 10 personas.
El estudio es para proceder sobre la base de la conjetura de que cada aspecto
del aprendizaje o cualquier otra característica de la inteligencia puede, en
principio, ser descrito con tanta precisión que puede fabricarse una máquina
para simularlo. Se intentará averiguar cómo fabricar máquinas que utilicen el
lenguaje, formen abstracciones y conceptos, resuelvan las clases de problemas
ahora reservados para los seres humanos, y mejoren por sí mismas. Creemos
que puede llevarse a cabo un avance significativo en uno o más de estos
problemas si un grupo de científicos cuidadosamente seleccionados trabajan en
ello conjuntamente durante un verano.
(John McCarthy et al. 1955)

• Se acuña en término IA que reemplaza a otros


anteriores como cibernética
• Atención a los estados internos, IA como laboratorio de
los procesos mentales
La mente como software
Frente al esquema de input y output del
conductismo, la IA, en línea con los
postulados del funcionalismo, introduce
una secuencia de estados internos

https://rosettacode.org/
Agentes inteligentes
• El paradigma funcionalista inspira los desarrollos de la IA durante
varias décadas
• Michael E. Bratman (1987), arquitectura BDI (Belief, Desire,
Intention) para agentes inteligentes
• Representaciones mentales basadas en la psicología popular
• Mente como procesador de información, tener mente es ejecutar
un cierto software
• Putnam: cualquier pregunta sobre la mente y su relación con el
cerebro se puede formular como una pregunta acerca de la
relación entre el software y el hardware de una computadora
• La tesis de la realizabilidad múltiple alienta proyectos de IA fuerte
• Una computadora adecuadamente programada tiene mente
exactamente igual que nosotros
Crisis del funcionalismo
• El funcionalismo introdujo una lógica de estados internos entre el
estímulo y la respuesta
• Pero esos estados no requieren de una caracterización psicológica
• Problema de los qualia, los estados funcionales son compatibles
con la ausencia de experiencia
• Ned Block: un estado funcional se puede instanciar en la población
de China si los individuos se comunican con walkie-talkies
• Sistemas funcionalmente equivalentes sin experiencia
• A finales de los años 80, el propio Putnam abandona el
funcionalismo Imagen: Wikipedia (China Brain)
John Searle
• John R. Searle (1932), profesor de filosofía
de la mente, del lenguaje y de la conciencia
• Introdujo la distinción entre IA débil y fuerte
• Critico con la IA fuerte
• La conciencia, para Searle, es una propiedad
biológica de alto nivel de los cerebros, como
la fluidez del agua es una propiedad de alto
nivel de las moléculas de H20 a temperatura
ambiente
• Se opone tanto al dualismo como al
materialismo, a favor del «naturalismo
biológico»
Entusiasmo por la IA fuerte
Searle, John. R. (1984), “Minds and Brains Without Programs”.
Herbert Simon, de la Universidad Carnegie-Mellon, ha escrito en varias ocasiones
que ya tenemos máquinas que pueden pensar literalmente, que pueden pensar en
el mismo sentido que usted y yo. Los filósofos llevan siglos preocupados por si se
puede construir una máquina que pueda pensar, y ahora nos enteramos de que lo
hacen a diario en Carnegie Mellon. El colega de Simon, Alan Newell, en una
conferencia que le oí dar en San Diego en la reunión fundacional de la Cognitive
Science Society, dijo que hemos descubierto (no es sólo una hipótesis que estamos
considerando, sino que hemos "descubierto") que la inteligencia es puramente una
cuestión de manipulación de símbolos físicos. Así que cualquier máquina que sea
capaz de manipular los símbolos adecuados de la manera correcta tiene
literalmente procesos inteligentes en el mismo sentido que usted y yo. Marvin
Minsky dice que la próxima generación de ordenadores será tan inteligente que
tendremos suerte si nos mantienen en casa como mascotas.
La habitación china (J. Searle, 1980)
• Experimento mental en primera persona
• «Yo soy la máquina»
• Si me dan un libro de reglas sintácticas, puedo
ejecutar el mismo programa que una IA que da
respuestas a preguntas en chino
• Eso no basta para comprender lo que hago
• Diferente situación si las preguntas fueran en
mi lengua materna
• Conclusión: ejecutar un programa no es
condición suficiente para la comprensión
(consciente) de los procesos
• Tener una mente no equivale a ejecutar
programas
Réplicas al argumento de Searle
• Objeción de los sistemas: Yo no comprendo el chino pero sí lo
comprende el sistema completo formado por mí y el resto de
elementos de la habitación (libros de reglas, cestas de
símbolos, etc.)
• Respuesta de Searle: aunque yo memorizase el libro de reglas y
pudiera simular el resto de elementos de la habitación en mi
cabeza, eso no me lleva a comprender el chino
• Observación: la conciencia requiere encontrarse en un cierto
estado mental, no es el código (programa) el que está en un
estado, sino el procesador de la computadora
Máquinas, programas y poderes causales
"¿Podría pensar una máquina?" Mi opinión es que sólo una máquina podría pensar, y de
hecho sólo tipos muy especiales de máquinas, a saber, cerebros y máquinas que tuvieran
los mismos poderes causales que los cerebros. Y esa es la principal razón por la que la IA
fuerte ha tenido poco que decirnos sobre el pensamiento, ya que no tiene nada que
decirnos sobre las máquinas. Por su propia definición, se trata de programas, y los
programas no son máquinas. Sea lo que sea la intencionalidad, es un fenómeno biológico,
y es tan probable que dependa causalmente de la bioquímica específica de sus orígenes
como la lactancia, la fotosíntesis o cualquier otro fenómeno biológico. Nadie supondría
que pudiéramos producir leche y azúcar mediante una simulación por ordenador de las
secuencias formales de la lactancia y la fotosíntesis, pero en lo que respecta a la mente,
mucha gente está dispuesta a creer en un milagro de este tipo debido a un dualismo
profundo y permanente: suponen que la mente es una cuestión de procesos formales y
que es independiente de causas materiales bastante específicas de la manera en que la
leche y el azúcar no lo son.

John R. Searle (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457
Posturas eliminativistas
• Argumentos como el de Searle se basan en la experiencia
consciente

Patricia Churchland
• Las posturas materialistas eliminativistas niegan la relevancia de
la experiencia consciente, e incluso su realidad
• Conciencia o libre albedrío como ilusión (epifenómenos)
• Desconfianza de las representaciones mentales:
«toda oración declarativa a la cual un hablante prestara
asentimiento sería meramente una proyección unidimensional
[…] de un “sólido” tetra o pentadimensional que es un

Paul Churchland
elemento en el verdadero estado cinemático de tal hablante»
(Paul Churchland, Materia y conciencia)
• Confianza en redes neuronales artificiales para imitar la actividad
del cerebro
Teoría de la Información Integrada

• Guilio Tononi, Director del Centro de Investigación en Sueño


y Conciencia de la Universidad de Wisconsin (Madison)
• Comienza a investigar sobre la conciencia con Gerald
Edelman, Premio Nobel de Fisiología o Medicina en 1972
• La IIT es una de las principales teorías sobre la conciencia:
Oizumi M, Albantakis L, Tononi G (2014)
“From the Phenomenology to the Mechanisms of
Consciousness: Integrated Information Theory 3.0”
PLOS Computational Biology 10(5).
https://doi.org/10.1371/journal.pcbi.1003588
De la experiencia consciente a la clínica
• La IIT parte de que la conciencia no es una ilusión, sino lo único
de cuya existencia no podemos dudar
• Axiomas fenomenológicos: características esenciales de toda
experiencia consciente
• De los axiomas, a los postulados, requisitos de un sistema físico
para que pueda tener una experiencia
• Finalmente, medidas de conciencia: cuantitativa (Φ) y
cualitativa (Φ–estructura, quale)
• Aplicación clínica: Perturbational Complexity Index (PCI)
Existencia intrínseca y composición

Tononi G, Koch C. (2015). Consciousness: here, there and everywhere?


Phil. Trans. R. Soc. B 370. http://dx.doi.org/10.1098/rstb.2014.0167
Información e integración
Exclusión
Sistemas naturales y artificiales

Imágenes:
Wikipedia / Wikimedia
La equivalencia funcional no es suficiente

Tononi G, Koch C. (Phil. Trans. R. Soc. B, 2015)


Conciencia y libertad
¿Puede ser libre una máquina? ¿Existe?

• De acuerdo con la IIT, la conciencia se produce por lo que somos, no por


cómo nos comportamos
• Una computadora puede ser funcionalmente equivalente a un cerebro
pero no ser consciente (no es ontológicamente equivalente)
• Lo que no tiene existencia intrínseca no puede ser sujeto agente de sus
propias acciones
• Una computadora no tiene capacidad de actuar libremente, con
independencia de su complejidad o tamaño
• Para tener conciencia y poder ser sujeto de sus acciones, su estructura
tendría que tener poderes causales similares a un cerebro humano
Zombis digitales

Optimus (Tesla)
GRACIAS

También podría gustarte