Documentos de Académico
Documentos de Profesional
Documentos de Cultura
inteligencia artificial
Fernando Soler Toscano
¿QUIÉN SOY?
Universidad de Sevilla
• Profesor Titular de Universidad, Departamento de Filosofía, Lógica y Filosofía de la
Ciencia
• Licenciado en Filosofía, Ingeniero Técnico Informático y Doctor
• Responsable del Grupo de Lógica, Lenguaje e Información
• Miembro de la Junta Directiva de la Sociedad de Lógica, Metodología y Filosofía de la
Ciencia en España
• Investigador Principal de “Complejidad y sistemas dinámicos: teoría matemática y
aplicaciones a ecología y a la neurociencia de la consciencia”
• Contacto: fsoler@us.es
• Página personal: https://personal.us.es/fsoler/
• ORCID: 0000-0003-1953-4136
• Twitter: @FerSolerToscano
Filosofía de la Mente
Preguntas centrales
• ¿Qué es una
experiencia?
• ¿Cómo se produce?
• ¿En qué organismos u
objetos puede darse?
Diferentes respuestas desde la filosofía
● Conductismo: No se puede estudiar científicamente la mente, la
experiencia que el individuo reporta no tiene valor en un análisis
de la conducta.
● Dualismo: La mente es una sustancia distinta del cuerpo, es en su
ámbito donde ocurren las experiencias, sensaciones, etc.
● Materialismo: La mente es la actividad del cerebro. Una sensación
es idéntica a la estimulación de ciertas fibras nerviosas.
● Funcionalismo: Los estados mentales son estados funcionales en
los que se encuentra el “software” que regula nuestro cerebro.
También distintas respuestas en neurociencia
¿Dónde se producen las experiencias conscientes?
Integrated
Global Information
Workspace Theory
Theories
Seth, A.K., Bayne, T. Theories of consciousness. Nat Rev Neurosci 23, 439–452 (2022).
https://doi.org/10.1038/s41583-022-00587-4
Leibniz (1646-1716)
Hay que confesar que la percepción y lo que de ella
depende es inexplicable por razones mecánicas, es decir,
por medio de las figuras y de los movimientos. Y si se
imagina que existe una máquina, cuya estructura haga
pensar, sentir, tener percepción, se le podrá concebir
agrandada, conservando las mismas proporciones, de tal
manera que se pueda entrar en ella como si fuera un
molino. Supuesto esto, no se hallarán, visitándola por
dentro, más que piezas que se impulsan las unas a las otras,
y nunca nada con qué explicar una percepción.
(GP: VI, 609/AG: 215, edición de https://www.philosophia.cl/)
https://rosettacode.org/
Agentes inteligentes
• El paradigma funcionalista inspira los desarrollos de la IA durante
varias décadas
• Michael E. Bratman (1987), arquitectura BDI (Belief, Desire,
Intention) para agentes inteligentes
• Representaciones mentales basadas en la psicología popular
• Mente como procesador de información, tener mente es ejecutar
un cierto software
• Putnam: cualquier pregunta sobre la mente y su relación con el
cerebro se puede formular como una pregunta acerca de la
relación entre el software y el hardware de una computadora
• La tesis de la realizabilidad múltiple alienta proyectos de IA fuerte
• Una computadora adecuadamente programada tiene mente
exactamente igual que nosotros
Crisis del funcionalismo
• El funcionalismo introdujo una lógica de estados internos entre el
estímulo y la respuesta
• Pero esos estados no requieren de una caracterización psicológica
• Problema de los qualia, los estados funcionales son compatibles
con la ausencia de experiencia
• Ned Block: un estado funcional se puede instanciar en la población
de China si los individuos se comunican con walkie-talkies
• Sistemas funcionalmente equivalentes sin experiencia
• A finales de los años 80, el propio Putnam abandona el
funcionalismo Imagen: Wikipedia (China Brain)
John Searle
• John R. Searle (1932), profesor de filosofía
de la mente, del lenguaje y de la conciencia
• Introdujo la distinción entre IA débil y fuerte
• Critico con la IA fuerte
• La conciencia, para Searle, es una propiedad
biológica de alto nivel de los cerebros, como
la fluidez del agua es una propiedad de alto
nivel de las moléculas de H20 a temperatura
ambiente
• Se opone tanto al dualismo como al
materialismo, a favor del «naturalismo
biológico»
Entusiasmo por la IA fuerte
Searle, John. R. (1984), “Minds and Brains Without Programs”.
Herbert Simon, de la Universidad Carnegie-Mellon, ha escrito en varias ocasiones
que ya tenemos máquinas que pueden pensar literalmente, que pueden pensar en
el mismo sentido que usted y yo. Los filósofos llevan siglos preocupados por si se
puede construir una máquina que pueda pensar, y ahora nos enteramos de que lo
hacen a diario en Carnegie Mellon. El colega de Simon, Alan Newell, en una
conferencia que le oí dar en San Diego en la reunión fundacional de la Cognitive
Science Society, dijo que hemos descubierto (no es sólo una hipótesis que estamos
considerando, sino que hemos "descubierto") que la inteligencia es puramente una
cuestión de manipulación de símbolos físicos. Así que cualquier máquina que sea
capaz de manipular los símbolos adecuados de la manera correcta tiene
literalmente procesos inteligentes en el mismo sentido que usted y yo. Marvin
Minsky dice que la próxima generación de ordenadores será tan inteligente que
tendremos suerte si nos mantienen en casa como mascotas.
La habitación china (J. Searle, 1980)
• Experimento mental en primera persona
• «Yo soy la máquina»
• Si me dan un libro de reglas sintácticas, puedo
ejecutar el mismo programa que una IA que da
respuestas a preguntas en chino
• Eso no basta para comprender lo que hago
• Diferente situación si las preguntas fueran en
mi lengua materna
• Conclusión: ejecutar un programa no es
condición suficiente para la comprensión
(consciente) de los procesos
• Tener una mente no equivale a ejecutar
programas
Réplicas al argumento de Searle
• Objeción de los sistemas: Yo no comprendo el chino pero sí lo
comprende el sistema completo formado por mí y el resto de
elementos de la habitación (libros de reglas, cestas de
símbolos, etc.)
• Respuesta de Searle: aunque yo memorizase el libro de reglas y
pudiera simular el resto de elementos de la habitación en mi
cabeza, eso no me lleva a comprender el chino
• Observación: la conciencia requiere encontrarse en un cierto
estado mental, no es el código (programa) el que está en un
estado, sino el procesador de la computadora
Máquinas, programas y poderes causales
"¿Podría pensar una máquina?" Mi opinión es que sólo una máquina podría pensar, y de
hecho sólo tipos muy especiales de máquinas, a saber, cerebros y máquinas que tuvieran
los mismos poderes causales que los cerebros. Y esa es la principal razón por la que la IA
fuerte ha tenido poco que decirnos sobre el pensamiento, ya que no tiene nada que
decirnos sobre las máquinas. Por su propia definición, se trata de programas, y los
programas no son máquinas. Sea lo que sea la intencionalidad, es un fenómeno biológico,
y es tan probable que dependa causalmente de la bioquímica específica de sus orígenes
como la lactancia, la fotosíntesis o cualquier otro fenómeno biológico. Nadie supondría
que pudiéramos producir leche y azúcar mediante una simulación por ordenador de las
secuencias formales de la lactancia y la fotosíntesis, pero en lo que respecta a la mente,
mucha gente está dispuesta a creer en un milagro de este tipo debido a un dualismo
profundo y permanente: suponen que la mente es una cuestión de procesos formales y
que es independiente de causas materiales bastante específicas de la manera en que la
leche y el azúcar no lo son.
John R. Searle (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457
Posturas eliminativistas
• Argumentos como el de Searle se basan en la experiencia
consciente
Patricia Churchland
• Las posturas materialistas eliminativistas niegan la relevancia de
la experiencia consciente, e incluso su realidad
• Conciencia o libre albedrío como ilusión (epifenómenos)
• Desconfianza de las representaciones mentales:
«toda oración declarativa a la cual un hablante prestara
asentimiento sería meramente una proyección unidimensional
[…] de un “sólido” tetra o pentadimensional que es un
Paul Churchland
elemento en el verdadero estado cinemático de tal hablante»
(Paul Churchland, Materia y conciencia)
• Confianza en redes neuronales artificiales para imitar la actividad
del cerebro
Teoría de la Información Integrada
Imágenes:
Wikipedia / Wikimedia
La equivalencia funcional no es suficiente
Optimus (Tesla)
GRACIAS