Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FILOSOFIA DE LA MENTE
Pascual F. Martínez-Freire
El empleo del artículo determinado singular nos lleva aquí, como en otros lugares, a
una grave confusión. Cuando hablamos de la mujer, de la democracia o de la mente no
estamos en la misma situación que cuando hablamos de la alcaldesa de Valencia, de la casa de
Isabel Preysler o de la autopista del Mediterráneo. Me han presentado a la alcaldesa de
Valencia, podría ser invitado a visitar la casa de Isabel Preysler y he conducido por la autopista
del Mediterráneo; todas estas entidades son objetos individuales (aunque consten de partes).
Pero no cabe que me presenten en una fiesta a la mujer, a la democracia o a la mente, ni que
visite la mujer, la democracia o la mente, ni que conduzca por la mujer, por la democracia o
por la mente; ninguna de estas entidades es un objeto individual sino una colección o clase de
objetos individuales. En concreto, cuando hablamos de la mujer nos referimos a las mujeres,
cuando hablamos de la democracia nos referimos a los sistemas políticos democráticos y
cuando hablamos de la mente nos estamos refiriendo a los procesos mentales.
Parece claro que para limitar el campo de los procesos mentales, y con ello definir la
mente, tenemos que proceder empíricamente, y en particular debemos seguir los criterios de
la psicología popular, es decir, del conjunto de conocimientos que todos los seres humanos
poseemos de facto acerca de los procesos mentales en sí mismos y en su relación con la
conducta, en cuanto tal conjunto no procede de una enseñanza de la psicología científica sino
de nuestras experiencias personales.
Pues bien, la psicología popular o de sentido común nos dice que las sensaciones,
emociones, recuerdos o creencias son procesos mentales, pero que la digestión, la respiración
o el movimiento de las nubes no son procesos mentales. Podemos pensar que la razón o
criterio básico es la relación entre el supuesto proceso mental con la cognición de nosotros
mismos o con la cognición de otros seres vivientes o cosas. Por tanto, podemos precisar que la
mente es una colección de clases de cogniciones.
Pero he apuntado antes que la mente humana no es el único tipo de mente. Contra
ello, la tradición cartesiana defiende no sólo que la mente es una substancia (res cogitans )
sino además que es un privilegio exclusivo de los seres humanos. La tradición cartesiana (muy
presente en este punto en nuestros tiempos) establece un claro (aunque erróneo) criterio de
mentalidad: algo tiene mente si y sólo si tiene lenguaje. En consecuencia, los animales no
tienen mente ya que no tienen lenguaje. Sin embargo, este punto de vista es claramente
anticuado y actualmente la mayoría de los psicólogos admiten la existencia de mente animal,
al menos en ciertos grados. Una notable y convincente defensa de la mente animal ha sido
proporcionada por Donald Griffin (1915-2003) en su libro Animal Minds (1992).
En este punto, resulta muy interesante constatar que el desarrollo de las máquinas,
que fue animado por los defensores del materialismo mecanicista, se ha vuelto contra el
materialismo en cuanto tentativa de reducir la mente a los mecanismos físico-químicos del
sistema nervioso central.
Platón (428-347) distinguió tres partes en el alma humana. Por un lado, el alma
racional, caracterizada por su capacidad para pensar y para contemplar las Ideas
(arquetipos eternos de las cosas). Por otro lado, el alma irascible, dotada de los
sentimientos nobles, tales como la ambición o la valentía. Finalmente, el alma
concupiscible, dotada con los sentimientos inferiores, como el placer o el instinto
sexual. Para Platón se trata de tres partes que constituyen una unidad. Por ejemplo, en
la obra platónica Fedro estas tres partes se comparan al conjunto formado por un
auriga (alma racional) y los dos caballos (almas irascible y concupiscible) de su biga,
los cuales ejecutan un esfuerzo único.
Para Aristóteles todos los seres vivos tienen un alma, con lo que defiende
cierto panpsiquismo. Por otra parte, el alma la entiende como forma del cuerpo, que es
a su vez materia del alma, dentro de su concepción general hilemórfica. Por ello para
este filósofo griego la psicología es una rama de la biología. Sin embargo, en De
generatione animalium, señala que el alma inteligente (nous ) puede ser "separable" del
cuerpo. En todo caso, frente al dualismo de Platón, Aristóteles sostiene
preferentemente un monismo de cuerpo y alma. Para él, las facultades psicológicas son
poderes de los cuerpos y en los cuerpos.
Aunque desde la Grecia Antigua hasta el siglo XVII distintos autores han
sostenido doctrinas acerca del alma y de su relación con el cuerpo, es Descartes el
filósofo que planteó en toda su crudeza y dificultad el problema mente-cuerpo, de tal
manera que sus consideraciones son calificadas como el punto de partida clásico en
filosofía de la mente.
René Descartes (1596-1650) estableció la radical distinción entre pensamiento,
atributo de la mente, y extensión, atributo del cuerpo, y al mismo tiempo sostuvo que
el pensamiento carecía de extensión. Esta radical distinción implica dos espinosos
problemas. Por un lado, el dualismo claro sobre mente y cuerpo conduce al problema
de la explicación psicológica, es decir, a la posibilidad de una explicación de los
procesos mentales que debe ser enteramente diferente de la explicación física. En
segundo lugar, el dualismo mente-cuerpo plantea un conjunto de enigmas acerca de la
relación entre mente y cuerpo, lo cual constituye propiamente el problema mente-
cuerpo. Quiero decir que el problema mente-cuerpo no se plantea si no se sostiene
algún tipo de dualismo mente-cuerpo o, lo que es lo mismo, que aquél no existe si
tampoco se da el segundo.
Debe quedar claro que aquí, como en otros terrenos filosóficos, son realizables
dos filosofías de corte bien distinto. Por un lado, la filosofía de la mente como una
empresa enteramente especulativa, condicionada por ideas religiosas o por prejuicios
materialistas o animistas. Y por otro lado, una filosofía de la mente como un conjunto
de hipótesis basadas en datos científicos, no condicionada por religión o prejuicio
alguno. Indudablemente es el segundo tipo de filosofía de la mente el que merece
respeto y estudio.Por ello es muy importante reseñar cómo y cuándo surge la
psicología científica.
Mucho mayor interés tiene la obra de Gilbert Ryle (1900-1976) titulada The
Concept of Mind (1949), que estudiaremos en detalle más adelante. De momento
diremos que en este trabajo Ryle se enfrenta decididamente al dualismo cartesiano,
denunciándolo como un error categorial del lenguaje. Esta obra de Ryle constituye una
obra clásica en la filosofía de la mente y su discusión es inevitable.
En todo caso, y esto es lo que interesa a nuestra breve historia, lo cierto es que
en torno a 1950 es cada vez más usual hablar de la filosofía de la mente como una
actividad y disciplina filosófica diferenciada, gracias en particular a las contribuciones
de Ryle y de Wittgenstein.
Al señalar los temas de la filosofía de la mente, debemos distinguir, y ésta es
una de las tesis básicas de este libro, entre lo que ha sido a lo largo de su historia la
filosofía de la mente (desde sus momentos incipientes hasta 1977) y lo que es
actualmente la filosofía de la mente (desde 1977) dentro del marco de las ciencias
cognitivas. Es decir, debemos distinguir entre la filosofía de la mente anterior al
desarrollo de las ciencias cognitivas y lo que llamaré la nueva filosofía de la mente.
Ahora bien, cabe distinguir dos formas posibles de conductismo. Por un lado,
lo que podemos denominar conductismo metodológico, esto es, la doctrina según la
cual la limitación de la psicología al estudio de la conducta está justificada porque la
investigación acerca de cualquier otro aspecto de los sujetos no puede ser comprobada
de acuerdo con un método científico; para el conductismo metodológico la limitación al
estudio de la conducta es consecuencia del hecho de que sólo la conducta puede
someterse al método científico. En este punto debe señalarse que, salvo algún autor
aislado o algunas declaraciones no sistemáticas, la mayoría de los psicólogos
conductistas practican el conductismo metodológico, es decir, se limitan al estudio de
la conducta ignorando cualquier otro aspecto por razones de (supuesta) eficacia
metodológica. Por otro lado, cabe hablar de conductismo ontológico, esto es, la
doctrina según la cual la limitación de la psicología al estudio de la conducta está
justificada plenamente porque lisa y llanamente no existen procesos mentales ajenos a
la conducta, es decir, la única realidad que existe para el psicólogo es la conducta; en
este caso, pues, sólo tiene sentido ocuparse de procesos conductuales y no tiene sentido
ocuparse de procesos mentales porque la mente como tal no existe.
Watson publicó otros trabajos que alcanzaron gran éxito e incluso divulgación
popular. Citemos, a título de ejemplos, su libro Behavior : An Introduction to Comparative
Psychology (1914) y Psychology from the Standpoint of a Behaviorist (1919), un libro donde
establece sus tesis definitivas. En 1921, tras dejar la Universidad Johns Hopkins,
empezó su carrera en el mundo del negocio publicitario, del cual se retiró en 1946.
Entretanto, en 1925, publicó su libro Behaviorism , destinado al gran público y en donde
expone en términos de divulgación sus ideas acerca del conductismo.
Por otra parte, una característica notable del conductismo es la exclusión de las
explicaciones fisiológicas. Watson llega a decir que es perfectamente posible estudiar la
conducta sin saber nada acerca del sistema nervioso periférico e incluso acerca del
sistema nervioso central. Con ello no sólo rechazaba el recurso a la conciencia propio
de la psicología tradicional sino también el recurso a la fisiología. En consecuencia, el
ser humano que estudia la psicología conductista está enteramente desposeído de
estados internos, ni mentales en el sentido tradicional ni tampoco estados cerebrales.
Por otra parte, el ambientalismo supone lo que Mario Bunge y Rubén Ardila,
en su libro Filosofía de la Psicología (1988), han denominado caja-negrismo, es decir, la
estrategia de modelar sistemas como cajas vacías que responden únicamente a
estímulos del medio. La psicología que resulta de la adopción de la estrategia de la caja
negra, señalan Bunge y Ardila, se denomina psicología de estímulo-respuesta (E-R),
mientras que si también toma en cuenta los estados internos del organismo tenemos
una psicología de estímulo-organismo-respuesta (E-O-R), y si además explica las
consecuencias que la respuesta tiene sobre la modalidad en que el sujeto elabora el
input o entrada (esto es, si se toma en cuenta los giros de la retroalimentación),
tenemos una psicología de estímulo-organismo-respuesta-retroalimentación (E-O-R-R).
Muchos psicólogos conductistas adoptaron el caja-negrismo, es decir, una simple
psicología de estímulo-respuesta, pero esto constituye un grave error. En efecto, la
respuesta de cualquier sujeto es una función no sólo del estímulo sino también del
estado interno del sujeto. Más aún, podemos añadir, la psicología de simple estímulo-
respuesta no proporciona explicaciones auténticas, ya que no explicita un mecanismo
explicativo que medie entre estímulo y respuesta, sino que solamente describe una
supuesta causa para un supuesto efecto.
Podemos señalar dos variantes principales, opuestas entre sí, dentro de la teoría
causal de la mente. Por un lado, la teoría materialista de la mente o teoría de la
identidad mente-cerebro, y, por otro lado, el funcionalismo. Dicho rápidamente (de
momento), para la primera los procesos mentales internos, que son causa de la
conducta, son idénticos a los procesos cerebrales; en cambio, para el funcionalismo no
es legítima la identificación entre procesos mentales y procesos cerebrales, sino que los
procesos mentales internos, que son causa de conducta, son estados funcionales cuyo
órgano (por así decir) no es necesariamente el cerebro. También podemos señalar los
autores y obras básicos de una y de otra variante de la teoría causal de la mente.
Dentro de la teoría de la identidad mente-cerebro los autores más destacados son los
australianos David Armstrong, cuya obra fundamental es A Materialist Theory of the
Mind (1968), y David Lewis, cuyo trabajo básico es "Psychophysical and Theoretical
Identifications" (1972). A su vez, dentro del funcionalismo los autores más destacados
son los americanos Hilary Putnam, con su importante trabajo "Psychological
Predicates" (1967), y Jerry Fodor, con su obra Psychological Explanation (1968). (Respecto
de Putnam y de Fodor debe precisarse que estos autores han modificado sus ideas
iniciales; Putnam sigue aceptando el funcionalismo aunque insiste en la determinación
de la psicología por la sociología en lo que llama sociofuncionalismo; Fodor ha
evolucionado hacia posturas cognitivistas, tal como ya hemos visto).
Armstrong comienza señalando que, puesto que los hombres tienen mente (es
decir, perciben, tienen sensaciones, emociones, creencias, pensamientos, propósitos y
deseos), la pregunta por la naturaleza de la mente debe ir unida a la pregunta por la
naturaleza del hombre. Y respecto de esta cuestión sobre la naturaleza del hombre
debemos atender a las respuestas de la ciencia actual. A pesar de los desacuerdos y
divergencias entre los científicos, puede considerarse, según nuestro autor, que la
doctrina científica establecida es el punto de vista de que podemos dar una explicación
completa del hombre en términos puramente físico-químicos. Tal cosa promete en
efecto la biología molecular que pretende desvelar los mecanismos físicos y químicos
que están en la base de la vida. En consecuencia, debemos intentar desarrollar,
concluye Armstrong, una explicación de la naturaleza de la mente que sea compatible
con la tesis de que el hombre no es sino un mecanismo físico-químico. Así pues,
nuestro autor propone explícita y abiertamente una explicación materialista o fisicalista
de la mente.
Ahora bien, cabe preguntarse por qué conceder mayor autoridad a la ciencia que
a la religión, a la filosofía, a la ética, o a la literatura y el arte (si éstas, podemos añadir,
difieren de la ciencia). En suma, cabe pedir una justificación del cientifismo (que
podemos definir como la postura general que sostiene que en cualquier cuestión la
última palabra la tiene la ciencia). Armstrong, de modo coherente y honrado, se
plantea en efecto esta pregunta y contesta que la ciencia tiene mayor autoridad que las
otras instancias u opciones señaladas porque sólo la ciencia, después de investigación
prolongada y extendida durante siglos, ha alcanzado un consenso intelectual,
especialmente a partir del siglo XVII, y porque además dispone de un método para
decidir las cuestiones disputadas, mientras que las otras opciones no disfrutan ni de tal
consenso intelectual ni de tal método.
Asimismo nos interesa reseñar la crítica del conductismo que plantea nuestro
autor en el artículo que estamos comentando. Mientras la filosofía tradicional, en
especial Descartes, había concebido la mente como un campo interno misterioso que
yace detrás de la conducta física o externa de nuestros cuerpos, en cambio el
conductismo sostuvo que la mente es conducta o bien disposición a la conducta. Para
Armstrong, el conductismo es erróneo en ambas versiones. Si la mente es conducta,
entonces quedan sin explicar todos los procesos mentales que no van acompañados de
conducta alguna. Y si la mente es disposición a la conducta, tal como insistió Gilbert
Ryle, entonces tal disposición debe ser algo real, frente a la tesis de Ryle de que una
disposición no es un estado o cambio particular; cuando pienso pero mis pensamientos
no producen acción alguna, hay algo que sucede realmente en mí y que constituye mi
pensamiento, no tratándose de que hablaría o actuaría si se cumpliesen ciertas
condiciones.
Así pues, si los significados de los nombres de los estados mentales proporcionan
realmente la primera premisa (es decir, si los estados mentales se definen como factores
causales de la conducta), y si los avances de la fisiología proporcionan la segunda
premisa (esto es, si la fisiología muestra que los estados neuronales son factores
causales de la conducta), entonces se sigue la conclusión de la identificación psicofísica.
Como Lewis acepta ambas premisas, también defiende que los estados mentales son
idénticos a los estados neuronales.
En suma, Putnam presenta en este trabajo una analogía entre los estados lógicos de
una máquina de Turing y los estados mentales de un ser humano, por una parte, y entre los
estados estructurales de una máquina de Turing y los estados físicos de un ser humano, por
otra parte. Con ello, cabe añadir, deja abierta la posibilidad de definir los estados mentales en
términos abstractos, de tal modo que su caracterización pueda aplicarse por igual a mentes
humanas, animales o mecánicas, como requiere una adecuada unificación filosófica de las
ciencias cognitivas. Pero en este artículo de 1960 Putnam no ofrece todavía una descripción
funcional de los estados mentales, con lo que no me parece correcto hablar propiamente de
funcionalismo.
Nuestro autor sostiene que el dolor (y, en general, los procesos mentales) no es un
estado cerebral, es decir, no es un estado físico-químico del cerebro, y tampoco un estado del
sistema nervioso entero, sino que es otro tipo de estado. La hipótesis propuesta (en lugar del
materialismo o la identidad entre procesos mentales y procesos cerebrales) es que el dolor, o
el estado de tener dolor, es un estado funcional de un organismo tomado en su totalidad.
Pero para aclarar tal hipótesis Putnam utiliza la noción de autómata probabilístico. A su vez,
un autómata probabilístico es una máquina de Turing con la peculiaridad de que las
transiciones entre los estados internos de la máquina pueden responder a probabilidades
variadas en lugar de ser deterministas. Por supuesto, un autómata probabilístico tiene
entradas sensoriales y asimismo salidas motoras; la tabla de máquina (esto es, recordemos, el
conjunto de especificaciones de su curso de acción) establece, para cualquier combinación
posible de un estado interno y un conjunto completo de entradas sensoriales, una instrucción
que determina la probabilidad del siguiente estado así como también las probabilidades de las
salidas motoras. Creo que debe comentarse que la idea del autómata probabilístico consiste
en diseñar un organismo con actividad flexible; es decir, dadas ciertas entradas sensoriales y
dado un estado interno del organismo, las salidas motoras (si las hay) y el nuevo estado
interno no están determinados de modo fijo, sino que responden a ciertas probabilidades.
Ahora bien, sigue Putnam, un sistema dado empíricamente puede ser al mismo
tiempo la realización física de muchos diferentes autómatas probabilísticos. Es decir, cabe
añadir, que podemos para un mismo sistema u organismo diseñar muchos diversos autómatas
probabilísticos. Por ello, nuestro autor se ve obligado a introducir la noción clave de
descripción de un sistema. En efecto, la descripción de un sistema S es cualquier enunciado
verdadero que establece que S posee distintos estados s1, s2, ...., sn, que están relacionados
entre sí y con las entradas sensoriales así como con las salidas motoras mediante las
probabilidades de transición dadas en cierta tabla de máquina. Pues bien, tal tabla de
máquina, mencionada en la descripción del sistema S, se denominará la “organización
funcional de S” relativa a tal descripción. Y a su vez, un estado cualquiera si, tal que el sistema
S está en ese estado si en un tiempo dado, se denominará el “estado total de S” (en ese
tiempo) relativo a esa descripción. Putnam pone de relieve que conocer el estado total de un
sistema relativo a una descripción envuelve conocer mucho acerca de cómo se comportará
probablemente el sistema, dadas varias combinaciones de entradas sensoriales, pero no
envuelve conocer la realización física de tal estado total; en particular no envuelve conocer si
tal estado es un estado físico-químico del cerebro.
Putnam dice además que la organización funcional debe incluir algo parecido a una
función de preferencia (y con ello, podemos suponer, la posibilidad de seleccionar entradas
sensoriales y salidas motoras, ya que el autómata es probabilístico), asimismo debe incluir
algo parecido a una lógica inductiva, es decir, la “máquina” (tal como dice Putnam) debe ser
capaz de aprender de la experiencia, y finalmente la máquina debe disponer de órganos
sensoriales.
Aunque tal hipótesis, que identifica procesos mentales y estados funcionales, pueda
parecer vaga, es para nuestro autor mucho menos vaga que la actual hipótesis materialista,
que identifica procesos mentales y estados físico-químicos del cerebro. De hecho, la hipótesis
funcionalista es para Putnam más plausible, porque permite más investigación matemática y
empírica, y ya que conduce a cuestiones y predicciones fructíferas. Por otro lado, la hipótesis
funcionalista, según declaración expresa de Hilary Putnam, no es incompatible con el
dualismo, puesto que un sistema, si lo hubiera, compuesto de cuerpo y alma puede ser un
autómata probabilístico. Finalmente, y contra la tesis conductista, la conducta de la máquina
dependerá no sólo de las entradas sensoriales sino también de su estado total, incluyendo
valores, creencias, etc.
Comentando estos puntos de vista, tal como he hecho en mi libro La nueva filosofía
de la mente (2002), la identificación entre procesos mentales y procesos cerebrales, propia del
materialismo reductivo, sería análoga a la identificación entre elevadores de válvulas (que se
caracterizan funcionalmente) y árboles de levas (que se caracterizan refiriéndonos a su
estructura física). Sin embargo, no todo elevador de válvulas es un árbol de levas, ya que
existen otros mecanismos que cumplen la función de elevar válvulas. Análogamente,
podemos añadir, no todo proceso mental, que se caracteriza por el rol causal o función que
desempeña, es un proceso cerebral, puesto que, además del cerebro, existen otros
mecanismos que cumplen funciones mentales, como, por ejemplo, un computador al
establecer la demostración de un teorema.
Para nuestro autor, aunque los tres niveles son necesarios para una comprensión
completa de un mecanismo de procesamiento de información, están relacionados entre sí de
una manera no rígida, de tal modo que algunos fenómenos pueden ser explicados en un nivel
o dos únicamente. Con todo, para Marr, el nivel más importante, desde el punto de vista del
procesamiento de la información, es el nivel de la computación, aunque los algoritmos y los
mecanismos (soportes) son empíricamente más accesibles. En concreto, un algoritmo se
comprenderá más fácilmente si comprendemos la naturaleza del problema a resolver que
examinando el hardware en el que está incorporado. En su libro, David Marr aplica esta
metodología de los tres niveles al estudio de la percepción visual humana.
Pylyshyn añade una ilustración sencilla, empleando una comparación con una
calculadora electromecánica. Podemos preguntar, en su caso, por qué la impresión de los
números es débil o irregular (leyéndose con dificultad), y entonces la respuesta precisará una
explicación de nivel físico, refiriéndonos a aspectos eléctricos y mecánicos. Pero también
podemos preguntar por qué la calculadora emplea más tiempo en calcular senos y cosenos
que en calcular sumas, y entonces la explicación requerirá describir el método o algoritmo
empleado por la calculadora, moviéndonos al nivel sintáctico. Finalmente hay cuestiones
acerca de las relaciones entre lo que hace la calculadora y el mundo de la matemática
abstracta. Al decir que la calculadora computa senos y cosenos decimos más que cuando
señalamos el algoritmo empleado; según Pylyshyn, pretendemos que el algoritmo en cuestión
computa representaciones de números que corresponden a ciertas funciones abstractas
definidas matemáticamente; pero cuando hablamos de las cosas que representa la máquina
nos encontramos al nivel de descripción semántico.
Si comparamos las tesis de Marr con las de Pylyshyn, advertimos puntos claros de
coincidencia y algunas diferencias. Resulta evidente que el nivel de implementación de Marr
coincide con el nivel físico o biológico de Pylyshyn. Se trata en ambos casos del soporte físico
de la computación, que puede tener elementos y configuración diferentes según las
situaciones; por ejemplo, un tipo u otro de cerebro, un tipo u otro de circuitería electrónica.
En cambio, no parece que haya una estricta coincidencia entre el nivel de computación de
Marr y el nivel semántico de Pylyshyn, ni tampoco entre el nivel de algoritmo del uno y el nivel
sintáctico del otro. La diferencia, a mi entender, consiste en que el nivel de algoritmo de Marr
incluye ya las representaciones, mientras que el nivel sintáctico de Pylyshyn no es aún
propiamente representacional. Por otra parte, el nivel de computación de Marr atiende a la
descripción de las tareas del sistema, determinando sus objetivos y estrategias; pero a esto no
parece corresponder el nivel semántico de Pylyshyn. En realidad creo que la separación entre
nivel sintáctico y nivel semántico es forzada, ya que no existe una distinción tajante entre
sintaxis y semántica, tal como he señalado en mi libro La nueva filosofía de la mente (2002) al
criticar el argumento de John Searle de la habitación china.
tareas y habilidades cognitivas y sus procesos mentales correspondientes. Por ejemplo, sobre
percepción visual o resolución de problemas. Si tenemos en cuenta el nivel de
mecánicos. Llegados a la base empírica las ciencias cognitivas se nos muestran en su rica
diversidad.
El filósofo americano John Haugeland, en su libro Artificial Intelligence. The Very Idea
(1985), haciendo el correspondiente juego de palabras en inglés (grandfather, father y
godfather), dice que Hobbes fue el abuelo de la inteligencia artificial, Turing fue su padre y
McCarthy ha sido su padrino. Esta observación es aceptable ya que, en efecto, el filósofo inglés
Thomas Hobbes (1588-1679) entendió claramente que razonar es computar, el matemático y
lógico inglés Alan Turing (1912-1954) estableció las bases teóricas de la computación, y
finalmente el informático americano John McCarthy acuñó la expresión “inteligencia artificial”.
Pues bien, se conoce como “Tesis de Turing” la afirmación de que las funciones que
pueden ser computadas mediante un algoritmo finito son precisamente las funciones Turing-
computables (esto es, computables por una máquina de Turing).
Sin embargo, como se demuestra que la Tesis de Church y la Tesis de Turing son
equivalentes, ambas pueden ser unidas y hablar de la Tesis Church-Turing. Según esta tesis,
dicho en términos sencillos, todo lo que puede hacerse mediante un algoritmo puede hacerse
mediante un computador. En efecto, la noción de efectivamente calculable supone que
disponemos de un algoritmo, es decir, un procedimiento mecánico de reglas explícitas que
produce una respuesta en un número finito de pasos1; por otro lado, la máquina de Turing no
es sino una descripción general y abstracta de un computador.
Sin embargo, esa fijeza y limpieza de un algoritmo puede ser debilitada y entonces
tendremos algoritmos débiles y con ello computabilidad en sentido débil. En efecto, es posible
incorporar al algoritmo alguna regla no prevista inicialmente o modificar alguna de las reglas
ya establecidas. Y por otro lado también cabe que alguno de los pasos en el proceso sea
omitido o que aparezcan pasos imprevistos.
Aunque, tal como hemos visto, Haugeland habla de Hobbes como el abuelo de la
inteligencia artificial, en realidad podemos atribuir tal papel al filósofo y místico mallorquín
Raimundo Lulio (1232-1316). Como filósofo Lulio creía que es posible probar mediante la razón
todas las verdades de la fe y, en consonancia con esta idea, diseñó su Ars Magna, un artilugio
mecánico, consistente en una especie de regla circular de cálculo sobre la que pivotaban discos
concéntricos con letras y símbolos filosóficos grabados sobre ellos, mediante el cual pretendía
demostrar automáticamente las verdades metafísicas3. Lo cierto es que la tentativa luliana de
mecanizar el razonamiento fue despreciada por Descartes pero, en cambio, altamente
valorada por Leibniz.
1
La palabra “algoritmo” viene del árabe al-juarismi, que significa “el persa”, y que era el sobrenombre de
Mohamed ibn Musa al-Juarismi, matemático del siglo IX de la escuela de Bagdad.
2
Véase mi trabajo “¿En qué sentido la psicología cognitiva puede ser computacional?” (2000).
3
Para una descripción más detallada véase Leopoldo-Eulogio Palacios, Filosofía del Saber(1962), pp.
267-269.
Posteriormente encontramos varios calculadores mecánicos de cierto interés4. El
matemático alemán Wilhelm Schickard (1592-1635) construyó en 1620 un “reloj de cálculo”
que, mediante el movimiento de unas ruedas dentadas, efectuaba las cuatro operaciones
aritméticas básicas (suma, resta, multiplicación y división). También el filósofo y matemático
francés Blaise Pascal (1623-1662) inventó en 1642 una máquina de calcular, que se llamó
“pascalina”, que sumaba y restaba; construyó unas cincuenta y se conservan ocho. Finalmente,
el enciclopédico Gottfried Wilhelm Leibniz (1646-1716) creó en 1671 una máquina de suma y
multiplicación (por suma repetida).
4
Cf. Roman Ikonicoff, La conciencia y la máquina (1999), pp. 27-33.
5
Cf. Geoff Simons, Evolution of the Intelligent Machine (1988), p. 37.
Pero la protohistoria de la inteligencia artificial comenzó con el surgimiento de los
primeros computadores electrónicos.
Poco después de 1950, algunos científicos americanos creían que los rasgos
característicos de la inteligencia humana podían ser descritos de manera tan precisa que
podían ser simulados por un computador.
En primer lugar, se han creado programas de juegos para computador, tales como el
juego de damas, tres en raya o ajedrez. Acabamos de mencionar los programas de juegos de
damas de Samuel. En cuanto al ajedrez, deporte intelectual por excelencia, cualquier humano
corriente es derrotado por un buen programa de ajedrez, pero además los grandes campeones
internacionales también fueron vencidos por programas selectos como el Chess Champion
Mark V. Más aún, como fue ampliamente divulgado por los medios de comunicación, el
campeón mundial Kasparov fue derrotado en 1995 y en 1997 por el programa Deep Blue.
6
Es muy importante advertir que, de la misma manera que no todos los computadores son inteligentes (es
decir, realizan tareas que merezcan el calificativo de inteligentes), tampoco todos los robots son
inteligentes. De hecho la robótica inteligente está todavía poco desarrollada.
7
Cf. Pascual F. Martínez-Freire, “El futuro de las máquinas pensantes” (1996), pp. 238-240.
En segundo lugar, se han desarrollado programas para demostrar teoremas lógicos y
teoremas matemáticos. También nos hemos referido al Teórico Lógico de Newell, J. Cliff Shaw
(1922-1991) y Simon, que probaba treinta y ocho teoremas de la lógica proposicional de los
Principia Mathematica, la obra publicada entre 1910 y 1913 por Alfred Whitehead (1861-1947)
y Bertrand Russell (1872-1970) y que constituye la fuente básica de la lógica matemática
clásica. En 1960 Hao Wang (1921-1995) desarrolló programas que demostraban nueve
capítulos de los Principia Mathematica, incluyendo lógica de predicados, en nueve minutos.
Por otra parte, en cuanto a teoremas matemáticos, en 1976 un computador (programado por
Kenneth Appel y Wolfgang Haken) demostró el famoso teorema de los cuatro colores, que dice
que es posible colorear un mapa político con sólo cuatro colores, de modo que los países
limítrofes tengan distintos colores; lo notable es que los demostradores humanos llevaban
cien años intentando demostrarlo sin éxito.
Respecto del futuro de los logros en inteligencia artificial caben tres posturas
diferentes. En primer lugar, cabe pensar que los avances previstos y anunciados en los años
sesenta no se han producido ni se producirán, con lo que la inteligencia artificial no tiene
mucho nuevo que ofrecer en el futuro. Pero también cabe pensar que con las técnicas ya
actualmente disponibles podremos progresar indefinidamente. O finalmente cabe pensar que
con nuevos cambios técnicos se podrán obtener grandes progresos.
Finalmente cabe pensar que con nuevas técnicas podrán conseguirse nuevos
progresos. De hecho podemos referirnos, a título de ejemplos, a enfoques recientes de
notable interés.
8
Cf. Pascual F. Martínez-Freire, “El desafío de las emociones a las ciencias cognitivas” (2000).
9
Cf. Pascual F. Martínez-Freire, “El futuro de las máquinas pensantes” (1996), pp. 243-244.
10
Cf. Jerry Fodor y Zenon Pylyshyn, “Connectionism and cognitive architecture: A critical análisis”
(1988).
11
Véase “Encoding Semantical Structure in Simple Recurrent Nets” (1989).
12
Véase Representation and Structure in Connectionist Models (1989).
neuronales, denominadas “redes recurrentes entrenadas sintácticamente”, que son capaces
de manejar formas sofisticadas de procesamiento sintáctico. Servan-Schreiber entrenó una red
que podía distinguir muy bien entre cadenas de palabras mal formadas y cadenas de palabras
bien formadas gramaticalmente. A su vez, Elman entrenó una red que podía construir
correctamente cláusulas de relativo, como en la complicada frase inglesa “dogs who chase the
cat the girl feeds walk” (“los perros que persiguen al gato que la niña alimenta se pasean”).
También las redes neuronales artificiales ofrecen posibilidades para corregir las
limitaciones que señalamos antes en el reconocimiento de imágenes. Por ejemplo, Paul
Gorman y Terrence Sejnowski han desarrollado una red que ejecuta tareas de clasificación de Reconocimien
to de
objetos según la señal de retorno de un sonar13. Esta red no es un simple detector de rasgos imágenes
discretos, como ocurre en los programas clásicos, sino que al mismo tiempo construye un
modelo interno del ambiente.
Para terminar este muestrario de nuevas técnicas que posibilitan nuevos desarrollos
en inteligencia artificial, me referiré a las técnicas de “computación evolucionista”. Bajo este
rótulo se incluyen métodos variados inspirados en la evolución biológica, entre los que
destacan los algoritmos genéticos y, más recientemente, la programación genética. Los
algoritmos genéticos se deben a John Holland14. Un algoritmo genético transforma una
población de objetos individuales (cadenas de caracteres), cada uno con un valor asociado de
aptitud, en una nueva generación de la población, usando el principio darwinista de
supervivencia y reproducción del más apto, así como análogos de operaciones genéticas que
suceden de modo natural como recombinación sexual y mutación. El algoritmo genético
intenta encontrar la mejor solución a un problema procreando genéticamente la población de
individuos (cadenas de caracteres) que corresponda (a la solución buscada) a lo largo de varias
generaciones. A su vez, la programación genética se debe a John Koza15. Este informático se
plantea la cuestión de Arthur Samuel acerca de cómo pueden los computadores aprender a
resolver problemas sin ser programados explícitamente, y su respuesta es que haciendo
evolucionar los programas. Para ello se comienza con un cieno primordial (una base) de
programas de computador generados al azar compuestos de los ingredientes programáticos
disponibles; luego se procrea una población usando el principio darwinista de supervivencia
del más apto y un análogo de la operación genética de recombinación sexual. La programación
genética combina un eficiente procedimiento de resolución de problemas con
representaciones simbólicas poderosas y expresivas. Las aplicaciones de la técnica de Koza
alcanzan al aprendizaje, control, reconocimiento de patrones o clasificación.
13
Véase Maureen Caudill y Charles Butler, Naturally Intelligent Systems (1990), pp. 255-259.
14
Véase Adaptation in Natural and Artificial Systems (1975, 1992).
15
Véase Genetic Programming II (1994).
Tal como hemos visto, Turing diseñó matemáticamente los computadores antes de
que existiesen físicamente. Pero también se planteó la cuestión central de la filosofía de la
inteligencia artificial (¿puede pensar una máquina?) varios años antes de que existiese la
inteligencia artificial. En efecto, aunque la IA comenzó en 1956, Alan Turing planteó tal
cuestión en 1950, en su trabajo “Computing Machinery and Intelligence”.
16
Véase mi La nueva filosofía de la mente (2002).
pregunta sobre si pueden pensar las máquinas equivale a la pregunta sobre si el interrogador
del juego de imitación se equivoca por igual ante un hombre engañador que ante una máquina
engañadora.
La respuesta del propio Turing es que dentro de unos cincuenta años (es decir, para
el año 2000, ya que su artículo es de 1950) será posible programar computadores con una alta
capacidad de memoria que jueguen tan bien el juego de imitación que un interrogador normal
será engañado por la máquina en el 30 % de los casos tras cinco minutos de interrogatorio.
Además, según Turing, a finales del siglo XX se hablará del pensamiento de las máquinas sin
que nadie se oponga a ello.
A su vez, PARRY fue creado por Kenneth Colby y su equipo19. Este programa simula
un paranoico, obsesionado por las carreras de caballo y que se siente perseguido por la Mafia.
También es posible comunicarse con el programa a través de teclado y pantalla. Pues bien, en
1980 Colby y otros colegas informaron de que el programa PARRY había superado el test de
Turing. Cinco psiquiatras profesionales se entrevistaron, a través de terminales de teletipo, con
el programa PARRY y con un paranoico humano, a fin de decidir quién era el humano y quién
era el programa informático; en la mitad de las ocasiones los psiquiatras confundieron a PARRY
con un humano.
Así como estos casos célebres pueden ser aludidos en defensa de la existencia de
máquinas realmente inteligentes, en cambio los que rechazan tal existencia pueden aludir al
hecho de que el Premio Loebner nunca se ha concedido hasta ahora. En 1991 se convocó por
primera vez este premio, creado por el filántropo y hombre de negocios neoyorquino Hugh
Loebner, para conceder cien mil dólares al autor de un programa de computador que superara
un test de Turing. El premio se convoca anualmente y es gestionado por el Cambridge Center
for Behavioral Studies. Ahora bien, el test de Turing a superar es un test sin restricciones
(unrestricted), en el sentido de que el programa debe mantener conversaciones con los jueces
(en inglés, claro) sobre cualquier tema (el tiempo, la compra de comida o la salud), con lo que
los programas expertos no son admitidos. Sin embargo, debe observarse que si el criterio para
poseer pensamiento es ser capaz de hablar de todo, me temo que muchas personas no
piensan.
17
Jack Copeland, Inteligencia artificial (1996), pp. 72-78.
18
Véase “ELIZA. A Computer Program for the Study of Natural Language Communication between Man
and Machine” (1965).
19
Véase K. Colby, S. Weber y F. D. Hilf, “Artificial Paranoia” (1971).
El mayor y más perseverante crítico de la inteligencia artificial es el filósofo
americano Hubert Dreyfus. Ya en 1965 publicó su trabajo “Alchemy and Artificial Intelligence”.
En 1972 apareció su libro What Computers Can´t Do, obra que tuvo una edición revisada en
1979. En 1986 volvió a la carga al publicar con su hermano Stuart Dreyfus el libro Mind over
Machine. En 1992 ha vuelto a insistir en sus críticas en una nueva edición de su libro anterior
titulada What Computers Still Can´t Do. Más tarde ha seguido manteniendo sus tesis en
“Response to my critics” (1996).
Hubert Dreyfus rechaza no sólo que los computadores realmente piensen sino
también que puedan simular de manera adecuada la inteligencia humana. Sus críticas a la
inteligencia artificial se desarrollan en dos líneas de argumentación. Por un lado, pone de
relieve la falsedad de las asunciones o supuestos subyacentes, según él, a la inteligencia
artificial. Por otro lado, destaca los caracteres específicos de los seres humanos que jamás
podrán ser imitados por las máquinas.
Como comentario personal, creo que Dreyfus no tiene en cuenta las diversas
matizaciones que los distintos científicos de IA realizan según su particular línea de
investigación. Por ejemplo, hay científicos de IA muy proclives a la lógica (como McCarthy) y
otros menos proclives (como Minsky). Por otra parte, al determinar si una máquina es o no
inteligente la comparamos con la inteligencia humana, del mismo modo que al determinar si
un avión vuela o no lo comparamos con el vuelo de los pájaros. Pues bien, de la misma manera
que no parece razonable decir que un avión no vuela porque no lo hace como un pájaro,
tampoco parece razonable decir que una máquina no piensa porque no lo hace como un
humano.
En cuanto a los caracteres específicos de los seres humanos que no pueden ser
simulados por las máquinas, Dreyfus destaca tres aspectos que han sido, según él, descuidados
por los científicos de la inteligencia artificial, a pesar de que parecen subyacer a toda conducta
inteligente. Tales aspectos son: 1) el papel del cuerpo en la organización y unificación de
nuestra experiencia de los objetos, 2) el papel de la situación en que nos encontramos para
proporcionar una trastienda (background), merced a la cual la conducta puede ser ordenada
sin ser (rígidamente) regulada, y 3) el papel de los propósitos y necesidades humanas para
organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y
accesibles para nosotros.
Por otra parte, en Mind over Machine (1986), Hubert Dreyfus y el informático Stuart
Dreyfus (su hermano) evalúan los resultados de la inteligencia artificial, considerando que esta
investigación ha cumplido pocas de sus promesas y ha fracasado en proporcionar evidencias
de que algún día cumplirá sus proyectos. El libro se ocupa de modo especial del análisis de los
sistemas expertos, gracias a los cuales un computador dotado del programa adecuado puede
imitar a un experto humano (químico, matemático, médico, geólogo o perito de seguros), pero
los autores concluyen que los computadores no pueden igualar la intuición y pericia humanas.
Para los Dreyfus, los computadores pueden lograr un saber que (know that) pero no alcanzan
el saber cómo (know how). Es decir, los computadores pueden saber y argumentar sobre
hechos, que son determinados, y siguiendo reglas fijas, pero no alcanzan el saber cómo
resolver problemas de manera holística (globalizadora, podemos decir) e intuitiva. Por ello,
según ellos, sería una auténtica estupidez confundir el sentido común, sabiduría y juicio
maduro del experto (humano) con la inteligencia artificial actual.
20
Dreyfus podría haber recurrido también a José Ortega y Gasset (1883-1955), para quien se da una
implicación entre el yo y su circunstancia. José María Atencia, en “Inteligencia artificial y pensamiento
humano” (2000) compara las tesis de Ortega con las realizaciones de la IA.
También podemos referirnos a las nuevas observaciones que ofrece Hubert Dreyfus
en What Computers Still Can´t Do (1992), nueva edición del libro What Computers Can´t Do
(1972 y 1979).
Nuestro autor acepta la distinción establecida por John Haugeland (y que antes
consideramos) entre GOFAI o inteligencia artificial clásica y otras posibles alternativas en
inteligencia artificial. Pues bien, el dictamen de Dreyfus es que GOFAI constituye un caso
paradigmático de programa de investigación degenerante, y que otras alternativas dentro de
la inteligencia artificial (como los trabajos en redes neuronales artificiales, o el aprendizaje por
refuerzo), aunque más interesantes y prometedoras que la inteligencia artificial clásica, no
parece que puedan simular de modo adecuado la inteligencia humana.
Nuestro filósofo sostiene que este fracaso de GOFAI fue previsto por él desde 1965,
al señalar que nuestro sentido de la relevancia es holístico (globalizador) y que requiere
compromiso con la actividad en marcha, mientras que las representaciones simbólicas, propias
de GOFAI, son atomísticas y totalmente separadas de tal actividad. Por otra parte, añade
Dreyfus, la degeneración del programa de la inteligencia artificial clásica se completó con la
llegada triunfante de los revolucionarios de las redes neuronales o conexionistas. Recordemos
que el conexionismo sostiene que existen unos elementos muy simples de computación
(neurodos o neuronas artificiales) y que las computaciones complejas se realizan mediante
redes de esos elementos simples conexionados de manera masivamente paralela. Un
programa conexionista imita el cerebro humano o, más exactamente, las redes de neuronas
naturales, y por ello procesa la información en paralelo y no, como en GOFAI, de modo serial o
secuencial.
21
Cf. Paul Smolensky, “Connectionist AI, Symbolic AI, and the Brain” (1987).
que en última instancia el problema de simular el sentido común humano tampoco se resuelve
en esta nueva tendencia de la inteligencia artificial.
Para terminar con las críticas de Dreyfus contenidas en What Computers Still Can´t
Do (1992), me referiré a su veredicto acerca del futuro de la inteligencia artificial. Previamente
nuestro autor distingue cuatro tipos diferentes de actividad inteligente: 1) asociacionista, 2)
formal simple, 3) formal compleja, y 4) no-formal. En la actividad inteligente asociacionista
tanto la situación como el significado son irrelevantes, tratándose de una actividad innata o
aprendida por repetición; su campo de actividad son los problemas de laberinto (ensayo y
error) o también la traducción palabra a palabra. A su vez, en la actividad inteligente formal
simple hay significados explícitos aunque independientes de la situación, siendo una actividad
aprendida mediante reglas; su campo de actividad son los juegos computables (o casi
computables) o bien la prueba de teoremas. En la actividad inteligente formal compleja
también hay significados explícitos pero dependientes de una situación interna, tratándose de
una actividad aprendida tanto mediante reglas como por la práctica; su campo de actividad
son los juegos no computables, como el ajedrez23, o el reconocimiento de patrones complejos
de ruido. Finalmente, la actividad inteligente no-formal es dependiente de significados y
situaciones que no están explícitos, siendo una actividad aprendida mediante ejemplos
destacados; su campo de actividad son los juegos mal definidos, como los acertijos, o traducir
un lenguaje natural (incluyendo la comprensión del contexto de uso).
22
Véase el número especial de mayo de 1992 de Machine Learning, con trabajos de R. J. Williams
(refuerzo o recompensa inmediata) y G. Tesauro (recompensa retrasada), entre otros.
23
Sorprende que Dreyfus considere el ajedrez como un juego no computable. Lo cierto es que poco antes
de la primera edición de su libro What Computers Can´t Do (1972), nuestro filósofo se enfrentó al
programa de ajedrez MacHack (de Richard Greenblatt) y fue derrotado. En Machines Who Think (1979)
de Pamela McCorduck pueden encontrarse varios comentarios irónicos sobre esta derrota de Dreyfus por
un computador.
búsqueda, mientras que para el cuarto tipo (no-formal) no hay programa alguno. En suma, el
veredicto de Hubert Dreyfus sobre el futuro de la inteligencia artificial apunta que la
inteligencia humana nunca podrá ser simulada en su totalidad.
Como observación final me parece que Dreyfus tiene razón al señalar que la
inteligencia humana es distinta de la inteligencia mecánica, y también tiene razón al indicar
que la inteligencia humana no siempre sigue algoritmos o procesos fijos y ordenados de
razonamiento. Pero la cuestión es si los computadores (adecuadamente programados)
razonan o tienen inferencias, y la respuesta es obviamente positiva, frente a Dreyfus.
24
Entre ellos uno del filósofo John Haugeland y otro del informático John McCarthy.
añadir) lleva al debate estéril acerca de si es posible o no construir computadores más
inteligentes que el ser humano. Para responder, cabe comentar, será preciso tener en cuenta
tareas concretas. Como dice nuestro autor, los computadores derrotan a los campeones de
ajedrez y resuelven grandes sistemas de ecuaciones, pero son incapaces de cambiar el pañal
de un niño.
Es interesante advertir que esta tesis de Weizenbaum de que no tiene sentido hablar
de inteligencia absoluta o general ha sido confirmada posteriormente por los estudios
psicológicos de Howard Gardner. Efectivamente este psicólogo, desde su obra Frames of Mind
(1983), insiste en la idea de que no hay una inteligencia en general, sino inteligencias
múltiples. Las más destacadas son siete. En primer lugar, las llamadas “inteligencias
académicas” (ya que son las que habitualmente miden los tests de inteligencia), que son la
inteligencia lógico-matemática y la lingüística. Luego tenemos la inteligencia musical, la
cinético-corporal (propia del bailarín o del tenista) o la espacial (propia del pintor o del
navegante). Y finalmente las llamadas “inteligencias personales”, que son la intrapersonal,
característica de quien domina sus emociones, y la interpersonal, característica de quien sabe
captar las intenciones y deseos de los demás. Me parece evidente que esta riqueza de
inteligencias es propia de los humanos y que los computadores están muy lejos de ellas (en
particular, de la inteligencia cinético-corporal, de la espacial y de las personales).
25
Aunque Internet es un caso claro de socialización (e incluso de socialización mundial) de los
computadores, es muy distinta de la socialización humana.
historia, podríamos decir), identificando hechos y palabras únicamente con las metas
inmediatas que han de lograrse o con los objetos que deben transformarse.
Pues bien, estos cuatro tipos de limitaciones, según Weizenbaum, no sólo son
limitaciones técnicas de los computadores, sino que además indican la diferencia entre ser un
ser humano y ser un computador. En resumen, podemos concluir, para nuestro autor, aunque
humanos y computadores procesen información, lo hacen de modos diferentes.
Para nuestro filósofo, los partidarios de la inteligencia artificial fuerte defienden que,
en un diálogo entre un ser humano y un computador, la máquina no sólo está simulando una
capacidad humana sino que también puede decirse que la máquina literalmente comprende y
que lo que hace la máquina explica la capacidad humana de comprensión. Para refutar tal
pretensión Searle presenta el siguiente experimento mental (o imaginado) que denomina
argumento de la habitación china.
Supongamos que un hombre, que no sabe nada de chino aunque sí domina el inglés,
está encerrado en una habitación. Este hombre dispone de instrucciones en inglés para
manejar listas de símbolos (frases) en chino, teniendo en cuenta solamente las formas de los
símbolos, y de tal manera que puede hacer corresponder a una lista de símbolos (frase) otra
lista (frase) que es la respuesta adecuada de la primera. En estas condiciones, cuando recibe
(por ejemplo, a través de una ventana) una lista de símbolos en chino, consulta su libro de
instrucciones, averigua la lista que corresponde a la proporcionada, la busca y la entrega (por
ejemplo, a través de la misma ventana o de otra). Para un observador externo de la habitación,
las respuestas del hombre encerrado a las preguntas en chino no se distinguen de las que daría
un hablante chino.
Por ejemplo, supongamos que se le entrega una lista de símbolos en chino que
quiere decir “¿quién fue el primer presidente de la República Popular China?”; entonces el
hombre encerrado consulta su libro de instrucciones y encuentra que a esa lista de símbolos
en chino corresponde otra lista de símbolos en chino que justamente significa “Mao Tse-tung”,
aunque él no sabe el significado de ninguna de esas listas sino que las hace corresponder
según las formas de los símbolos siguiendo el libro de instrucciones; el hombre busca la lista en
cuestión y la entrega al exterior de la habitación.
Para John Searle, la única máquina que puede pensar es el cerebro. Sobre esta idea
vuelve en su artículo “Minds and Brains Without Programs” (1987), donde resume sus puntos
de vista en una serie de “axiomas” y conclusiones derivadas, de las que destacaré las más
importantes. El primer axioma establece que los cerebros causan las mentes, con lo que para
nuestro autor queda excluida de entrada cualquier mente mecánica (ya que los computadores
no tienen neuronas). El segundo axioma defiende que la sintaxis no es suficiente para la
semántica, marcando así una radical distinción entre el nivel formal y el nivel de los
significados. El tercer axioma señala que las mentes tienen contenidos, específicamente
contenidos intencionales o semánticos. A su vez, como contrapunto al anterior axioma, el
cuarto defiende que los programas (de computador) se definen de manera puramente formal
o sintáctica.
De tales axiomas, que Searle considera puntos obvios (y que más adelante criticaré),
extrae algunas conclusiones. De ellas la más relevante es la siguiente: instanciar un programa
(es decir, ser un caso de ejecución de un programa) no es nunca por sí mismo suficiente para
tener una mente. Tal conclusión, según nuestro filósofo, refuta la inteligencia artificial fuerte,
esto es, la pretensión de que las máquinas tienen mente.
En un trabajo posterior, titulado “How to pass a Turing test” (2000), Rapaport insiste
en su idea de una semántica sintáctica como una manera de comprender cómo los
computadores pueden pensar y cómo superar el argumento de la habitación china. En
particular defiende que la semántica puede convertirse en sintaxis, con lo que, contra Searle,
la manipulación de símbolos puede bastar para la empresa semántica.
26
Que un catedrático de literatura inglesa no sepa inglés es evidentemente algo imaginario.
27
Debemos matizar esta observación. En las neuronas rige la ley del todo o nada, es decir, el potencial de
acción se da o no se da. Pero ese darse o no darse en cada neurona varía según las diferentes sinapsis
excitatorias o inhibitorias en cada momento.
van de una población de neuronas a otra se emparejan a menudo con conexiones de retorno,
haciendo así del cerebro un sistema dinámico genuino.
Nuestros autores son partidarios del desarrollo de una inteligencia artificial que
explote nuestro conocimiento del funcionamiento del cerebro, sin descartar por ello la
existencia de máquinas clásicas, que son útiles para ciertas tareas. En efecto, señalan, una
arquitectura paralela, en vez de serial, proporciona una superior velocidad en comparación
con un computador clásico, ya que las muchas conexiones en distintos niveles ejecutan
simultáneamente muchas computaciones. Además, el paralelismo masivo hace al sistema
tolerante con los fallos y persistente en su función, puesto que la pérdida de algunas
conexiones tiene un efecto despreciable en la transformación general ejecutada por la red.
Asimismo un sistema paralelo almacena cantidades amplias de información de una manera
distribuida, siendo así accesible cada una en milisegundos.
Creo que caben dos objeciones a este nuevo argumento del gimnasio chino. En
primer lugar, Searle no detalla cuáles serían esos ajustes apropiados para que los hombres del
gimnasio fuesen comparables a una red conexionista. Y en segundo lugar, Searle parece creer
que un sistema conexionista es una suma o mera yuxtaposición de sistemas clásicos, cuando
en realidad un sistema conexionista constituye un tipo de computación muy diferente de la
computación clásica, tal como hemos visto reiteradamente.
Para terminar este apartado, señalaré por mi parte algunas otras observaciones
críticas al argumento de la habitación china28.
Ante todo, el argumento de Searle supone una distinción tajante entre sintaxis y
semántica que no me parece admisible de modo tan radical. En principio podemos distinguir
entre, por un lado, la forma o sintaxis de un enunciado o bien de una cadena de enunciados
del lenguaje natural y, por otro lado, su semántica o significados concretos. Por ejemplo, dada
la cadena de enunciados “si voy al cine, entonces me divierto”, puedo distinguir entre su forma
condicional, igual a la forma de “si corro, entonces me fatigo”, y su significado (donde me
represento ir al cine y divertirme) que no es igual al significado de la segunda cadena (donde
me represento correr y fatigarme).
Sin embargo, tal como señalé en mi libro Lógica Matemática (1975)29, las formas o
estructuras del lenguaje son aquellos tipos de ordenación o disposición de las palabras en
virtud de la cual las frases tienen una u otra manera de significar, con lo que es propio de cada
forma o estructura una manera de significar o decir. Expresado de otro modo, la sintaxis o
forma del lenguaje no es ajena a la semántica o significado, con lo que no es posible (frente a
Searle) una distinción tajante entre sintaxis y semántica. Así, por ejemplo, una conjunción de
enunciados se distingue de una disyunción de enunciados, en cuanto que en la primera
significamos una acumulación de enunciados, mientras que en la segunda significamos una
alternativa entre enunciados; estas formas o estructuras del lenguaje (conjunción y
disyunción) son distintas por esa manera distinta de significar, independientemente de los
significados concretos de sus enunciados componentes. En resumen, las formas o sintaxis
prescinden de los significados concretos (y en este sentido es posible distinguir sintaxis y
semántica), pero las formas del lenguaje no prescinden de sus específicas maneras de significar
o decir (y en este otro sentido no es posible la distinción tajante entre sintaxis y semántica).
28
Véase mi La nueva filosofía de la mente (2002), pp. 117-119.
29
Véase pp. 4-5.
30
Desde mi punto de vista, el significado de una palabra o de un enunciado es un triplo constituido por el
sentido, la referencia y el uso. El sentido es la representación mental pertinente, la referencia es el objeto
(u objetos) o situación objetiva que corresponda, y el uso es su empleo en cierto contexto lingüístico. La
referencia puede faltar, pero nunca falta el sentido y raramente el uso.
Admitiendo esto, el uso que el hombre encerrado en la habitación china hace de las
listas de símbolos en chino, según las instrucciones que ha recibido en inglés, confiere
significado a tales listas de símbolos. Y análogamente un computador produce significados
mediante el uso o manipulación de símbolos.
Finalmente, el “axioma” de John Searle de que sólo los cerebros producen mente
constituye una clara petición de principio, ya que contiene en sí mismo el rechazo de una
máquina que piense, conclusión que pretende derivar más tarde. Además tal axioma supone
un ingenuo chauvinismo humano y la creencia en la radical y substancial superioridad de la
química del carbono, propia de los seres vivos, sobre la química del silicio, propia de los
computadores.
En 1999, en su obra Robot, Moravec sigue manteniendo estas tesis, aunque con
algunas correcciones sobre los plazos temporales. Según él, hacia el 2040 las máquinas
alcanzarán los niveles humanos de inteligencia, y hacia 2050 nos sobrepasarán. Los robots
inteligentes serán nuestros herederos evolutivos, son hijos de nuestras mentes y querremos
que nos dejen atrás31.
Este punto de vista de la integración entre los seres humanos y los robots
inteligentes ha sido defendido por Bruce Mazlish, profesor de historia en el Instituto
Tecnológico de Massachusetts, en su libro The Fourth Discontinuity (1993). Mazlish habla de
“combots” (contracción de computer robots o robots computarizados) para referirse a robots
con forma humana (antropoides) dotados de un computador, y se plantea qué tipo de relación
tendrán con los humanos cuando su existencia esté generalizada. Su respuesta es que, con el
tiempo, aparecerá una nueva especie, que denomina “homo comboticus”, caracterizada por la
integración del hombre con los combots. Ahora bien, el homo comboticus seguirá siendo
humano y los combots o robots computarizados no reemplazarán al hombre.
31
Antonio Diéguez, en “Milenarismo tecnológico” (2001), hace ver que las necesidades y recursos
utilizados por nuestra “progenie mental” serían muy diferentes de los nuestros, con lo que los robots no
serían nuestros competidores, ya que en realidad su nicho ecológico no sería el mismo que el nuestro.
32
Para una discusión más detallada véase mi trabajo “Filosofía de la robótica inteligente” (2006).
33
Y en medio siglo, dada la velocidad de los acontecimientos científicos, pueden ocurrir muchísimas
cosas.
Dejando de lado el ámbito de las pasiones (el fervoroso entusiasmo de Minsky o la
violenta hostilidad de Dreyfus), lo cierto es que a lo largo de la historia de la inteligencia
artificial se han producido notables éxitos y también fracasos. La demostración automática de
teoremas lógicos y matemáticos, los programas de ajedrez o los sistemas basados en
conocimiento (que reemplazan a expertos humanos, como matemáticos, médicos, químicos o
peritos de seguros) han proporcionado notables éxitos. Pero los programas de procesamiento
del lenguaje natural o los sistemas de reconocimiento de imágenes han fracasado en
comparación con las habilidades naturales humanas.
Un aspecto interesante del razonamiento humano, que las máquinas tienen grandes
dificultades para emular, es el razonamiento del sentido común, también llamado
razonamiento revisable o no-monótono. El principio de monotonía viene a decir que una
conclusión obtenida a partir de ciertas premisas se sigue obteniendo si incorporamos alguna
nueva premisa, es decir, una vez obtenida una conclusión sigue valiendo monótona o
invariablemente aunque incorporemos nuevos conocimientos a las premisas. Sin embargo, el
razonamiento del sentido común es frecuentemente no-monótono o revisable. Por ejemplo, si
en algún momento de mi vida he concluido que cierta persona es mi amiga (tomando como
premisas el conocimiento de sus acciones amistosas hacia mí), en el momento presente puedo
revisar y variar tal conclusión, sosteniendo que es mi enemiga, al añadir a aquellas premisas el
conocimiento de una grave traición reciente. El ejemplo tópico de razonamiento no-monótono
o revisable es el siguiente: sabiendo que Felix es un ave puedo concluir que Felix vuela, pero, al
añadir como premisa que Felix es un avestruz, debo revisar y cambiar tal conclusión y declarar
que Felix no vuela. Buena parte de la investigación lógica actual en conexión con la inteligencia
artificial dirige sus esfuerzos hacia los objetivos de simbolizar y mecanizar el razonamiento del
sentido común, revisable o no-monótono35.
34
Debemos entender por inteligencia la capacidad para resolver problemas, de tal manera que un sujeto
(humano, animal o máquina) es tanto más inteligente cuanto más problemas o más difíciles consigue
resolver. Véase mi trabajo “Mente, inteligencia y espíritu” (2000).
35
Entre los principales manuales cabe destacar el libro de Witold LuKaszewicz Non-monotonic
Reasoning (1990) y la obra conjunta de Brewka, Dix y Konolige Nonmonotonic Reasoning (1997). Para
una lógica general de la inteligencia artificial, incluyendo razonamiento revisable, véase Alfredo Burrieza
y José Luis Pérez de la Cruz, Representación del conocimiento: Un enfoque lógico (2002).
fácilmente lo relevante y lo irrelevante en una situación dada. Por ejemplo, cada uno de
nosotros sabe que, al coger gasolina para nuestro coche, es relevante el tipo, la cantidad y el
precio del combustible, pero que es irrelevante (en principio al menos) la ubicación del
surtidor, la vestimenta o el sexo del empleado de la gasolinera. En tercer lugar, el sentido
común también comprende la capacidad de darnos cuenta fácilmente de qué propiedades
cambian y qué propiedades persisten tras ejecutar una acción. Por ejemplo, cada uno de
nosotros se da cuenta con facilidad, después de haber comido abundantemente, de que su
estomago está lleno y de que su peso ha aumentado, pero que seguimos teniendo dos brazos
y dos piernas (si las teníamos antes de comer).
Este último aspecto está relacionado con el problema del marco (frame problem) en
inteligencia artificial, tal como fue descrito por primera vez por John McCarthy y Patrick Hayes,
en su trabajo “Some philosophical problems from the standpoint of artificial intelligence”
(1969). Estos informáticos se refieren al hecho de que debemos suponer que si una persona
tiene un teléfono sigue teniéndolo tras consultar un número en la guía telefónica y, en general,
si tuviéramos varias acciones a ejecutar en secuencia tendríamos que especificar las
condiciones de que ciertas acciones no cambian los valores de ciertos elementos de la
situación; de hecho, añaden, con n acciones y m elementos (fluents) de la situación tendríamos
que especificar mn condiciones tales. Este es el problema del marco, esto es, la dificultad de
representar qué propiedades persisten y qué propiedades cambian cuando un computador
simula acciones o un robot ejecuta acciones. Se denomina así porque inicialmente se pensó en
representar los aspectos que no cambian mediante axiomas denominados “axiomas de marco”
(frame axioms).
Como dice Patrick Hayes, en “What the frame problem is and isn´t” (1987),
dondequiera que algo podría cambiar de un momento a otro, tenemos que encontrar alguna
manera de establecer lo que no cambia cuando algo cambia. Y esto, sigue Hayes, parece tonto
ya que casi todos los cambios cambian de hecho muy poco del mundo. El problema del marco
está en que deberíamos poder decir sucintamente cuáles son los cambios introducidos por una
acción sin tener que hacer una lista explícita de todo lo que no cambia, pero, sin embargo, no
parece haber otro modo.
Ahora bien, admitir que las máquinas piensan no debe conducirnos a lo que
denomino el “juego de los tres despropósitos”. El primer despropósito es sostener que si una
máquina piensa entonces una máquina es como un ser humano (lo cual es falso). El segundo
despropósito es defender que si una máquina piensa entonces un humano es una máquina (lo
cual también es falso). Y el tercer despropósito consiste en sustentar que si una máquina
piensa entonces los humanos carecemos de dimensiones moral y espiritual (lo cual constituye
un caso del sofisma de ignorancia de la cuestión)36.
36
Para la distinción entre inteligencia y espíritu véase mi trabajo “Mente, inteligencia y espíritu” (2000).
Pascual F. Martínez-Freire