Está en la página 1de 59

MASTER DE CIENCIAS COGNITIVAS

FILOSOFIA DE LA MENTE

Pascual F. Martínez-Freire

Catedrático Emérito de la Universidad de Málaga

1.- EL CONCEPTO DE MENTE

Puede ocurrir, y de hecho ha ocurrido a lo largo de la historia de la filosofía, que la


mente sea considerada como una substancia o res . El caso más relevante, por su amplia
influencia histórica que llega hasta nuestros días, es el de René Descartes (1596-1650), quien
concibió la mente como res cogitans o substancia pensante. Ahora bien, si la mente fuese una
substancia se seguirían de ello dos consecuencias inaceptables. En primer lugar, el estudio de
la mente escaparía al dominio empírico de la ciencia y entraría en el ámbito extraempírico de
la metafísica; y, sin embargo, al menos la psicología empírica tiene mucho que decir acerca de
la mente. En segundo lugar, si la mente fuese una substancia, entonces sería algo individual.
Sin embargo, me parece claro que la mente constituye una colección de variadas clases de
procesos que (al menos en principio todos ellos) pueden ser estudiados empíricamente.

El empleo del artículo determinado singular nos lleva aquí, como en otros lugares, a
una grave confusión. Cuando hablamos de la mujer, de la democracia o de la mente no
estamos en la misma situación que cuando hablamos de la alcaldesa de Valencia, de la casa de
Isabel Preysler o de la autopista del Mediterráneo. Me han presentado a la alcaldesa de
Valencia, podría ser invitado a visitar la casa de Isabel Preysler y he conducido por la autopista
del Mediterráneo; todas estas entidades son objetos individuales (aunque consten de partes).
Pero no cabe que me presenten en una fiesta a la mujer, a la democracia o a la mente, ni que
visite la mujer, la democracia o la mente, ni que conduzca por la mujer, por la democracia o
por la mente; ninguna de estas entidades es un objeto individual sino una colección o clase de
objetos individuales. En concreto, cuando hablamos de la mujer nos referimos a las mujeres,
cuando hablamos de la democracia nos referimos a los sistemas políticos democráticos y
cuando hablamos de la mente nos estamos refiriendo a los procesos mentales.

En suma, y en primera instancia, la mente no es un objeto individual sino la colección


de los procesos mentales. Ahora bien, para evitar la aparente circularidad de este enunciado,
debemos describir las diversas clases de procesos mentales. Para empezar, podemos recurrir
a nociones tomadas de la teoría general de la información y distinguir, en principio, cuatro
tipos básicos de procesos mentales: 1) percepciones, o recepción organizada de información,
2) recuerdos, o almacenamiento de información, 3) creencias, es decir, juicios acerca de la
información recibida, y 4) planes, esto es, disposiciones de la información para actuar.
Entonces estamos en condiciones de decir que la mente es la colección de percepciones,
recuerdos, creencias y planes.

Indudablemente es posible proporcionar una descripción más completa de los


procesos mentales. Tenemos sensaciones, ya sea acerca de nuestro propio cuerpo o
sensaciones cinestésicas (tales como dolores o placeres físicos) ya sea acerca de otros cuerpos
(sensaciones externas). Tenemos percepciones, y en estos casos conseguimos construir
objetos más o menos definidos. Almacenamos y recuperamos recuerdos, que proceden de
varias fuentes. Formamos conceptos, o representaciones características de un individuo o de
un conjunto de individuos. Elaboramos imágenes, con diferentes grados de creatividad.
Formamos creencias acerca de nosotros mismos y acerca de otras personas, cosas o ideas.
También desarrollamos inferencias, que nos permiten obtener nuevos conocimientos a partir
de datos ya adquiridos. Hacemos planes para resolver problemas o para satisfacer nuestras
necesidades. Y además tenemos sentimientos o emociones. Entonces podemos decir que la
mente es la colección de sensaciones, percepciones, recuerdos, conceptos, imágenes,
creencias, inferencias, planes o emociones.

Parece claro que para limitar el campo de los procesos mentales, y con ello definir la
mente, tenemos que proceder empíricamente, y en particular debemos seguir los criterios de
la psicología popular, es decir, del conjunto de conocimientos que todos los seres humanos
poseemos de facto acerca de los procesos mentales en sí mismos y en su relación con la
conducta, en cuanto tal conjunto no procede de una enseñanza de la psicología científica sino
de nuestras experiencias personales.

Al respecto me parece oportuno defender dos tesis. Por un lado, el paradigma o


modelo de la mente es la mente humana, y esta tesis adquiere su importancia al advertir que
la mente humana no es el único tipo de mente. Por otro lado, la psicología popular, aunque
no es una teoría completa, consta de suficientes conceptos y generalizaciones para guiar la
descripción del campo de nuestros procesos mentales.

Pues bien, la psicología popular o de sentido común nos dice que las sensaciones,
emociones, recuerdos o creencias son procesos mentales, pero que la digestión, la respiración
o el movimiento de las nubes no son procesos mentales. Podemos pensar que la razón o
criterio básico es la relación entre el supuesto proceso mental con la cognición de nosotros
mismos o con la cognición de otros seres vivientes o cosas. Por tanto, podemos precisar que la
mente es una colección de clases de cogniciones.

Pero he apuntado antes que la mente humana no es el único tipo de mente. Contra
ello, la tradición cartesiana defiende no sólo que la mente es una substancia (res cogitans )
sino además que es un privilegio exclusivo de los seres humanos. La tradición cartesiana (muy
presente en este punto en nuestros tiempos) establece un claro (aunque erróneo) criterio de
mentalidad: algo tiene mente si y sólo si tiene lenguaje. En consecuencia, los animales no
tienen mente ya que no tienen lenguaje. Sin embargo, este punto de vista es claramente
anticuado y actualmente la mayoría de los psicólogos admiten la existencia de mente animal,
al menos en ciertos grados. Una notable y convincente defensa de la mente animal ha sido
proporcionada por Donald Griffin (1915-2003) en su libro Animal Minds (1992).

Por otra parte, el desarrollo reciente de la ciencia y tecnología de los computadores


ha producido máquinas y robots que tienen procesos mentales. En efecto, tienen sensaciones,
recuerdos y ejecutan planes e inferencias. Por tanto, cabe hablar de mente mecánica, una
idea muy alejada de las doctrinas cartesianas. Un notable representante de este punto de
vista es Hans Moravec, quien en su libro Mind Children (1988) llega a afirmar que los robots
inteligentes llegarán a sustituir a los humanos (una tesis que me parece exagerada).

En consecuencia hay tres tipos de mente: humana, animal y mecánica. Pero me


gustaría insistir en que la mente humana es el modelo o paradigma de mente. La atribución
de mente a ranas, abejas o anguilas se realiza por analogía con los procesos mentales
humanos; por ejemplo, si observamos en un animal determinado una conducta que muestra
recepción de información, entonces podemos atribuirle algún tipo de sensación e incluso
algún tipo de percepción. Análogamente, la atribución de mente a computadores o a robots
se hace por analogía con los procesos mentales humanos; por ejemplo, si observamos en un
robot una conducta que indica un plan de acción, entonces podemos atribuirle algún tipo de
volición.

La existencia de mentes mecánicas constituye un serio desafío al materialismo o


teoría de la identidad mente-cerebro. Tomando como base la existencia de mentes
mecánicas, podemos proponer lo que he denominado “el argumento antimaterialista de las
máquinas”, en mi libro La nueva filosofía de la mente (1995). El argumento es el siguiente.
Hay evidencia empírica que muestra que ciertas máquinas tienen procesos mentales; la
ciencia y la tecnología de computadores han construido máquinas que exhiben procesos que,
en los humanos, consideramos como sensaciones, recuerdos, planes o inferencias. Sin
embargo, no se dan procesos neurológicos en esas máquinas, justamente porque no están
construidos con neuronas. Por tanto, la identidad propuesta por el materialismo entre
procesos mentales y procesos neurológicos queda refutada, ya que existen procesos mentales
ajenos a los procesos de tipo neurológico.

En este punto, resulta muy interesante constatar que el desarrollo de las máquinas,
que fue animado por los defensores del materialismo mecanicista, se ha vuelto contra el
materialismo en cuanto tentativa de reducir la mente a los mecanismos físico-químicos del
sistema nervioso central.

Como todos los temas de importancia, el asunto de la mente ya fué


preocupación desde los tiempos antiguos. Por supuesto, entre los filósofos griegos
podemos encontrar doctrinas de interés al respecto. La existencia de razón en los seres
humanos, junto con ciertas ideas religiosas, condujo a los griegos a establecer una
teoría del alma (psique).
Los dos principales filósofos de Grecia, Platón y Aristóteles, sostuvieron
puntos de vista de influencia a lo largo de la historia al tiempo que enfrentados.

Platón (428-347) distinguió tres partes en el alma humana. Por un lado, el alma
racional, caracterizada por su capacidad para pensar y para contemplar las Ideas
(arquetipos eternos de las cosas). Por otro lado, el alma irascible, dotada de los
sentimientos nobles, tales como la ambición o la valentía. Finalmente, el alma
concupiscible, dotada con los sentimientos inferiores, como el placer o el instinto
sexual. Para Platón se trata de tres partes que constituyen una unidad. Por ejemplo, en
la obra platónica Fedro estas tres partes se comparan al conjunto formado por un
auriga (alma racional) y los dos caballos (almas irascible y concupiscible) de su biga,
los cuales ejecutan un esfuerzo único.

Pero en otros textos de Platón el alma auténtica es el alma racional (por


ejemplo en el Fedón), que además es inmortal. Tal alma racional tiene que actuar sobre
el mundo sensible, pero es enteramente diferente de él. Así pues, Platón ha defendido
un dualismo de cuerpo y alma, que tuvo gran influencia en el mundo cristiano.

A su vez, Aristóteles (384-322) en su obra De Anima concibe el alma (psique)


como principio de la vida. En consecuencia hay tantos tipos de alma como tipos de
vida. En primer lugar, tenemos el alma vegetativa, propia de las plantas, que es
principio de crecimiento y de nutrición. En segundo lugar, tenemos el alma sensitiva,
propia de los animales, dotada de las potencialidades de las plantas más las
capacidades de movimiento y percepción. Y finalmente tenemos el alma intelectiva,
propia de los hombres, que añade a las potencialidades de los animales la razón, tanto
teorética como práctica.

Para Aristóteles todos los seres vivos tienen un alma, con lo que defiende
cierto panpsiquismo. Por otra parte, el alma la entiende como forma del cuerpo, que es
a su vez materia del alma, dentro de su concepción general hilemórfica. Por ello para
este filósofo griego la psicología es una rama de la biología. Sin embargo, en De
generatione animalium, señala que el alma inteligente (nous ) puede ser "separable" del
cuerpo. En todo caso, frente al dualismo de Platón, Aristóteles sostiene
preferentemente un monismo de cuerpo y alma. Para él, las facultades psicológicas son
poderes de los cuerpos y en los cuerpos.

Este breve examen de las concepciones platónica y aristotélica nos muestra


que ya desde tiempos antiguos aparecen las dos posturas básicas acerca del problema
mente-cuerpo, a saber, dualismo y monismo.

Aunque desde la Grecia Antigua hasta el siglo XVII distintos autores han
sostenido doctrinas acerca del alma y de su relación con el cuerpo, es Descartes el
filósofo que planteó en toda su crudeza y dificultad el problema mente-cuerpo, de tal
manera que sus consideraciones son calificadas como el punto de partida clásico en
filosofía de la mente.
René Descartes (1596-1650) estableció la radical distinción entre pensamiento,
atributo de la mente, y extensión, atributo del cuerpo, y al mismo tiempo sostuvo que
el pensamiento carecía de extensión. Esta radical distinción implica dos espinosos
problemas. Por un lado, el dualismo claro sobre mente y cuerpo conduce al problema
de la explicación psicológica, es decir, a la posibilidad de una explicación de los
procesos mentales que debe ser enteramente diferente de la explicación física. En
segundo lugar, el dualismo mente-cuerpo plantea un conjunto de enigmas acerca de la
relación entre mente y cuerpo, lo cual constituye propiamente el problema mente-
cuerpo. Quiero decir que el problema mente-cuerpo no se plantea si no se sostiene
algún tipo de dualismo mente-cuerpo o, lo que es lo mismo, que aquél no existe si
tampoco se da el segundo.

Pues bien, ambos problemas, la explicación psicológica y la relación mente-


cuerpo, están situados en el núcleo de la temática de la filosofía de la mente y, por ello,
Descartes es considerado el punto de partida clásico en filosofía de la mente.

Posteriormente a Descartes también podemos encontrar doctrinas sobre la


mente, como las de Spinoza o Leibniz, pero sólo el nacimiento de la psicología
experimental hizo posible un tratamiento científico de los procesos mentales y, por
tanto, una filosofía de la mente basada en consideraciones científicas.

Debe quedar claro que aquí, como en otros terrenos filosóficos, son realizables
dos filosofías de corte bien distinto. Por un lado, la filosofía de la mente como una
empresa enteramente especulativa, condicionada por ideas religiosas o por prejuicios
materialistas o animistas. Y por otro lado, una filosofía de la mente como un conjunto
de hipótesis basadas en datos científicos, no condicionada por religión o prejuicio
alguno. Indudablemente es el segundo tipo de filosofía de la mente el que merece
respeto y estudio.Por ello es muy importante reseñar cómo y cuándo surge la
psicología científica.

Los datos históricos relevantes son la creación en 1874 del laboratorio de


Wilhelm Wundt y en 1876 del laboratorio de William James. Wundt (1832-1920) es
reconocido como el fundador de la psicología experimental, su obra Grundzüge der
physiologische Psychologie (1873-1874) fué de hecho el primer libro de texto de
psicología científica, y el laboratorio que estableció en Leipzig fué el primer laboratorio
de psicología. A su vez, James (1842-1910) fué animado en sus estudios de psicología
fisiológica por el conocimiento de la labor de Wundt mientras visitaba Alemania,
estableciendo su propio laboratorio (peor dotado que el de Wundt) en Harvard. Así
pues, a fines del siglo XIX la psicología se constituye como ciencia, saliendo del ámbito
de la filosofía. La filosofía de la mente, desde entonces, ha de ser también una filosofía
de la psicología.
La filosofía de la mente, basada ya en los avances científicos de la psicología,
se desarrolla con fuerza durante el siglo XX a través del Circulo de Viena y de la
filosofía analítica.

El neopositivismo o Círculo de Viena, como es sabido, fué fundado por Moritz


Schlick (1882-1936) en 1928, en la ciudad de Viena, cuando se constituye la Sociedad
Ernst Mach y Schlick es nombrado su presidente. Este notable físico y filósofo agrupó
en torno a él a varios pensadores de indudable mérito y preparación científica y
filosófica. Entre ellos destaca Rudolf Carnap (1891-1970), quien se ocupó, entre otros
muchos temas, de filosofía de la mente, en particular en su artículo Psychologie in
physikalischer Sprache (1932-33).

Carnap defendió la reducción de la psicología a la física, dentro del fisicalismo


general que propuso, es decir, la constitución de un lenguaje científico universal
reducido al lenguaje propio de la ciencia física. Por otra parte, para los neopositivistas
la filosofía de la mente no era sino un aspecto de la filosofía de la ciencia.

Dentro de la filosofía analítica cabe destacar, en primer lugar, la obra de


Bertrand Russell (1872-1970) The Analysis of Mind (1921). En este libro Russell, además
de examinar los principales conceptos psicológicos con gran agudeza, sostuvo su
doctrina del monismo neutral; según ella, la mente y la materia no son dos tipos
radicalmente diferentes de entidades, sino que ambas están construídas a partir de una
misma estofa o material. El carácter metafísico de tal conjetura ha hecho del monismo
neutral una pieza de museo sin vigencia actual.

Mucho mayor interés tiene la obra de Gilbert Ryle (1900-1976) titulada The
Concept of Mind (1949), que estudiaremos en detalle más adelante. De momento
diremos que en este trabajo Ryle se enfrenta decididamente al dualismo cartesiano,
denunciándolo como un error categorial del lenguaje. Esta obra de Ryle constituye una
obra clásica en la filosofía de la mente y su discusión es inevitable.

También son de gran importancia los estudios de Ludwig Wittgenstein (1889-


1951) acerca de filosofía de la mente. Este tema, junto con la filosofía de la matemática,
ocuparon los esfuerzos intelectuales del filósofo vienés durante la segunda parte de su
actividad filosófica (segundo Wittgenstein). Su obra más destacada al respecto es
Philosophische Untersuchungen (1953). Aunque su publicación fué póstuma,
Wittgenstein había revisado toda la obra y la había dejado prácticamente lista para ser
publicada, cosa que no ocurre con los demás trabajos póstumos de este autor. Además
las ideas de Wittgenstein sobre filosofía de la mente ya eran conocidas por sus
discípulos antes de la publicación de la citada obra.

En todo caso, y esto es lo que interesa a nuestra breve historia, lo cierto es que
en torno a 1950 es cada vez más usual hablar de la filosofía de la mente como una
actividad y disciplina filosófica diferenciada, gracias en particular a las contribuciones
de Ryle y de Wittgenstein.
Al señalar los temas de la filosofía de la mente, debemos distinguir, y ésta es
una de las tesis básicas de este libro, entre lo que ha sido a lo largo de su historia la
filosofía de la mente (desde sus momentos incipientes hasta 1977) y lo que es
actualmente la filosofía de la mente (desde 1977) dentro del marco de las ciencias
cognitivas. Es decir, debemos distinguir entre la filosofía de la mente anterior al
desarrollo de las ciencias cognitivas y lo que llamaré la nueva filosofía de la mente.

Tradicionalmente la filosofía de la mente ha sido, en sus mejores momentos,


filosofía de la psicología. Desde este punto de vista, son tres los temas generales de la
filosofía de la mente, enumerados sin orden de prelación: 1) análisis de la explicación
psicológica, 2) estudio de la naturaleza de los procesos mentales, y 3) el problema
mente-cuerpo.

En efecto, y en primer lugar, la filosofía de la mente en cuanto aspecto de la


filosofía de la ciencia se ocupa de analizar las peculiaridades de la explicación en
psicología distinguiéndola, si hay lugar a ello, de la explicación en otras ciencias, en
particular en la ciencia física.

En segundo lugar, la filosofía de la mente considera la naturaleza y


características de los procesos mentales, ya tomados globalmente o bien analizando sus
diferentes clases. Esta tarea se ha cumplido con dos estilos o formas distintas. Por un
lado, análisis de los conceptos psicológicos tal como se presentan y funcionan en el
lenguaje ordinario o también tal como los utiliza la llamada psicología popular (es
decir, nuestro conocimiento ordinario de la conducta y motivaciones de las personas).
Por otro lado, estudio de los fenómenos psicológicos a la luz de los descubrimientos de
la psicología científica.

Finalmente, la filosofía de la mente aborda el problema clásico de la posible


- Teoría de la
distinción entre mente y cuerpo y, en caso positivo, de la relación entre procesos identidad o
mentales y procesos corporales. Las soluciones fundamentales actuales, como materialismo
tendremos ocasión de analizar en detalle, son la teoría de la identidad entre procesos - Dualismo
mentales y procesos cerebrales (materialismo), el dualismo o distinción radical entre lo
- Emergentismo
mental y lo físico, el emergentismo (que sostiene que aunque lo mental no es
independiente de los procesos cerebrales tampoco se reduce a éstos) y el - Funcionalismo
funcionalismo, que define los procesos mentales como ciertas funciones realizables
(también) por los cerebros.

Sin embargo, cabe hablar de la nueva filosofía de la mente, encuadrada en el


ámbito de las ciencias cognitivas. Dicho de modo rápido, las ciencias cognitivas
constituyen un campo de investigación interdisciplinar cuyo tema aglutinador es el
estudio del fenómeno de la cognición, tanto en seres humanos como en animales y en
máquinas. En este estudio están interesadas básicamente la psicología de orientación
cognitiva y la inteligencia artificial, pero también la lingüística, la neurociencia y la
lógica. Aunque hay antecedentes en la constitución de este nuevo campo de
investigación, podemos considerar que las ciencias cognitivas se consolidan
definitivamente cuando en 1977 se crea la revista Cognitive Science , seguida dos años
más tarde de la primera reunión de la Cognitive Science Society en La Jolla
(California).Tras la consolidación de las ciencias cognitivas, la filosofía de la mente
recibe nuevo impulso y nueva orientación.

La nueva filosofía de la mente, según entiendo, debe trabajar en tres niveles


distintos: 1) como filosofía de las ciencias cognitivas, 2) como nueva teoría del
conocimiento, y 3) como semántica filosófica. En cuanto al primer nivel, la filosofía de
la mente ya no es solamente filosofía de la psicología sino también de la inteligencia
artificial, siendo aquí su tema central la elucidación de la naturaleza de la mente en
general y la discusión de la mente humana, la mente animal y las mentes mecánicas. A
su vez, en cuanto nueva teoría del conocimiento, contrapuesta a la vieja teoría
metafísica del conocimiento, su tema central es el fenómeno de la cognición en sus
diferentes aspectos y variantes. Finalmente, como semántica filosófica debería
denominarse teoría de la representación, ocupándose del análisis de los significados,
sentidos, usos y referencias. Si en el primer nivel la filosofía de la mente es parte de la
filosofía de la ciencia y en el segundo nivel es la nueva filosofía del conocimiento, en
este tercer nivel la filosofía de la mente es parte de la filosofía del lenguaje.

2.- TEORIA CAUSAL DE LA MENTE: 1.MATERIALISMO.

Hemos considerado hasta aquí, entre otras cosas, la filosofía de la mente de


Gilbert Ryle y de Ludwig Wittgenstein, filósofos ambos inclinados a la psicología
conductista. Corresponde ahora examinar el conductismo entre los propios psicólogos.

Podemos comenzar señalando qué es el conductismo en general y distinguir


luego entre conductismo metodológico y conductismo ontológico. En general, el
conductismo es la doctrina que sostiene que la psicología debe limitarse al estudio de la
conducta, tanto en los animales como en las personas, es decir, debe limitarse al
estudio de la actividad de los sujetos que sea públicamente observable y registrable,
incluyendo en tal actividad los movimientos corporales, ruidos producidos,
substancias químicas emitidas, interacciones con el ambiente, etc. En consecuencia,
debemos rechazar cualquier aproximación a la psicología de corte dualista o de sesgo
introspectivo, de tal manera que no es aceptable introducir distinción alguna entre
cuerpo y mente, ni tampoco recurrir a la introspección (o examen por el propio sujeto
de sus procesos mentales) como método de la psicología. El conductismo concibe la
psicología como una ciencia natural, análoga a la física o a la química, y entiende que el
único ámbito de su estudio es el mundo material, tal como ocurre en estas ciencias. La
introspección, en cuanto algo privado e individual, no es fiable cuando, como sucede
en el conductismo, lo que importa es la observación pública e intersubjetiva.

Ahora bien, cabe distinguir dos formas posibles de conductismo. Por un lado,
lo que podemos denominar conductismo metodológico, esto es, la doctrina según la
cual la limitación de la psicología al estudio de la conducta está justificada porque la
investigación acerca de cualquier otro aspecto de los sujetos no puede ser comprobada
de acuerdo con un método científico; para el conductismo metodológico la limitación al
estudio de la conducta es consecuencia del hecho de que sólo la conducta puede
someterse al método científico. En este punto debe señalarse que, salvo algún autor
aislado o algunas declaraciones no sistemáticas, la mayoría de los psicólogos
conductistas practican el conductismo metodológico, es decir, se limitan al estudio de
la conducta ignorando cualquier otro aspecto por razones de (supuesta) eficacia
metodológica. Por otro lado, cabe hablar de conductismo ontológico, esto es, la
doctrina según la cual la limitación de la psicología al estudio de la conducta está
justificada plenamente porque lisa y llanamente no existen procesos mentales ajenos a
la conducta, es decir, la única realidad que existe para el psicólogo es la conducta; en
este caso, pues, sólo tiene sentido ocuparse de procesos conductuales y no tiene sentido
ocuparse de procesos mentales porque la mente como tal no existe.

El fundador de la psicología conductista fué el americano John Watson (1878-


1958). Habiéndose doctorado en psicología en la Universidad de Chicago en 1903,
Watson fué nombrado ayudante en esta Universidad. Admirador de los trabajos de
Edward Thorndike (1874-1949) acerca de la inteligencia animal, desarrolló amplias
observaciones de monos, ratas blancas y pájaros para intentar comprender su
conducta. De este modo, desde sus inicios Watson asoció estrechamente la
investigación de la conducta animal con la investigación de la conducta humana.

En 1908 Watson fué nombrado catedrático de psicología en la Universidad


Johns Hopkins, de Baltimore, donde estableció un laboratorio de investigación en
psicología animal. A esta época pertenece su célebre artículo "Psychology as a
Behaviorist Views it" (1913), que constituye el primer manifiesto de la psicología
conductista. La tesis central de este trabajo es que la psicología debe ser la ciencia de la
conducta humana, la cual, al igual que la conducta animal, tiene que ser estudiada en
las condiciones de precisión y exactitud propias del análisis de laboratorio.

Watson publicó otros trabajos que alcanzaron gran éxito e incluso divulgación
popular. Citemos, a título de ejemplos, su libro Behavior : An Introduction to Comparative
Psychology (1914) y Psychology from the Standpoint of a Behaviorist (1919), un libro donde
establece sus tesis definitivas. En 1921, tras dejar la Universidad Johns Hopkins,
empezó su carrera en el mundo del negocio publicitario, del cual se retiró en 1946.
Entretanto, en 1925, publicó su libro Behaviorism , destinado al gran público y en donde
expone en términos de divulgación sus ideas acerca del conductismo.

Sería muy largo y tarea fuera de lugar exponer de modo completo la


psicología conductista de Watson, razones por las cuales me limitaré a resumir sus
principales puntos de vista en relación con el conductismo. Ya en su citado artículo de
1913, Watson establece que la finalidad de la psicología conductista es la predicción de
la conducta, humana y animal, así como su control. Precisamente esta idea del control
de la conducta, presente en la mayoría de los psicólogos conductistas, implica un
programa ambicioso de control del hombre por la ciencia, con consecuencias evidentes
actualmente en la tecnología publicitaria. Asimismo nuestro autor rechaza
enérgicamente la introspección, declarando en el citado artículo que la observación
introspectiva no forma parte esencial de los métodos de la psicología. Finalmente, en el
mismo lugar, Watson mantiene que se debe excluir en una psicología científica
cualquier referencia a la conciencia y a sus estados, lo cual hará posible eliminar la
barrera entre la psicología y la ciencia natural.

Para Watson la cadena estímulo-respuesta explica cualquier fenómeno


psicológico, tanto de los seres humanos como de los animales. Y, en cuanto al método,
el psicólogo no debe estudiar su propia conducta sino la de los otros. En concreto, el
objetivo de los estudios psicológicos es encontrar los datos y leyes mediante los cuales,
dado el estímulo, se puede predecir la respuesta, o bien, dada la respuesta, se puede
determinar la naturaleza del estímulo. En consecuencia, el estímulo aparece como la
causa de la respuesta, sin referencia a factor interno alguno.

Así pues, el par estímulo-respuesta constituye el resorte explicativo básico de


los fenómenos psicológicos para el conductismo, de tal manera que el estudio de la
conducta consiste en establecer relaciones entre estímulos y respuestas en cualquier
organismo. Ahora bien, estímulo es el conjunto de las excitaciones que actúan sobre el
organismo en un momento dado, y a su vez el ambiente del organismo constituye un
complejo de estímulos para él, complejo que determina la conducta. En este punto
podemos observar que la conducta es básicamente un conjunto de respuestas, de tal
modo que, aunque el esquema concreto conductista es el par estímulo-respuesta, el
esquema general es el par ambiente-conducta. Sin embargo, y como primera
observación crítica, frecuentemente es difícil decir si una determinada acción (tal como
una secreción glandular) es estímulo o respuesta. A su vez, respuesta es el conjunto de
cambios que se producen en los músculos y en las secreciones glandulares.

Por otra parte, una característica notable del conductismo es la exclusión de las
explicaciones fisiológicas. Watson llega a decir que es perfectamente posible estudiar la
conducta sin saber nada acerca del sistema nervioso periférico e incluso acerca del
sistema nervioso central. Con ello no sólo rechazaba el recurso a la conciencia propio
de la psicología tradicional sino también el recurso a la fisiología. En consecuencia, el
ser humano que estudia la psicología conductista está enteramente desposeído de
estados internos, ni mentales en el sentido tradicional ni tampoco estados cerebrales.

El otro gran representante de la psicología conductista es Burrhus Skinner


(1904-1990), a quien su larga vida y su constante actividad de investigador y escritor
permitieron ejercer una gran influencia sobre la psicología del siglo XX. Su primera
gran obra fué publicada en 1938 bajo el título The Behavior of Organisms , en la que
asumía el conductismo de su compatriota Watson. Durante la segunda guerra mundial
entrenó palomas para pilotar torpedos y bombas, aunque nunca fueron utilizadas. Su
fé en la posibilidad de desarrollar una tecnología de la conducta, tanto en humanos
como en animales, le llevó a sobrevalorar la capacidad de entrenamiento de los
animales. Esta misma fé en la tecnología de la conducta se manifiesta en su popular
novela Walden Two (1948), donde se presenta una comunidad utópica organizada y
desarrollada según los principios de la tecnología conductista.

En 1948, Skinner fué nombrado catedrático de psicología en la Universidad de


Harvard, donde permaneció hasta su jubilación en 1972. Aquí escribió su obra
fundamental Science and Human Behavior (1953), seguida algunos años más tarde de
Verbal Behavior (1957). Skinner incorporó a la psicología conductista la noción de
conducta operante (contrapuesta a lo que podemos denominar conducta pasiva); con
ella se refiere a la conducta que depende más del refuerzo o recompensa, tras el éxito
alcanzado, que de los estímulos espontáneos; en efecto, el refuerzo aumenta la
probabilidad de la conducta en cuestión. En este punto cabe observar que tenemos un
caso de respuesta activa, no meramente pasiva, ya que el sujeto modifica su conducta
en función del éxito alcanzado

En cuanto a la posición general conductista, mientras Watson mantuvo


básicamente un conductismo metodológico con algunas declaraciones a favor del
conductismo ontológico, en cambio Skinner, en su larga actividad científica, sostuvo
diversas posturas. En "Behaviorism at fifty" (1964) defendió el conductismo ontológico,
es decir, la negación explícita de la mente como algo distinto de la conducta. A su vez,
en su polémico libro Beyond Freedom and Dignity (1971), donde considera que las
nociones de libertad y dignidad pueden conducir a los seres humanos a la
autodestrucción, además de insistir en el papel del ambiente como determinante de las
peculiaridades de las personas, Skinner sostiene que el campo de la conciencia existe
realmente aunque quede fuera de la consideración científica por su misma naturaleza.
Finalmente, en About Behaviorism (1974) nuestro autor propone una versión del
conductismo en la que se asevera la realidad de los fenómenos internos e incluso el
acceso introspectivo a ellos, aunque tal realidad de los fenómenos mentales no es no-
física sino fisiológica y además la introspección tiene un carácter limitado y poco fiable.
En suma, lo que permanece constante en los escritos de Skinner es la importancia
decisiva otorgada al ambiente en la modelación de la conducta, así como su fé en la
posibilidad de desarrollar una eficaz y benéfica tecnología de la conducta que
produzca mejores seres humanos.

Aunque la psicología conductista está aún viva y presente entre algunos


investigadores, ha perdido su hegemonía desde más o menos 1960 en favor de la
psicología cognitiva (de la cual nos ocuparemos en detalle más adelante), la cual se
caracteriza básicamente por postular en cada sujeto un sistema de estados mentales
internos gobernado por procedimientos computacionales. Estos dos elementos,
mentalismo y tratamiento computacional, son completamente ajenos al conductismo.
Sin embargo, no ha sido solamente la fuerza de la psicología cognitiva la razón del
progresivo desplazamiento de la psicología conductista sino de modo aún más
definitivo las debilidades del conductismo que pasamos a analizar.
Para el conductismo cualquier tipo de fenómeno psicológico (como una
sensación, un sentimiento, una imagen mental o un pensamiento) se identifica, o al
menos se asocia estrechamente, con un tipo determinado de conducta. Pero tal tesis,
sostenida de modo general, es falsa. Para que fuese verdadera debería ocurrir siempre
que cualquier fenómeno psicológico estuviese asociado o identificado con cierta
conducta específica, y asimismo que cualquier conducta estuviese asociada o
identificada con cierto fenómeno psicológico también específico. Sin embargo, existen
fenómenos psicológicos a los que no corresponde conducta alguna (en cuanto
actividad públicamente observable y registrable), y asimismo existen conductas que no
corresponden a un fenómeno psicológico determinado de modo inequívoco. Véamoslo
por separado.

En efecto, y en primer lugar, un sujeto puede tener un fuerte dolor de cabeza y


no manifestarlo, o bien sentir un cosquilleo en la espalda y prescindir de rascarse.
Considerando fenómenos psicológicos más elaborados, una persona puede
experimentar en un momento determinado un sentimiento de odio o de envidia hacia
otra persona y ocultar tales sentimientos, de tal modo que no se manifiesten en su
conducta; o bien, un hombre puede imaginar que besa apasionadamente a la mujer con
la que está hablando y tal imagen mental pasa enteramente desapercibida para
aquéllos que le observan. Más aún, cuando comprendemos una idea o una teoría tal
comprensión no se manifiesta necesariamente en conducta alguna, de tal manera que,
por ejemplo, a un profesor le resulta imposible saber, sin interrogatorio adicional, si
determinado alumno ha entendido o no la lección impartida. La razón de todo ello es
que sensaciones, sentimientos, imágenes mentales, pensamientos y, en general, los
fenómenos psicológicos, son, contrariamente a lo que sostiene el conductismo, procesos
mentales internos, que pueden reflejarse o no en la conducta, pero que no están
necesariamente asociados ni tampoco identificados con una conducta determinada. En
suma, y frente al conductismo, son posibles estados mentales sin conducta.

En segundo lugar, un sujeto puede decirnos que le duele la cabeza de un


modo terrible, o incluso quejarse y llevarse las manos a la cabeza mostrando una
conducta de dolor de cabeza, y sin embargo no tener dolor de cabeza alguno. O
también puede rascarse frenéticamente la espalda sin sentir cosquilleo alguno en tal
lugar. En el caso de fenómenos psicológicos más elaborados, una persona puede
comportarse respecto de otra dando muestras de amistad o admiración sin que
realmente tenga tales sentimientos hacia ella; es más puede ocurrir que realmente la
odie y la desprecie. Asimismo una persona puede declarar que recuerda la
conversación mantenida con otra, cuando en realidad no existe en ella tal recuerdo.
Finalmente, un sujeto puede decir que ha entendido una teoría o una idea y, sin
embargo, no existe en su mente la comprensión de tal teoría o idea. Todos estos
ejemplos son casos de fingimiento de conducta y señalan claramente que hay
conductas que no corresponden a los fenómenos psicológicos a los cuales
habitualmente se asocian. Una vez más se pone de relieve que los fenómenos
psicológicos son procesos mentales internos, que pueden, en estos casos, estar ausentes
a pesar de estar presentes las conductas habitualmente asociadas. En suma, y frente al
conductismo, son posibles conductas sin los correspondientes estados mentales.
En consecuencia, puesto que son posibles estados mentales sin conducta y
asimismo conductas sin estados mentales, no existe ninguna identidad o asociación
estrecha entre estados mentales y conducta.

Watson y otros psicólogos conductistas han intentado explicar el fenómeno


psicológico del pensamiento, al cual no corresponde en numerosas ocasiones una
conducta (en cuanto actividad públicamente observable y registrable), señalando que
se produce una conducta especial consistente en un lenguaje subvocal, con ligeros
movimientos de los labios, de la garganta y de las cuerdas vocales. Sin embargo, la
investigación experimental demuestra que si a un sujeto se le paralizan los labios,
garganta y cuerdas vocales, con todo su pensamiento continúa. Ello indica una vez más
que el pensamiento es un proceso mental interno no reducible a conducta.

El conductismo está expuesto además a otras objeciones básicas que lo refutan.


Para empezar, la psicología conductista, en buena parte de sus autores, supone una
decidida actitud ambientalista que resulta insostenible. Por actitud ambientalista se
entiende el apoyo a la tesis de que la conducta del sujeto se determina exclusivamente,
o al menos de forma muy determinante, por las circunstancias de su ambiente. Con ello
se niega o se minimiza la influencia de los aspectos hereditarios en la conducta.
Skinner, en Beyond Freedom and Dignity , insiste en este punto defendiendo que las
personas son extraordinariamente diferentes en diferentes lugares justamente por
causa de los lugares; más aún, para Skinner, el ambiente reemplaza la función y el
papel del hombre autónomo. Asimismo la actitud ambientalista elimina cualquier
competencia que pueda considerarse innnata. Precisamente Noam Chomsky, en "A
Review of B. F. Skinner's Verbal Behavior " (1959), sostiene que la predicción de la
conducta de un organismo complejo requiere, además de la información acerca de la
estimulación externa (a la que se limita Skinner), un conocimiento de la estructura
interna del organismo, así como de los modos en los que tal organismo procesa la
información de entrada y organiza su propia conducta. Tales características del
organismo son, señala Chomsky, un complicado producto de una estructura innata.

Existe evidencia experimental en contra de la tesis defendida por muchos


psicólogos conductistas de que la conducta es función exclusiva de la estimulación
externa. Por ejemplo Karl Lashley(1890-1958), discípulo inicialmente de Watson y autor
de Brain Mechanisms and Intelligence (1929), ha probado mediante experimentos que la
eficacia de un estímulo depende de manera decisiva de la preparación o disposición
del sujeto, la cual no siempre es controlable por el psicólogo.

Por otra parte, el ambientalismo supone lo que Mario Bunge y Rubén Ardila,
en su libro Filosofía de la Psicología (1988), han denominado caja-negrismo, es decir, la
estrategia de modelar sistemas como cajas vacías que responden únicamente a
estímulos del medio. La psicología que resulta de la adopción de la estrategia de la caja
negra, señalan Bunge y Ardila, se denomina psicología de estímulo-respuesta (E-R),
mientras que si también toma en cuenta los estados internos del organismo tenemos
una psicología de estímulo-organismo-respuesta (E-O-R), y si además explica las
consecuencias que la respuesta tiene sobre la modalidad en que el sujeto elabora el
input o entrada (esto es, si se toma en cuenta los giros de la retroalimentación),
tenemos una psicología de estímulo-organismo-respuesta-retroalimentación (E-O-R-R).
Muchos psicólogos conductistas adoptaron el caja-negrismo, es decir, una simple
psicología de estímulo-respuesta, pero esto constituye un grave error. En efecto, la
respuesta de cualquier sujeto es una función no sólo del estímulo sino también del
estado interno del sujeto. Más aún, podemos añadir, la psicología de simple estímulo-
respuesta no proporciona explicaciones auténticas, ya que no explicita un mecanismo
explicativo que medie entre estímulo y respuesta, sino que solamente describe una
supuesta causa para un supuesto efecto.

Algunos psicólogos conductistas, conscientes de las deficiencias del caja-


negrismo, decidieron introducir variables intermediarias entre estímulo y respuesta,
construyendo así una psicología de estímulo-organismo-respuesta. Surgió de este
modo el llamado neoconductismo, representado, entre otros, por Clark Hull (1884-
1952), Edward Tolman(1886-1959) y Kenneth Spence (1907-1967). Sin embargo, el
neoconductismo llevaba en sí mismo la ruina del conductismo. En efecto, y por un
lado, la introducción de variables intermediarias carecía en algunos casos de un
criterio, de tal modo que recurrir o no a ellas se convertía en asunto de pura
convención. Y por otro lado, tal introducción de variables intermediarias aproximaba
inevitablemente el conductismo al mentalismo, su enemigo inicial, ya que algunas
variables se entendían como impulsos, propósitos o expectativas. Por ejemplo, Tolman,
en Purposive Behavior in Animals and Men (1932), sostenía la idea de conducta dotada de
propósitos y que busca la obtención de una meta determinada; pero tal idea general
aparece en psicólogos cognitivos, de corte mentalista, como Miller, Galanter y Pribram
en su libro conjunto Plans and the Structure of Behavior (1960), obra que constituyó un
auténtico manifiesto de la psicología cognitiva.

En contraposición al conductismo, que sostiene que los fenómenos psicológicos


se reducen a conducta y que por lo tanto no tiene sentido hablar de la mente como algo
distinto de la conducta, podemos hablar en términos generales de la teoría causal de la
mente como aquella doctrina amplia que defiende que la mente es causa de la conducta
y por tanto distinta de ella.

Más concretamente, la teoría causal de la mente, en sus diferentes versiones,


sustenta que la conducta es efecto de causas mentales y que tales causas son procesos
internos, en suma, que la conducta es producida por causas mentales internas. Según
ello, por ejemplo, mi creencia de que vendrá Fulano es un estado interno que causa mis
acciones de reservarle hotel, enterarme de que vendrá en avión, ir a esperarle al
aeropuerto, etc. Para la teoría causal de la mente los procesos mentales son algo interno
y distinto de la conducta, y asimismo factores causales de la conducta. Por ello, como
fácilmente podrá apreciarse, la teoría causal de la mente suscribe el mentalismo.
Con todo, debe hacerse una precisión importante. Aunque para esta teoría la
conducta es siempre efecto de procesos mentales internos, sin embargo los procesos
mentales no necesariamente producen conducta, ya que es posible tener procesos
mentales internos que no se traducen en conducta alguna.

Podemos señalar dos variantes principales, opuestas entre sí, dentro de la teoría
causal de la mente. Por un lado, la teoría materialista de la mente o teoría de la
identidad mente-cerebro, y, por otro lado, el funcionalismo. Dicho rápidamente (de
momento), para la primera los procesos mentales internos, que son causa de la
conducta, son idénticos a los procesos cerebrales; en cambio, para el funcionalismo no
es legítima la identificación entre procesos mentales y procesos cerebrales, sino que los
procesos mentales internos, que son causa de conducta, son estados funcionales cuyo
órgano (por así decir) no es necesariamente el cerebro. También podemos señalar los
autores y obras básicos de una y de otra variante de la teoría causal de la mente.
Dentro de la teoría de la identidad mente-cerebro los autores más destacados son los
australianos David Armstrong, cuya obra fundamental es A Materialist Theory of the
Mind (1968), y David Lewis, cuyo trabajo básico es "Psychophysical and Theoretical
Identifications" (1972). A su vez, dentro del funcionalismo los autores más destacados
son los americanos Hilary Putnam, con su importante trabajo "Psychological
Predicates" (1967), y Jerry Fodor, con su obra Psychological Explanation (1968). (Respecto
de Putnam y de Fodor debe precisarse que estos autores han modificado sus ideas
iniciales; Putnam sigue aceptando el funcionalismo aunque insiste en la determinación
de la psicología por la sociología en lo que llama sociofuncionalismo; Fodor ha
evolucionado hacia posturas cognitivistas, tal como ya hemos visto).

La postura materialista en psicología de David Armstrong aparece ya expuesta y


justificada en su artículo "The Nature of Mind" (1966), publicado dos años antes de su
obra fundamental A Materialist Theory of the Mind , razón por la cual analizaremos los
argumentos contenidos en tal artículo.

Armstrong comienza señalando que, puesto que los hombres tienen mente (es
decir, perciben, tienen sensaciones, emociones, creencias, pensamientos, propósitos y
deseos), la pregunta por la naturaleza de la mente debe ir unida a la pregunta por la
naturaleza del hombre. Y respecto de esta cuestión sobre la naturaleza del hombre
debemos atender a las respuestas de la ciencia actual. A pesar de los desacuerdos y
divergencias entre los científicos, puede considerarse, según nuestro autor, que la
doctrina científica establecida es el punto de vista de que podemos dar una explicación
completa del hombre en términos puramente físico-químicos. Tal cosa promete en
efecto la biología molecular que pretende desvelar los mecanismos físicos y químicos
que están en la base de la vida. En consecuencia, debemos intentar desarrollar,
concluye Armstrong, una explicación de la naturaleza de la mente que sea compatible
con la tesis de que el hombre no es sino un mecanismo físico-químico. Así pues,
nuestro autor propone explícita y abiertamente una explicación materialista o fisicalista
de la mente.

Ahora bien, cabe preguntarse por qué conceder mayor autoridad a la ciencia que
a la religión, a la filosofía, a la ética, o a la literatura y el arte (si éstas, podemos añadir,
difieren de la ciencia). En suma, cabe pedir una justificación del cientifismo (que
podemos definir como la postura general que sostiene que en cualquier cuestión la
última palabra la tiene la ciencia). Armstrong, de modo coherente y honrado, se
plantea en efecto esta pregunta y contesta que la ciencia tiene mayor autoridad que las
otras instancias u opciones señaladas porque sólo la ciencia, después de investigación
prolongada y extendida durante siglos, ha alcanzado un consenso intelectual,
especialmente a partir del siglo XVII, y porque además dispone de un método para
decidir las cuestiones disputadas, mientras que las otras opciones no disfrutan ni de tal
consenso intelectual ni de tal método.

Sin embargo, y como observación crítica, podemos apuntar que el cientifismo de


Armstrong adolece de ingenuidad y de una valoración excesivamente optimista acerca
de la naturaleza de la ciencia. En efecto, el consenso intelectual no es algo firme y
definitivo en la ciencia, y de hecho ésta no sólo es falible sino que cambia
constantemente, y además, como ha puesto de relieve reiteradamente Paul Feyerabend,
la ciencia no dispone ni de un único método ni de un método que asegure la verdad de
los resultados. En todo caso, podemos conceder a Armstrong, si ésta fuese su tesis, que
la ciencia desde un punto de vista racional es un conocimiento más firme que la
religión, la filosofía o el arte, pero sin olvidar la posibilidad de la existencia de límites
para la razón.

Asimismo nos interesa reseñar la crítica del conductismo que plantea nuestro
autor en el artículo que estamos comentando. Mientras la filosofía tradicional, en
especial Descartes, había concebido la mente como un campo interno misterioso que
yace detrás de la conducta física o externa de nuestros cuerpos, en cambio el
conductismo sostuvo que la mente es conducta o bien disposición a la conducta. Para
Armstrong, el conductismo es erróneo en ambas versiones. Si la mente es conducta,
entonces quedan sin explicar todos los procesos mentales que no van acompañados de
conducta alguna. Y si la mente es disposición a la conducta, tal como insistió Gilbert
Ryle, entonces tal disposición debe ser algo real, frente a la tesis de Ryle de que una
disposición no es un estado o cambio particular; cuando pienso pero mis pensamientos
no producen acción alguna, hay algo que sucede realmente en mí y que constituye mi
pensamiento, no tratándose de que hablaría o actuaría si se cumpliesen ciertas
condiciones.

Aunque el conductismo, insiste Armstrong, es compatible con el materialismo,


es una explicación insatisfactoria de los procesos mentales. El habla y la acción son
expresión del pensamiento, no idénticos con él. En general, los procesos mentales no
pueden identificarse con la conducta, sino que los procesos mentales son la causa
interna de la conducta. Queda clara pues la postura mentalista de nuestro autor, dentro
de una teoría causal de la mente. Para Armstrong esta concepción de la mente como
causa interna de la conducta no convierte al materialismo o fisicalismo en inevitable
pero lo hace posible, no implica un punto de vista puramente fisicalista acerca del
hombre pero es compatible con tal punto de vista. De nuevo advertimos la honradez y
coherencia de nuestro autor, puesto que en cierta medida admite la posibilidad de una
causa interna no-física de la conducta.
Ahora bien, prosigue Armstrong, si nuestra noción de la mente y de los estados
mentales no es sino la de una causa, dentro de la persona, de ciertos tipos de conducta,
entonces la naturaleza intrínseca de esa causa se convierte en una cuestión científica, y
no en una cuestión de análisis lógico. Y es ahora cuando se impone el materialismo.
Pues no es en la tesis de la substancia espiritual de Descartes, sino en el veredicto de la
ciencia actual, donde encontramos la respuesta adecuada. Tal respuesta es que la única
causa de la conducta en el hombre y en los animales superiores es el funcionamiento
físico-químico del sistema nervioso central. En suma, podemos identificar los estados
mentales con estados puramente físicos del sistema nervioso central. Esta es la teoría
de la identidad mente-cerebro.

A su vez, en su libro A Materialist Theory of the Mind , Armstrong reitera y


desarrolla las tesis anteriores. En esta obra distingue de modo claro y explícito las dos
etapas que llevan a la teoría materialista de la mente: en una primera etapa se cumple
el análisis causal de los conceptos mentales, es decir, la tesis de que los estados
mentales son causa interna de la conducta, mientras que en la segunda etapa se
identifican tales estados internos con los estados físico-químicos del cerebro,
proporcionando así el materialismo de estado central (reducción de la mente a los
estados físicos del sistema nervioso central). Según ello, el libro se articula en tres
partes. En la primera parte, se estudian las teorías de la mente, criticando el
conductismo así como las doctrinas dualistas de la mente (que defienden algún tipo de
distinción entre mente y cerebro) y señalando los aspectos y ventajas de la teoría
materialista de la mente. En la segunda parte, que es la más extensa, se desarrolla el
análisis causal de los conceptos mentales, considerando los diferentes tipos de procesos
mentales. Finalmente, en la tercera parte, se insiste brevemente en la identificación de
lo mental con lo físico, de los procesos mentales con los procesos cerebrales.

El otro gran autor, además de Armstrong, que defiende la teoría de la identidad


entre procesos mentales y procesos cerebrales es David Lewis, en especial en sus
artículos "An Argument for the Identity Theory" (1966) y "Psychophysical and
Theoretical Identifications" (1972). Realizaré mi exposición y comentarios ciñéndome al
segundo de tales trabajos.

Lewis comienza poniendo de relieve que los teóricos de la identidad psicofísica


sostienen a menudo que las identificaciones que anticipan entre estados mentales y
estados neuronales (del sistema nervioso central) son en lo esencial como algunas
identificaciones teoréticas que admitimos sin controversia, por ejemplo la
identificación entre el agua y la fórmula H2O o bien entre la luz y la radiación
electromagnética. Asimismo estas identificaciones teoréticas se conciben usualmente
como avances teoréticos que hacen posible simplificar la ciencia total postulando leyes-
puente que identifican algunas de las entidades discutidas en una teoría con entidades
discutidas en otra teoría.

Sin embargo, Lewis considera que la identificación psicofísica que debe


defenderse no corresponde a esta descripción de la identificación teorética, ya que una
teoría fisiológica adecuada puede implicar identidades psicofísicas, y no meramente
postularlas. . En "An Argument for the Identity Theory", en efecto, Lewis concluye la
identificación entre estados mentales y estados neuronales de acuerdo con la siguiente
implicación. Como primera premisa tenemos la identificación entre estados mentales y
los ocupantes de papel causal (según la definición de estado mental, es decir, podemos
añadir, según la teoría causal de la mente, esto es, la teoría de que los estados mentales
son causa de la conducta). Como segunda premisa tenemos la identificación entre
estados neuronales y los ocupantes de papel causal (según la teoría fisiológica, es decir,
podemos añadir, ya que la fisiología atribuye papeles causales sobre la conducta a los
procesos neuronales). Ahora bien, según la propiedad transitiva de la identidad (esto
es, si A=B y C=B, entonces A=C), ambas premisas implican (lógicamente) que los
estados mentales son idénticos a los estados neuronales.

Así pues, si los significados de los nombres de los estados mentales proporcionan
realmente la primera premisa (es decir, si los estados mentales se definen como factores
causales de la conducta), y si los avances de la fisiología proporcionan la segunda
premisa (esto es, si la fisiología muestra que los estados neuronales son factores
causales de la conducta), entonces se sigue la conclusión de la identificación psicofísica.
Como Lewis acepta ambas premisas, también defiende que los estados mentales son
idénticos a los estados neuronales.

Pero tal identificación psicofísica no es una identificación teorética en el sentido


usual antes señalado, sino una identificación teorética en un sentido más fuerte,
precisamente en el nuevo sentido de que tal identificación psicofísica está implicada
por las teorías que la hacen posible, y no simplemente postulada por ellas.

El materialismo o teoría de la identidad mente-cerebro tiene un indudable


atractivo doble, ya que tiene el aspecto de una teoría con aureola de progresismo y
porque además promete o cumple una clara simplificación dentro del cuerpo de la
ciencia total.

En cuanto a lo primero, oponerse al materialismo parece cosa de curas, de


filósofos poco informados de la ciencia actual, o de científicos trasnochados, mientras
que defender la teoría de la identidad mente-cerebro parece cosa de personas
ilustradas, de filósofos al día, o de científicos de vanguardia. En suma, el materialismo
parece ser lo progre mientras que contradecir el materialismo parece ser lo carca , y ya
se sabe que en general si se quiere figurar y aparecer hay que ser progresista.
Evidentemente este atractivo del aspecto progresista del materialismo no es, en
absoluto, un argumento, ni filosófico ni científico, razón por la cual, tras haberlo
señalado, no me molestaré en dedicarle más tiempo.

El segundo atractivo señalado es ya serio. El materialismo promete (aunque no


ha cumplido) eliminar el lenguaje mentalista en favor del lenguaje neurofisiológico, y
esto sí que sería un gran avance y un buen progreso. No importaría que los psicólogos
se quedasen sin trabajo y que la psicología como ciencia desapareciese del reino o
república de los saberes, puesto que habríamos reducido la psicología a neurofisiología
(al reducir los procesos mentales a procesos neuronales) y con ello habríamos
simplificado el cuerpo de la ciencia total.

Sin embargo, esta reducción no parece posible. Ya señalamos en el capítulo


anterior que, aunque fuese posible deducir los fenómenos psicológicos a partir de los
fenómenos neurológicos, no será posible explicar los fenómenos psicológicos
neurológicamente. La razón básica es que el lenguaje mentalista ( con términos como
deseo, creencia, emoción, sentimiento, percepción, sensación, recuerdo, inferencia o
introspección) no es reducible al lenguaje neurológico (con términos como neurona,
sinapsis, neurotransmisor, fibras aferentes o fibras eferentes). Sin duda alguna, la
neurociencia en general puede ayudar a comprender un gran número de fenómenos
psicológicos, pero no puede proporcionar explicaciones completas de nuestra vida
mental. Y a su vez, la razón profunda de esta situación fáctica es que la experiencia de
lo mental es irreducible a cualquier explicación neurológica. Con ello quiero decir que
nuestro modo de experimentar y, en consecuencia, de conocer los procesos mentales
no puede ser sustituido por una explicación de los procesos neurológicos que puedan
subyacer en la producción de los procesos mentales. Para decirlo aún más
concisamente, una cosa es mi experiencia de los estados mentales y otra cosa su
eventual modo de producción neurológica.

A este respecto, como dice el filósofo australiano Keith Campbell, en su libro


Body and Mind (1984, segunda edición), el dolor puede explicarse como un cambio en el
patrón y frecuencia de las descargas de neuronas en el cortex o corteza cerebral, pero
yo no soy consciente del dolor como una agitación de disparos de neuronas. Más en
general, podemos decir que los procesos mentales son vividos y, por ende, conocidos
en términos de fenómenos internos de conocimiento, recuerdo, creencia o volición (esto
es, en términos del lenguaje mentalista), y no son vividos ni, por tanto, conocidos en
términos de procesos físico-químicos del cerebro, aunque el estudio de estos procesos
pueda resultar esclarecedor e ilustrativo.

De todas formas, dejaré de momento los argumentos generales para intentar


responder a las tesis materialistas de Armstrong y de Lewis.

En el caso de la teoría de la identidad mente-cerebro de David Armstrong, la


identidad psicofísica, o identidad entre procesos mentales y procesos cerebrales, es
meramente una propuesta alentada por el prestigio de la ciencia. En A Materialist
Theory of the Mind , nuestro autor señala que la identificación de los estados mentales
con los estados físico-químicos del cerebro es una apuesta (bet ), una apuesta casi tan
buena, en el actual estado del conocimiento, como la identificación del gen con la
molécula de ADN (ácido desoxirribonucleico). Sin embargo, Armstrong pierde de vista
que ambas situaciones no son comparables. El gen era, antes de su identificación con el
ADN, la unidad de herencia biológica concebida en términos abstractos e
indeterminados, mientras que un proceso mental particular (como un sentimiento de
odio) es algo concreto y determinado empíricamente contrastable. Dicho de otro modo,
la identificación de los genes con moléculas de ADN dota de sentido concreto a
aquéllos, mientras que la identificación de los procesos mentales con los procesos
cerebrales reduce el sentido concreto de los primeros al sentido concreto de los
segundos sin que tal reducción se justifique salvo apoyándose en el principio de
economía. Con todo, como simple propuesta, la identificación psicofísica es un
programa de investigación que deberá justificarse a la larga, pero que no parece
aceptable por la razón ya aludida de la escasa viabilidad de eliminar el lenguaje
mentalista en favor del lenguaje neurológico.

En el caso de la teoría de la identidad mente-cerebro de David Lewis, la


identidad psicofísica aparece ya no como una propuesta sino como una conclusión
lógica implicada por premisas supuestamente científicas. Sin embargo, ambas premisas
pueden ser puestas en duda. En primer lugar, la identificación entre estados mentales y
factores causales de la conducta no es en general verdadera. En efecto, y como se
señaló anteriormente, hay estados mentales que no producen efecto alguno en la
conducta; por ejemplo, nuestros sentimientos pueden no manifestarse en
comportamiento alguno, o nuestras imágenes mentales pueden permanecer
perfectamente secretas; en ambos casos incluso no es necesario que estos procesos
mentales produzcan efectos en otros procesos mentales. En segundo lugar, la
identificación entre estados neuronales y factores causales de la conducta tampoco es
en general verdadera. Efectivamente, hay procesos neurológicos que no producen
acciones que puedan calificarse de conducta en el sentido que interesa al psicólogo; por
ejemplo, en la zona de la corteza cerebral motora responsable de los movimientos de la
lengua se registran procesos neurológicos que producen la actividad de la lengua
durante la masticación de alimentos, pero esta actividad del sistema digestivo no
merece la atención del psicólogo.

Por otra parte, la propia conclusión de Lewis, es decir, la identidad entre


procesos mentales y procesos neurológicos se enfrenta desde el desarrollo de las
ciencias cognitivas (y en especial de la inteligencia artificial) al argumento que
denominaré argumento antimaterialista de las máquinas y que discurre del modo
siguiente. Tal como veremos en el capítulo próximo, existe evidencia empírica de que
algunas máquinas tienen procesos mentales. La ciencia de la inteligencia artificial y su
tecnología correspondiente han desarrollado máquinas "inteligentes" que ejecutan
procesos que en los seres humanos calificamos de procesos mentales; no sólo hacen
complicados cálculos aritméticos y pruebas de teoremas lógicos y matemáticos, sino
que también juegan a las damas o al ajedrez e incluso realizan diagnósticos médicos. Y,
sin embargo, en estas máquinas no existen procesos neurológicos, por la sencilla razón
de que no están constituídas de neuronas o células nerviosas. Siendo así, la identidad
entre procesos mentales y procesos neurológicos queda refutada, puesto que se dan
procesos mentales enteramente ajenos a los procesos neurológicos. En este punto es
interesante poner de relieve que el desarrollo de las máquinas, tarea alentada por el
materialismo mecanicista, se vuelve contra tal materialismo en su tentativa de reducir
la mente a los mecanismos físico-químicos del sistema nervioso central.
3.- TEORIA CAUSAL DE LA MENTE: 2. FUNCIONALISMO

El funcionalismo constituye la hipótesis filosófica sobre la naturaleza de los procesos


mentales que unifica las ciencias cognitivas y que es aneja, de modo natural, a la hipótesis
empírica del sistema de símbolos. Por ello, y si es necesario evitar más malentendidos,
podemos hablar de funcionalismo cognitivo.

Veamos pues el funcionalismo en Hilary Putnam. Me centraré en tres trabajos suyos.


En primer lugar, su artículo de 1960 “Minds and Machines”, donde aparecen los antecedentes
de su concepción. En segundo lugar, su estudio “Psychological Predicates” de 1967 (reimpreso
con el nuevo título de “The Nature of Mental States”), donde se establece el funcionalismo. Y
finalmente su nuevo estudio “Why Functionalism Failed”, publicado en 1992 (reimpreso con el
nuevo título de “Why Functionalism Didn´t Work”, y que utiliza el capítulo quinto, con este
mismo título, de su libro Representation and Reality de 1988), donde abandona parcialmente
el funcionalismo.

En “Minds and Machines” Putnam analiza la noción de máquina de Turing, es decir,


la caracterización general de un computador presentada por el matemático y lógico británico
Alan Turing (1912-1954). Cuando una máquina de Turing es descrita mediante una “tabla de
máquina” (es decir, mediante un conjunto de especificaciones de su curso de acción) aparece
como algo que posee una cinta (con cuadros que tienen símbolos o no), un mecanismo de
impresión, un mecanismo para “examinar”, y un conjunto finito de estados, que Putnam
denomina “estados lógicos” (esto es, ítems informativos o representaciones). Para nuestro
autor, la “descripción lógica” de una máquina de Turing no incluye ninguna especificación de
la naturaleza física de esos “estados”, ni desde luego de la naturaleza física de la totalidad de
la máquina. En cambio, en cuanto una máquina de Turing es realizada físicamente, ocurre que
desde el punto de vista del lógico sólo tiene los “estados lógicos”, pero desde el punto de vista
del ingeniero tiene un número casi infinito de “estados estructurales”. Por otra parte, Putnam
señala que, al igual que hay dos posibles descripciones de la conducta de una máquina de
Turing (a saber, el anteproyecto estructural del ingeniero y la “tabla de máquina” del lógico),
también hay dos posibles descripciones de la psicología humana. En efecto, por un lado
tenemos la aproximación conductista, que pretende proporcionar una descripción fisicalista
completa de la conducta humana, pero, por otro lado, también sería posible buscar una
descripción más abstracta de los procesos mentales humanos en términos de “estados
mentales” (sin especificar la realización física, si la hay) e “impresiones” (comparables a los
símbolos de la cinta de máquina).

En suma, Putnam presenta en este trabajo una analogía entre los estados lógicos de
una máquina de Turing y los estados mentales de un ser humano, por una parte, y entre los
estados estructurales de una máquina de Turing y los estados físicos de un ser humano, por
otra parte. Con ello, cabe añadir, deja abierta la posibilidad de definir los estados mentales en
términos abstractos, de tal modo que su caracterización pueda aplicarse por igual a mentes
humanas, animales o mecánicas, como requiere una adecuada unificación filosófica de las
ciencias cognitivas. Pero en este artículo de 1960 Putnam no ofrece todavía una descripción
funcional de los estados mentales, con lo que no me parece correcto hablar propiamente de
funcionalismo.

En cambio, en “Psychological Predicates” (1967) Hilary Putnam caracteriza los


procesos mentales como estados funcionales. Nuestro autor centra su discusión acerca de la
naturaleza de los procesos mentales en la cuestión de si el dolor es un estado cerebral, con la
intención de generalizar la respuesta obtenida a todos los estados mentales. En principio,
según Putnam, son posibles dos respuestas a tal cuestión. Por un lado, cabe sostener que
decir que “los dolores son estados cerebrales” es perfectamente significativo, esto es, no
envuelve extensión de uso. Dicho de otro modo, podemos comentar, tal enunciado es
significativo si no amplía el uso del término “dolores”, con lo que entonces la identificación
entre dolores y estados cerebrales queda justificada. Pero, por otro lado, cabe defender que
decir que “los dolores son estados cerebrales” no es significativo, esto es, envuelve un cambio
de significado o una extensión de uso. Dicho de otra manera, podemos comentar, tal
enunciado no es significativo porque cambia el significado o amplía el uso del término
“dolores”, con lo que entonces la identificación entre dolores y estados cerebrales no está
justificada. Putnam declara que su posición propia no está expresada por ninguna de ambas
respuestas, ya que las nociones de cambio de significado y de extensión de uso están tan mal
definidas que no es posible sostener ninguna de ambas respuestas. En efecto, según nuestro
autor, ni el lingüista ni el hombre de la calle ni el filósofo poseen actualmente una noción de
cambio de significado que resulte aplicable a casos como el presente (casos de identificación
de términos, como “dolores” y “estados cerebrales”). En estas circunstancias, la respuesta a la
cuestión de si el dolor es un estado cerebral debe permitir enunciados de la forma “el dolor es
A”, donde “el dolor” y “A” no son sinónimos en sentido alguno (esto es, podemos añadir, no
se determinan recurriendo a la noción de significado), sino que tales enunciados resultan o no
aceptables recurriendo a fundamentos empíricos y metodológicos. Tal es el camino que sigue
Putnam.

Nuestro autor sostiene que el dolor (y, en general, los procesos mentales) no es un
estado cerebral, es decir, no es un estado físico-químico del cerebro, y tampoco un estado del
sistema nervioso entero, sino que es otro tipo de estado. La hipótesis propuesta (en lugar del
materialismo o la identidad entre procesos mentales y procesos cerebrales) es que el dolor, o
el estado de tener dolor, es un estado funcional de un organismo tomado en su totalidad.
Pero para aclarar tal hipótesis Putnam utiliza la noción de autómata probabilístico. A su vez,
un autómata probabilístico es una máquina de Turing con la peculiaridad de que las
transiciones entre los estados internos de la máquina pueden responder a probabilidades
variadas en lugar de ser deterministas. Por supuesto, un autómata probabilístico tiene
entradas sensoriales y asimismo salidas motoras; la tabla de máquina (esto es, recordemos, el
conjunto de especificaciones de su curso de acción) establece, para cualquier combinación
posible de un estado interno y un conjunto completo de entradas sensoriales, una instrucción
que determina la probabilidad del siguiente estado así como también las probabilidades de las
salidas motoras. Creo que debe comentarse que la idea del autómata probabilístico consiste
en diseñar un organismo con actividad flexible; es decir, dadas ciertas entradas sensoriales y
dado un estado interno del organismo, las salidas motoras (si las hay) y el nuevo estado
interno no están determinados de modo fijo, sino que responden a ciertas probabilidades.
Ahora bien, sigue Putnam, un sistema dado empíricamente puede ser al mismo
tiempo la realización física de muchos diferentes autómatas probabilísticos. Es decir, cabe
añadir, que podemos para un mismo sistema u organismo diseñar muchos diversos autómatas
probabilísticos. Por ello, nuestro autor se ve obligado a introducir la noción clave de
descripción de un sistema. En efecto, la descripción de un sistema S es cualquier enunciado
verdadero que establece que S posee distintos estados s1, s2, ...., sn, que están relacionados
entre sí y con las entradas sensoriales así como con las salidas motoras mediante las
probabilidades de transición dadas en cierta tabla de máquina. Pues bien, tal tabla de
máquina, mencionada en la descripción del sistema S, se denominará la “organización
funcional de S” relativa a tal descripción. Y a su vez, un estado cualquiera si, tal que el sistema
S está en ese estado si en un tiempo dado, se denominará el “estado total de S” (en ese
tiempo) relativo a esa descripción. Putnam pone de relieve que conocer el estado total de un
sistema relativo a una descripción envuelve conocer mucho acerca de cómo se comportará
probablemente el sistema, dadas varias combinaciones de entradas sensoriales, pero no
envuelve conocer la realización física de tal estado total; en particular no envuelve conocer si
tal estado es un estado físico-químico del cerebro.

Después del análisis de estas nociones técnicas previas, volvemos a la hipótesis de


Putnam de que el dolor (y en general cualquier proceso mental) es un estado funcional de un
organismo tomado en su totalidad. Tal hipótesis, siguiendo a nuestro autor, puede
desarrollarse en los cuatro puntos siguientes. Primero, todos los organismos capaces de sentir
dolor son autómatas probabilísticos. Segundo, cualquier organismo capaz de sentir dolor
posee un tipo apropiado de organización funcional. Tercero, ningún organismo capaz de sentir
dolor posee una descomposición en partes que separadamente posean la citada organización
funcional (con ello se indica, podemos precisar, que el dolor es un estado funcional del
organismo entero). Y cuarto, para cualquier organización funcional, existe un subconjunto de
entradas sensoriales tal que un organismo con la citada organización funcional tiene dolor
cuando y sólo cuando algunas de sus entradas sensoriales están en tal subconjunto (es decir,
cabe añadir, que un proceso mental no es producido sino por entradas determinadas).

Putnam dice además que la organización funcional debe incluir algo parecido a una
función de preferencia (y con ello, podemos suponer, la posibilidad de seleccionar entradas
sensoriales y salidas motoras, ya que el autómata es probabilístico), asimismo debe incluir
algo parecido a una lógica inductiva, es decir, la “máquina” (tal como dice Putnam) debe ser
capaz de aprender de la experiencia, y finalmente la máquina debe disponer de órganos
sensoriales.

Aunque tal hipótesis, que identifica procesos mentales y estados funcionales, pueda
parecer vaga, es para nuestro autor mucho menos vaga que la actual hipótesis materialista,
que identifica procesos mentales y estados físico-químicos del cerebro. De hecho, la hipótesis
funcionalista es para Putnam más plausible, porque permite más investigación matemática y
empírica, y ya que conduce a cuestiones y predicciones fructíferas. Por otro lado, la hipótesis
funcionalista, según declaración expresa de Hilary Putnam, no es incompatible con el
dualismo, puesto que un sistema, si lo hubiera, compuesto de cuerpo y alma puede ser un
autómata probabilístico. Finalmente, y contra la tesis conductista, la conducta de la máquina
dependerá no sólo de las entradas sensoriales sino también de su estado total, incluyendo
valores, creencias, etc.

Para concluir la presentación del funcionalismo de Putnam, veremos algunos


puntos de su trabajo “Why Functionalism Failed” (1992). Nuestro autor aclara, en el
inicio, que la analogía computacional (esto es, la analogía entre la mente humana y un
computador digital) fue una reacción contra la idea de que nuestra materia es más
importante que nuestra función. A su vez, el “funcionalismo” insistía en que, en
principio, un robot avanzado, un ser humano, una criatura con química de silicio, y, si
hay espíritus incorpóreos, un espíritu incorpóreo podrían funcionar de la misma manera
cuando se describen al nivel de abstracción relevante, y que es erróneo pensar que la
esencia de nuestras mentes es nuestro “hardware”. Putnam declara que no abandona
esto y que le parece tan verdadero como importante. Sin embargo, nuestro autor
entiende aquí que los argumentos a favor del punto de vista computacional pueden ser
generalizados y extendidos para mostrar que una identificación simple entre los estados
mentales y los estados funcionales tampoco es correcta. En suma, creo que puede
entenderse que Hilary Putnam sigue pensando que el funcionalismo es básicamente
adecuado, pero piensa que algunos argumentos crean serias dificultades al
funcionalismo. Por ello, podemos hablar de abandono parcial por Putnam del
funcionalismo.
La principal dificultad que encuentra nuestro autor en su posición funcionalista
es que es incompatible con la explicación del significado que él mismo estableció en
“The Meaning of ´Meaning`” (1975). Según tal explicación, el contenido de nuestras
creencias y deseos no está determinado por propiedades individualistas del hablante,
sino que depende de hechos sociales relativos a la comunidad lingüística del hablante y
de hechos relativos al ambiente físico del hablante. Por ejemplo, son los expertos
(frecuentemente ajenos a nosotros) quienes saben si un árbol es un olmo o si un metal
es oro auténtico. La referencia (y el “significado”) dependen del ambiente no-humano
al igual que dependen de la sociedad. Entonces, sigue Putnam, las actitudes
proposicionales (esto es, los estados mentales) no son estados del cerebro humano y del
sistema nervioso considerados aisladamente del ambiente social y no-humano. Y a
fortiori no son estados funcionales, es decir, estados definibles en términos de
parámetros que entrarían en una descripción del software del organismo individual. En
conclusión, siguiendo este argumento, el funcionalismo. construido como la tesis de
que las actitudes proposicionales son estados computacionales del cerebro, no puede
ser correcto.
Creo que son convenientes dos observaciones. En primer lugar, Putnam
pretende presentar dificultades a la hipótesis general funcionalista (cualquier proceso
mental es un estado funcional) argumentando en contra de uno de sus casos especiales,
a saber, que los procesos mentales humanos son estados funcionales; de ahí que se
refiera en particular a las actitudes proposicionales humanas y a los estados del cerebro
humano. Por supuesto, esta línea de argumentación es lógicamente correcta. Pero,
situados en el caso especial humano y considerando el soporte cerebral de los procesos
mentales humanos, creo que Putnam se equivoca al sostener que los significados no
están “en la cabeza” (como declara en su trabajo de 1975) y, con ello, su argumento no
pone en dificultades al funcionalismo. Lo que parece olvidar nuestro autor es que (al
menos) la mayoría de los procesos mentales son representaciones. Ahora bien, nuestras
representaciones están “en la cabeza”, ya que son elaboradas por nuestros cerebros. Y
además, y este es el punto serio del asunto, no sólo tenemos representaciones
elaboradas por nosotros mismos sino también representaciones de lo que dice el
experto, de los informes de los medios de comunicación culturales y, por supuesto, del
ambiente no-humano. En suma, una posición funcionalista solidaria de la hipótesis del
sistema de símbolos (que, como señalé antes, es un mecanismo típicamente
representacional) sobrevive al argumento en contra de Putnam.
Para terminar este apartado me referiré a la contribución de Jerry Fodor al
funcionalismo cognitivo, contenida en su libro Psychological Explanation (1968). En efecto, un
año después de que Hilary Putnam publicase su célebre artículo, Fodor presenta sus tesis
funcionalistas al distinguir entre microanálisis y análisis funcional. Aquí se advierte, de manera
clara y sencilla, una idea básica en la hipótesis funcionalista, a saber, la distinción entre
soporte y función.

Para Fodor, el reduccionismo de las teorías psicológicas a las neurológicas es


básicamente erróneo, aunque es positivo relacionar los constructos psicológicos con los
constructos neurológicos. El materialismo reduccionista se caracteriza por practicar el
microanálisis en cuanto opuesto al análisis funcional. Efectivamente en el microanálisis o
análisis reduccionista la pregunta usual es “¿de qué consta X?”, buscando una respuesta que
consista en la especificación de la microestructura de X. Por ejemplo, son cuestiones de
microanálisis las preguntas “¿de qué consta el agua?”, o bien “¿de qué consta un rayo de
luz?”, siendo sus respuestas respectivas en microanálisis “de dos átomos de hidrógeno unidos
a uno de oxígeno” y “de una corriente de fotones”. Contrariamente, el análisis funcional
pregunta acerca del papel que juega una parte de un mecanismo en las actividades
características de tal mecanismo considerado como un todo. En efecto, la pregunta usual en el
análisis funcional es “¿qué hace X?”. Por ejemplo, una cuestión de análisis funcional es la
pregunta “¿qué hace el árbol de levas?” y su respuesta es “abre las válvulas, permitiendo la
entrada de combustible en el cilindro, para que al hacer explosión se mueva el pistón”. Por
tanto, dice Fodor, mientras que el progreso del microanálisis depende del desarrollo de
poderosos instrumentos de observación y de métodos muy precisos de disección, en cambio
el análisis funcional requiere una estimación de los tipos de actividad característicos de un
determinado mecanismo así como de la contribución de cada una de las partes al
funcionamiento del todo.

Fodor admite y defiende establecer relaciones entre los constructos psicológicos y


los constructos neurológicos, pero entiende que se podrán evitar muchas confusiones si estas
relaciones no las concebimos como expresión de un microanálisis, sino como una forma de
atribuir determinadas funciones psicológicas a los correspondientes sistemas neurológicos.
Por ejemplo, añade nuestro autor, para algunos filósofos y psicólogos es posible seguir la
trayectoria de una entrada a través de los sistemas neurológicos aferentes, centrales y
eferentes sin que nos encontremos con nada parecido a motivos, impulsos, estrategias y
demás invenciones de las teorías psicológicas. Pero esto es tan erróneo como afirmar que en
la descripción completa de un motor de combustión interna nunca aparecerá un elevador de
válvulas. En ambos casos se confundirían los términos propios del microanálisis con los
términos propios del análisis funcional.

Comentando estos puntos de vista, tal como he hecho en mi libro La nueva filosofía
de la mente (2002), la identificación entre procesos mentales y procesos cerebrales, propia del
materialismo reductivo, sería análoga a la identificación entre elevadores de válvulas (que se
caracterizan funcionalmente) y árboles de levas (que se caracterizan refiriéndonos a su
estructura física). Sin embargo, no todo elevador de válvulas es un árbol de levas, ya que
existen otros mecanismos que cumplen la función de elevar válvulas. Análogamente,
podemos añadir, no todo proceso mental, que se caracteriza por el rol causal o función que
desempeña, es un proceso cerebral, puesto que, además del cerebro, existen otros
mecanismos que cumplen funciones mentales, como, por ejemplo, un computador al
establecer la demostración de un teorema.

El funcionalismo cognitivo implica que, para comprender de modo adecuado un


sistema de símbolos o de procesamiento de información, es preciso describirlo a varios
niveles. Al menos al nivel de la estructura o soporte del sistema y al nivel de sus funciones o
roles causales. Ahora bien, el científico cognitivo inglés David Marr (1945-1980) distingue tres
niveles de descripción, en su obra Vision, publicada en 1982 tras su muerte prematura.

Estos niveles señalados por Marr son el de la teoría computacional, el de la


representación y algoritmo, y el de la implementación en hardware. En primer lugar, el nivel
superior consiste en la teoría computacional abstracta del mecanismo; se trata de especificar
el objetivo de la computación, determinar su carácter apropiado y la lógica de la estrategia
mediante la cual se lleva a cabo. Dicho simplemente, en el nivel de la computación se trata de
precisar la tarea o función que intentamos estudiar, en términos del “qué” de la computación.
En segundo lugar, el nivel del centro consiste en la elección de la representación para las
entradas y salidas así como del algoritmo que se empleará para transformar unas en otras.
Ahora, en el nivel del algoritmo se trata de precisar el “cómo” de la computación. Y
finalmente, el nivel inferior consiste en pormenorizar los detalles de cómo se realizan
físicamente las representaciones y el algoritmo. Aquí, en el nivel de la implementación se
trata, según David Marr, por así decir, de la arquitectura del computador detallada.

Para nuestro autor, aunque los tres niveles son necesarios para una comprensión
completa de un mecanismo de procesamiento de información, están relacionados entre sí de
una manera no rígida, de tal modo que algunos fenómenos pueden ser explicados en un nivel
o dos únicamente. Con todo, para Marr, el nivel más importante, desde el punto de vista del
procesamiento de la información, es el nivel de la computación, aunque los algoritmos y los
mecanismos (soportes) son empíricamente más accesibles. En concreto, un algoritmo se
comprenderá más fácilmente si comprendemos la naturaleza del problema a resolver que
examinando el hardware en el que está incorporado. En su libro, David Marr aplica esta
metodología de los tres niveles al estudio de la percepción visual humana.

Otro autor que insiste en la distinción de niveles de descripción en las ciencias


cognitivas es el científico cognitivo canadiense Zenon Pylyshyn. En efecto, desde su libro
Computation and Cognition (1984) y posteriormente en su artículo “What´s in Your Mind”
(1999), distingue también tres niveles. Estos niveles son el físico o biológico, el simbólico o
sintáctico, y el semántico o nivel de conocimiento. Según Pylyshyn, tal como dice en su
artículo de 1999, esta hipótesis de los tres niveles defiende que hay generalizaciones que
existen en cada uno de ellos. Así hay patrones de conducta que sólo pueden explicarse
recurriendo a la biología, como por ejemplo por qué las reacciones de las personas son más
lentas tras ingerir alcohol, o por qué se irritan cuando se les deja sin dormir. Otras veces, en
cambio, algunos patrones de conducta sólo pueden explicarse recurriendo a lo que la gente
quiere y a lo que la gente cree, lo cual corresponde al nivel semántico o de conocimiento. Y
finalmente nuestro conocimiento se incorpora en un sistema de códigos, que es propio del
nivel simbólico o sintáctico.

Pylyshyn añade una ilustración sencilla, empleando una comparación con una
calculadora electromecánica. Podemos preguntar, en su caso, por qué la impresión de los
números es débil o irregular (leyéndose con dificultad), y entonces la respuesta precisará una
explicación de nivel físico, refiriéndonos a aspectos eléctricos y mecánicos. Pero también
podemos preguntar por qué la calculadora emplea más tiempo en calcular senos y cosenos
que en calcular sumas, y entonces la explicación requerirá describir el método o algoritmo
empleado por la calculadora, moviéndonos al nivel sintáctico. Finalmente hay cuestiones
acerca de las relaciones entre lo que hace la calculadora y el mundo de la matemática
abstracta. Al decir que la calculadora computa senos y cosenos decimos más que cuando
señalamos el algoritmo empleado; según Pylyshyn, pretendemos que el algoritmo en cuestión
computa representaciones de números que corresponden a ciertas funciones abstractas
definidas matemáticamente; pero cuando hablamos de las cosas que representa la máquina
nos encontramos al nivel de descripción semántico.

Si comparamos las tesis de Marr con las de Pylyshyn, advertimos puntos claros de
coincidencia y algunas diferencias. Resulta evidente que el nivel de implementación de Marr
coincide con el nivel físico o biológico de Pylyshyn. Se trata en ambos casos del soporte físico
de la computación, que puede tener elementos y configuración diferentes según las
situaciones; por ejemplo, un tipo u otro de cerebro, un tipo u otro de circuitería electrónica.
En cambio, no parece que haya una estricta coincidencia entre el nivel de computación de
Marr y el nivel semántico de Pylyshyn, ni tampoco entre el nivel de algoritmo del uno y el nivel
sintáctico del otro. La diferencia, a mi entender, consiste en que el nivel de algoritmo de Marr
incluye ya las representaciones, mientras que el nivel sintáctico de Pylyshyn no es aún
propiamente representacional. Por otra parte, el nivel de computación de Marr atiende a la
descripción de las tareas del sistema, determinando sus objetivos y estrategias; pero a esto no
parece corresponder el nivel semántico de Pylyshyn. En realidad creo que la separación entre
nivel sintáctico y nivel semántico es forzada, ya que no existe una distinción tajante entre
sintaxis y semántica, tal como he señalado en mi libro La nueva filosofía de la mente (2002) al
criticar el argumento de John Searle de la habitación china.

De todas formas, lo que parece claro es que, además de introducir un nivel de


descripción de las tareas del sistema, la distinción clave está entre el soporte de los procesos y
los procesos mismos entendidos como representaciones (con sus aspectos sintáctico y
semántico). Por ello, debemos inclinarnos a las tesis de Marr y distinguir tres niveles:
descripción de tareas del mecanismo, descripción funcional del mecanismo y descripción del
soporte del mecanismo.

Finalmente, las ciencias cognitivas pueden emprender estudios generales sobre

tareas y habilidades cognitivas y sus procesos mentales correspondientes. Por ejemplo, sobre
percepción visual o resolución de problemas. Si tenemos en cuenta el nivel de

implementación o soporte, podemos precisar los estudios anteriores y ocuparnos de visión

humana o de visión artificial, de resolución humana de problemas o de razonadores

mecánicos. Llegados a la base empírica las ciencias cognitivas se nos muestran en su rica

diversidad.

4.- LA HISTORIA DE LA INTELIGENCIA ARTIFICIAL

El filósofo americano John Haugeland, en su libro Artificial Intelligence. The Very Idea
(1985), haciendo el correspondiente juego de palabras en inglés (grandfather, father y
godfather), dice que Hobbes fue el abuelo de la inteligencia artificial, Turing fue su padre y
McCarthy ha sido su padrino. Esta observación es aceptable ya que, en efecto, el filósofo inglés
Thomas Hobbes (1588-1679) entendió claramente que razonar es computar, el matemático y
lógico inglés Alan Turing (1912-1954) estableció las bases teóricas de la computación, y
finalmente el informático americano John McCarthy acuñó la expresión “inteligencia artificial”.

Dicho de forma sencilla, la inteligencia artificial es una rama o especialidad de la


informática que estudia el diseño y construcción de computadores inteligentes. A su vez, cabe
decir simplemente que un computador es inteligente cuando realiza tareas que, si son
realizadas por un humano, atribuimos a la inteligencia del humano. Por ejemplo, podemos
decir que un computador que demuestra teoremas lógicos o matemáticos es inteligente, ya
que la demostración de teoremas la atribuimos a la inteligencia humana; o también podemos
decir que un computador que gana una partida de ajedrez a un humano es inteligente, porque
la victoria en el ajedrez la atribuimos a la inteligencia de los seres humanos.

La inteligencia artificial, al igual que la informática de la que forma parte, es una


ciencia notable, ya que es un conocimiento híbrido en el que están interesadas la lógica, la
matemática, la física y la ingeniería. Sin la lógica y la matemática no es posible la inteligencia
artificial (que encuentra en ellas sus bases teóricas), pero estas disciplinas se consideran
tradicionalmente ciencias formales. Tampoco habría inteligencia artificial sin la física (ya que
sin electrónica no hay informática), que se considera habitualmente una ciencia natural. Pero
la inteligencia artificial también es una ingeniería (puesto que sin la construcción real de los
computadores inteligentes la inteligencia artificial se queda en mera especulación), pero la
ingeniería no es propiamente una ciencia, sino tecnología asociada. En suma, la inteligencia
artificial es una ciencia híbrida de ciencia formal, ciencia natural y tecnología, constituyendo
una compleja tecnociencia.

Las nociones básicas de la inteligencia artificial (así como de la informática en


general) se encuentran en los fundamentos de la teoría de la computación. Al respecto el año
de 1936 fue realmente decisivo.

Por un lado, el matemático y lógico americano Alonzo Church (1903-1995) publicó su


célebre artículo “An Unsolvable Problem of Elementary Number Theory”. En él definió la
noción de una función de enteros positivos efectivamente calculable identificándola con la
noción de una función de enteros positivos recursiva. Tal es lo que se conoce como “Tesis de
Church” y que puede formularse más sencillamente diciendo que las funciones que pueden ser
computadas mediante un algoritmo finito son precisamente las funciones recursivas. Se trata
de una tesis (y no de un teorema) porque no ha sido demostrada, pero nunca se ha
encontrado una función computable que no sea recursiva. A su vez, las funciones recursivas
(dicho grosso modo) son las funciones recursivas iniciales (sucesor, suma, producto,
potenciación y diferencia aritmética) y aquellas funciones construidas a partir de esas iniciales
mediante unas operaciones especiales (las de composición y minimización).

Asimismo, también en 1936, el ya citado matemático y lógico inglés Alan Turing


publicó su importantísimo artículo “On Computable Numbers, with an Application to the
Entscheidungsproblem”. En él definió una función computable como aquélla que puede ser
calculada mediante cierta máquina que él mismo describió (y que por ello se denomina
“máquina de Turing”). Tal máquina resulta ser la especificación en términos generales de
cualquier computador.

Una máquina de Turing es básicamente un dispositivo de examen de una cinta


potencialmente infinita; esta cinta está dividida en cuadros, que pueden tener o no un símbolo
determinado escrito, y sólo se examina cada vez un cuadro de la cinta. Por otra parte, las
operaciones de la máquina se reducen a las cuatro siguientes: imprimir un símbolo en la cinta
(lo cual implica, si ya hay un símbolo escrito, borrar éste), borrar un símbolo, desplazarse un
cuadro a la izquierda y, por último, desplazarse un cuadro a la derecha. Pero resulta muy
importante entender que el curso de acción de la máquina está determinado por cuatro
elementos: 1) el estado interno actual de la máquina, 2) el contenido del cuadro que está
examinando, 3) la operación realizada por la máquina, y 4) el nuevo estado interno que tiene
tras la operación. Por tanto, un computador, en la descripción general de Turing, posee
estados internos, que deben entenderse como la suma total de información almacenada en la
máquina en un momento dado.

Pues bien, se conoce como “Tesis de Turing” la afirmación de que las funciones que
pueden ser computadas mediante un algoritmo finito son precisamente las funciones Turing-
computables (esto es, computables por una máquina de Turing).

Sin embargo, como se demuestra que la Tesis de Church y la Tesis de Turing son
equivalentes, ambas pueden ser unidas y hablar de la Tesis Church-Turing. Según esta tesis,
dicho en términos sencillos, todo lo que puede hacerse mediante un algoritmo puede hacerse
mediante un computador. En efecto, la noción de efectivamente calculable supone que
disponemos de un algoritmo, es decir, un procedimiento mecánico de reglas explícitas que
produce una respuesta en un número finito de pasos1; por otro lado, la máquina de Turing no
es sino una descripción general y abstracta de un computador.

Entiendo que la noción definitiva en computación es la de algoritmo2, ya que la


existencia o no de un algoritmo para un proceso determina si este proceso es o no
computable, y porque el carácter más o menos fijo y “limpio” de un algoritmo determina el
carácter más o menos computable del propio proceso. Un ejemplo de algoritmo, en cuanto
procedimiento mecánico de reglas explícitas que produce una respuesta positiva o negativa en
un número finito de pasos, es el método de tablas de verdad para decidir si una fórmula bien
formada de la lógica de enunciados es o no una tautología (siempre verdadera). En cuanto
mecánico, un algoritmo no precisa para su aplicación de inventiva alguna, sino que basta con
seguir sus reglas, las cuales son además instrucciones explícitamente determinadas, son
normas fijas. Asimismo la respuesta que proporciona el algoritmo se produce en una serie de
pasos que es finita y tales pasos se siguen limpiamente de acuerdo con las reglas. Esta es, a mi
entender, la descripción de un algoritmo en sentido fuerte y que corresponde a la
computabilidad también en sentido fuerte.

Sin embargo, esa fijeza y limpieza de un algoritmo puede ser debilitada y entonces
tendremos algoritmos débiles y con ello computabilidad en sentido débil. En efecto, es posible
incorporar al algoritmo alguna regla no prevista inicialmente o modificar alguna de las reglas
ya establecidas. Y por otro lado también cabe que alguno de los pasos en el proceso sea
omitido o que aparezcan pasos imprevistos.

La historia de la inteligencia artificial comenzó en torno a 1956 cuando se dispuso de


computadores inteligentes. Pero cabe hablar de una prehistoria, en la que encontramos
proyectos y realizaciones de calculadores mecánicos, y también de una protohistoria, en la que
encontramos los primeros computadores electrónicos. Lo veremos sucesivamente.

Aunque, tal como hemos visto, Haugeland habla de Hobbes como el abuelo de la
inteligencia artificial, en realidad podemos atribuir tal papel al filósofo y místico mallorquín
Raimundo Lulio (1232-1316). Como filósofo Lulio creía que es posible probar mediante la razón
todas las verdades de la fe y, en consonancia con esta idea, diseñó su Ars Magna, un artilugio
mecánico, consistente en una especie de regla circular de cálculo sobre la que pivotaban discos
concéntricos con letras y símbolos filosóficos grabados sobre ellos, mediante el cual pretendía
demostrar automáticamente las verdades metafísicas3. Lo cierto es que la tentativa luliana de
mecanizar el razonamiento fue despreciada por Descartes pero, en cambio, altamente
valorada por Leibniz.

1
La palabra “algoritmo” viene del árabe al-juarismi, que significa “el persa”, y que era el sobrenombre de
Mohamed ibn Musa al-Juarismi, matemático del siglo IX de la escuela de Bagdad.
2
Véase mi trabajo “¿En qué sentido la psicología cognitiva puede ser computacional?” (2000).
3
Para una descripción más detallada véase Leopoldo-Eulogio Palacios, Filosofía del Saber(1962), pp.
267-269.
Posteriormente encontramos varios calculadores mecánicos de cierto interés4. El
matemático alemán Wilhelm Schickard (1592-1635) construyó en 1620 un “reloj de cálculo”
que, mediante el movimiento de unas ruedas dentadas, efectuaba las cuatro operaciones
aritméticas básicas (suma, resta, multiplicación y división). También el filósofo y matemático
francés Blaise Pascal (1623-1662) inventó en 1642 una máquina de calcular, que se llamó
“pascalina”, que sumaba y restaba; construyó unas cincuenta y se conservan ocho. Finalmente,
el enciclopédico Gottfried Wilhelm Leibniz (1646-1716) creó en 1671 una máquina de suma y
multiplicación (por suma repetida).

Más próximo a nosotros está el tejedor y mecánico francés Joseph-Marie Jacquard


(1752-1834), quien inventó en 1801 un telar semiautomático. Pero el interés de su invención
para nuestro relato estriba en que por el telar corrían unas tarjetas perforadas, cuyos orificios
indicaban a la máquina el dibujo a realizar sobre los paños; tales tarjetas constituían un
“programa de máquina”.

Lo cierto es que, inspirado en Jacquard, el matemático inglés Charles Babbage (1791-


1871) diseñó en 1834 su célebre “máquina analítica” (que no llegó a construirse totalmente).
Esta máquina consistía de varios miles de engranajes; no se limitaba a cálculos aritméticos
básicos, sino que podía efectuar de modo automático una serie de operaciones inscritas en las
cintas perforadas, incluso logaritmos. Disponía pues de algoritmos de cálculo.

Las anticipaciones de Babbage fueron importantes, tanto en lo referente a la


programación o software como en lo que se refiere a la arquitectura o hardware. Respecto al
software, inventó el bucle de programación o repetición varias veces de una serie de
instrucciones, así como la utilización de subprogramas, o algoritmos anejos al algoritmo
principal. Respecto del hardware, y tal como señala Geoff Simons5, Babbage dividió su
calculador en cinco partes: 1) la unidad de entrada, donde se introducían las tarjetas
perforadas (que, por cierto, fueron usadas en los computadores hasta algunos años después
de 1970), 2) el almacén, que era la memoria para los números usados en los cálculos y para las
instrucciones del programa, 3) la unidad aritmética, que ejecutaba los cálculos, 4) la unidad de
control, para controlar la ejecución de tareas según el programa almacenado (actualmente la
unidad aritmética y la unidad de control suelen combinarse para formar la unidad de
procesamiento central), y 5) la unidad de salida, que comunicaba los resultados del
procesamiento.

Dentro de la prehistoria de la inteligencia artificial, también podemos destacar al


ingeniero santanderino Leonardo Torres Quevedo (1852-1936), constructor del trasbordador
de las cataratas del Niágara. Torres Quevedo inventó un jugador de ajedrez automático
(electromecánico); se trataba de un brazo que se articulaba sobre un tablero para desplazar las
piezas, concretamente un rey y una torre movidas por el brazo, mientras que el humano
jugaba con un rey. Más interés tiene su “aritmómetro” electromagnético, una calculadora que
utilizaba una máquina de escribir para introducir datos y para proporcionar resultados.

4
Cf. Roman Ikonicoff, La conciencia y la máquina (1999), pp. 27-33.
5
Cf. Geoff Simons, Evolution of the Intelligent Machine (1988), p. 37.
Pero la protohistoria de la inteligencia artificial comenzó con el surgimiento de los
primeros computadores electrónicos.

Podemos considerar al ingeniero alemán Konrad Zuse (1910-1995) como el primero


en construir computadores electrónicos. En 1935 construyó el Z1 con varillas, láminas de metal
e interruptores mecánicos. Más tarde, el Z2 ya usaba relés electromecánicos. Pero fue en 1941
(durante la segunda guerra mundial) cuando hizo funcionar el Z3, el primer computador
programable de propósito general; esta máquina usaba relés electromecánicos y técnicas de
cálculo controlado de secuencias. Afortunadamente el gobierno nazi dio a Zuse un escaso
apoyo. En 1948 (a pesar de las restricciones de los Aliados a la industria electrónica alemana)
siguió construyendo computadores y fundó una empresa en 1950, absorbida por Siemens en
1969.

Durante la segunda guerra mundial, el servicio secreto británico trabajaba en


Bletchley (a unos cien kilómetros de Londres) en la descodificación de los mensajes de radio
enemigos, como los codificados por la máquina Enigma. Alan Turing y otros matemáticos se
incorporaron al equipo del servicio secreto. En 1943 estaba operativo Colossus, un
computador electrónico para descifrar mensajes codificados; esta máquina contribuyó a ganar
“la guerra del Atlántico” al descifrar los mensajes de los submarinos alemanes.

En todo caso, prescindiendo de los computadores de Zuse y de Colossus (que apenas


fueron conocidos a causa de la guerra), se considera habitualmente como el primer
computador electrónico a ENIAC (Electronic Numerical Integrator and Calculator). Esta
máquina fue construida en 1946 en la Escuela Moore de Ingeniería Eléctrica de la Universidad
de Pensilvania, en Filadelfia. Sus constructores fueron John William Mauchly (1907-1980) y J.
Prosper Eckert (1919-1995). Aunque era muy voluminosa y llevaba mucho tiempo
programarla, recibió mucha atención y fue objeto de gran propaganda.

A su vez, en 1948 Frederick Calland Williams (1911-1977) y Tom Kilburn (1921-2001)


construyeron el Mark I en la Universidad de Manchester, máquina que también era muy
voluminosa. Una empresa de Manchester, Ferranti Limited, contrató la producción comercial
de Mark I. Fueron los primeros computadores que se vendieron (nueve en total).

Lo cierto es que en 1951 se instalaron los primeros computadores, fuera de las


Universidades, tanto Mark I en el Reino Unido como UNIVAC en los Estados Unidos. La difusión
de los computadores había comenzado.

Poco después de 1950, algunos científicos americanos creían que los rasgos
característicos de la inteligencia humana podían ser descritos de manera tan precisa que
podían ser simulados por un computador.

Con esta idea revolucionaria, un grupo de diez lógicos y matemáticos se reunieron,


en el verano de 1956, en el Dartmouth College, en Hanover (New Hampshire). Las reuniones
fueron patrocinadas por la Fundación Rockefeller, que aportó 7.500 dólares (de los 13.500
solicitados). Entre los promotores estaban John McCarthy y Marvin Minsky.
McCarthy fue quien acuñó el término “inteligencia artificial” para referirse a los
trabajos que todos ellos estaban realizando para construir máquinas inteligentes. Además, en
1957, creó (con Minsky) el laboratorio de inteligencia artificial del Instituto Tecnológico de
Massachusetts, y, en 1963, fundó el laboratorio de inteligencia artificial de la Universidad de
Stanford. Anteriormente, en 1958, había inventado el lenguaje de programación LISP, en el
que se escribieron los primeros programas de computación inteligente. Desde 2001 es
profesor emérito de ciencias de la computación de la Universidad de Stanford.

A su vez, Minsky fue siempre el gran propagandista de la inteligencia artificial. En el


Instituto Tecnológico de Massachusetts ha trabajado en representación del conocimiento,
percepción de máquina y aprendizaje. En 1969 publicó (con Seymour Papert) Perceptrons, un
libro que incluía una valoración negativa de las redes neuronales artificiales (que luego
veremos), lo cual paralizó momentáneamente el desarrollo de esta corriente de la inteligencia
artificial. También trabajó en robótica basada en inteligencia6, construyendo manos mecánicas
con sensores táctiles, cámaras visuales y su software de computador.

Pero en la conferencia de Dartmouth también estaban presentes, entre otros, Arthur


Samuel, Allen Newell y Herbert Simon. Samuel (1901-1990) había construido programas para
que un computador jugase a las damas, y estos programas conseguían improvisar estrategias.
En 1961 el campeón de damas de Connecticut fue derrotado por un programa de Samuel. A su
vez, Newell (1927-1992), psicólogo e informático, y Simon (1916-2001), economista e
informático, presentaron en la conferencia de Dartmouth un programa, el Teórico Lógico, que
demostraba teoremas lógicos.

Desde 1956, y en particular desde los años sesenta, el campo de la inteligencia


artificial experimentó un notable desarrollo en distintas áreas de investigación, con grandes
éxitos aunque también con fracasos. Enumeraré brevemente estos logros clásicos7 que
agruparé en cinco apartados.

En primer lugar, se han creado programas de juegos para computador, tales como el
juego de damas, tres en raya o ajedrez. Acabamos de mencionar los programas de juegos de
damas de Samuel. En cuanto al ajedrez, deporte intelectual por excelencia, cualquier humano
corriente es derrotado por un buen programa de ajedrez, pero además los grandes campeones
internacionales también fueron vencidos por programas selectos como el Chess Champion
Mark V. Más aún, como fue ampliamente divulgado por los medios de comunicación, el
campeón mundial Kasparov fue derrotado en 1995 y en 1997 por el programa Deep Blue.

6
Es muy importante advertir que, de la misma manera que no todos los computadores son inteligentes (es
decir, realizan tareas que merezcan el calificativo de inteligentes), tampoco todos los robots son
inteligentes. De hecho la robótica inteligente está todavía poco desarrollada.
7
Cf. Pascual F. Martínez-Freire, “El futuro de las máquinas pensantes” (1996), pp. 238-240.
En segundo lugar, se han desarrollado programas para demostrar teoremas lógicos y
teoremas matemáticos. También nos hemos referido al Teórico Lógico de Newell, J. Cliff Shaw
(1922-1991) y Simon, que probaba treinta y ocho teoremas de la lógica proposicional de los
Principia Mathematica, la obra publicada entre 1910 y 1913 por Alfred Whitehead (1861-1947)
y Bertrand Russell (1872-1970) y que constituye la fuente básica de la lógica matemática
clásica. En 1960 Hao Wang (1921-1995) desarrolló programas que demostraban nueve
capítulos de los Principia Mathematica, incluyendo lógica de predicados, en nueve minutos.
Por otra parte, en cuanto a teoremas matemáticos, en 1976 un computador (programado por
Kenneth Appel y Wolfgang Haken) demostró el famoso teorema de los cuatro colores, que dice
que es posible colorear un mapa político con sólo cuatro colores, de modo que los países
limítrofes tengan distintos colores; lo notable es que los demostradores humanos llevaban
cien años intentando demostrarlo sin éxito.

En tercer lugar, también se han construido programas de ordenador para tratar la


sintaxis y la semántica del lenguaje natural. Existen programas de traducción automática,
como el programa creado ya en 1955 por Anthony Oettinger para traducir del ruso al inglés. Y
también hay programas para analizar las frases del lenguaje natural en sus distintos
componentes, o bien para buscar equivalentes semánticos. Sin embargo, las limitaciones de las
máquinas en esta línea de procesamiento del lenguaje natural son importantes. En cuanto a la
traducción, existe el serio problema de que el campo de ambigüedad de las palabras no
coincide de un idioma a otro; por ejemplo, la palabra inglesa date, que significa cita entre
amigos, también significa dátil, cosa que no ocurre con la palabra española “cita”. En cuanto a
los análisis sintácticos, las reglas sintácticas de los idiomas poseen excepciones difíciles de
recoger en un programa de computador, aunque recientemente se han producido notables
avances, como veremos. Y en cuanto a los análisis semánticos, la ya citada ambigüedad,
además de la dependencia del lenguaje respecto del contexto o situación de los hablantes,
pone las cosas difíciles a las máquinas inteligentes.

En cuarto lugar, otra área de investigación clásica en inteligencia artificial es la de


visión computacional o reconocimiento de imágenes. En esta parcela se trata de crear
programas que reconozcan o identifiquen rostros, huellas dactilares y, en general, objetos
determinados, aunque también se trata de analizar y manipular imágenes. Ya en 1965 Larry
Roberts creó un programa para reconocer objetos tridimensionales que era capaz, por
ejemplo, de identificar los objetos en una fotografía. La visión computacional es un área de
gran importancia para la robótica inteligente, puesto que para disponer de robots que puedan
moverse con cierta libertad deben estar dotados de una capacidad de visión de la situación y
de los objetos que manejan. Pero también aquí los computadores encuentran limitaciones
serias, ya que habitualmente los programas permiten reconocer ciertos patrones de objetos
bien definidos, pero no otros objetos ajenos al programa ni tampoco objetos de escasa
definición. Con todo, como veremos luego, actualmente existen nuevos programas que
podrían vencer estas limitaciones.

Finalmente, en esta enumeración de las áreas clásicas de investigación en


inteligencia artificial, me detendré en lo que suele considerarse la joya de tales
investigaciones: los sistemas expertos o (como ahora se prefiere llamarlos) sistemas basados
en conocimiento. Un sistema experto es un programa de computador que permite a una
máquina dar, para problemas de un campo específico, soluciones iguales sensiblemente a las
que daría el experto humano en tales problemas, pudiendo además la máquina justificar las
soluciones ofrecidas.

Éste ha sido el campo tradicional de mayor éxito de la inteligencia artificial, ya que


en él se iguala el comportamiento de una máquina a la capacidad de pensamiento de diversos
expertos humanos. Ya en 1964 Joshua Lederberg (Premio Nóbel de Medicina en 1958) creó el
sistema experto DENDRAL para realizar análisis químicos, sistema que fue perfeccionado en la
Universidad de Stanford, por Bruce Buchanan y Edward Feigenbaum. Asimismo, en 1968, se
diseñó el sistema MACSYMA, que llegó a emular a los expertos humanos matemáticos al poder
realizar numerosos tipos diferentes de operaciones matemáticas, incluyendo diferenciación e
integración. Más tarde aparecieron otros sistemas expertos clásicos e importantes. Por
ejemplo, en 1972, el sistema MYCIN, empleado para el diagnóstico y el tratamiento de
enfermedades infecciosas, o bien, en 1973, el sistema INTERNIST, utilizado para el diagnóstico
en medicina interna. También cabe citar el sistema experto PROSPECTOR, usado para la
exploración geológica y que, en 1982, detectó diversos depósitos de molibdeno en el Estado
de Washington. En suma, las máquinas dotadas de sistemas expertos pueden sustituir a
expertos humanos tan diferentes como matemáticos, geólogos, médicos o químicos.

En un sistema experto o sistema basado en conocimiento hay tres elementos


básicos: una memoria de trabajo, una base de conocimiento y un motor de inferencias. La
entrada de información, que son los diferentes hechos a tener en cuenta por el sistema, se
incorporan a la memoria de trabajo (que consta justamente de hechos); por ejemplo, “hay una
humedad del 90%” y “hay nubes negras”. La memoria de trabajo está en conexión con la base
de conocimiento, constituida por las reglas que definen un campo de conocimiento; por
ejemplo la regla “si hay una humedad del 90% y hay nubes negras, entonces llueve”, que
forma parte del conocimiento del meteorólogo. A su vez, el motor de inferencia dispara las
diversas reglas teniendo en cuenta los hechos suministrados; por ejemplo, dados los hechos
citados dispara la regla mencionada. Finalmente se produce una salida de información, que en
nuestro ejemplo es “llueve”. Si preguntamos al sistema cómo ha obtenido su conclusión,
presentará las reglas y hechos que ha tenido en cuenta.

La inteligencia artificial fundada por McCarthy, Minsky, Samuel, Newell y


Simon, en 1956, en la conferencia Dartmouth es considerada actualmente como la
inteligencia artificial clásica, o bien, como la denomina John Haugeland (en su citado
libro de 1985 Artificial Intelligence), GOFAI. Esta expresión abrevia “Good Old
Fashioned Artificial Intelligence”, que podríamos traducir como “inteligencia artificial a
la buena antigua usanza”. Como señala Haugeland, GOFAI o la IA clásica se
caracteriza por sostener que los procesos que subyacen a la inteligencia son simbólicos.
Dicho de modo más explícito, para una teoría GOFAI nuestra capacidad para tratar con
las cosas inteligentemente se debe a nuestra capacidad para pensar acerca de ellas
razonablemente, y a su vez esta capacidad para pensar sobre las cosas razonablemente
se reduce a una facultad de manipulación de símbolos automática e interna. Cabría
comentar que los procesos inteligentes son básicamente procesos de razonamiento y
que, a su vez, razonar es manipular símbolos de manera automática e interna. En todo
caso, para la IA clásica el conocimiento es codificado en estructuras simbólicas.
Ahora bien, desde 1986 se ha consolidado otra poderosa corriente dentro de la
inteligencia artificial, que se denomina IA conexionista o también redes neuronales
artificiales, para la cual el conocimiento se codifica en los pesos (o fuerzas) de las
conexiones entre las unidades simples de procesamiento; es decir, el conocimiento no se
codifica en símbolos sino en valores numéricos.
Otra característica de la IA conexionista es su intención expresa de crear
programas en los que el procesamiento de la información imite al cerebro humano, con
lo que el procesamiento no será serial o sucesivo (como en la IA clásica) sino paralelo,
y además tal procesamiento será realizado por una red de elementos simples (neuronas)
masivamente interconectados.
Esta idea de imitar la estructura y el funcionamiento del cerebro ya se
encuentra en el trabajo conjunto del neurólogo Warren McCulloch (1898-1969) y el
lógico Walter Pitts (1923-1969) titulado “A Logical Calculus of the Ideas Immanent in
Nervous Activity” (1943). El propio Alan Turing escribió en 1948 (aunque no fue
publicado hasta 1969) un trabajo titulado “Intelligent Machinery”, donde presenta
máquinas autoorganizadoras, que aprenden de la experiencia, anticipando también el
conexionismo.
Uno de los primeros en desarrollar estas ideas fue Frank Rosenblatt (1928-
1971) en su libro Principles of Neurodynamics (1962), donde realiza un análisis formal
de las redes neuronales artificiales así como un estudio de su simulación en
computadores digitales. Sin embargo, en 1969 Marvin Minsky y Seymour Papert
publicaron su Perceptrons, criticando severamente la obra de Rosenblatt. Estos
científicos clásicos de IA señalaron que los perceptrones (nombre dado por Rosenblatt a
las redes neuronales artificiales) sólo pueden distinguir entre conjuntos si son
linealmente separables, es decir, si todos los elementos de un conjunto y todos los
elementos del otro conjunto están separados por una línea recta. Sin embargo, muchos
problemas de clasificación dan resultados que no son linealmente separables, con lo que
los perceptrones tienen serios límites en su aplicación. Pues bien, esta crítica detuvo de
momento el entusiasmo investigador en IA conexionista.
Con todo las redes neuronales iniciaron su camino seguro a partir de 1986,
cuando David Rumelhart y James McClelland, encabezando un grupo de investigación
de psicólogos e informáticos, publicaron dos volúmenes de trabajos titulados Parallel
Distributed Processing.
Desde el afianzamiento de la IA conexionista cabe distinguir entre programas
de computación clásicos y neurocomputaciones. Maureen Caudill y Charles Butler, en
su obra Naturally Intelligent Systems (1990), señalan las siguientes nueve características
de una neurocomputación o red neuronal. En primer lugar, una red neuronal se compone
de un número de elementos de procesamiento muy simples (“neurodos” o neuronas),
que se comunican mediante interconexiones con fuerzas o pesos variables (comparables
a las fuerzas sinápticas de las neuronas naturales). En segundo lugar, las memorias se
almacenan en una red neuronal como patrones de pesos de interconexión variables entre
los neurodos. En tercer lugar, una red neuronal es enseñada o entrenada, más que
propiamente programada, siendo posible que una red neuronal aprenda por ensayo y
error. En cuarto lugar, las operaciones en una red neuronal están controladas por una
función de transferencia de los neurodos (que relaciona entradas con salidas), por los
detalles de las conexiones entre los neurodos y por la ley de aprendizaje que está
siguiendo el sistema. En quinto lugar, una red natural actúa de modo natural como una
memoria asociativa, agrupando ítems similares. En sexto lugar, una red neuronal es
capaz de generalizar a partir de ejemplos concretos. En séptimo lugar, la ejecución de
una red neuronal, cuando sus interconexiones fallan, se degrada lenta y suavemente. En
octavo lugar, los patrones de actividad de una red neuronal son espaciotemporales. Y
finalmente, una red neuronal puede ser autoorganizadora, pudiendo generalizar por sí
misma.
Comparando computación clásica y computación conexionista, un programa
clásico es digital, en cuanto opera sobre pedazos discretos de datos, es serial, en cuanto
que sigue una secuencia de instrucciones específicas, y tiene cierto carácter inflexible,
en cuanto sigue un ciclo fijo de búsqueda de instrucción (junto con los datos
necesarios), ejecución de instrucción y almacenamiento del resultado. Justamente estas
tres características definen lo que se denomina una “arquitectura Von Neumann”, en
tributo a John Von Neumann (1903-1957), célebre científico de la computación. A su
vez, las redes neuronales no poseen ninguna de estas tres características, por lo que su
estructura no es tipo Von Neumann. En vez de digitales son análogas (con valores
continuos), en vez de seriales son paralelas (con varios niveles de procesamiento en
paralelo) y en vez de inflexibles son flexibles (con una gran flexibilidad de ejecución).

Respecto del futuro de los logros en inteligencia artificial caben tres posturas
diferentes. En primer lugar, cabe pensar que los avances previstos y anunciados en los años
sesenta no se han producido ni se producirán, con lo que la inteligencia artificial no tiene
mucho nuevo que ofrecer en el futuro. Pero también cabe pensar que con las técnicas ya
actualmente disponibles podremos progresar indefinidamente. O finalmente cabe pensar que
con nuevos cambios técnicos se podrán obtener grandes progresos.

Para la primera postura, o postura pesimista, constituye una referencia ejemplar el


anuncio y posterior abandono de la llamada “quinta generación” de computadores por parte
de las autoridades científicas japonesas.

Podemos distinguir cuatro generaciones básicas de computadores: la primera


generación, con su hardware de tubos de vacío, como el célebre ENIAC, la segunda generación
(en torno a 1950), con su hardware de transistores, la tercera generación (en torno a 1960),
con hardware de circuitos integrados y, finalmente, la cuarta generación (a partir de 1975),
con circuitos integrados en muy amplia escala. Pues bien, a principios de los ochenta las
autoridades científicas japonesas anunciaron su decisión de financiar y trabajar en una “quinta
generación”, que estaría constituida por máquinas altamente inteligentes. Tal anuncio fue
recibido con entusiasmo por muchos informáticos y filósofos. Así, por ejemplo, Edward
Feigenbaum (un informático) y Pamela McCorduck (una filósofa) señalan, en The Fith
Generation: Artificial Intelligence and Japan´s Computer Challenge to the World (1983), que la
esencia de la revolución de los computadores consistirá en que la carga de producir el
conocimiento en el futuro será transferida de las cabezas humanas a las máquinas, es decir,
que los computadores se ocuparán de desarrollar el conocimiento sustituyendo a los
humanos. Sin embargo, en 1992 las autoridades científicas japonesas abandonaron el proyecto
de la quinta generación. Pues bien, para los pesimistas acerca del futuro de la inteligencia
artificial este abandono puede ser entendido como un ejemplo claro, proporcionado por los
pragmáticos japoneses, de que el campo de investigación en inteligencia artificial no tiene
mucho nuevo que ofrecer.
A su vez, también es posible una actitud conservadora y optimista, según la cual las
técnicas ya creadas permiten un progreso indefinido que alcanzará a los campos más diversos.
Este punto de vista aparece defendido con vigor por Herbert Simon en su trabajo “Teorías
computacionales de la cognición” (2001), donde sostiene que la inteligencia artificial puede
simular y ha simulado procesos del pensamiento humano no-numéricos, intuitivos,
perspicaces, creativos, propensos al error e incluso no-lógicos.

Finalmente cabe pensar que con nuevas técnicas podrán conseguirse nuevos
progresos. De hecho podemos referirnos, a título de ejemplos, a enfoques recientes de
notable interés.

En cuanto a los sistemas expertos o sistemas basados en conocimiento, un problema


habitual es el llamado “problema de adquisición del conocimiento”, es decir, la incorporación,
en la base de conocimiento del sistema, de las reglas que recojan de manera completa el
Adquisició
conocimiento del experto humano. En efecto, no es fácil reflejar fielmente en reglas la n del
conocimie
experiencia del experto humano, porque frecuentemente el experto no es capaz de explicitar
nto
de manera clara su propia experiencia; muy a menudo el experto toma sus decisiones llevado
de una intuición que no es fácil recoger en una o varias reglas. Sin embargo, entre 1985 y 1986,
Donald Michie e Ivan Bratko han desarrollado programas que permiten automatizar la
adquisición del conocimiento. Estos investigadores descubrieron que los expertos humanos,
aunque tienen dificultades para explicitar sus razonamientos, disponen de una gran facilidad
para identificar casos y ejemplos de una buena aplicación de su experiencia. En consecuencia,
Michie y Bratko decidieron utilizar un proceso automático de “inducción de reglas” como
método para descubrir las generalizaciones implícitas en tales casos y ejemplos.

Otra muestra de nuevo avance lo constituye el modelo computacional o programa


GENESIS, realizado en 1994 por Derek Partridge y Jon Rowe en la Universidad de Exeter (Reino
Unido). GENESIS es un acrónimo para “Generation and Exploration of Novel Emergent
Structures In Sequences” y su objetivo es dotar de creatividad a los computadores, frente a la
concepción habitual de que la creatividad es una cualidad exclusivamente humana. Los
detalles técnicos son complicados, aunque pueden seguirse con facilidad en la obra de ambos
Creatividad
autores Computers and Creativity (1994). El programa de Partridge y Rowe proporciona un
mecanismo de memoria emergente que exhibe comportamiento creativo, tanto al nivel de
análisis de datos (creatividad de input) como al nivel de producción de algo nuevo (creatividad
de output). Este mecanismo de memoria emergente se basa en la noción de fluidez
representacional implementada con un sistema multiagente, inspirado en la obra de Marvin
Minsky The Society of Mind (1985).

No sólo la creatividad sino también la afectividad está siendo incorporada a los


computadores, merced a ciertos cambios en la teoría de las emociones. En efecto, dentro
de la psicología cognitiva actual se defiende la idea de que los cambios fisiológicos son
una condición necesaria para la experiencia emocional, pero la especificidad de cada Afectividad
emoción depende de evaluaciones cognitivas, que hace el sujeto, del mundo externo así
como de su estado interno. Por tanto, la base fisiológica de las emociones, aunque sea
muy importante, no agota la descripción de las mismas, con lo que quizás sean posibles
emociones sin la base fisiológica. Tal es la revolucionaria idea de Rosalind Picard,
investigadora del Instituto Tecnológico de Massachusetts.
En su libro Affective Computing (1997), Picard propone dos tesis generales. En
primer lugar, es posible dotar a los computadores con emociones, con lo que el mundo
emocional, que parecía una diferencia entre humanos y máquinas, queda incorporado a éstas.
En segundo lugar, es deseable e incluso necesario construir computadores dotados de
emociones, a fin de que puedan relacionarse de manera más natural con sus usuarios
humanos, ya que nosotros poseemos emociones. Para Rosalind Picard, haciéndose eco de las
tesis actuales que señalan la interacción entre inteligencia y emoción8, si queremos
computadores realmente inteligentes debemos incorporarles emociones, puesto que las
emociones juegan un papel esencial en las funciones cognitivas, tales como percepción, toma
de decisiones o aprendizaje. Rosalind Picard reconoce que la computación emocional está en
sus comienzos y calcula que se necesitará al menos una década de trabajo investigador antes
de que veamos los primeros computadores con capacidad para relacionarse de forma
inteligente y emocional con sus usuarios. Con todo, esta investigadora presenta en su libro
citado programas de ordenador para reconocer hasta seis tipos de expresiones faciales de
emociones, así como programas para reconocer entonación vocal afectiva o patrones
fisiológicos de emociones.

Más recientemente, Cynthia Breazeal, también investigadora del Instituto


Tecnológico de Massachusetts, ha llevado más adelante las investigaciones en inteligencia
artificial emocional, tal como se presentan en su libro Designing Sociable Robots (2001).
Breazeal ha construido el robot Kismet, que consiste en una cabeza con cuello, controlada por
quince ordenadores. Esta cabeza consta de dos grandes ojos azules, cada uno con una cámara,
una nariz con otras dos cámaras, orejas con micrófonos, mandíbulas con labios y unas grandes
cejas. Kismet puede adoptar expresiones faciales, moviendo las cejas, labios y ojos,
expresando interés, desinterés, miedo o ira. Asimismo, también puede detectar, a través de las
pautas prosódicas del lenguaje que escucha, llamada de atención, aprobación y prohibición.
Finalmente, como Kismet es un robot que habla también su voz dispone de prosodia.

Por otra parte, el programa de investigación en redes neuronales artificiales también


ha proporcionado nuevas técnicas con aplicaciones de interés9.

Anteriormente señalamos las limitaciones de los computadores en el campo del


procesamiento del lenguaje natural. Precisamente la crítica clásica de Jerry Fodor y Zenon
Pylyshyn10 a la computación conexionista insiste en que el conexionismo no puede reflejar la
sistematicidad propia del lenguaje, es decir, la propiedad de que la capacidad de producir
/comprender algunas oraciones está intrínsecamente unida con la capacidad para producir
/comprender otras oraciones con forma relacionada. Por ejemplo, un sistema posee
sistematicidad si es capaz de producir “Paco quiere a Marianne” una vez que ha producido Procesamient
o del lenguaje
“Marianne quiere a Paco”. Sin embargo, tal como señala James Garson, en “Cognition without natural
Classical Architecture” (1994) se han creado redes neuronales que poseen dicha
sistematicidad. Así Servan-Schreiber y otros11 al igual que Jeffrey Elman12 han diseñado redes

8
Cf. Pascual F. Martínez-Freire, “El desafío de las emociones a las ciencias cognitivas” (2000).
9
Cf. Pascual F. Martínez-Freire, “El futuro de las máquinas pensantes” (1996), pp. 243-244.
10
Cf. Jerry Fodor y Zenon Pylyshyn, “Connectionism and cognitive architecture: A critical análisis”
(1988).
11
Véase “Encoding Semantical Structure in Simple Recurrent Nets” (1989).
12
Véase Representation and Structure in Connectionist Models (1989).
neuronales, denominadas “redes recurrentes entrenadas sintácticamente”, que son capaces
de manejar formas sofisticadas de procesamiento sintáctico. Servan-Schreiber entrenó una red
que podía distinguir muy bien entre cadenas de palabras mal formadas y cadenas de palabras
bien formadas gramaticalmente. A su vez, Elman entrenó una red que podía construir
correctamente cláusulas de relativo, como en la complicada frase inglesa “dogs who chase the
cat the girl feeds walk” (“los perros que persiguen al gato que la niña alimenta se pasean”).

También las redes neuronales artificiales ofrecen posibilidades para corregir las
limitaciones que señalamos antes en el reconocimiento de imágenes. Por ejemplo, Paul
Gorman y Terrence Sejnowski han desarrollado una red que ejecuta tareas de clasificación de Reconocimien
to de
objetos según la señal de retorno de un sonar13. Esta red no es un simple detector de rasgos imágenes
discretos, como ocurre en los programas clásicos, sino que al mismo tiempo construye un
modelo interno del ambiente.

Para terminar este muestrario de nuevas técnicas que posibilitan nuevos desarrollos
en inteligencia artificial, me referiré a las técnicas de “computación evolucionista”. Bajo este
rótulo se incluyen métodos variados inspirados en la evolución biológica, entre los que
destacan los algoritmos genéticos y, más recientemente, la programación genética. Los
algoritmos genéticos se deben a John Holland14. Un algoritmo genético transforma una
población de objetos individuales (cadenas de caracteres), cada uno con un valor asociado de
aptitud, en una nueva generación de la población, usando el principio darwinista de
supervivencia y reproducción del más apto, así como análogos de operaciones genéticas que
suceden de modo natural como recombinación sexual y mutación. El algoritmo genético
intenta encontrar la mejor solución a un problema procreando genéticamente la población de
individuos (cadenas de caracteres) que corresponda (a la solución buscada) a lo largo de varias
generaciones. A su vez, la programación genética se debe a John Koza15. Este informático se
plantea la cuestión de Arthur Samuel acerca de cómo pueden los computadores aprender a
resolver problemas sin ser programados explícitamente, y su respuesta es que haciendo
evolucionar los programas. Para ello se comienza con un cieno primordial (una base) de
programas de computador generados al azar compuestos de los ingredientes programáticos
disponibles; luego se procrea una población usando el principio darwinista de supervivencia
del más apto y un análogo de la operación genética de recombinación sexual. La programación
genética combina un eficiente procedimiento de resolución de problemas con
representaciones simbólicas poderosas y expresivas. Las aplicaciones de la técnica de Koza
alcanzan al aprendizaje, control, reconocimiento de patrones o clasificación.

5.- FILOSOFIA DE LA INTELIGENCIA ARTIFICIAL

13
Véase Maureen Caudill y Charles Butler, Naturally Intelligent Systems (1990), pp. 255-259.
14
Véase Adaptation in Natural and Artificial Systems (1975, 1992).
15
Véase Genetic Programming II (1994).
Tal como hemos visto, Turing diseñó matemáticamente los computadores antes de
que existiesen físicamente. Pero también se planteó la cuestión central de la filosofía de la
inteligencia artificial (¿puede pensar una máquina?) varios años antes de que existiese la
inteligencia artificial. En efecto, aunque la IA comenzó en 1956, Alan Turing planteó tal
cuestión en 1950, en su trabajo “Computing Machinery and Intelligence”.

Antes de considerar este trabajo, me parece conveniente hacer dos aclaraciones


previas. En primer lugar, parece que podemos hablar con fundamento de mentes mecánicas,
es decir, que los computadores tienen procesos mentales, ya que tienen al menos sensaciones
y recuerdos (entradas de información y memoria), que son procesos mentales. Además
frecuentemente realizan inferencias, con lo que entonces exhiben inteligencia, ya que la
inteligencia va unida a la capacidad de razonar o inferir. En segundo lugar, una vez admitido
que algunos computadores exhiben inteligencia, se trata de determinar si es una simple
apariencia engañosa (como cree Hubert Dreyfus), de una simulación bastante bien conseguida
(como cree John Searle), o de la posesión real de inteligencia (como cree Marvin Minsky).
Personalmente entiendo que algunos computadores adecuadamente programados tienen
realmente procesos inteligentes, aunque esto no los convierte en humanos ni a nosotros en
máquinas16.

Turing comienza su artículo señalando que la cuestión de si pueden pensar las


máquinas exigiría, en principio, definir previamente los términos “máquina” y “pensar”, lo
cual, podemos añadir, sería una tarea inabarcable ya que conduciría a una discusión filosófica
sin fin. Entonces, para evitar definir esos dos términos, nuestro autor propone un juego, que
denomina “juego de imitación”, el cual permite formular una cuestión inequívoca que es
equivalente, según Turing, a la cuestión (equívoca) inicial de si pueden pensar las máquinas.

El juego de imitación, en su primera forma, comprende tres jugadores: un hombre,


una mujer y un interrogador, que puede ser hombre o mujer. El interrogador no ve a los otros
dos jugadores (que pueden estar ocultos tras un biombo) e incluso, para el mejor
funcionamiento del juego, recibe sus respuestas escritas a máquina. El objeto del juego
consiste en que el interrogador acierte quién es el hombre y quién es la mujer, utilizando para
ello las respuestas de los dos jugadores a sus preguntas. Por otra parte, la dificultad del juego
estriba en que mientras que la mujer ayuda al interrogador en cambio el hombre trata de
engañarle; por ejemplo, si el interrogador pregunta a ambos jugadores si pueden dejarse la
barba, la mujer dirá que no puede pero el hombre mentirá y también dirá que no puede
dejarse la barba.

Ahora bien, Turing propone introducir en el juego la modificación consistente en


sustituir al hombre por una máquina. En esta nueva forma del juego de imitación tenemos,
pues, un interrogador (hombre o mujer), una mujer veraz y una máquina engañadora.
Entonces podemos plantearnos la cuestión de si el interrogador se equivoca ahora con la
misma frecuencia que cuando jugaba el hombre engañador. Tal es la cuestión inequívoca que,
según nuestro autor, equivale a la cuestión de si puede pensar una máquina. En suma, la

16
Véase mi La nueva filosofía de la mente (2002).
pregunta sobre si pueden pensar las máquinas equivale a la pregunta sobre si el interrogador
del juego de imitación se equivoca por igual ante un hombre engañador que ante una máquina
engañadora.

La respuesta del propio Turing es que dentro de unos cincuenta años (es decir, para
el año 2000, ya que su artículo es de 1950) será posible programar computadores con una alta
capacidad de memoria que jueguen tan bien el juego de imitación que un interrogador normal
será engañado por la máquina en el 30 % de los casos tras cinco minutos de interrogatorio.
Además, según Turing, a finales del siglo XX se hablará del pensamiento de las máquinas sin
que nadie se oponga a ello.

Pero debemos hacer algunos comentarios para comprender mejor el juego de


imitación en su versión final (también llamado “test de Turing”). Aunque nuestro autor
pretendía evitar, con su juego de imitación, discutir las nociones de máquina y de
pensamiento, lo cierto es que el propio juego asume de manera explícita una noción de
máquina y también asume, aunque de manera implícita, una noción de lo que es pensar.

En efecto, la máquina que interviene en el juego sustituyendo e imitando al hombre


no es una máquina cualquiera sino precisamente, como establece Turing, un computador
digital universal. Como tal computador digital consta de tres partes centrales: 1) unidad de
memoria, que es el depósito de la información, 2) unidad ejecutiva, que es la parte que realiza
las diversas operaciones, y 3) unidad de control, que es la parte que controla que las
operaciones se ejecuten correctamente y en el orden adecuado. Además de estas partes
centrales la máquina debe poseer (y ello es esencial para el juego) una unidad de entrada de
datos y una unidad de salida de datos. Por otra parte, un computador digital es una máquina
de estado discreto, es decir, que pasa de un estado bien definido a otro por un salto (y no de
modo continuo). Finalmente la máquina implicada en el test de Turing está dotada de
universalidad, esto es, puede imitar cualquier máquina de estado discreto, con lo cual puede
realizar procesos de computación muy distintos (que, en principio, precisarían máquinas
también distintas).

También es importante la noción de pensamiento implícita en el test de Turing. Tal


como se desarrolla el juego de imitación, el “pensamiento” de la máquina que sustituye al ser
humano supone comportarse como un humano en cuanto a dar muestras de las capacidades
de entender preguntas, dar respuestas e intentar engañar al interrogador. En suma, el test
indica que una máquina (computador digital universal) piensa si su conducta es comparable a
la de una persona hasta el punto de que el interrogador no distingue entre máquina y persona.

Mucho se ha discutido sobre si algún programa de computador ha superado o no el


test de Turing. Personalmente creo que, si no somos maximalistas, resulta claro que
numerosos programas de computador han superado el test de Turing. Sin maximalismos
debemos entender que el test se ha superado cuando la conducta del computador es
perfectamente comparable a la del humano y, en particular, cuando la tarea inteligente
cumplida por el computador es equiparable a la tarea inteligente realizada por el humano.
Puestas así las cosas, todos los sistemas expertos son casos de superación del test de Turing,
ya que cada uno de ellos realiza tareas inteligentes comparables a las de los expertos humanos
correspondientes. Y lo mismo cabe decir de los computadores con programas para demostrar
teoremas o para jugar al ajedrez, que realizan tareas inteligentes equiparables a las humanas.

El filósofo inglés, establecido en Nueva Zelanda, Jack Copeland, en su libro Artificial


Intelligence (1993), menciona un par de casos en los que se ha informado de la superación del
test de Turing, aunque el propio Copeland no cree que se haya producido tal superación17.
Ambos casos se refieren a programas clásicos y famosos en inteligencia artificial : ELIZA y
PARRY.

ELIZA fue diseñado por Joseph Weizenbaum en 196518. El programa permite la


conversación (mediante teclado y pantalla) entre la máquina, a la que se atribuye el papel de
un psicoterapeuta, y un usuario humano, que se supone que tiene problemas psicológicos. En
realidad, el programa no pretende curar al humano de sus dolencias psíquicas, sino
únicamente permitirle que se explaye hablando de sus problemas (cosa a la que muy
probablemente se limitan la mayoría de los psicoterapeutas, cabría añadir). En todo caso el
programa sigue bastante bien el hilo de la conversación e incluso hace alguna observación
ocurrente. Pues bien, en 1968 Daniel Bobrow informó de que cierto ejecutivo, al intentar
comunicarse con un programador a través de un computador (donde casualmente estaba
instalado ELIZA), confundió el programa informático con el programador humano. Según
Bobrow ELIZA superó entonces el test de Turing, ya que fue confundido con un humano.

A su vez, PARRY fue creado por Kenneth Colby y su equipo19. Este programa simula
un paranoico, obsesionado por las carreras de caballo y que se siente perseguido por la Mafia.
También es posible comunicarse con el programa a través de teclado y pantalla. Pues bien, en
1980 Colby y otros colegas informaron de que el programa PARRY había superado el test de
Turing. Cinco psiquiatras profesionales se entrevistaron, a través de terminales de teletipo, con
el programa PARRY y con un paranoico humano, a fin de decidir quién era el humano y quién
era el programa informático; en la mitad de las ocasiones los psiquiatras confundieron a PARRY
con un humano.

Así como estos casos célebres pueden ser aludidos en defensa de la existencia de
máquinas realmente inteligentes, en cambio los que rechazan tal existencia pueden aludir al
hecho de que el Premio Loebner nunca se ha concedido hasta ahora. En 1991 se convocó por
primera vez este premio, creado por el filántropo y hombre de negocios neoyorquino Hugh
Loebner, para conceder cien mil dólares al autor de un programa de computador que superara
un test de Turing. El premio se convoca anualmente y es gestionado por el Cambridge Center
for Behavioral Studies. Ahora bien, el test de Turing a superar es un test sin restricciones
(unrestricted), en el sentido de que el programa debe mantener conversaciones con los jueces
(en inglés, claro) sobre cualquier tema (el tiempo, la compra de comida o la salud), con lo que
los programas expertos no son admitidos. Sin embargo, debe observarse que si el criterio para
poseer pensamiento es ser capaz de hablar de todo, me temo que muchas personas no
piensan.

17
Jack Copeland, Inteligencia artificial (1996), pp. 72-78.
18
Véase “ELIZA. A Computer Program for the Study of Natural Language Communication between Man
and Machine” (1965).
19
Véase K. Colby, S. Weber y F. D. Hilf, “Artificial Paranoia” (1971).
El mayor y más perseverante crítico de la inteligencia artificial es el filósofo
americano Hubert Dreyfus. Ya en 1965 publicó su trabajo “Alchemy and Artificial Intelligence”.
En 1972 apareció su libro What Computers Can´t Do, obra que tuvo una edición revisada en
1979. En 1986 volvió a la carga al publicar con su hermano Stuart Dreyfus el libro Mind over
Machine. En 1992 ha vuelto a insistir en sus críticas en una nueva edición de su libro anterior
titulada What Computers Still Can´t Do. Más tarde ha seguido manteniendo sus tesis en
“Response to my critics” (1996).

Hubert Dreyfus rechaza no sólo que los computadores realmente piensen sino
también que puedan simular de manera adecuada la inteligencia humana. Sus críticas a la
inteligencia artificial se desarrollan en dos líneas de argumentación. Por un lado, pone de
relieve la falsedad de las asunciones o supuestos subyacentes, según él, a la inteligencia
artificial. Por otro lado, destaca los caracteres específicos de los seres humanos que jamás
podrán ser imitados por las máquinas.

En cuanto a las falsas asunciones de la inteligencia artificial, Dreyfus denuncia


cuatro asunciones que considera que están en la base de la investigación en IA: la
biológica, la psicológica, la epistemológica y la ontológica. La asunción biológica se
refiere al cerebro, y consiste en la creencia (que según Dreyfus tienen los investigadores
de IA) de que el cerebro procesa la información en operaciones discretas mediante
algún equivalente biológico de los interruptores de encendido o apagado. La asunción
psicológica se relaciona con la mente, y sostiene que la mente puede considerarse como
un mecanismo que opera sobre unidades de información según reglas formales. La
asunción epistemológica afecta al conocimiento, y defiende que todo conocimiento
puede ser formalizado, es decir, que todo lo que puede ser comprendido puede
expresarse en términos de relaciones lógicas. Finalmente, la asunción ontológica se
refiere al mundo, y presupone que toda la información relevante acerca del mundo tiene
que ser analizable como un conjunto de elementos determinados independientes de la
situación.
Para Hubert Dreyfus, estas cuatro asunciones son consideradas por los científicos de
inteligencia artificial como algo autoevidente, como auténticos axiomas, pero en realidad sólo
son meras hipótesis y además cuestionables. Para empezar, la asunción biológica de que el
cerebro tiene que funcionar como un computador digital no se ajusta a la evidencia. En cuanto
a la asunción psicológica, Dreyfus señala que el procesamiento de información humano y el
mecánico proceden de maneras enteramente distintas. Y en cuanto a las asunciones
epistemológica y ontológica, que conjuntamente pretenden que toda la conducta humana es
analizable en términos de reglas (lógicas) que relacionan hechos atómicos, para nuestro autor
la formalización de contextos restringidos en IA es una solución “ad hoc” que no resuelve el
problema de cómo formalizar la totalidad del conocimiento humano presupuesto en la
conducta inteligente.

Como comentario personal, creo que Dreyfus no tiene en cuenta las diversas
matizaciones que los distintos científicos de IA realizan según su particular línea de
investigación. Por ejemplo, hay científicos de IA muy proclives a la lógica (como McCarthy) y
otros menos proclives (como Minsky). Por otra parte, al determinar si una máquina es o no
inteligente la comparamos con la inteligencia humana, del mismo modo que al determinar si
un avión vuela o no lo comparamos con el vuelo de los pájaros. Pues bien, de la misma manera
que no parece razonable decir que un avión no vuela porque no lo hace como un pájaro,
tampoco parece razonable decir que una máquina no piensa porque no lo hace como un
humano.

En cuanto a los caracteres específicos de los seres humanos que no pueden ser
simulados por las máquinas, Dreyfus destaca tres aspectos que han sido, según él, descuidados
por los científicos de la inteligencia artificial, a pesar de que parecen subyacer a toda conducta
inteligente. Tales aspectos son: 1) el papel del cuerpo en la organización y unificación de
nuestra experiencia de los objetos, 2) el papel de la situación en que nos encontramos para
proporcionar una trastienda (background), merced a la cual la conducta puede ser ordenada
sin ser (rígidamente) regulada, y 3) el papel de los propósitos y necesidades humanas para
organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y
accesibles para nosotros.

Hubert Dreyfus recurre a filósofos como Martin Heidegger (1889-1976), Maurice


Merleau-Ponty (1908-1961) y Ludwig Wittgenstein (1889-1951) para apoyar su concepción del
hombre como una realidad inserta en una situación, determinada por el cuerpo, y sujeta a
propósitos y necesidades20. Desde esta visión del hombre, la diferencia entre la inteligencia
mecánica y la inteligencia humana se revela como fundamental. La inteligencia artificial
abstrae los hechos con los que trabaja de la situación en la que están organizados e intenta
usar los resultados para simular conducta inteligente. Pero estos hechos tomados fuera de
contexto (fuera de la situación, cabe precisar) constituyen una masa difícilmente manejable de
datos neutrales. Además los objetivos y necesidades humanas tienen un carácter
indeterminado, con lo que no pueden ser simulados en una máquina digital cuyo único modo
de existencia es una serie de estados determinados. Por ello, concluye Dreyfus, la inteligencia
artificial, en cuanto pretende simular la inteligencia natural o humana, está condenada al
fracaso.

Por otra parte, en Mind over Machine (1986), Hubert Dreyfus y el informático Stuart
Dreyfus (su hermano) evalúan los resultados de la inteligencia artificial, considerando que esta
investigación ha cumplido pocas de sus promesas y ha fracasado en proporcionar evidencias
de que algún día cumplirá sus proyectos. El libro se ocupa de modo especial del análisis de los
sistemas expertos, gracias a los cuales un computador dotado del programa adecuado puede
imitar a un experto humano (químico, matemático, médico, geólogo o perito de seguros), pero
los autores concluyen que los computadores no pueden igualar la intuición y pericia humanas.
Para los Dreyfus, los computadores pueden lograr un saber que (know that) pero no alcanzan
el saber cómo (know how). Es decir, los computadores pueden saber y argumentar sobre
hechos, que son determinados, y siguiendo reglas fijas, pero no alcanzan el saber cómo
resolver problemas de manera holística (globalizadora, podemos decir) e intuitiva. Por ello,
según ellos, sería una auténtica estupidez confundir el sentido común, sabiduría y juicio
maduro del experto (humano) con la inteligencia artificial actual.

20
Dreyfus podría haber recurrido también a José Ortega y Gasset (1883-1955), para quien se da una
implicación entre el yo y su circunstancia. José María Atencia, en “Inteligencia artificial y pensamiento
humano” (2000) compara las tesis de Ortega con las realizaciones de la IA.
También podemos referirnos a las nuevas observaciones que ofrece Hubert Dreyfus
en What Computers Still Can´t Do (1992), nueva edición del libro What Computers Can´t Do
(1972 y 1979).

Nuestro autor acepta la distinción establecida por John Haugeland (y que antes
consideramos) entre GOFAI o inteligencia artificial clásica y otras posibles alternativas en
inteligencia artificial. Pues bien, el dictamen de Dreyfus es que GOFAI constituye un caso
paradigmático de programa de investigación degenerante, y que otras alternativas dentro de
la inteligencia artificial (como los trabajos en redes neuronales artificiales, o el aprendizaje por
refuerzo), aunque más interesantes y prometedoras que la inteligencia artificial clásica, no
parece que puedan simular de modo adecuado la inteligencia humana.

Un programa de investigación degenerante, en la terminología del filósofo de la


ciencia Imre Lakatos (1922-1974), es una empresa científica que comienza con grandes
promesas al tiempo que ofrece un nuevo enfoque que conduce a resultados impresionantes
en un dominio limitado; a continuación, los investigadores intentan aplicar ese nuevo enfoque
a nuevos dominios o campos y, en la medida en que se producen éxitos, el programa de
investigación se expande y atrae seguidores; sin embargo, en algún momento surgen
fenómenos inesperados e importantes que se resisten a las técnicas del programa y,
finalmente, éste se estanca, provocando el abandono de los investigadores en cuanto surge
algún enfoque alternativo. Tal es, según Dreyfus, la historia de GOFAI, es decir, de la
inteligencia artificial clásica preconizada por Newell, Simon y Minsky, entre otros.

Nuestro filósofo sostiene que este fracaso de GOFAI fue previsto por él desde 1965,
al señalar que nuestro sentido de la relevancia es holístico (globalizador) y que requiere
compromiso con la actividad en marcha, mientras que las representaciones simbólicas, propias
de GOFAI, son atomísticas y totalmente separadas de tal actividad. Por otra parte, añade
Dreyfus, la degeneración del programa de la inteligencia artificial clásica se completó con la
llegada triunfante de los revolucionarios de las redes neuronales o conexionistas. Recordemos
que el conexionismo sostiene que existen unos elementos muy simples de computación
(neurodos o neuronas artificiales) y que las computaciones complejas se realizan mediante
redes de esos elementos simples conexionados de manera masivamente paralela. Un
programa conexionista imita el cerebro humano o, más exactamente, las redes de neuronas
naturales, y por ello procesa la información en paralelo y no, como en GOFAI, de modo serial o
secuencial.

Hubert Dreyfus se muestra muy interesado en recoger la contraposición entre IA


conexionista e IA clásica presentada por Paul Smolensky21, según la cual mientras en los
sistemas clásicos el conocimiento es codificado en estructuras simbólicas, en cambio en los
sistemas conexionistas el conocimiento es codificado en los patrones de las fuerzas numéricas
de las conexiones entre los procesadores. En efecto, tal idea parece encajar con la tesis de
Dreyfus de que los computadores, en cuanto sistemas simbólicos físicos, no pueden simular la
inteligencia. Y sin embargo, tampoco el enfoque conexionista, según nuestro autor, ofrece
éxitos que puedan generalizarse como una simulación adecuada de la inteligencia humana, ya

21
Cf. Paul Smolensky, “Connectionist AI, Symbolic AI, and the Brain” (1987).
que en última instancia el problema de simular el sentido común humano tampoco se resuelve
en esta nueva tendencia de la inteligencia artificial.

Por otra parte, tampoco la aproximación de aprendizaje por refuerzo22 consigue,


según Dreyfus, simular adecuadamente la inteligencia humana. Los teóricos del aprendizaje
por refuerzo intentan diseñar sistemas que aprendan por sí mismos cómo enfrentarse con el
ambiente y cómo modificar sus propias respuestas conforme cambia el ambiente. Sin
embargo, según nuestro filósofo, una máquina de aprendizaje por refuerzo no consigue
dominar el problema de todo lo que es relevante en cada situación. En cambio, los seres
humanos disponen de necesidades, deseos e incluso emociones que les proporcionan de
modo directo el sentido de lo que es apropiado para cada conducta.

Para terminar con las críticas de Dreyfus contenidas en What Computers Still Can´t
Do (1992), me referiré a su veredicto acerca del futuro de la inteligencia artificial. Previamente
nuestro autor distingue cuatro tipos diferentes de actividad inteligente: 1) asociacionista, 2)
formal simple, 3) formal compleja, y 4) no-formal. En la actividad inteligente asociacionista
tanto la situación como el significado son irrelevantes, tratándose de una actividad innata o
aprendida por repetición; su campo de actividad son los problemas de laberinto (ensayo y
error) o también la traducción palabra a palabra. A su vez, en la actividad inteligente formal
simple hay significados explícitos aunque independientes de la situación, siendo una actividad
aprendida mediante reglas; su campo de actividad son los juegos computables (o casi
computables) o bien la prueba de teoremas. En la actividad inteligente formal compleja
también hay significados explícitos pero dependientes de una situación interna, tratándose de
una actividad aprendida tanto mediante reglas como por la práctica; su campo de actividad
son los juegos no computables, como el ajedrez23, o el reconocimiento de patrones complejos
de ruido. Finalmente, la actividad inteligente no-formal es dependiente de significados y
situaciones que no están explícitos, siendo una actividad aprendida mediante ejemplos
destacados; su campo de actividad son los juegos mal definidos, como los acertijos, o traducir
un lenguaje natural (incluyendo la comprensión del contexto de uso).

Para Dreyfus, el primer tipo de actividad inteligente es la propia de los psicólogos de


estímulo-respuesta (conductistas), el segundo tipo es el dominio del esprit de géometrie del
filósofo y matemático del siglo XVII Blaise Pascal (las capacidades deductivas, podemos aclarar)
mientras que el cuarto tipo corresponde al esprit de finesse de Pascal (penetración intuitiva,
podemos precisar). Por otra parte, la inteligencia artificial, según nuestro autor, posee
programas para el primer tipo de actividad inteligente, como árboles de decisión o búsqueda
de listas, también para el segundo tipo, donde dispone de algoritmos (y por ello es el terreno
más favorable para la IA), con lo que los dos primeros tipos de actividad inteligente
(asociacionista y formal simple) son sumisos a la simulación por computador. En cambio, el
tercer tipo (formal complejo) sólo es en parte programable, mediante heurística de poda de

22
Véase el número especial de mayo de 1992 de Machine Learning, con trabajos de R. J. Williams
(refuerzo o recompensa inmediata) y G. Tesauro (recompensa retrasada), entre otros.
23
Sorprende que Dreyfus considere el ajedrez como un juego no computable. Lo cierto es que poco antes
de la primera edición de su libro What Computers Can´t Do (1972), nuestro filósofo se enfrentó al
programa de ajedrez MacHack (de Richard Greenblatt) y fue derrotado. En Machines Who Think (1979)
de Pamela McCorduck pueden encontrarse varios comentarios irónicos sobre esta derrota de Dreyfus por
un computador.
búsqueda, mientras que para el cuarto tipo (no-formal) no hay programa alguno. En suma, el
veredicto de Hubert Dreyfus sobre el futuro de la inteligencia artificial apunta que la
inteligencia humana nunca podrá ser simulada en su totalidad.

En 1996, en “Response to my critics”, Hubert Dreyfus mantiene sus puntos de vista


al responder a cinco trabajos críticos24 sobre su obra en filosofía de la inteligencia artificial.
Acepta que GOFAI (la inteligencia artificial clásica) es más compleja de lo que él supuso,
consistiendo del programa clásico de Newell y Simon, del trabajo de ciertos ingenieros no
preocupados por la inteligencia humana, y de investigadores que combinan técnicas simbólicas
y técnicas conexionistas. Pero sigue insistiendo en que el sentido común no es susceptible de
simulación, y sigue permaneciendo escéptico tanto respecto de GOFAI como respecto de las
redes neuronales artificiales.

Como observación final me parece que Dreyfus tiene razón al señalar que la
inteligencia humana es distinta de la inteligencia mecánica, y también tiene razón al indicar
que la inteligencia humana no siempre sigue algoritmos o procesos fijos y ordenados de
razonamiento. Pero la cuestión es si los computadores (adecuadamente programados)
razonan o tienen inferencias, y la respuesta es obviamente positiva, frente a Dreyfus.

Otro de los críticos clásicos de la inteligencia artificial es Joseph Weizenbaum, quien


nació en Berlín, emigró en 1936 a los Estados Unidos y trabajó en el Instituto Tecnológico de
Massachusetts. En 1976 publicó Computer Power and Human Reason, traducida al castellano
como La frontera entre el ordenador y la mente. Mientras las críticas de Hubert Dreyfus
fueron, en general, recibidas con desprecio por los investigadores de inteligencia artificial,
quienes consideraban que Dreyfus era ajeno e ignorante del campo de investigación que
criticaba, en cambio esta actitud de desprecio hacia un extraño no fue posible en el caso de
Weizenbaum, ya que éste había hecho notables aportaciones a la inteligencia artificial, por lo
que, en general, sus críticas fueron recibidas como las de un traidor. En efecto, entre otros
trabajos, este informático creó el programa ELIZA (del cual hablamos anteriormente) que
comunicaba a un psicoterapeuta, papel atribuido a la máquina, con cualquier humano con
problemas psicológicos.

En Computer Power and Human Reason, Weizenbaum sostiene la tesis general de


que el ser humano no es una máquina y, aunque ciertamente procesa información, no lo hace
necesariamente como un computador. De donde podemos concluir, siguiendo a nuestro autor,
que ningún computador podrá simular de modo completo y adecuado la inteligencia humana o
natural.

De manera más detallada, Weizenbaum pone de relieve que la inteligencia en sí


misma (en general) es un concepto sin sentido, siendo preciso un punto de referencia, la
especificación de un dominio de pensamiento y acción, para que adquiera significado. Por ello
al hablar de “inteligencia” debemos hacer explícito el dominio de pensamiento y acción que
hace inteligible tal término; hablar de inteligencia absoluta (y no relativa a una tarea, podemos

24
Entre ellos uno del filósofo John Haugeland y otro del informático John McCarthy.
añadir) lleva al debate estéril acerca de si es posible o no construir computadores más
inteligentes que el ser humano. Para responder, cabe comentar, será preciso tener en cuenta
tareas concretas. Como dice nuestro autor, los computadores derrotan a los campeones de
ajedrez y resuelven grandes sistemas de ecuaciones, pero son incapaces de cambiar el pañal
de un niño.

Es interesante advertir que esta tesis de Weizenbaum de que no tiene sentido hablar
de inteligencia absoluta o general ha sido confirmada posteriormente por los estudios
psicológicos de Howard Gardner. Efectivamente este psicólogo, desde su obra Frames of Mind
(1983), insiste en la idea de que no hay una inteligencia en general, sino inteligencias
múltiples. Las más destacadas son siete. En primer lugar, las llamadas “inteligencias
académicas” (ya que son las que habitualmente miden los tests de inteligencia), que son la
inteligencia lógico-matemática y la lingüística. Luego tenemos la inteligencia musical, la
cinético-corporal (propia del bailarín o del tenista) o la espacial (propia del pintor o del
navegante). Y finalmente las llamadas “inteligencias personales”, que son la intrapersonal,
característica de quien domina sus emociones, y la interpersonal, característica de quien sabe
captar las intenciones y deseos de los demás. Me parece evidente que esta riqueza de
inteligencias es propia de los humanos y que los computadores están muy lejos de ellas (en
particular, de la inteligencia cinético-corporal, de la espacial y de las personales).

Weizenbaum señala algunas limitaciones de los computadores que contrastan con


las específicas capacidades del saber humano. En primer lugar, el poder de los computadores
para obtener conocimiento a partir del lenguaje natural que se les proporciona se limita a una
mínima parte de conocimiento importante, siendo en esto un computador inferior a un niño
de dos años; podemos añadir que el computador no tiene la alta capacidad de “leer entre
líneas” típica de los humanos. En segundo lugar, el ser humano dispone de conocimientos que
adquiere en virtud de poseer un cuerpo humano y que ningún organismo, incluido por
supuesto un computador, que carezca de tal cuerpo llegará a adquirirlos de la misma forma.
(Recordemos que Dreyfus también insistía en la peculiaridad humana derivada de la posesión
de su cuerpo). En tercer lugar, hay ciertos hechos que el individuo humano logra saber
únicamente como consecuencia de haber sido tratado por sus semejantes; aún admitiendo
que un computador desarrolle un sentido de sí mismo y sea capaz de modificarse por sus
experiencias, la socialización humana permanecerá como necesariamente distinta a la
socialización de la máquina25.

Asimismo, Weizenbaum observa que el contenido de la información de un mensaje


no es sólo una función del mensaje sino que también depende, y de modo fundamental, del
estado de conocimiento y de las expectativas de quien recibe el mensaje. Así, el mensaje
“Llego en el avión de las siete. Con amor. Bill” tiene un contenido informativo distinto para la
esposa de Bill, quien sabía que regresaba aunque no en qué avión (y que supone el amor de
Bill), del contenido informativo que tiene para la persona (se supone conocida de Bill) que no
sabía que llegaba y que se ve sorprendida por su declaración de amor. Ello quiere decir que el
lenguaje humano incluye la historia de quienes lo utilizan, e incluso la historia de la sociedad y
de la humanidad entera. En cambio, el lenguaje de los computadores es sólo funcional (sin

25
Aunque Internet es un caso claro de socialización (e incluso de socialización mundial) de los
computadores, es muy distinta de la socialización humana.
historia, podríamos decir), identificando hechos y palabras únicamente con las metas
inmediatas que han de lograrse o con los objetos que deben transformarse.

Pues bien, estos cuatro tipos de limitaciones, según Weizenbaum, no sólo son
limitaciones técnicas de los computadores, sino que además indican la diferencia entre ser un
ser humano y ser un computador. En resumen, podemos concluir, para nuestro autor, aunque
humanos y computadores procesen información, lo hacen de modos diferentes.

El filósofo americano John Searle (de la Universidad de California en Berkeley, al


igual que Hubert Dreyfus), en su trabajo “Minds, Brains, and Programs” (1980), presenta un
ingenioso argumento, el experimento mental de la habitación china, para mostrar que es
posible superar el test de Turing (es decir, comportarse como si se pensase) y sin embargo no
pensar realmente.

Para empezar, Searle distingue entre inteligencia artificial débil e inteligencia


artificial fuerte. La primera se caracteriza por considerar los computadores como poderosos
instrumentos para el estudio de la mente que nos permiten formular y comprobar hipótesis de
un modo riguroso y preciso. En cambio, la inteligencia artificial fuerte considera los
computadores como más que instrumentos en el estudio de la mente, ya que sostiene que un
computador programado de manera adecuada posee realmente una mente al poder
literalmente pensar y tener otros estados cognitivos (como sensaciones o recuerdos). Searle
no pone objeciones a la inteligencia artificial débil, es decir, podemos añadir, al empleo de los
computadores como un recurso instrumental y conceptual para la comprensión de la mente,
pero ataca enérgicamente la pretensión de la inteligencia artificial fuerte de que los
computadores realmente piensan.

Para nuestro filósofo, los partidarios de la inteligencia artificial fuerte defienden que,
en un diálogo entre un ser humano y un computador, la máquina no sólo está simulando una
capacidad humana sino que también puede decirse que la máquina literalmente comprende y
que lo que hace la máquina explica la capacidad humana de comprensión. Para refutar tal
pretensión Searle presenta el siguiente experimento mental (o imaginado) que denomina
argumento de la habitación china.

Supongamos que un hombre, que no sabe nada de chino aunque sí domina el inglés,
está encerrado en una habitación. Este hombre dispone de instrucciones en inglés para
manejar listas de símbolos (frases) en chino, teniendo en cuenta solamente las formas de los
símbolos, y de tal manera que puede hacer corresponder a una lista de símbolos (frase) otra
lista (frase) que es la respuesta adecuada de la primera. En estas condiciones, cuando recibe
(por ejemplo, a través de una ventana) una lista de símbolos en chino, consulta su libro de
instrucciones, averigua la lista que corresponde a la proporcionada, la busca y la entrega (por
ejemplo, a través de la misma ventana o de otra). Para un observador externo de la habitación,
las respuestas del hombre encerrado a las preguntas en chino no se distinguen de las que daría
un hablante chino.
Por ejemplo, supongamos que se le entrega una lista de símbolos en chino que
quiere decir “¿quién fue el primer presidente de la República Popular China?”; entonces el
hombre encerrado consulta su libro de instrucciones y encuentra que a esa lista de símbolos
en chino corresponde otra lista de símbolos en chino que justamente significa “Mao Tse-tung”,
aunque él no sabe el significado de ninguna de esas listas sino que las hace corresponder
según las formas de los símbolos siguiendo el libro de instrucciones; el hombre busca la lista en
cuestión y la entrega al exterior de la habitación.

Según Searle, un computador se comporta exactamente igual que el hombre


encerrado en la habitación china, es decir, da la impresión de pensar y comprender pero, en
realidad, se limita a manipular símbolos formales que no comprende. El hombre encerrado en
la habitación china se comporta como si pensase en chino y, sin embargo, es incapaz de pensar
en chino. Análogamente un computador da la impresión de que piensa y, sin embargo,
realmente no piensa, ya que se limita a una manipulación de símbolos formales sin significado
alguno, porque sus símbolos sólo tienen sintaxis (es decir, relaciones de orden entre ellos)
pero no semántica (esto es, no tienen relaciones con significado alguno).

Para John Searle, la única máquina que puede pensar es el cerebro. Sobre esta idea
vuelve en su artículo “Minds and Brains Without Programs” (1987), donde resume sus puntos
de vista en una serie de “axiomas” y conclusiones derivadas, de las que destacaré las más
importantes. El primer axioma establece que los cerebros causan las mentes, con lo que para
nuestro autor queda excluida de entrada cualquier mente mecánica (ya que los computadores
no tienen neuronas). El segundo axioma defiende que la sintaxis no es suficiente para la
semántica, marcando así una radical distinción entre el nivel formal y el nivel de los
significados. El tercer axioma señala que las mentes tienen contenidos, específicamente
contenidos intencionales o semánticos. A su vez, como contrapunto al anterior axioma, el
cuarto defiende que los programas (de computador) se definen de manera puramente formal
o sintáctica.

De tales axiomas, que Searle considera puntos obvios (y que más adelante criticaré),
extrae algunas conclusiones. De ellas la más relevante es la siguiente: instanciar un programa
(es decir, ser un caso de ejecución de un programa) no es nunca por sí mismo suficiente para
tener una mente. Tal conclusión, según nuestro filósofo, refuta la inteligencia artificial fuerte,
esto es, la pretensión de que las máquinas tienen mente.

El argumento de la habitación china de John Searle ha sido ampliamente comentado


y discutido. Me limitaré a exponer las respuestas de Rapaport y de los esposos Churchland, así
como algunas observaciones críticas personales.

El informático y filósofo William Rapaport, en su trabajo “Syntactic semantics:


Foundations of computational natural-language understanding” (1988), corrige el argumento
de la habitación china exponiendo una variación que denomina “argumento de la habitación
coreana” (aunque en realidad aquí no hay habitación alguna). Supongamos un catedrático
coreano de literatura inglesa en la Universidad de Seúl que no comprende el inglés, ni hablado
ni escrito26, pero que no obstante es una autoridad mundial en Shakespeare. Esta autoridad la
ha alcanzado porque ha leído a Shakespeare en excelentes traducciones coreanas, porque ha
escrito varios artículos en coreano sobre el literato inglés, y porque estos artículos han sido
traducidos al inglés por otras personas y publicados en revistas eruditas famosas, habiendo
sido recibidos con gran éxito.

Para Rapaport, la situación del catedrático coreano respecto de la obra de


Shakespeare es comparable a la situación del hombre encerrado en la habitación respecto del
chino. La cuestión ahora es si el catedrático coreano “comprende” a Shakespeare y la
respuesta es obviamente afirmativa (ya que no se puede ser una autoridad mundial en un
literato y no comprenderlo), de tal manera que el profesor coreano comprende algo. De modo
similar, según Rapaport, el hombre encerrado en la habitación comprende algo. Podemos
añadir que, aunque ni el profesor coreano comprende el inglés ni el hombre encerrado en la
habitación comprende el chino, ambos comprenden algo, el uno a Shakespeare y el otro cómo
relacionar listas de símbolos chinos (aunque Rapaport va más lejos que yo, insistiendo en que
el hombre de la habitación comprende chino). Por tanto, podemos concluir la existencia de
inteligencia artificial, aunque personalmente dudo que tal inteligencia iguale, en el caso de la
comprensión del lenguaje natural, a la inteligencia humana.

En un trabajo posterior, titulado “How to pass a Turing test” (2000), Rapaport insiste
en su idea de una semántica sintáctica como una manera de comprender cómo los
computadores pueden pensar y cómo superar el argumento de la habitación china. En
particular defiende que la semántica puede convertirse en sintaxis, con lo que, contra Searle,
la manipulación de símbolos puede bastar para la empresa semántica.

A su vez, los esposos canadienses-americanos Paul y Patricia Churchland, en su


artículo conjunto “Could a machine think?” (1990), también critican el argumento de la
habitación china. La tesis general de estos filósofos es que la inteligencia artificial clásica tiene
dificultades para crear máquinas que piensen, pero que, en cambio, la nueva inteligencia
artificial inspirada en la estructura cerebral humana (IA conexionista) puede crear máquinas
que piensen. Recordemos que la inteligencia artificial clásica concibe los computadores como
máquinas manipuladoras de símbolos, de acuerdo con reglas sensibles a estructuras formales,
y que trabajan de manera serial o secuencial; en cambio, la inteligencia artificial conexionista
concibe los computadores como máquinas de procesamiento masivamente paralelo, que
imitan el funcionamiento de las redes neuronales del cerebro.

Para Paul y Patricia Churchland, si analizamos la estructura del cerebro encontramos


tres rasgos que contrastan con la arquitectura de los computadores clásicos. Para empezar el
sistema nervioso es una máquina paralela, es decir, las señales se procesan en millones de
sendas diferentes de modo simultáneo. En segundo lugar, la unidad de procesamiento básico,
la neurona, es comparativamente simple y su respuesta a las señales que recibe es análoga, no
digital, en la medida en que varía de modo continuo27. Y en tercer lugar, las conexiones que

26
Que un catedrático de literatura inglesa no sepa inglés es evidentemente algo imaginario.
27
Debemos matizar esta observación. En las neuronas rige la ley del todo o nada, es decir, el potencial de
acción se da o no se da. Pero ese darse o no darse en cada neurona varía según las diferentes sinapsis
excitatorias o inhibitorias en cada momento.
van de una población de neuronas a otra se emparejan a menudo con conexiones de retorno,
haciendo así del cerebro un sistema dinámico genuino.

Nuestros autores son partidarios del desarrollo de una inteligencia artificial que
explote nuestro conocimiento del funcionamiento del cerebro, sin descartar por ello la
existencia de máquinas clásicas, que son útiles para ciertas tareas. En efecto, señalan, una
arquitectura paralela, en vez de serial, proporciona una superior velocidad en comparación
con un computador clásico, ya que las muchas conexiones en distintos niveles ejecutan
simultáneamente muchas computaciones. Además, el paralelismo masivo hace al sistema
tolerante con los fallos y persistente en su función, puesto que la pérdida de algunas
conexiones tiene un efecto despreciable en la transformación general ejecutada por la red.
Asimismo un sistema paralelo almacena cantidades amplias de información de una manera
distribuida, siendo así accesible cada una en milisegundos.

Los Churchland destacan que una máquina conexionista no es un sistema


manipulador de símbolos según reglas formales. Sin embargo, la crítica de Searle contenida en
su argumento de la habitación china va dirigida contra las máquinas manipuladoras de
símbolos, que se comparan (recordemos) con el hombre encerrado en la habitación, que se
limita a manipular listas de símbolos chinos. Al margen de que los sistemas manipuladores de
símbolos puedan generar significados (lo cual es rechazado tajantemente por Searle, mientras
que los Churchland admiten tal posibilidad), en todo caso la inteligencia artificial conexionista,
imitadora del cerebro humano, promete crear máquinas con auténtico pensamiento según la
opinión de nuestros autores.

John Searle, en el mismo número de Scientific American donde se publicó el artículo


conjunto de Paul y Patricia Churchland que acabamos de exponer y comentar, intenta
responder a la observación de éstos de que su crítica afecta a la inteligencia artificial clásica
pero no a la inteligencia artificial conexionista. En efecto, en “Is the brain´s mind a computer
program?” (1990), sostiene que un sistema conexionista está sujeto a una variante de la
habitación china que denomina el “gimnasio chino”. Supongamos que, en lugar de una
habitación china, tenemos un gimnasio chino, es decir, una sala que contiene muchos hombres
que hablan sólo inglés. Estos hombres, sigue Searle, llevarían a cabo las mismas operaciones
que los nodos (neuronas artificiales) y sinapsis en una arquitectura conexionista, y el resultado
sería el mismo que con un solo hombre manipulando símbolos según un libro de instrucciones.
Nadie en el gimnasio habla chino, pero con los ajustes apropiados el sistema podría dar las
respuestas correctas a las preguntas en chino.

Creo que caben dos objeciones a este nuevo argumento del gimnasio chino. En
primer lugar, Searle no detalla cuáles serían esos ajustes apropiados para que los hombres del
gimnasio fuesen comparables a una red conexionista. Y en segundo lugar, Searle parece creer
que un sistema conexionista es una suma o mera yuxtaposición de sistemas clásicos, cuando
en realidad un sistema conexionista constituye un tipo de computación muy diferente de la
computación clásica, tal como hemos visto reiteradamente.
Para terminar este apartado, señalaré por mi parte algunas otras observaciones
críticas al argumento de la habitación china28.

Ante todo, el argumento de Searle supone una distinción tajante entre sintaxis y
semántica que no me parece admisible de modo tan radical. En principio podemos distinguir
entre, por un lado, la forma o sintaxis de un enunciado o bien de una cadena de enunciados
del lenguaje natural y, por otro lado, su semántica o significados concretos. Por ejemplo, dada
la cadena de enunciados “si voy al cine, entonces me divierto”, puedo distinguir entre su forma
condicional, igual a la forma de “si corro, entonces me fatigo”, y su significado (donde me
represento ir al cine y divertirme) que no es igual al significado de la segunda cadena (donde
me represento correr y fatigarme).

Sin embargo, tal como señalé en mi libro Lógica Matemática (1975)29, las formas o
estructuras del lenguaje son aquellos tipos de ordenación o disposición de las palabras en
virtud de la cual las frases tienen una u otra manera de significar, con lo que es propio de cada
forma o estructura una manera de significar o decir. Expresado de otro modo, la sintaxis o
forma del lenguaje no es ajena a la semántica o significado, con lo que no es posible (frente a
Searle) una distinción tajante entre sintaxis y semántica. Así, por ejemplo, una conjunción de
enunciados se distingue de una disyunción de enunciados, en cuanto que en la primera
significamos una acumulación de enunciados, mientras que en la segunda significamos una
alternativa entre enunciados; estas formas o estructuras del lenguaje (conjunción y
disyunción) son distintas por esa manera distinta de significar, independientemente de los
significados concretos de sus enunciados componentes. En resumen, las formas o sintaxis
prescinden de los significados concretos (y en este sentido es posible distinguir sintaxis y
semántica), pero las formas del lenguaje no prescinden de sus específicas maneras de significar
o decir (y en este otro sentido no es posible la distinción tajante entre sintaxis y semántica).

En segundo lugar, el hombre encerrado en la habitación china produce significados


(contrariamente a lo que sostiene Searle) si admitimos la noción de significado del segundo
Wittgenstein. En efecto, Ludwig Wittgenstein (1889-1951), en la segunda fase de su actividad
filosófica y concretamente en sus Philosophische Untersuchungen (1953), defendió la idea de
que el significado de las palabras se define mediante su uso en el lenguaje. Cabe expresar esta
idea del filósofo vienés diciendo que el hablante A sabe el significado de la palabra X si y sólo si
A sabe usar X en un lenguaje L. Es decir, el significado de cualquier palabra se hace claro a
través de su uso, y no mediante su referencia (objeto u objetos a los que se refiere), puesto
que una palabra puede tener significado aún en el caso de que nada real corresponda a ella;
por ejemplo, podemos añadir, la palabra “el coco” no tiene referencia (no corresponde a nada
real), pero tiene significado porque se usa para asustar a los niños, como cuando se les dice
“!qué viene el coco!”. Por tanto, para el segundo Wittgenstein, las palabras tienen significado
para nosotros si comprendemos su uso30.

28
Véase mi La nueva filosofía de la mente (2002), pp. 117-119.
29
Véase pp. 4-5.
30
Desde mi punto de vista, el significado de una palabra o de un enunciado es un triplo constituido por el
sentido, la referencia y el uso. El sentido es la representación mental pertinente, la referencia es el objeto
(u objetos) o situación objetiva que corresponda, y el uso es su empleo en cierto contexto lingüístico. La
referencia puede faltar, pero nunca falta el sentido y raramente el uso.
Admitiendo esto, el uso que el hombre encerrado en la habitación china hace de las
listas de símbolos en chino, según las instrucciones que ha recibido en inglés, confiere
significado a tales listas de símbolos. Y análogamente un computador produce significados
mediante el uso o manipulación de símbolos.

Finalmente, el “axioma” de John Searle de que sólo los cerebros producen mente
constituye una clara petición de principio, ya que contiene en sí mismo el rechazo de una
máquina que piense, conclusión que pretende derivar más tarde. Además tal axioma supone
un ingenuo chauvinismo humano y la creencia en la radical y substancial superioridad de la
química del carbono, propia de los seres vivos, sobre la química del silicio, propia de los
computadores.

El surgimiento de la inteligencia artificial ha despertado entre nosotros pasiones


encontradas. Ya hemos visto cómo Hubert Dreyfus representa los mayores ataques contra la
pretensión de que las máquinas piensan o simulan el pensamiento. Pero, por otra parte,
algunos científicos han llegado a sostener que las máquinas inteligentes serán los sustitutos
perfeccionados de la raza humana.

En efecto, Robert Jastrow, astrónomo y físico americano, en su obra The Enchanted


Loom (1981), considera a los computadores como los sucesores evolutivos de los seres
humanos. Para este científico, la humanidad está destinada a tener un sucesor aún más
inteligente; las poderosas fuerzas evolutivas (más culturales que biológicas) conducirán a una
forma de vida inteligente, más exótica y evolucionada a partir del hombre, pero que será hija
de su cerebro y no de sus órganos sexuales; tal nueva forma de vida será el computador
pensante.

Posteriormente Hans Moravec, investigador en robótica en la Universidad Carnegie


Mellon (Pittsburg), en su libro Mind Children (1988), sostiene de modo tajante que los robots
inteligentes (ya no simples computadores) ocuparán el lugar del hombre. Para Moravec,
nuestras máquinas actuales son todavía creaciones simples, que requieren nuestros
constantes cuidados y que apenas merecen el calificativo de “inteligentes”, pero en los
próximos cien años nuestras máquinas se convertirán en entidades tan complejas como
nosotros mismos e incluso llegarán a superarnos. Las máquinas del futuro, los robots
inteligentes, continuarán nuestra evolución cultural, llegando a ser capaces de su propia
construcción y creciente perfeccionamiento sin nuestra ayuda ni concurso. Los robots
inteligentes, según Moravec, recibirán de los humanos la antorcha de la civilización, y a los
humanos nos quedará el orgullo de que tales nuevas criaturas se refieran a sí mismas como
nuestros descendientes, como los “hijos de nuestra mente”.

En 1999, en su obra Robot, Moravec sigue manteniendo estas tesis, aunque con
algunas correcciones sobre los plazos temporales. Según él, hacia el 2040 las máquinas
alcanzarán los niveles humanos de inteligencia, y hacia 2050 nos sobrepasarán. Los robots
inteligentes serán nuestros herederos evolutivos, son hijos de nuestras mentes y querremos
que nos dejen atrás31.

En la misma línea de pensamiento está situado el artículo de Marvin Minsky titulado


“¿Serán los robots quienes hereden la Tierra?” (1994). Para este investigador en informática y
robótica, el ser humano no aprende y recuerda más que un par de bits por segundo;
aprendiendo doce horas diarias durante cien años, el total sería unos tres mil millones de bits,
menos de lo que actualmente podemos almacenar en un disco compacto ordinario de trece
centímetros. Por tanto, la capacidad de introducir información en nuestros cerebros es muy
limitada. En cambio, podemos añadir, la capacidad de introducir información en un
computador es muy elevada. Por otra parte, los microcircuitos actuales de los computadores
ya son millones de veces más rápidos que las neuronas cerebrales. Ambos datos apuntan a la
posibilidad de diseñar robots que piensen con más información y más rápido que nosotros.
Tales serían, según Minsky y tomando la expresión de Moravec, nuestros hijos mentales. El
artículo termina diciendo que, en efecto, los robots heredarán la Tierra.

Respecto de este asunto de si los robots inteligentes serán o no nuestros sucesores


evolutivos, me parece importante hacer dos precisiones. En primer lugar, debe observarse que
los progresos en robots inteligentes han sido mucho más modestos, hasta ahora, que los
progresos en computadores inteligentes, y que mientras que los computadores inteligentes
están disponibles para cualquiera en cambio los robots inteligentes apenas han salido de los
laboratorios de investigación, aunque los robots Spirit y Opportunity de la NASA hayan llegado
a Marte y el robot antropoide Asimo de la empresa Honda sea exhibido por todo el mundo32.
En consecuencia, y tal como reconocen Moravec y Minsky, se trata de especular respecto de
un futuro en torno a medio siglo33. En segundo lugar, y más importante aún, la relación entre
los humanos y los robots inteligentes no tiene por qué formularse en términos de competencia
evolutiva, sino que puede ser entendida como una integración y colaboración, que es por
cierto la norma histórica de la relación de los humanos con sus instrumentos.

Este punto de vista de la integración entre los seres humanos y los robots
inteligentes ha sido defendido por Bruce Mazlish, profesor de historia en el Instituto
Tecnológico de Massachusetts, en su libro The Fourth Discontinuity (1993). Mazlish habla de
“combots” (contracción de computer robots o robots computarizados) para referirse a robots
con forma humana (antropoides) dotados de un computador, y se plantea qué tipo de relación
tendrán con los humanos cuando su existencia esté generalizada. Su respuesta es que, con el
tiempo, aparecerá una nueva especie, que denomina “homo comboticus”, caracterizada por la
integración del hombre con los combots. Ahora bien, el homo comboticus seguirá siendo
humano y los combots o robots computarizados no reemplazarán al hombre.

31
Antonio Diéguez, en “Milenarismo tecnológico” (2001), hace ver que las necesidades y recursos
utilizados por nuestra “progenie mental” serían muy diferentes de los nuestros, con lo que los robots no
serían nuestros competidores, ya que en realidad su nicho ecológico no sería el mismo que el nuestro.
32
Para una discusión más detallada véase mi trabajo “Filosofía de la robótica inteligente” (2006).
33
Y en medio siglo, dada la velocidad de los acontecimientos científicos, pueden ocurrir muchísimas
cosas.
Dejando de lado el ámbito de las pasiones (el fervoroso entusiasmo de Minsky o la
violenta hostilidad de Dreyfus), lo cierto es que a lo largo de la historia de la inteligencia
artificial se han producido notables éxitos y también fracasos. La demostración automática de
teoremas lógicos y matemáticos, los programas de ajedrez o los sistemas basados en
conocimiento (que reemplazan a expertos humanos, como matemáticos, médicos, químicos o
peritos de seguros) han proporcionado notables éxitos. Pero los programas de procesamiento
del lenguaje natural o los sistemas de reconocimiento de imágenes han fracasado en
comparación con las habilidades naturales humanas.

Cuando nos planteamos la cuestión de la inteligencia de los computadores, debemos


adoptar el punto de vista de Weizenbaum (antes señalado) de que no tiene sentido una
caracterización abstracta o absoluta de la inteligencia, sino que es preciso una estipulación
concreta y relativa a las tareas que en el ser humano consideramos inteligentes. Entendidas así
las cosas, resulta evidente que existe inteligencia artificial, ya que existen máquinas
inteligentes, es decir, máquinas con programas para ejecutar tareas que en el ser humano
atribuimos a su inteligencia34; por ejemplo, máquinas para demostrar teoremas difíciles, o para
diagnosticar y tratar enfermedades, o para resolver complicadas ecuaciones matemáticas.
Pero no es menos cierto que las máquinas, aunque en ciertas tareas igualen e incluso superen
a la inteligencia humana, no consiguen igualar al ser humano en todas sus tareas inteligentes.

Un aspecto interesante del razonamiento humano, que las máquinas tienen grandes
dificultades para emular, es el razonamiento del sentido común, también llamado
razonamiento revisable o no-monótono. El principio de monotonía viene a decir que una
conclusión obtenida a partir de ciertas premisas se sigue obteniendo si incorporamos alguna
nueva premisa, es decir, una vez obtenida una conclusión sigue valiendo monótona o
invariablemente aunque incorporemos nuevos conocimientos a las premisas. Sin embargo, el
razonamiento del sentido común es frecuentemente no-monótono o revisable. Por ejemplo, si
en algún momento de mi vida he concluido que cierta persona es mi amiga (tomando como
premisas el conocimiento de sus acciones amistosas hacia mí), en el momento presente puedo
revisar y variar tal conclusión, sosteniendo que es mi enemiga, al añadir a aquellas premisas el
conocimiento de una grave traición reciente. El ejemplo tópico de razonamiento no-monótono
o revisable es el siguiente: sabiendo que Felix es un ave puedo concluir que Felix vuela, pero, al
añadir como premisa que Felix es un avestruz, debo revisar y cambiar tal conclusión y declarar
que Felix no vuela. Buena parte de la investigación lógica actual en conexión con la inteligencia
artificial dirige sus esfuerzos hacia los objetivos de simbolizar y mecanizar el razonamiento del
sentido común, revisable o no-monótono35.

Sin embargo el sentido común (que Dreyfus considera no susceptible de simulación


por una máquina) comprende otros aspectos, además de la disponibilidad natural a la revisión
de conocimientos. En segundo lugar, el sentido común comprende la capacidad de distinguir

34
Debemos entender por inteligencia la capacidad para resolver problemas, de tal manera que un sujeto
(humano, animal o máquina) es tanto más inteligente cuanto más problemas o más difíciles consigue
resolver. Véase mi trabajo “Mente, inteligencia y espíritu” (2000).
35
Entre los principales manuales cabe destacar el libro de Witold LuKaszewicz Non-monotonic
Reasoning (1990) y la obra conjunta de Brewka, Dix y Konolige Nonmonotonic Reasoning (1997). Para
una lógica general de la inteligencia artificial, incluyendo razonamiento revisable, véase Alfredo Burrieza
y José Luis Pérez de la Cruz, Representación del conocimiento: Un enfoque lógico (2002).
fácilmente lo relevante y lo irrelevante en una situación dada. Por ejemplo, cada uno de
nosotros sabe que, al coger gasolina para nuestro coche, es relevante el tipo, la cantidad y el
precio del combustible, pero que es irrelevante (en principio al menos) la ubicación del
surtidor, la vestimenta o el sexo del empleado de la gasolinera. En tercer lugar, el sentido
común también comprende la capacidad de darnos cuenta fácilmente de qué propiedades
cambian y qué propiedades persisten tras ejecutar una acción. Por ejemplo, cada uno de
nosotros se da cuenta con facilidad, después de haber comido abundantemente, de que su
estomago está lleno y de que su peso ha aumentado, pero que seguimos teniendo dos brazos
y dos piernas (si las teníamos antes de comer).

Este último aspecto está relacionado con el problema del marco (frame problem) en
inteligencia artificial, tal como fue descrito por primera vez por John McCarthy y Patrick Hayes,
en su trabajo “Some philosophical problems from the standpoint of artificial intelligence”
(1969). Estos informáticos se refieren al hecho de que debemos suponer que si una persona
tiene un teléfono sigue teniéndolo tras consultar un número en la guía telefónica y, en general,
si tuviéramos varias acciones a ejecutar en secuencia tendríamos que especificar las
condiciones de que ciertas acciones no cambian los valores de ciertos elementos de la
situación; de hecho, añaden, con n acciones y m elementos (fluents) de la situación tendríamos
que especificar mn condiciones tales. Este es el problema del marco, esto es, la dificultad de
representar qué propiedades persisten y qué propiedades cambian cuando un computador
simula acciones o un robot ejecuta acciones. Se denomina así porque inicialmente se pensó en
representar los aspectos que no cambian mediante axiomas denominados “axiomas de marco”
(frame axioms).

Como dice Patrick Hayes, en “What the frame problem is and isn´t” (1987),
dondequiera que algo podría cambiar de un momento a otro, tenemos que encontrar alguna
manera de establecer lo que no cambia cuando algo cambia. Y esto, sigue Hayes, parece tonto
ya que casi todos los cambios cambian de hecho muy poco del mundo. El problema del marco
está en que deberíamos poder decir sucintamente cuáles son los cambios introducidos por una
acción sin tener que hacer una lista explícita de todo lo que no cambia, pero, sin embargo, no
parece haber otro modo.

Para terminar podemos decir que algunas máquinas dotadas de programas


adecuados en efecto piensan y tienen una mente, aunque sus procesos mentales, superiores
en algunas tareas a los procesos humanos correspondientes, no agotan (por ahora) la enorme
variedad y capacidades de tareas de los procesos mentales de los seres humanos.

Ahora bien, admitir que las máquinas piensan no debe conducirnos a lo que
denomino el “juego de los tres despropósitos”. El primer despropósito es sostener que si una
máquina piensa entonces una máquina es como un ser humano (lo cual es falso). El segundo
despropósito es defender que si una máquina piensa entonces un humano es una máquina (lo
cual también es falso). Y el tercer despropósito consiste en sustentar que si una máquina
piensa entonces los humanos carecemos de dimensiones moral y espiritual (lo cual constituye
un caso del sofisma de ignorancia de la cuestión)36.

36
Para la distinción entre inteligencia y espíritu véase mi trabajo “Mente, inteligencia y espíritu” (2000).
Pascual F. Martínez-Freire

Catedrático Emérito de la Universidad de Málaga

También podría gustarte