Está en la página 1de 14

NOTAS LECTURA LOWE.

La percepción: enfoque computacional y enfoque ecológico.

La mayoría de los psicólogos actuales asumen que la función principal de los sistemas
perceptivos de los organismos vivos es posibilitarles la extracción de información útil desde su
entorno físico para facilitar la conducta adaptativa, esto es, la conducta que facilite su
supervivencia (p. 149). Sin embargo aún hay desacuerdos en torno a cómo se desarrollan estos
procesos. Entre las más destacadas posturas se encuentran el enfoque “computacional” y el
“ecológico”.

Según el enfoque computacional, un sistema perceptivo es ante todo un sistema de


procesamiento de información que funciona de manera análoga a un computador electrónico
y digital, y que por tanto puede ser modelado con estos medios. Por tanto, es posible diseñar
aparatos que puedan lidiar con su entorno y pretender que nosotros funcionamos de la misma
manera, esto es: tomando como supuesto que existen varios niveles de abstracción,
concretamente tres. Seguimos a David Marr para describir este proceso: en el nivel más alto
pondremos la tarea en términos de los objetivos del dispositivo. A partir de aquí será cuestión
de plantearse qué tipo de procesos computacionales se requerirán para transformar la
información que el sistema pueda extraer mediante sus sensores en información que
concierna al robot mismo o al entorno del organismo. El presupuesto de todo esto es que un
sistema de procesamiento de información sólo puede procesar la que esté representada en el
sistema previamente mediante cierto método codificador, misma sobre la que los procesos
computacionales puedan operar. Las representaciones a priori son necesarias. En el último de
nivel de abstracción se encuentra un programa específico computador o un conjunto de
algoritmos que se requiere en el nivel superior. Es en este nivel en donde se ha de clarificar el
tipo de estructura, ya sea físico, electrónico o neuronal, que se requiere para poder
implementar el programa adecuado al sistema.

Podemos comparar esta postura con un realismo “indirecto”, puesto que asume que la
percepción implica cierta construcción o representación previa a la que se adecuarán los
estímulos recibidos del entorno. Estos procesos de construcción son altamente complejos, y
por supuesto nosotros no somos conscientes de cada cálculo efectuado supuestamente en
nuestra cabeza: sólo nos damos cuenta de los productos finales. Los sistemas perceptivos,
tales como la visión humana, son descritos como modulares o informacionalmente
encapsulados. Esto es, que los procesos de pensamiento del nivel más alto y de los que somos
conscientes son incapaces de influir en los procesos de información de niveles inferiores. No
podemos hacer desaparecer una ilusión visual simplemente por saber que es una ilusión: no
podemos “corregir” los errores en el procesamiento de los estímulos. La posible explicación a
tener un sistema que complete las representaciones como lo hace el nuestro es que podría
dotarnos de alguna ventaja adaptativa.

Los que se adhieren a la perspectiva ecológica (cuyo más claro exponente es J.J. Gibson),
niegan la idea de que la percepción sea una cuestión de representación, sino que esta ocurre
de un modo “directo”. Concuerdan con el enfoque anterior en que la función perceptiva
consiste en proveer al organismo con información que le oriente o lo guíe en su entorno
natural, pero no ven por qué esto ha de implicar operaciones o representaciones
computacionales complejas. Su idea es que el entorno natural es en sí mismo rico en
información y que nuestros sentidos están bien acoplados a él. Estos psicólogos resaltan la
mutua dependencia percepción-acción, en la que la percepción guía la acción y la acción
permite al sistema aprehender al máximo la información disponible en el entorno.

Esta postura es sin duda oscura, puesto que no nos dice mucho en sí misma cómo es que
nuestro organismo es capaz de recoger toda la información. Al fin y al cabo se requiere de
cierto mecanismo que de cuenta de este proceso perceptivo. Los psicólogos del enfoque
ecológico son conscientes de esto, sin embargo niegan que este mecanismo necesite o
funcione a través de una serie de representaciones y descripciones en los términos
computacionales. No necesitamos asumir que la naturaleza nos haya “diseñado” de este modo
por el mero hecho de que los seres humanos hayan optado por el enfoque computacional para
diseñar robots. A menudo es posible diseñar sistemas perceptivos sin recurrir al enfoque
computacional (por ejemplo, se puede asegurar que el agua en dos tanques sea exactamente
la misma construyendo un elaborado sistema electrónico que mida el nivel del agua y la regule
o simplemente haciendo un ducto entre ambos y dejando que la gravedad haga el resto).

Es preciso detallar cómo surgen las experiencias perceptivas, o al menos partir de una teoría
potente para poder diseñar un sistema perceptivo artificial que posibilite elevar al sistema a un
nivel básico de pensamiento o abstracción. Sin duda es este un punto de partida crucial que
determinará la eficacia y capacidad de innovar de dicha inteligencia arrojada a un mundo más
“real”.

PENSAMIENTO Y LENGUAJE

Podemos distinguir entre diferentes niveles de actividad mental: una percepción o una
sensación podría parecer más básicas que las creencias. Sea porque las primeras son
necesarias para construir las segundas, o porque asumimos que la capacidad para elaborar
creencias es única de los seres humanos. En todo caso, les atribuimos un nivel cognitivo más
alto que las sensaciones o percepciones. La sensación dota al organismo de información sobre
su entorno físico y su cuerpo en este contexto; la percepción claramente implica cierta
elaboración conceptual o representación. Podríamos decir que la sensación no posee ningún
nivel cognitivo, si deseamos adoptar la postura de que para que esto suceda es necesaria la
capacidad de ejercitar conceptos (un perro que lame su herida no necesita tener ningún
concepto de lo que es una pierna, una herida o incluso el dolor; le basta con responder a una
información que le ha sido dada). ¿Qué pasa con el pensamiento?

Es interesante, para determinar si una máquina artificial, puede llegar a pensar, saber a lo que
nos referiremos con “pensamiento”, creencia, y cómo se relacionan con otros estados
mentales tales como la sensación y la percepción. A su vez, esto no puede ir separado del
medio de expresión: el lenguaje, que ha venido formando parte de todas las otras discusiones
que hemos abordado.

Lowe empieza sugiriéndonos que concibamos todos los estados cognitivos (que aportan algún
tipo de conocimiento al organismo), incluyendo los pensamientos y las creencias, como
estados mentales y representacionales. ¿Qué entenderemos por “representación” y cuáles de
sus modos nos serán útiles para determinar si un estado mental es cognitivo o no? Alguien
podría decirnos que en principio, un requisito es que posea algún tipo de contenido
conceptual, pero eso deja fuera a los modos de representación tales como las imágenes,
fotografías, diagramas, mapas, símbolos, etc. Una característica de estos modos de
representación es que necesitan a alguien que los interprete para tener sentido. Sin embargo,
la interpretación es ya en sí misma un estado mental representacional (y obviamente
cognitivo). Decir que una representación mental es satisfactoria en tanto alguien logre
interpretar que representa algo, es caer en un círculo vicioso. Una manera de reformular este
problema es preguntándose el tipo de intencionalidad que tienen los modos de representación
(la intencionalidad es una propiedad de las cosas si estas pretender representar algo, esto es,
si son sobre otras cosas. Ejemplo: un mapa sobre un terreno, un diagrama sobre la estructura
de una máquina). La estructura que posee mayor intencionalidad suele ser el lenguaje (aunque
no siempre, como veremos), y a ello debemos la creencia de que los estados cognitivos deben
implicar algún modo quasi-lingüístico de representación.

Lowe afirma además de que los estados cognitivos poseen un contenido y estructura
conceptual. A pesar de que el lenguaje posea ciertas estructuras determinadas (gramaticales o
sintácticas) mediante las cuales sea posible discernir las estructuras admisibles de las que no
tienen sentido, es posible combinar las palabras de la manera que se quiera para formar el tipo
de enunciados que se quiera. Así, los hablantes pueden generar constantemente algún
enunciado que no se ha repetido nunca antes, para expresar un amplio rango de pensamientos
en su cabeza. La productividad del lenguaje parece ir asociada con la del pensamiento, e
incluso podríamos confundirlas. ¿Es lo mismo componer enunciados complejos que pensar?
Ambos implican un modo estructurado o composicional de representar. Algunos han ido más
allá para proponer la existencia de un lenguaje articulado del pensamiento, distinto al del uso
del cotidiano, que han denominado “el lenguaje del pensamiento” o “mentalese” (Como lo
denomina Wilfrid Sellars) p. 165.

Este Mentalese, en caso de existir, sería un lenguaje en el que pensamos, pero no sería el
mismo en que hablamos o nos comunicamos públicamente. Es más, este lenguaje no se nos
revela siquiera en la reflexión o en la introspección sobre nuestros propios procesos de
lenguaje. Así que no ha de confundirse con un “discurso interno” o un “soliloquio silencioso”,
ni con un diálogo imaginario con nosotros mismos al intentar resolver un problema.

Además de la productividad del lenguaje, el hecho de que podamos aprender diferentes


lenguajes traduciéndolos a uno ya conocido, supone un argumento para postular la existencia
de este “mentalese”. Si asumimos que necesitamos traducir un lenguaje a otro para
comprenderlo, entonces debería haber una especie de lenguaje innato al que podamos
traducir nuestra lengua materna. A su vez, asumir esta hipótesis nos permitiría modelar los
procesos de pensamiento humanos a semejanza de una computadora digital y electrónica.
Este lenguaje hipotético nos permite explicar fácilmente cómo es que un sistema físico puede
procesar información: en el caso del ordenador este logra representar información de un
modo casi lingüístico utilizando un “código máquina” binario. Si el ser humano es también un
dispositivo de procesamiento de información, aún habiendo evolucionado naturalmente,
puede asumirse que funciona de manera semejante a la computadora, utilizando alguna
especie de método cuasi-lingüístico para codificar esta información. El “mentalese” sería el
“código cerebral” natural, análogo al de la máquina construido artificialmente. Este integra y
completa el enfoque computacional de la mente que se ha desarrollado previamente, aunque
no es compartido por el conexionismo.
ANÁLOGO VS DIGITAL

Además del lenguaje articulado, hemos citado otros modos de representación (imágenes,
diagramas, mapas, etc.), mismos que poseen un elemento de representación analógica -
opuesta a la digital. Mientras que la manera de representación digital sería más propia de un
relog que representa el tiempo mediante una secuencia de numerales tales como “22.50”, la
analógica recurre al diferentes posiciones de la manecilla del reloj, tal que mientras avance
cada vez más cerca de una posición horaria, menor será el tiempo para que esta hora llegue.

La representación analógica del reloj es muy abstracta y formal, aunque no todas son de este
estilo. Los mapas y los diagramas son menos formales y poseen más semejanza con las cosas
que representan. Las imágenes y fotografías son más semejantes aún, aunque siguen
requiriendo de una interpretación.

¿Alguno de nuestros estados cognitivos involucra modos análogos de representación? Esto


nos llevaría más allá del territorio del lenguaje o mentalese. Si preguntamos a las personas
cómo piensan, muchas dirán que su pensamiento suele ir acompañado de un imaginario
mental muy vívido, mientras que otras nos dirán que nada de esto les sucede y que se ciñen a
las palabras. Sin embargo, esto implica ya un imaginario auditivo, aunque no sea visual.

Si el imaginario acompaña gran parte del pensamiento consciente, podríamos creer que
recurrimos al modo análogo de representación si pensamos que éste se ciñe a una imagen.
Solemos creer que esta imagen es del tipo de una fotografía o un cuadro, pero no deberíamos
asumir que la imaginación se reduzca a visualizar o producir imágenes de cualquier tipo.

En el caso de la imaginación es posible producir cosas que no necesariamente existen, por lo


tanto no es necesario recurrir constantemente a cosas que existen de hecho, que sean
representadas en nuestra mente. ¿Qué implica el proceso de la imaginación? ¿consiste en
desplegar una imagen fija, referencial y análoga en nuestra mente o en describir una
situación?

Si se nos pide que nos imaginemos una manzana, y se nos pregunta: ¿había una mesa debajo
de ella o estaba en el piso? ¿de qué color era la pared o el fondo? ¿había más elementos a su
alrededor? Uno probablemente no habría imaginado todos esos detalles, pero al pintar una
imagen uno habría tenido que comprometerse al respecto. En este sentido, imaginar se
asemeja más al describir que al pintar, en el sentido en que una descripción no necesita
detallar todo el contenido implícito en los ítems. Pero por otra parte, parece que imaginar no
es tan vago como describir, puesto que hay ciertos detalles en nuestro imaginario que lo hacen
único y que implica, de algún modo, algún grado de representación análoga en semejanza con
otras cosas que hemos percibido con anterioridad.

¿Y si imaginar se pareciese más a dibujar un mapa o un diagrama que un retrato? Ha habido


experimentos que intentan probar que existen modos de representación análogos en nuestros
procesos de pensamiento. Véase el caso en que ciertos sujetos han resuelto problemas
rotando mentalmente una imagen aprendida para determinar si coincidía o no con otras
imágenes mostradas, o de otros que son capaces de responder preguntas sobre objetos en un
mapa recreando dicho mapa en su mente.

No se puede negar en los procesos cognitivos implican la imaginación. Tampoco parece haber
razones para negar que hay procesos de imaginación análoga. Podría plantearse que las
imágenes no pueden ser capaces de vehicular el pensamiento puesto que son inherentemente
ambiguas, y que por tanto tal ambigüedad debería resolverse por procesos de interpretación
no ambiguos que no impliquen imaginación, o nuestros problemas se multiplicarían. Sin
embargo, es cierto que modos de representación no-imaginarios también pueden contener
ambigüedad: un enunciado puede significar diferentes cosas en diferentes lenguajes o en
diferentes conceptos. En todo caso, parece ser el caso que hay una diversidad de modos de
representación involucradas en nuestro pensamiento, más que sólo una. Esto no ha de
sorprendernos puesto que si asumimos que el cerebro no ha surgido de un diseño cuidadoso,
sino de la evolución natural, cabe esperar que nuestros procesos cognitivos se valgan de
diferentes estrategias representacionales según qué problemas se encuentren. Si existe un
modo de representación tal que es un lenguaje del pensamiento antes planteado, nuestra
conciencia no es capaz de acceder a él. Esto nos hace platearnos, ¿cuál es la relación entre
nuestra capacidad de pensar y la capacidad de expresar o comunicar nuestros pensamientos
en un lenguaje público, compartido?.

Algunos conductistas asumen que el pensamiento es sólo un discurso silencioso, esto


es, una derivación del lenguaje público articulado que podemos decidir mantener para
nosotros. Sin embargo esto nos plantea una dificultad: ¿qué tipo de pensamientos puede
tener, si es que los tiene, una criatura incapaz de expresarse o comunicarse en un lenguaje
público? ¿Qué pasa con los sordomudos o con gente que tiene otro tipo de discapacidad
lingüística? ¿Esto influye determinantemente en su capacidad para pensar?

A su vez, muchos animales que poseen conductas claramente inteligentes no poseen este tipo
de lenguaje. ¿Cómo se relaciona la conducta inteligente con su capacidad para pensar?

Se considera que un lenguaje tiene una estructura sintáctica y un vocabulario que posibilita
que los usuarios construyan nuevos mensajes sin un límite (es esta la base de la productividad
del lenguaje). Los sistemas de llamadas animales, por el contrario, son inflexibles y restringidas
en su rango de aplicación. No pondremos en duda la inteligencia de los animales, que ha sido
estudiada mucho, sino que nos preguntaremos si dicha inteligencia implica que tienen
capacidad para pensar como nosotros: Si esto es así, ¿por qué son incapaces de aprender a
expresar estos pensamientos en un lenguaje como el nuestro?

Una posible respuesta es que la capacidad humana para el lenguaje es una especificidad de la
especie que no se relaciona mucho con la inteligencia, una especie de actividad proveniente de
la evolución.

LOS ANIMALES PIENSAN?

Tendemos a describir la conducta animal de una manera antropomórfica. Cuando un perro


escucha el sonido de los pasos de su dueño acercándose a su casa, podría acercársele
corriendo moviendo la cola y mirándole, expresando su deseo de ir a caminar. ¿ Pero esto
significa que el perro desea, mediante una actitud proposicional, “que su dueño lo lleve a
caminar”? Para que el perro se pueda plantear esto, de este modo, debería ser capaz de
poseer ciertos conceptos: el concepto de un dueño, de lo que es una caminata, de lo que es él
y del tiempo futuro. Parece que es indemostrable que los perros compartan exactamente los
mismos conceptos que nosotros sobre las cosas, aunque alguien pudiese decir que poseen
ciertos conceptos caninos, que podemos o no comprender. Sin embargo esto es asumir que la
conducta inteligente implica pensamiento. Esto no tiene que ser así, ya que es posible
imaginar que esta conducta puede ser derivada de las necesidades naturales del animal y que,
por tanto, la inteligencia puede ser explicada sin recurrir al pensamiento: el perro bien pudo
aprender por asociación que el sonido de su dueño implicaba la experiencia de ser llevado a
caminar. Para hacer esta asociación el perro necesita tener sentidos, pero no precisamente
conceptos.

En algunas ocasiones parece que los animales pueden tener razonamiento práctico
para resolver problemas que se les presentan (las ballenas para conseguir alimento). ¿Esto
implica que piensan? El razonamiento práctico implica que alguien realice una secuencia de
tareas que podrían desviarle en un principio de su objetivo pero que al final le compensa, y
que además es la única manera de conseguirlo. Requiere planificación continua y una conexión
entre la acción presente y la satisfacción futura del deseo. Esto pone un limitante a muchos
animales que sólo pueden prever las acciones inmediatas y no llegan a disociarse del todo o
distanciarse de su deseo de satisfacción inmediata.

Parece ser que si un animal es incapaz de poseer pensamiento conceptual, entonces no puede
devenir hablante o usuario de un lenguaje en un sentido estricto, ya que no tiene nada que
comunicar en el fondo. Es más, no sólo necesita poseer conceptos, sino ser capaz de concebir
que sus congéneres, con los que se comunica, sean capaces de tener pensamientos y
comunicarlos. En suma, necesita tener una “teoría de la mente” y por tanto algún concepto de
creencia o pensamiento como estado mental con un contenido proposicional que pueda ser
comunicado de un individuo a otro. Por lo tanto, implica cierto conocimiento o entendimiento
de conceptos como “verdad” o “falsedad”, puesto que debe ser capaz de juzgar el contenido
de los mensajes que reciba como correctos o incorrectos. Incluso se dice que necesitarían una
noción de lo que es un concepto.

¿Hay un punto medio entre las criaturas incapaces de generar pensamiento conceptual y
criaturas como nosotros? Davidson dice que una criatura no puede tener ninguna creencia a
menos que posea un concepto previo de lo que es una creencia, lo que implica que no hay
punto medio entre la capacidad de pensar conceptualmente y la de utilizar un lenguaje. Contra
esto se dice que los animales no-lingüísticos poseen estados perceptivos (y si es verdad que los
estados perceptivos tienen contenido conceptual), por tanto esos animales de alguna manera
generan conceptos. Sin embargo esto es antropomorfismo: el que un animal tenga un poder
alto y refinado de discriminación sensorial no implica que pueda desplegar un concepto (los
pichones pueden ser entrenados para discernir entre triángulos y cuadrados, pero no implica
que tengan el concepto de la esencia (definición) de triángulo o cuadrado). Poseer un
concepto implica que uno tenga creencias generales sobre lo que implica y que sea capaz de
relaciona varios otros conceptos con él.

Encontramos que el pensamiento conceptual requiere un sistema entero y correlacionado de


creencias que implican una noción compleja, al menos, de los conceptos de espacio y tiempo,
a su vez de objetos que son capaces de existir sin estar percibidos en la actualidad. En este
sentido se dice que los animales están atados a un aquí y un ahora. Los humanos pueden
proyectarse sin límite, reflejar lo pasado y contemplar las posibilidades futuras. Lowe llega a la
conclusión de que ninguna criatura sin esta libertad puede tener un concepto de sí mismo
como sujeto duradero de experiencia, con una historia personal y con capacidad de decidir
entre diferentes cursos de acción.
LENGUAJE NATURAL Y ESQUEMAS CONCEPTUALES.

Lo anterior podría llevarnos a creer que la capacidad humana de pensar conceptualmente es


privativa de nuestra especie y que está íntimamente relacionada con nuestra habilidad de
expresar y comunicar el pensamiento en un lenguaje público, esto es, que el lenguaje y el
pensamiento son interdependientes. Sin embargo esto nos lleva a plantearnos: ¿Cómo es que
hay tanta diversidad de lenguajes en el mundo? ¿Hasta qué punto los conceptos con los que
pensamos están o no determinados por el vocabulario y la sintaxis de un lenguaje natural que
hemos aprendido a hablar?

Se asume que los seres humanos compartimos las capacidad de distinguir colores,
sensaciones, gracias a una determinación fisiológica de nuestro sistema visual,
independientemente de los conceptos que tengamos para nombrar las cosas. Podemos
describir cosas que no hemos visto antes con el vocabulario de nuestra lengua. Dada la
productividad del lenguaje, es posible traducir una sola palabra de un lenguaje a una frase
completa en otro de manera satisfactoria. Otra cuestión es si la gramática o sintaxis de un
lenguaje impone límites al esquema conceptual desplegado por los hablantes. Esto es
defendido en la hipótesis Sapir-Whorf: por esquema conceptual, entendermos a un sistema
completo de categorías para clasificar cosas en el mundo de los que los hablantes hablan: Los
sustantivos como “mesa” o “árbol” denotan sustancias (Aristóteles), los adjetivos (rojo y
pesado) propiedades. Los verbos acciones, las preposiciones denotan relaciones espacio-
temporales, etc. Pero en otras familias lingüísticas esto no sucede así (IndoAmérica), ¿esto
implica que el esquema conceptual del mundo que tienen estas personas es radicalmente
diferente al nuestro? Whorf sugiere que la manera de comprender al mundo de indio Hopi no
pasa por la disociación común de espacio-tiempo y de sustancia-accidente, sino que lo
comprende de una manera cercana a la física relativista, puesto que su ontología habla de
acontecimientos y de un espaciotiempo unificado. A su vez mantiene que nosotros no
podemos acceder a la manera en la que él comprende el mundo, incluso dice que esta gente
habita un mundo diferente a nosotros, totalmente alienígena, debido a las distinciones
categoriales que operan, como si el lenguaje fuera una proyección que determina la realidad
antes de descubrirla.

No debería extrañarnos que existiese cierta correspondencia entre las categorías gramaticales
y metafísicas con las que aprehendemos el mundo, sin embargo no se puede sugerir que los
hablantes de un lenguaje y otro distintos sean incapaces de comprender el sistema categorial
distinto o que incluso la traducción sea imposible. Es este un debate abierto. Lowe cree que
hay una mínima conexión sintáctica en todo lenguaje natural y que hay cierta metafísica
intuitiva o de sentido común que se refleja en ella, y que es compartida por todo el mundo.
Que el mundo puede estar conceptualizado en distinta manera pero que en la medida en que
habitamos el mismo mundo deberíamos tener algunas creencias básicas en común (aunque
esto me parece ingenuo, a decir verdad).

RESUMEN

Las cuestiones sobre la relación pensamiento-lenguaje se dividen en dos áreas principales:

1) Si el pensamiento por sí mismo implica un modo o medio linguistico de representación


2) Si la capacidad de generar pensamiento proposicional va de la mano con la camacidad
de expresar y comunicar los pensamientos en un lenguaje público o natural.
Tentativamente hemos concluido que:

1) El pensamiento humano implica diferentes modos de representación mental, algunos


“análogos” o “imaginarios”. Y a la vez:
2) Hay una relación de mutua dependencia entre poseer pensamiento conceptual y
poder expresarlo y comunicarlo en un lenguaje público. Tenemos justificado creer que
los animales no pueden generar verdadero lenguaje o pensamiento conceptual a pesar
de ser inteligentes. A su vez, no parece justificada la creencia de que el lenguaje limita
el mundo del hablante y sus pensamientos dentro de un esquema conceptual
específico, ni que imponga una estructura ontológica de la que no se pueda escapar.

RACIONALIDAD HUMANA E INTELIGENCIA ARTIFICIAL

La racionalidad humana es uno de nuestros rasgos más característicos. Ya hemos visto que
parece haber cierta relación entre la capacidad de pensar conceptualmente, ser capaz de
expresar los propios pensamientos en un lenguaje y tener procesos de razonamiento.

Por un lado, se afirma que las máquinas pueden realizar tareas de pensamiento y
razonamiento, y por otro, se ha empezado a cuestionar nuestras propias pretensiones de
pensar racionalmente. Nos topamos con la posibilidad de que las máquinas de pronto puedan
devenir más racionales que sus creadores humanos.

Algunas cuestiones a considerar son las siguientes: Si el modelo que vamos a considerar para
evaluar la inteligencia de las máquinas es el modelo humano, ¿qué tan racionales somos
realmente? ¿Tenemos mecanismos naturales para razonar lógicamente? ¿Qué procesos
psicológicos están involucrados en esto que entendemos por “racionalidad”? ¿Qué
entenderemos por “racionalidad”? ¿Podemos decir que las máquinas piensan meramente
porque son capaces de ejecutar un programa formulado, o meramente simulan procesos de
pensamiento racional, tal como simulan los procesos meteorológicos para predecir el clima?
¿Necesitaría una máquina de un “cerebro” parecido físicamente al nuestro? ¿Debería tener
objetivos autónomos, motivaciones, e incluso emociones? ¿Requiere de consciencia, de ser
capaz de aprender de la experiencia, de interactuar intencionalmente con su entorno físico y
social? ¿Qué tiene que ver en todo esto el “sentido común”? ¿Podría ser capturado en un
programa de ordenador?

Parece una redundancia decir que la racionalidad implica el razonamiento. ¿Qué tipo de
razonamientos hay? Tradicionalmente se suele dividir en dos tipos: por un lado, la distinción
entre razonamiento práctico y teorético, el primero centrándose en obtener una acción
efectiva y el segundo conocimiento o al menos, una creencia verdadera. Por otra lado el
razonamiento también se ha dividido entre deductivo e inductivo. En el primero las premisas
conducen a la conclusión necesariamente, mientras que en el segundo, las premisas o “datos”
sólo confieren un grado de probabilidad sobre una cierta hipótesis. Tanto el razonamiento
práctico como el teorético pueden implicar cualquiera de los otros dos tipos de razonamiento.

A pesar de que se considere al razonamiento deductivo como la forma más elevada de


razonamiento, tiene un dominio limitado de aplicación. La lógica ha tenido un lento desarrollo
a lo largo de los siglos, lo que nos hace plantearnos: ¿Qué tan buena es la gente en el
razonamiento deductivo, que no ha recibido entrenamiento formal en la materia? Sabemos
que no es extraño que personas que desconocen las reglas de la lógica formal comente falacias
constantemente en el razonamiento deductivo. Parece ser que hay algunos errores que no se
eliminan con educación y que de cierta manera parecen el resultado de nuestra historia
evolutiva. Es más, haciendo pruebas de razonamiento inductivo también parece que solemos
cometer fallos (¿o aciertos?) determinados por el criterio que utilicemos a la hora de motivar
nuestros razonamientos (Wason selection task, Base rate fallacy).

Todo sugiere que en el pensamiento humano o en la toma de decisiones efectivas se


involucran factores que no son meramente formales o apoyados por la evidencia empírica
disponible (emocionales, morales, utilitarios, etc.). El dominio del pensamiento humano es lo
suficientemente complejo como para no reducirse a una fórmula o modelo que explique la
totalidad de procesos psicológicos de una manera lineal, con la que todos razonamos.
Ciñéndonos al razonamiento deductivo, hay quienes mantienen que razonamos desplegando
un sistema de lógica mental y otros que manipulando modelos mentales. Lo que
correspondería a la distinción entre métodos de prueba sintácticos y semánticos en la teoría
lógica. Los primeros toman en cuenta sólo la estructura formal entre premisas y
consecunecias, mientras que los segunod trabajan con interpretaciones que expresan la
verdad y falsedad de las proposiciones (contenido).

Los defensores del sistema de lógica mental dirían que las personas que no han recibido
formación en las reglas de inferencia formales de la lógica deductiva, despliegan algunas reglas
por sí mismos naturalmente. Por ejemplo el modus ponens o el modus tollens parece que
pueden extraerse expontáneamente sin necesidad de justificación excesiva o mucha
introspección. Sin embargo, los defensores de los modelos mentales reconocer procesos de
razonamiento que no tienen que ver con reglas formales: es verdad que de las premisas “Tom
está en Londres o en París” y “Tom no está en Londres”, puede extraerse la conclusión “Tom
está en París” traduciendo el argumento a formas esquemáticas y de vuelta (p v q, no p, ergo
q). Pero de no conocer estas formas esquemáticas (la lógica proposicional de primer orden), se
puede realizar una inferencia de un modo más directa: primero, se entiende que somos
capaces de imaginar las posibles circunstancias en las que las premisas sean verdad (construir
modelos de las premisas) para después combinar modelos de manera que algunos sean
consistentes y otros eliminados por inconsistentes. Esto permite explicar el modelo de
razonamiento humano de manera plausible y más intuitiva: De la otra manera ¿Cómo explicar
que la gente común despliegue espontáneamente reglas lógicas en las que traduzca los
razonamientos que sólo han sido descubiertas y codificadas despúes de siglos de duro trabajo?
Aún así, la explicación de los modelos mentales no deja de ser compleja, y se atiene a la
perspectiva lógica (aquél razonamiento que liga proposiciones con otras que se dicen
conclusiones). Si bien el razonamiento lógico es crucial y fundamental, parece ser que sólo
hemos indagado en él para expandir nuestras capacidades de cómputo para ligar cadenas de
razonamientos cada vez más largas a partir de métodos formales. Los métodos técnicos nos
ayudan a aprender este tipo de razonamiento más rápido y a aplicarlo de manera más efectiva,
pero no dejan de ser artificiales, que de alguna manera necesitan ser plasmados en un lienzo o
en un papel (correlato físico) y que no suceden de manera meramente interna como algunos
sostendrían.

DOS TIPOS DE RACIONALIDAD


Destacamos que parece haber dos tipos de racionalidad distinta: de la que hemos hablado
previamente, calculadora, lineal, rígida, y una noción más difusa. Suele decirse que es
razonable la persona que se adapta bien a su entorno social o físico, que actúa
apropiadamente en relación a sus objetivos y cuyos objetivos son sensibles y se adhieren a los
discursos disponibles. Este tipo de racionalidad implica seguro el primero, pero va más allá. A
este conjunto de buenas habilidades les llamamos “sentido común”.

Incluso si aceptamos nuestros naturales fallos o precariedad como razonadores lógicos natos,
tenemos que apreciar este otro sentido, y ello se mide no en un laboratorio, sino en cómo se
realizan ciertas tareas cotidianas en un entorno no controlado y siempre cambiante.

INTELIGENCIA ARTIFICIAL Y EL TEST DE TURING

John Searle (Minds, Brains and Programs) destaca que existen dos maneras de entender la IA:
de manera débil, que afirman que es posible emular aspectos del comportamiento humano
inteligente de manera satisfactoria, y que con ello basta, y la fuerte, que afirma que para
ejecutar un programa la máquina debe ser capaz de pensar y razonar, y efectivamente lo hace.

Es innegable que los ordenadores ejecutan tareas que los humanos sólo pueden hacer
pensando y razonando. Por ejemplo, jugar el ajedrez requiere muchos recursos intelectuales a
pesar de que existan ordenadores que son capaces de enfrentar y derrotar campeones
mundiales. ¿Esto basta para decir que piensan o comprenden lo que hacen? Uno podría decir
que No, puesto que lo que hace el ordenador es replicar procesos de pensamiento que los
seres humanos tienen, poseyendo además una inmensa capacidad de almacenamiento de
información acerca de las jugadas y combinaciones posibles, así como una rápida velocidad de
cálculo. Un humano, con una memoria a corto plazo y capacidad de cálculo limitada nunca
podrá jugar a la manera en que lo hacen las máquinas. ¿Entonces cómo es capaz de
derrotarla? La respuesta parece apuntar a la intuición, más que el poder de cálculo a masiva
escala. El jugador experto, en lugar de ensartarse en el cálculo, puede simplemente “ver” o
“sentir” una determinada línea de ataque o defensa, aunque nunca la haya llevado a cabo.

La cualidad de la “intuición” podría parecer muy difusa, además, ¿cómo saber cuándo una
criatura opera por intuición o por cálculo? Podríamos asumir que la intuición es una manera
más compleja de computación realizada a nivel inconsciente inaccesible a la introspección
consciente. En todo caso, lo que diferencia aún a la máquina del humano, no es la manera en
que juegan al ajedrez, sino que el programa sólo es capaz de ejecutar una tarea de un numero
infinito de tareas posibles a realizar, mientras que el ser humano es capaz de realizar casi
cualquiera. Desde esta perspectiva, si encontrásemos una máquina capaz de jugar ajedrez,
además de conversar sobre el clima, escribir poesía, apostar, etc, cambiando apropiadamente
entre una actividad y otra según las cictunstancias, negar que es inteligente sería imposible.

Esta es la premisa del test de Turin, para medir la inteligencia de las máquinas: Simplemente
formulado consiste en lo siguiente. Suponiendo que uno esté encerrado en una habitación
equipada con un teclado y una impresora, y al otro lado de la pared sabes que se encuentra
otro teclado y otra impresora. Uno puede mandar desde estos dispositivos mensajes y
recibirlos a los ocupantes de la habitación contigua. Uno de los ocupantes es un ser humano
ordinario, mientras que el otro es un ordenador ejecutando un programa diseñado para emitir
respuestas a preguntas realizadas en un lenguaje. Durante un periodo determinado de tiempo,
por ejemplo, 10 minutos, tendrás la libertad de mandar las preguntas que quieras a los dos
ocupantes y escudriñar sus respuestas. La tarea es determinar, con la base de esas respuestas,
quién es el ser humano y quién la máquina. El ordenador pasará la prueba si no eres capaz de
determinar, excepto por suerte, quién de los interlocutores es el humano.

Este test fue propuesto en 1950. Turing predecía que una máquina sería capaz de pasarlo para
el año 2000. Y según Turing esto sería lo suficiente como para equiparar la inteligencia de la
máquina con la humana. Sin embargo al día de hoy tiene varias deficiencias.

Para empezar, supone juzgar la inteligencia de manera antropocéntrica: cuando entablamos


conversación con alguien que suponemos es una persona, a través del teléfono, sin conocerlo
ni verlo, asumimos que es inteligente. Además, la evidencia de inteligencia no basta con
obtener respuestas coherentes, sino que entabla todo un conjunto de conducta no-verbal que
no está representada en el test de Turing. Esto nos sugiere que bajo dicho test subyace una
concepción de la inteligencia desencarnada. Si nos encontramos con una máquina capaz de
elaborar buenas respuestas en un lenguaje pero incapaz de interactuar de ninguna manera con
el entorno (con lo que requeriría alguna suerte de sistema censo y motor), difícilmente
podemos decir que será inteligente: aparentemente el conocimiento debe ser adquirido y
contrastado constantemente mediante una exploración activa del entorno, tanto físico como
social, además de tratarse de resolver una tarea en concreto. En este sentido, quizá uno de los
requisitos que habrá que ponerle a una máquina que piense es que sea un robot capaz de
interactuar con un medio no virtual.

La HABITACIÓN CHINA DE SEARLE

Ya se ha abordado antes este experimento, pero destacamos algunas conclusiones


importantes:

Parece ser que el test de Turing tampoco implica por sí mismo que haya una comprensión o
entendimiento de la máquina por sus propias respuestas elaboradas, esto es, no nos dice que
la máquina deba poseer consciencia de sí misma. La inteligencia genuina sí que parece implicar
cierto grado de comprensión (aunque los animales no sabemos si tienen un concepto de sí
mismos, no dudamos en llamarles inteligentes…).

La conclusión de Searle es que la inteligencia no puede consistir meramente en la ejecución de


un programa de ordenador, que es un conjunto de reglas puramente formales que transmiten
ciertas cadenas de símbolos y las transforman. Más bien, la inteligencia que trabaje con signos
requiere que estos sean comprendidos en su significado; esto es, que se involucre no sólo una
correcta sintaxis, sino también una semántica. Sin embargo, todo esto apunta a que el test de
Turing por sí mismo es insuficiente para orientarnos en qué consiste la inteligencia.

EL PROBLEMA DEL MARCO

Parece que hemos descartado la idea de que una máquina que sólo pueda hacer una cosa de
manera inteligente pueda llamarse “inteligente” en su integridad (la máquina que juega al
ajedrez). Parte de lo que consiste ser inteligente es ser versátil y flexible con las reacciones,
especialmente en circunstancias novedosas o inesperadas.

La inteligencia requiere conocimiento (información), pero también implica la capacidad de


extender el propio conocimiento o modificarlo a la luz de nuevas experiencias y aplicarlo en las
circunstancias adecuadas. ¿Es posible conferir a una máquina con esta habilidad mediante un
programa? Si bien es posible dotar a una máquina de un amplio conocimiento experto en un
dominio, no queda claro cómo determinar su “relevancia”. Alguien podría sugerir dotarle a la
máquina diferentes programas especializados, cada uno dedicado a capturar algún rasgo del
conocimiento humano. El problema es que para realizar actividades de la vida cotidiana
tenemos que cambiar constantemente entre unos códigos y otros, así como determinar
prioridades. Si cualquier programador se enfrentase a la tarea de construir y determinar cada
tipo de situación en los que hay que cambiar de dominio posible en la vida real, no terminaría.
No hay un número finito de maneras diferentes en las que se puede enfrentar una actividad
que requiera de cierta inteligencia. La contingencia es infinita como para anticiparse a ella.

El problema que confronta a los defensores de la IA fuerte es lo que se concoce como


“problema del marco”. Consiste en la aparente imposibilidad de escribir un programa que no
sólo contenga el conocimiento general disponible a un ser humano, sino que también
especifique cómo es que este conocimiento debe ser aplicado en las circunstancias relevantes.
(sin considerar las dificultades que supone determinar lo que es “relevante” o “apropiado”).
Esto dicho de otro modo: no hay un conjunto de algoritmos o reglas computacionales que
puedan encarnar las cualidades del sentido común y el juicio que caracterizan a un ser humano
promedio. Esto debe incluir la ingenuidad humana latente en el sentido común.

CONEXIONISMO

Formulado lo anterior de manera aún más radical: llevar a cabo simples pasos de un programa
es meramente un procedimiento mecánico y por tanto, alguien podría decir que es la misma
antítesis del comportamiento inteligente. No se tiene mérito alguno. Por otro lado, no
valoramos las actividades que realizamos diariamente, que son altamente complejas y que no
podría realizar un ordenador: caminar en una habitación desordenada, hacer un sándwich con
ingredientes improvisados, etc. Esto se debe a que no son actividades que se dictan a sí
mismas las maneras en que hay que hacerlas de manera reglada y formal, sino que requieren
de cierta improvisación. Además, requieren que haya agentes con capacidades perceptuales y
motoras sofisticadas, capaces de reconocer una gran cantidad de objetos y moverse en
relación a ellos. Estas capacidades parece que no pueden programarse de antemano, sino que
se aprenden.

Si uno quisiera crear una máquina inteligente, ¿por qué no basarse en los modelos de las
creaturas que ya sabemos son inteligentes: nosotros mismos? Esto implica invertir el enfoque
tradicional de la IA, que intentaba dar luz a la naturaleza de la inteligencia humana compaando
el pensamiento con la ejecución de un ordenador. En cambio, hay que asumir que el cerebro
está construido de manera diferente a un sistema electrónico de diseño tradicional. Posee más
bien billones de células nerviosas conectadas entre sí en una red compleja y complicada. AL
red completa cambia constantemente de patrones de activación al estimularse las ´celulas
nerviosas de los órganos sensitivos por los acontecimientos en el entorno. Parece que no hay
un “procesador central” en el cerebro. Esto es, si queremos describir al cerebro como un
procesador de información, debemos asumir que utiliza procesamiento “en paralelo” antes
que serial, a escala masiva.

Recientemente se han construido las llamadas “máquinas conexionistas”, cuya arquitectura es


más comparable a la de un cerebro animal o un sistema nervioso. Además, se intenta que en
dichas máquinas haya una interacción continua entre diferentes partes del sistema.
Funcionando de modo parecido a redes neuronales artificiales: unidades de procesamiento
simples dispuestas en capas y conectadas entre sí de múltiples maneras. Típicamente, este
tipo de máquinas tiene tres caoas de unidades: una capa de input, otra intermedia, y
finalmente otra de salida. Cada unidad en una capa está conectada a alguna otra o todas las
unidades de la capa siguiente. En el caso más simple, las unidades tienen sólo dos posibles
estados de activación: encendidas o apagadas. El estado de activación de una unidad
intermedia o una unidad de salida dependerá de los estados de activación de las unidades en
las capas inferiores conectadas a ella, así como de su “fuerza” o “peso”. Estas conexiones-
fuerzas pueden ser modificadas lo suficiente como para alterar las maneras en las que los
patrones activación fluyen a través del sistema de unidades. El estado de activación de una
unidad de entrada dependerá de los datos con los que se alimente la máquina, que derivan,
por ejemplo, de un dispositivo sensor. El estado de activación de las unidades de salida de las
máquinas constituyen la respuesta a los datos que se le otorgan.

La ventaja de este diseño neuronal sobre la IA tradicional consiste en que se efectúan tareas
de reconocimiento de patrones con mayor efectividad, por ejemplo, el reconocimiento de
letras del alfabeto impresas en diversas superficies, incluso degradadas. A su vez, la red es
capaz de seguir funcionando incluso cuando hay un fallo en alguna unidad. Como un sistema
nervioso orgánico, necesitan de cierto “entrenamiento” para ser capaces de realizar
óptimamente sus tareas, que implican hacer ajustes a las conexiones entre las unidades, así
como sintonizar las respuestas de la máquina a los datos de entrada. Hay algoritmos, reglas
computacionales, que guían cómo estos ajustes habrán de hacerse durante el periodo de
“entrenamiento”. Podemos decir, en suma, que hay cierto aprendizaje de la máquina, en tanto
que sus habilidades se adquieren y perfeccionan mediante el proceso de prueba y error.

Muchos filósofos creen que este tipo de redes neuronales proveen un buen modelo acerca de
cómo funciona la mente humana. Incluso creen que esto ayuda a prescindir de los “estados
mentales proposicionales” como las creencias. Sin embargo, a diferencia de las máquinas
tradicionales que computan información determinada y discreta, estas máquinas conexionistas
representan la información de manera distribuida, esto es: la información no es localizable en
un conjunto determinado de unidades, sino que depende del tipo de patrones de activación y
fuerzas de conexión. También se dice que este tipo de máquinas es incapaz de lograr la
comprensión lingüística y el razonamiento, en los que la IA tradicional parece ser más
promisoria.

También hay aproximaciones híbridas. El conexionismo parece ser satisfactorio para dar
cuenta de nuestras capacidades sensoras y perceptivas, mientras que el modelo tradicional
para explicar nuestra capacidad de inferencia lógica. Si bien el cerebro físico parece ser una
“máquina conexionista”, esto no implica que sea capaz de realizar procesos computacionales
de manera serial. En el fondo, toda máquina que pueda realizar acciones computables es
equiparable a la máquina de Turing, por lo que la objeción que hace Searle con su habitación
China también podría aplicarse a este tipo de máquinas.

Quizá algún día seamos capaces de construir máquinas robóticas con diseño conexionista que
puedan aprender a través de procesos de educación y socialización similares a los niños y que
parezcan actual de manera autónoma, motivados por sus propios objetivos. Tales máquinas
ciertamente deberían llamarse “inteligentes” y a la vez “artificiales”. Sin embargo, es factible
que sus creadores sigan siendo incapaces de entender la base de sus capacidades cognitivas,
tal como sucede con la ignorancia que aún poseen los neurocientíficos. No hay garantía de que
la computación posea la clave para la cognición.
CONCLUSIONES

No hay manera de demostrar empíricamente que los seres humanos son totalmente
racionales o que las máquinas piensan. Tampoco es posible plantear cómo se razona
correctamente -más allá del ámbito lógico, matemático y formal. La noción misma de
“racionalidad” parece ambigua y depende siempre de un contexto de aplicación. Tanto las
nociones de “racionalidad” e “inteligencia” parecen ser difusas y si bien el Test de Turing
puede servir de guía, se ciñe meramente a la evidencia verbal de la inteligencia. No está claro
cómo la computación de cualquier tipo, sea serial o paralela, provee la llave para entender la
cognición humana. La computabilidad es una de nuestras capacidades cognitivas, entre otras,
pero aplicar este modelo a todas nuestras capacidades parece ser posible sólo como metáfora.
Se desechan la sensación y la emoción, así como otros aspectos biológicos y motivaciones. Una
criatura sin objetivos propios no puede decirse que razone, por lo que una máquina sin ellos
no puede decirse que piense.

También podría gustarte