Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Vea discusiones, estadísticas y perfiles de autor para esta publicación en: https://www.researchgate.net/publication/2928775
La mente como el software del cerebro
Artículo ∙ Mayo 2004
Fuente: CiteSeer
CITAS LEE
136 5,793
1 autor:
Bloque Ned
Universidad de Nueva York
151 PUBLICACIONES 11.297 CITAS
VER EL PERFIL
Algunos de los autores de esta publicación también están trabajando en estos proyectos relacionados:
Cerebro base de la conciencia Ver proyecto
La base cerebral de la cognición consciente: ahora hay mucha evidencia. Ver Proyecto
Todo el contenido que sigue a esta página fue subido por Ned Block el 19 de febrero de 2013.
El usuario ha solicitado la mejora del archivo descargado.
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
La mente como el software del cerebro
Bloque Ned
Universidad de Nueva York
1. Inteligencia artificial
2. Inteligencia e Intencionalidad
3. El funcionalismo y el lenguaje del pensamiento
4. Argumento de la habitación china de Searle
Los científicos cognitivos suelen decir que la mente es el software del cerebro. Este capítulo trata sobre lo que significa esta
afirmación.
1. Inteligencia artificial
En esta sección, comenzaremos con un influyente intento de definir la "inteligencia", y luego pasaremos a considerar cómo se debe
investigar la inteligencia humana en el modelo de máquina. La última parte de la sección discutirá la relación entre lo mental y lo
biológico.
1.1 La prueba de Turing
Un enfoque de la mente ha sido evitar sus misterios simplemente definiendo lo mental en términos de comportamiento. Este
enfoque ha sido popular entre los pensadores que temen que reconocer estados mentales que no se reducen a la conducta haría
que la psicología no sea científica, porque los estados mentales no reducidos no son intersubjetivamente accesibles a la manera de
las entidades de las ciencias duras. El "conductismo", como se denomina el intento de reducir lo mental a lo conductual, se ha
considerado a menudo como refutado, pero periódicamente reaparece bajo nuevas formas.
Los conductistas no definen lo mental en términos de simple comportamiento, ya que, después de todo, algo puede ser
inteligente incluso si nunca ha tenido la oportunidad de exhibir su inteligencia. Los conductistas definen lo mental no en términos de
comportamiento, sino más bien de disposiciones conductuales , la tendencia a emitir ciertos comportamientos ante ciertos
estímulos. Es importante que los estímulos y la conducta se especifiquen de forma no mentalista. Así, la inteligencia no podría
definirse en términos de la disposición a dar respuestas sensibles a las preguntas, ya que eso sería definir una noción mental en
términos de otra noción mental (de hecho, una estrechamente relacionada).
Para ver la dificultad de los análisis conductistas, uno tiene que apreciar cuán mentalistas son nuestras descripciones
conductuales ordinarias. Considere, por ejemplo, lanzar. Una serie de movimientos que constituyen arrojar si es producido por una
causa mental podría ser un baile para espantar las hormigas si es producido por otra.
AM Turing (1950) presentó una definición conductista de inteligencia especialmente influyente.
Turing, uno de los matemáticos que descifraron el código alemán durante la Segunda Guerra Mundial, formuló la idea de la
máquina de Turing universal, que contiene, en forma matemática, la esencia de la
1 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
computadora digital programable. Turing quería definir la inteligencia de una manera que se aplicara tanto a los hombres
como a las máquinas y, de hecho, a todo lo que es inteligente. Su versión del conductismo formula la cuestión de si las
máquinas podrían pensar o ser inteligentes en términos de si podrían pasar la siguiente prueba: un juez en una sala se
comunica por teletipo (¡Esto fue en 1950!) con una computadora en una segunda sala y una persona en una tercera
habitación por un período específico. (Digamos una hora.) La computadora es inteligente si y solo si el juez no puede
diferenciar entre la computadora y la persona. La definición de Turing resolvió el difícil problema de especificar de
forma no mentalista las disposiciones conductuales que son características de la inteligencia incorporando la
conducta discriminatoria de un juez humano. Y la definición generaliza. Cualquier cosa es inteligente en caso de
que pueda pasar la prueba de Turing.
Turing sugirió que reemplazáramos el concepto de inteligencia con el concepto de pasar la prueba de Turing.
Pero, ¿para qué es el reemplazo ? Si el propósito del reemplazo es práctico, la prueba de Turing no es de gran
utilidad. Si uno quiere saber si una máquina juega bien al ajedrez, diagnostica una neumonía o planifica una estrategia de
fútbol, es mejor ver cómo se desempeña la máquina en acción que hacer que tome una prueba de Turing. Por un lado, lo
que nos importa es que detecte bien la neumonía, no que lo haga de una manera indistinguible de la forma en que lo haría
una persona. Entonces, si hace el trabajo, ¿a quién le importa si no pasa la prueba de Turing?
Un segundo propósito podría ser la utilidad para propósitos teóricos. Pero las máquinas que pueden pasar la prueba de
Turing, como ELIZA de Weizenbaum (ver más abajo), han sido callejones sin salida en la investigación de inteligencia
artificial, no comienzos emocionantes. (Ver "Mimetismo versus Exploración" en Marr 1977 y Shieber, 1994.)
Un tercer propósito, el que más se acerca a las intenciones de Turing, es el propósito de la clarificación
conceptual. Turing fue famoso por haber formulado un concepto matemático preciso que ofreció como reemplazo de la vaga
idea de computabilidad mecánica. El concepto preciso (computabilidad por una máquina de Turing) hizo todo lo que uno
quisiera que hiciera un concepto preciso de computabilidad mecánica. Sin duda, Turing esperaba que la concepción de
inteligencia de la prueba de Turing arrojaría todo lo que uno desearía de una definición de inteligencia sin la vaguedad
del concepto ordinario.
Construida como una propuesta sobre cómo precisar el concepto de inteligencia, hay un vacío en la propuesta de Turing:
no se nos dice cómo se elegirá al juez. Un juez que fuera una autoridad líder en máquinas genuinamente inteligentes podría
saber cómo diferenciarlas de las personas. Por ejemplo, el experto puede saber que las máquinas inteligentes actuales
resuelven correctamente ciertos problemas que las personas resuelven mal. Turing reconoció este punto al descartar la
afirmación de que ser capaz de pasar el Test de Turing es una condición necesaria de la inteligencia, debilitando su
afirmación de que pasar el Test de Turing es una condición suficiente para la inteligencia. Él dice: "¿No pueden las máquinas
llevar a cabo algo que debería describirse como pensar pero que es muy diferente de lo que hace un hombre? Esta
objeción es muy fuerte, pero al menos podemos decir que si, sin embargo, una máquina puede ser construida para
jugar satisfactoriamente el juego de la imitación, no debemos preocuparnos por esta objeción” (p. 435) En otras
palabras, una máquina que pasa es necesariamente inteligente, incluso si algunas máquinas inteligentes fallan.
Pero el problema de cómo especificar las cualidades del juez va más allá de lo que reconoce Turing, y compromete
también la prueba de Turing como condición suficiente. Un juez estúpido, o uno que no haya tenido contacto con la
tecnología, podría pensar que una radio es inteligente. Las personas que son ingenuas con las computadoras son
increíblemente fáciles de engañar, como se demostró en la Primera Prueba de Turing en el Museo de Computación de
Boston en 1991. (Ver Shieber, 1994) Una versión de ELIZA de Weizenbaum (descrita en el siguiente párrafo) fue
clasificada como humana por cinco de diez jueces. La prueba fue "restringida" en el sentido de que a los programadores de
computadoras se les dieron temas específicos a los que se limitarían sus preguntas y se prohibió a los jueces hacer
preguntas "complicadas". Por ejemplo, si el tema fuera Washington DC, no se suponía que un juez hiciera preguntas
como "¿Washington DC es más grande que una caja de pan?". Sin embargo, el tema del programa ganador fue
"conversación caprichosa", una forma "elegante" de interactuar con la que todos los jueces aceptaron de inmediato, y que
habría tenido el mismo efecto, incluso sin temas establecidos. Además, no se aplicaron las restricciones a las
preguntas no complicadas. (Hablo como uno de los árbitros que no los hizo cumplir). En su mayor parte, los jueces inexpertos
en computación realmente no sabían cómo formular una pregunta difícil. Por lo tanto, la
2 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Se puede considerar que la variante de ELIZA ha tenido un buen desempeño en una prueba de Turing sin restricciones. Las variantes de ELIZA
(todas escritas por Joseph Weintraub) también obtuvieron la victoria en la Segunda y Tercera Prueba de Turing. El resultado es que ya se ha
demostrado que un programa de computadora completamente estúpido pasa un facsímil razonable de una prueba de Turing.
ELIZA es un sencillo programa escrito por Joseph Weizenbaum que en una versión imita a un psiquiatra. Véase Weizenbaum (1976). Emplea un
grupo de estrategias simples pero efectivas. Por ejemplo, busca "palabras clave" en una lista proporcionada por el programador, por ejemplo,
'yo', 'tú', 'igual', 'padre' y 'todos'. Las palabras están ordenadas; por ejemplo, 'padre' viene antes que 'todos', por lo que si escribes "Mi padre le
tiene miedo a todos", la máquina escupirá una de sus respuestas de "padre", como "¿QUÉ MÁS TE PARECE CUANDO PIENSAS?" DE
TU PADRE?" Si escribes "Todos se rieron de mí", obtendrás una de sus respuestas a 'todos', como "¿EN QUIÉN EN PARTICULAR ESTÁS
PENSANDO?" También tiene técnicas que transforman simultáneamente 'tú' en 'yo', y 'yo' en 'tú', de modo que si escribes "No estás de acuerdo
conmigo", puede responder: "¿POR QUÉ CREES QUE YO ¿NO ESTOY DE ACUERDO CON USTED?" También almacena oraciones que
contienen ciertas palabras clave como 'mi'. Si su entrada actual no contiene palabras clave, pero si antes dijo "Mi novio me obligó a venir
aquí", el programa dirá "¿ESTO TIENE ALGO QUE VER CON EL HECHO DE QUE SU NOVIO LE HIZO VENIR AQUÍ?" También tiene
respuestas comunes a 'Parlez vous Francais' (o cualquier otra oración con 'Francais'), a saber, "SÓLO HABLO INGLÉS". Si todo lo demás falla,
la máquina tiene una lista de respuestas de última hora como "¿QUIÉN ES EL PSIQUIATRA AQUÍ, USTED O YO?"
Este tipo de programa es fácil de tropezar si sabe cómo funciona. Por ejemplo, en la Primera prueba de Turing, un juez dijo: "Estás tratando
de hacerme esto difícil, ¿no?" y el programa respondió más o menos de la siguiente manera: "¿Preferirías que no fuera cierto que estás tratando
de ponerte esto difícil, verdad?"
Como señala Shieber, las reglas de transposición de pronombres no pueden manejar "preguntas de etiqueta" que terminan con, por
ejemplo, "¿no eres tú?"
El punto que ilustra este programa es que un programa simple puede ser extraordinariamente exitoso en actividades similares a pasar
la prueba de Turing. @comentario< Weizenbaum informa@nota{Comunicación personal} que un científico informático que
sabía todo sobre el programa le envió un mensaje de computadora mientras Weizenbaum estaba tomando una siesta pero tenía activado el
modo psiquiatra. El colega le estaba pidiendo a Weizenbaum que cerrara la sesión, porque Weizenbaum estaba bloqueando la computadora
sin usarla, y el colega quería usar la máquina. Los mensajes de la colega fueron contestados por ELIZA, y la conversación pudo haber
ido de la siguiente manera. (Obtuve las respuestas de ELIZA a estas preguntas de una versión para PC del programa.) "Joe, por favor, cierra la
sesión". ESTABAMOS HABLANDO DE USTED, NO YO "Necesito usar la computadora". ¿TE PREOCUPAN LAS COMPUTADORAS? "No, las
computadoras no me preocupan". ¿QUÉ CREES QUE TIENEN QUE VER LAS MÁQUINAS CON TU PROBLEMA? "Venga ya." ¿POR QUÉ
DICES ESO? El colega, un profesional que sabía todo sobre ELIZA no tenía idea de que no estaba hablando con un humano, y llamó a
Weizenbaum en un ataque de rabia.> El programa de Weizenbaum no es sofisticado ni complejo para los estándares actuales (hay una
versión para PC que solo es 200 líneas en BASIC), sin embargo, este tipo de programa es mejor para pasar la Prueba de Turing que cualquier
otro escrito hasta la fecha, como lo demuestran las tres victorias consecutivas en las Pruebas de Turing mencionadas anteriormente.
¡Imagínese lo convincente que sería producir un programa si el presupuesto de Defensa se dedicara a esta tarea durante un año! Pero incluso
si una iniciativa gubernamental de alto presupuesto produjera un programa que fuera bueno para pasar la prueba de Turing, si el programa fuera
solo un conjunto de trucos como el programa Weizenbaum, con tipos de preguntas pensados de antemano y respuestas enlatadas colocadas en
la máquina , la máquina no sería inteligente.
Una forma de abordar el problema de la especificación del juez es hacer que algún tipo de caracterización de las cualidades
mentales del juez forme parte de la formulación del Test de Turing. Por ejemplo, se podría especificar que el juez tenga un conocimiento
moderado sobre computadoras y sea bueno para pensar, o mejor, bueno para pensar sobre el pensamiento. Pero incluir una especificación
de las cualidades mentales del juez en la descripción de la prueba arruinará la prueba como una forma de definir el concepto de inteligencia en
términos no mentalistas. Además, si vamos a especificar que el juez sea bueno para pensar sobre el pensamiento, también podríamos renunciar
a que el juez juzgue qué concursantes son humanos o
3 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
máquinas y que el juez juzgue lo que piensan los concursantes. Y entonces, la idea de la prueba de Turing sería: una máquina piensa si nuestros
mejores pensadores (sobre el pensamiento) piensan que piensa. Aunque esto suene a tópico, en realidad es falso. Incluso nuestros mejores
pensadores son falibles. Lo máximo que se puede afirmar es que si nuestros mejores pensadores piensan que algo piensa, entonces es racional que
creamos que lo hace.
Le he dado mucha importancia a la afirmación de que los jueces pueden ser engañados por una máquina sin sentido que es solo una bolsa de trucos.
"Pero", puede objetar, "¿Cómo sabemos que no somos solo una bolsa de trucos?". Por supuesto, en cierto sentido tal vez lo estemos, pero ese
no es el sentido relevante para lo que está mal con la prueba de Turing. Para ver este punto, considere lo último en personas no inteligentes que
pasan la prueba de Turing, una máquina hipotética que contiene todas las conversaciones de una duración determinada en las que las
respuestas de la máquina tienen sentido. Estipulemos que la prueba dura una hora. Dado que hay un límite superior en la rapidez con la que puede
escribir un mecanógrafo humano, y dado que hay un número finito de teclas en un teletipo, existe un límite superior en la "longitud" de una
conversación de prueba de Turing. Por lo tanto, hay un número finito (aunque más que astronómico) de diferentes conversaciones de prueba de Turing,
y no hay contradicción en la idea de enumerarlas todas.
Llamemos a una cadena de caracteres que se pueden escribir en una hora o menos una cadena "escribible". En principio, se podrían generar
todas las cadenas tipeables, y un equipo de programadores inteligentes podría descartar todas las cadenas que no se pueden interpretar como una
conversación en la que al menos una de las partes (por ejemplo, el segundo contribuyente) tiene sentido. Las cadenas restantes (llamémoslas
cadenas sensibles) podrían almacenarse en una computadora hipotética (digamos, con marcas que separan las contribuciones de las partes
separadas), que funciona de la siguiente manera.
El juez escribe algo. Luego, la máquina localiza una cadena que comienza con el comentario del juez y arroja el siguiente elemento. El juez
luego escribe algo más. La máquina encuentra una cadena que comienza con la primera contribución del juez, seguida por la de la máquina, seguida por
la siguiente contribución del juez (la cadena estará allí ya que todas las cadenas sensibles están allí), y luego la máquina escupe su cuarto elemento,
y así en. (Podemos eliminar la suposición simplificadora de que el juez habla primero registrando pares de cadenas; esto también permitiría que
el juez y la máquina hablen al mismo tiempo). Por supuesto, tal máquina solo es lógicamente posible, no físicamente posible. La cantidad de cadenas
es demasiado grande para existir, e incluso si pudieran existir, ningún tipo de máquina podría acceder a ellas en tiempo real. Pero dado que estamos
considerando una definición propuesta de inteligencia que se supone que captura el concepto de inteligencia, la posibilidad conceptual hará el
trabajo. Si se supone que el concepto de inteligencia está agotado por la capacidad de pasar el Test de Turing, entonces incluso un universo en el
que las leyes de la física son muy diferentes a las nuestras debería contener exactamente tantos no inteligentes que pasaron el Test de Turing
como solteros casados, a saber, cero.
Tenga en cuenta que la elección de una hora como límite para la prueba de Turing no tiene consecuencias, ya que el procedimiento que se acaba de
describir funciona para cualquier prueba de Turing finita.
La siguiente variante de la máquina puede ser más fácil de entender. Los programadores comienzan escribiendo todas las cadenas que se pueden
escribir, llámelas A1...An. Luego piensan en una sola respuesta sensata para cada uno de ellos, que podemos llamar B1...Bn. (En realidad, habrá
menos B que A porque algunos de los A ocuparán toda la hora.) A los programadores les resultará más fácil si creen que simulan una personalidad
definida, digamos mi tía Bubbles, y algunos situación definida, digamos que la tía Bubbles es llevada a la sala de teletipos por su extraño sobrino
y se le pide que responda preguntas durante una hora. Entonces, cada una de las B será el tipo de respuesta que la tía Bubbles le daría a la A
anterior. Por ejemplo, si A73 es "Explicar la relatividad general", B73 podría ser "Pregúntale a mi sobrino, él es el profesor". ¿Qué pasa con las
respuestas del juez a cada una de las B? El juez puede dar cualquier respuesta hasta el límite de longitud remanente, por lo que debajo de cada una
de las Bs, brotará un gran número de Cs (amplio, pero menor que el número de Bs, ya que el tiempo remanente ha disminuido). La siguiente tarea
de los programadores es producir solo una D para cada una de las C. Entonces, si la B que acabamos de mencionar es seguida por una C que es
"xyxyxyxyxyxyxy!" (Recuerde, el juez no tiene que tener sentido), los programadores podrían hacer la siguiente D "Mi sobrino me advirtió que
podría escribir algunos mensajes extraños".
Piense en las conversaciones como caminos hacia abajo a través de un árbol, comenzando con un Ai del juez, una respuesta, Bi
4 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
de la máquina, etc. Ver Figura 1. Para cada AiBiCi j que es el comienzo de una conversación, el
los programadores deben producir una D que tenga sentido dadas las A, B y C que la preceden.
Figura 1: Una conversación es cualquier camino de arriba hacia abajo.
La máquina funciona de la siguiente manera. El juez va primero. Cualquier cosa que el juez escriba (errores tipográficos y todo)
es uno de A1...An. La máquina localiza la A en particular, digamos A2398, y luego escupe B2398, una respuesta elegida por
los programadores como apropiada para A2398. El juez escribe otro mensaje, y la máquina lo encuentra nuevamente en la
lista de C que brotan debajo de B2398, y luego escupe la respuesta pregrabada (que tiene en cuenta lo que se dijo en A2398
y B2398). Etcétera. Aunque la máquina puede funcionar tan bien en la prueba de Turing de una hora como la tía Bubbles,
tiene la inteligencia de una máquina de discos. Los programadores pensaron específicamente en cada comentario
inteligente que produce como una respuesta al comentario anterior del juez en el contexto de la conversación anterior.
Aunque esta máquina es demasiado grande para existir, no hay nada incoherente o contradictorio en su
especificación, por lo que es suficiente para refutar la interpretación conductista de la prueba de Turing de la que he estado
hablando.1
Tenga en cuenta que hay un límite superior sobre cuánto tiempo puede funcionar una máquina particular de Aunt Bubbles en
una prueba de Turing, un límite establecido por la longitud de las cadenas que se le ha dado. Por supuesto, las personas reales
también tienen sus límites superiores, dado que las personas reales eventualmente renunciarán o morirán. Sin embargo,
existe una diferencia muy importante entre la máquina de la tía Bubbles y una persona real. Podemos definir
'competencia' como un desempeño idealizado. Entonces, en relación con las idealizaciones apropiadas, bien puede ser que
las personas reales tengan una competencia infinita para continuar. Es decir, si a los seres humanos se les proporcionara
una memoria ilimitada y sistemas motivacionales que dieran un peso infinito a la prueba de Turing, podrían continuar para
siempre (al menos según la sabiduría convencional en la ciencia cognitiva). Este definitivamente no es el caso de la máquina Aunt Bubbles.
Pero esta diferencia no proporciona ninguna objeción a la máquina de la tía Bubbles como una refutación de la concepción de
la inteligencia de la prueba de Turing, porque la noción de competencia no es conductistamente aceptable, ya que requiere para
su especificación, una distinción entre los componentes de la mente. Por ejemplo, los mecanismos del pensamiento deben
distinguirse de los mecanismos de la memoria y la motivación.
"Pero", puede objetar, "¿no es bastante chovinista suponer que una máquina debe procesar información de la misma manera
que lo hacemos nosotros para ser inteligentes?" Respuesta: Tal suposición ciertamente sería chovinista, pero no la asumo. El
punto en contra de la concepción de la inteligencia de la prueba de Turing no es que la máquina de la tía Bubbles no
procesaría la información de la manera en que lo hacemos, sino que la forma en que procesa la información no es inteligente
a pesar de su desempeño en la prueba de Turing.
En última instancia, el problema con la prueba de Turing para propósitos teóricos es que se enfoca en el desempeño más
que en la competencia. Por supuesto, el desempeño es evidencia de competencia, pero el núcleo de nuestra
comprensión de la mente radica en la competencia mental, no en el desempeño conductual. El elenco conductista
5 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
de la mente que lleva a la concepción de inteligencia del test de Turing también lleva a etiquetar las ciencias de la mente
como "las ciencias del comportamiento". Pero, como ha señalado Chomsky (1959), eso es como llamar a la física la ciencia
de las lecturas de contadores.
1.2 Dos tipos de definiciones de inteligencia
Hemos estado hablando de un intento de definir la inteligencia utilizando los recursos de la prueba de Turing.
Sin embargo, existe un enfoque muy diferente para definir la inteligencia.
Para explicar este enfoque, será útil contrastar dos tipos de definiciones de agua. Uno podría considerarse mejor como
una definición de la palabra 'agua'. La palabra podría definirse como el líquido incoloro, inodoro e insípido que se encuentra
en lagos y océanos. En este sentido de 'definición', la definición de 'agua' está disponible para cualquiera que hable el
idioma, incluso para alguien que no sepa de ciencia. Pero uno también podría definir el agua diciendo qué es realmente
el agua, es decir, diciendo qué estructura fisicoquímica de hecho hace que algo sea agua pura. La respuesta a esta
pregunta implicaría su constitución química: H2O.
Definir una palabra es algo que podemos hacer en nuestro sillón, consultando nuestras intuiciones lingüísticas sobre
casos hipotéticos, o, saltándose este proceso, simplemente estipulando un significado para una palabra. Definir (o
explicar) la cosa es una actividad que implica una investigación empírica de la naturaleza de algo en el mundo.
Lo que hemos estado discutiendo hasta ahora es el primer tipo de definición de inteligencia, la definición de la palabra,
no la cosa. La definición de Turing no es el resultado de una investigación empírica sobre los componentes de la inteligencia
del tipo que condujo a la definición del agua como H2O. Más bien, esperaba evitar el pensamiento turbio sobre la
inteligencia de las máquinas al estipular que la palabra "inteligente" debería usarse de cierta manera, al menos con respecto
a las máquinas. Una manera muy diferente de proceder es investigar la inteligencia misma como los químicos físicos
investigan el agua. Consideraremos cómo podría hacerse esto en la siguiente sección, pero primero debemos señalar una
complicación.
Hay dos tipos (al menos) de tipos: tipos estructurales como el agua o el tigre, y tipos funcionales como la ratonera o el gen.
Un tipo estructural tiene una "esencia compositiva oculta"; en el caso del agua, la esencia compositiva se trata de sus
moléculas que consisten en dos moléculas de hidrógeno y una molécula de oxígeno. Los tipos funcionales, por el contrario,
no tienen esencia que sea una cuestión de composición. Cierto tipo de función, un papel causal, es la clave para ser una
ratonera o un carburador. (La historia completa es bastante compleja: algo puede ser una ratonera porque está hecho
para serlo incluso si no cumple muy bien esa función). Lo que hace que un trozo de ADN sea un gen es su función
con respecto a los mecanismos que pueden lea la información que codifica y use esta información para hacer un
producto biológico.
Ahora bien, la propiedad de ser inteligente es sin duda de tipo funcional, pero todavía tiene sentido investigarla
experimentalmente, al igual que tiene sentido investigar los genes experimentalmente. Un tema de investigación es el
papel de la inteligencia en la resolución de problemas, la planificación, la toma de decisiones, etc. Qué funciones
están involucradas en un tipo funcional es a menudo una pregunta empírica difícil e importante. El proyecto de la
genética mendeliana ha sido investigar la función de los genes a un nivel de descripción que no involucra sus
realizaciones moleculares. Un segundo tema de investigación es la naturaleza de las realizaciones que tienen la función
en nosotros, en los humanos: el ADN en el caso de los genes. Por supuesto, si hay marcianos, sus genes pueden no estar
compuestos de ADN. De manera similar, podemos investigar los detalles funcionales y la base física de la inteligencia
humana sin prestar atención al hecho de que nuestros resultados no se aplicarán a otros mecanismos de otras
inteligencias hipotéticas.
1.3 Análisis funcional
6 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Ambos tipos de proyectos que acabamos de mencionar se pueden llevar a cabo a través de una metodología común, una
metodología a veces conocida como análisis funcional. Piense en la mente humana representada por un ser inteligente en la cabeza, un
"homúnculo". Piensa en este homúnculo como si estuviera compuesto de homúnculos más pequeños y más estúpidos, y cada
uno de ellos compuesto por homúnculos aún más pequeños y más estúpidos hasta que alcances un nivel de homúnculos completamente
mecánicos. (Esta imagen se articuló por primera vez en Fodor (1968); véase también Dennett (1974) y Cummins (1975).)
Supongamos que uno quiere explicar cómo entendemos el lenguaje. Parte del sistema reconocerá palabras individuales. Este
reconocedor de palabras puede estar compuesto por tres componentes, uno de los cuales tiene la tarea de buscar cada palabra
entrante, una a la vez, y pasarla a un segundo componente. El segundo componente incluye un diccionario, es decir, una lista de todas las
palabras del vocabulario, junto con la información sintáctica y semántica de cada palabra. Este segundo componente compara la
palabra objetivo con palabras en el vocabulario (quizás ejecutando muchas comparaciones de este tipo simultáneamente) hasta
que obtiene una coincidencia. Cuando encuentra una coincidencia, envía una señal a un tercer componente cuyo trabajo es recuperar
la información sintáctica y semántica almacenada en el diccionario. Se supone que esta especulación sobre cómo funciona un modelo de
comprensión del lenguaje ilustra cómo se puede explicar una competencia cognitiva apelando a competencias cognitivas más
simples, en este caso, las simples operaciones mecánicas de buscar y emparejar.
La idea de este tipo de explicación de la inteligencia proviene de la atención prestada a la forma en que funcionan las computadoras.
Considere una computadora que multiplica m por n sumando m a cero n veces. Aquí hay un programa para hacer esto. Piense en m y n
como se representan en los registros M y N en la figura 2. El registro A está reservado para la respuesta, a. Primero, se coloca una
representación de 0 en el registro A. Segundo, se examina el registro N para ver si contiene (una representación de) 0. Si la respuesta es
sí, el programa se detiene y la respuesta correcta es 0. (Si n = 0, m por n = 0.) Si no, N se decrementa en 1 (así que el registro N ahora
contiene una representación de n1), y (una representación de) m se agrega al registro de respuesta, A. Entonces, el procedimiento regresa
al segundo paso: el registro N se verifica una vez más para ver si su valor es 0; si no, se decrementa nuevamente en 1, y nuevamente se
agrega m al registro de respuesta. Este procedimiento continúa hasta que N finalmente tiene el valor 0, en cuyo momento se habrá
agregado m al registro de respuesta exactamente n veces. En este punto, el registro de respuesta contiene una representación de la
respuesta.
Figura 2: Programa para multiplicar. Uno comienza la multiplicación poniendo representaciones de m y n, los números a
multiplicar, en los registros M y N. Al final del cálculo, la respuesta se encontrará en el registro A. Consulte el texto para
obtener una descripción de cómo funciona el programa. obras.
Este programa multiplica a través de una "descomposición" de la multiplicación en otros procesos, a saber, la suma, la resta de 1, el
establecimiento de un registro en 0 y la verificación de un registro para 0. Dependiendo de cómo se hagan estas cosas, pueden ser más
descomponibles, o pueden ser el nivel inferior fundamental
7 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
procesos, conocidos como procesos primitivos.
La definición o explicación de la ciencia cognitiva de la inteligencia es análoga a esta explicación de la multiplicación. Las
capacidades inteligentes se entienden a través de la descomposición en una red de capacidades menos inteligentes, basadas en
última instancia en capacidades totalmente mecánicas ejecutadas por procesadores primitivos.
El concepto de proceso primitivo es muy importante; la siguiente sección está dedicada a ello.
1.4 Procesadores primitivos
¿Qué hace que un procesador sea primitivo? Una respuesta es que para los procesadores primitivos, la pregunta "¿Cómo funciona el
procesador?" no es una pregunta que deba responder la ciencia cognitiva. El científico cognitivo responde "¿Cómo funciona el
multiplicador?" en el caso del multiplicador descrito anteriormente, dando el programa o el diagrama de flujo de información para el
multiplicador. Pero si los componentes del multiplicador, digamos las puertas que componen el sumador, son primitivos, entonces
no es asunto del científico cognitivo responder a la pregunta de cómo funciona esa puerta. El científico cognitivo puede decir: "Esa
pregunta pertenece a otra disciplina, la teoría de circuitos electrónicos". Distinguir la cuestión de cómo funciona algo de la cuestión
de qué hace. La cuestión de qué hace un procesador primitivo es parte de la ciencia cognitiva, pero la cuestión de cómo lo hace no lo
es.
Esta idea se puede aclarar un poco al observar cómo funciona realmente un procesador primitivo. El ejemplo involucrará un tipo común
de sumador de computadora, simplificado para agregar solo un dígito.
Para comprender este ejemplo, debe conocer los siguientes hechos simples sobre la notación binaria: 2 0 y 1 se representan de la
misma manera en notación binaria y normal (decimal), pero la representación binaria que corresponde al '2' decimal es
'10'. Nuestro sumador resolverá los siguientes cuatro problemas:
0 + 0 = 0
1 + 0 = 1
0 + 1 = 1
1 + 1 = 10
Las primeras tres ecuaciones son verdaderas tanto en binario como en decimal, pero la última es verdadera solo si se entiende
en binario.
El segundo elemento de información de fondo es la noción de puerta. Una puerta "Y" es un dispositivo que acepta dos entradas
y emite una sola salida. Si ambas entradas son '1's, la salida es un '1'; de lo contrario, la salida es un '0'. Una puerta "EXCLUSIVA
O" (cualquiera de las dos, pero no ambas) es un "detector de diferencia": emite un '0' si sus entradas son las mismas (es decir, '1'/'1' o
'0'/'0'). ), y emite un '1' si sus entradas son diferentes (es decir, '1'/ '0' o '0'/ '1')
Esta charla de '1' y '0' es una forma de pensar sobre los estados "biestables" de los representantes de computadora. Estos
representantes están hechos para que estén siempre en uno u otro de los dos estados, y solo momentáneamente en el medio. (Esto
es lo que es ser biestable.) Los estados pueden ser un potencial de 4 voltios y 7 voltios. Si los dos estados de entrada de una puerta
son los mismos (por ejemplo, 4 voltios), y la salida también es la misma (4 voltios), y si cualquier otra combinación de entradas
produce la salida de 7 voltios, entonces la puerta es una puerta Y , y el estado de 4 voltios realiza '1'. (Alternativamente, si se toma
el estado de 4 voltios para realizar '0', la compuerta es una compuerta "inclusiva o" (cualquiera o ambas).) Se puede hacer un tipo
diferente de compuerta AND para que el estado de 7 voltios realice ' 1 '. El punto es que '1' se asigna convencionalmente a cualquier
estado físico biestable de una compuerta AND que tenga el rol mencionado, es decir, '1' se asigna convencionalmente a cualquier
estado en el que dos de ellos como entradas produzcan
8 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
otro como salida, y nada más produce esa salida. Y todo lo que cuenta sobre una compuerta AND desde el punto de
vista computacional es su función de entradasalida, no cómo funciona o si 4 o 7 voltios generan un '1'. Tenga en
cuenta la terminología que he estado usando: uno habla de un estado físico (potencial de 4 voltios) como "realizando"
un estado computacional (que tiene el valor '1'). Esta distinción entre los niveles de descripción computacional y
físico será importante en lo que sigue, especialmente en la sección 3.
Así es como funciona el sumador. Los dos dígitos a sumar están conectados tanto a una puerta AND como a una
puerta OR EXCLUSIVA como se ilustra en las Figuras 3a y 3b. Veamos primero 3a. Los dígitos que se agregarán son
'1' y '0', y se colocan en el registro de entrada, que es el par de casillas superior. La puerta EXCLUSIVAOR, que, como
recordará, es un detector de diferencias, ve cosas diferentes y, por lo tanto, emite un '1' en el cuadro más a la derecha
del registro de respuesta, que es el par de cuadros inferior. La puerta AND genera un '0' excepto cuando ve dos '1',
por lo que genera un '0'. De esta forma, el circuito calcula '1 + 0 = 1'. Para este problema, como para '0 + 1 = 1' y '0 +
0 = 0', la puerta EXCLUSIVAOR hace todo el trabajo real. El papel de la compuerta AND en este circuito es el
transporte, y eso se ilustra en la Figura 3b. Los dígitos que se van a sumar, '1' y '1', se colocan de nuevo en el registro
superior. Ahora, ambas entradas a la compuerta AND son '1's, por lo que la compuerta AND genera un '1' en el cuadro
más a la izquierda del registro de respuesta (inferior). La puerta OEXCLUSIVA pone un '0' en el recuadro más a la
derecha, por lo que tenemos la respuesta correcta, '10'.
Figura 3: (a) Sumador haciendo 1 + 0 = 1; (b) Sumador haciendo 1 + 1 = 10.
Las fronteras entre las disciplinas científicas son notoriamente difusas. Nadie puede decir exactamente dónde termina
la química y comienza la física. Dado que la línea entre los niveles superiores de los procesadores y el nivel de los
procesadores primitivos es la misma que la línea entre la ciencia cognitiva y una de las ciencias de "realización" como
la electrónica o la fisiología, el límite entre los niveles de los procesadores complejos y el nivel de los
procesadores primitivos tendrán la misma borrosidad. No obstante, en este ejemplo deberíamos esperar que las puertas
sean los procesadores primitivos. Si se fabrican de la manera habitual, son los componentes más grandes cuyo
funcionamiento debe explicarse, no en términos de ciencia cognitiva, sino en términos de electrónica o mecánica o
alguna otra ciencia de realización. ¿Por qué la calificación "Si se hacen de la manera habitual"? Sería posible hacer un
sumador cada una de cuyas puertas fueran computadoras completas, con sus propios multiplicadores,
sumadores y puertas normales. Sería una tontería desperdiciar una computadora completa en una tarea tan simple como
9 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
el de una puerta AND, pero podría hacerse. En ese caso, el nivel real de las primitivas no serían las puertas del sumador
original, sino las puertas (normales) de las computadoras componentes.
Los procesadores primitivos son los únicos dispositivos computacionales para los cuales el conductismo es verdadero.
Dos procesadores primitivos (como puertas) cuentan como computacionalmente equivalentes si tienen la misma
función de entradasalida, es decir, el mismo comportamiento real y potencial, incluso si uno funciona hidráulicamente
y el otro eléctricamente. Pero la equivalencia computacional de dispositivos no primitivos no debe entenderse de esta manera.
Considere dos multiplicadores que funcionan a través de diferentes programas. Ambos aceptan entradas y emiten salidas
solo en notación decimal. Uno de ellos convierte las entradas a binario, realiza el cálculo en binario y luego vuelve
a convertirlo a decimal. El otro hace el cálculo directamente en decimal. Estos no son multiplicadores
computacionalmente equivalentes a pesar de sus funciones de entradasalida idénticas.
Si la mente es el software del cerebro, entonces debemos tomarnos en serio la idea de que el análisis funcional de la
inteligencia humana tocará fondo en los procesadores primitivos del cerebro.
1.5 Lo mental y lo biológico
Un tipo de compuerta AND eléctrica consta de dos circuitos con interruptores dispuestos como en la Figura 4. Los
interruptores de la izquierda son las entradas. Cuando solo uno o ninguno de los interruptores de entrada está cerrado,
no sucede nada, porque el circuito de la izquierda no está completo. Solo cuando ambos interruptores están cerrados, el
electroimán se enciende, y eso cierra el interruptor de la derecha, y por lo tanto enciende el circuito de la derecha. (El
circuito de la derecha solo se ilustra parcialmente). En este ejemplo, un interruptor que se cierra da cuenta de '1'; es el
estado biestable que se obtiene como salida si y solo si dos de ellos están presentes como entrada.
En la Figura 5 se ilustra otra puerta AND. Si ninguno de los ratones de la izquierda se suelta en la parte derecha de sus
jaulas, o si solo se suelta uno de los ratones, el gato no se esfuerza lo suficiente para tirar de la correa. Pero cuando ambos
se liberan y, por lo tanto, son visibles para el gato, el gato se esfuerza lo suficiente como para levantar la puerta del tercer
ratón, dejándolo entrar en la parte cursi de su caja. Así que tenemos una situación en la que se da salida a un ratón
obteniendo queso si y solo si se ingresan dos casos de ratones obteniendo queso.
Figura 4: Portón AND eléctrico. Abierto = 0, cerrado = 1
Figura 5: Gato y ratón Y puerta. Ratón hambriento = 0, ratón alimentado = 1
10 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
El punto ilustrado aquí es la irrelevancia de la realización del hardware para la descripción computacional. Estas
puertas funcionan de formas muy diferentes, pero no obstante son computacionalmente equivalentes. Y, por supuesto,
es posible pensar en una variedad indefinida de otras formas de hacer una puerta AND primitiva. Cómo funcionan tales
puertas no es más parte del dominio de la ciencia cognitiva que la naturaleza de los edificios que albergan
fábricas de computadoras. Esto revela un sentido en el que el modelo informático de la mente es
profundamente antibiológico. Somos seres que tenemos un nivel de descripción biológico útil e interesante, pero el
modelo informático de la mente apunta a un nivel de descripción de la mente que se abstrae de las realizaciones
biológicas de las estructuras cognitivas. En lo que respecta al modelo informático, no importa si nuestras puertas
se realizan en materia gris, interruptores o gatos y ratones.
Por supuesto, esto no quiere decir que el modelo informático sea de ninguna manera incompatible con un
enfoque biológico. De hecho, la cooperación entre los enfoques biológico y computacional es vital para
descubrir el programa del cerebro. Supongamos que a uno se le presenta una computadora de diseño extraterrestre y
se plantea el problema de determinar su programa por cualquier medio posible. Solo un tonto elegiría ignorar la
información que se obtiene al abrir la computadora para ver cómo funcionan sus circuitos. Uno querría juntar la
información a nivel de programa con la información a nivel electrónico y, del mismo modo, al encontrar el programa de
la mente humana, se puede esperar que los enfoques biológico y cognitivo se complementen entre sí.
No obstante, el modelo informático de la mente tiene un sesgo antibiológico incorporado, en el siguiente sentido. Si el
modelo informático es correcto, deberíamos ser capaces de crear máquinas inteligentes a nuestra imagen,
es decir, nuestra imagen computacional . Y las máquinas que creamos en nuestra imagen computacional
pueden no ser biológicamente similares a nosotros. Si podemos crear máquinas a nuestra imagen computacional,
naturalmente sentiremos que la teoría más convincente de la mente es la que es lo suficientemente general como
para aplicarla tanto a ellos como a nosotros, y esta será una teoría computacional, no una teoría biológica. Una teoría
biológica de la mente humana no se aplicará a estas máquinas, aunque la teoría biológica tendrá una ventaja
complementaria: a saber, que dicha teoría biológica nos englobará junto con nuestros primos biológicos menos
inteligentes y, por lo tanto, proporcionará un tipo diferente de comprensión. en la naturaleza de la inteligencia
humana. Ambos enfoques pueden acomodar consideraciones evolutivas, aunque en el caso del paradigma
computacional, la evolución no es más relevante para la naturaleza de la mente que las intenciones de los
programadores para la naturaleza de un programa de computadora.
2 Inteligencia e Intencionalidad
Nuestra discusión hasta ahora se ha centrado en el enfoque computacional de un aspecto de la mente, la inteligencia.
Pero hay un aspecto diferente de la mente que aún no hemos discutido, uno que tiene una relación muy diferente
con las ideas computacionales, a saber, la intencionalidad.
Para nuestros propósitos, podemos tomar la inteligencia como una capacidad, una capacidad para varias
actividades inteligentes, como resolver problemas matemáticos, decidir si ir a la escuela de posgrado y descubrir
cómo se hacen los espaguetis. (Nótese que este análisis de la inteligencia como capacidad para resolver, descifrar,
decidir y similares, es un análisis mentalista, no un análisis conductista).
La intencionalidad es acerca de. Los estados intencionales representan el mundo como siendo de cierta manera. El
pensamiento de que la luna está llena y el estado perceptivo de ver que la luna está llena se refieren a la luna y ambos
representan la luna llena. Así que ambos son estados intencionales. Decimos que el contenido intencional tanto del
pensamiento como del estado de percepción es que la luna está llena. Un solo contenido intencional puede tener
efectos conductuales muy diferentes, dependiendo de su relación con la persona que tiene el contenido. Por ejemplo, el
temor de que haya una guerra nuclear puede inspirar a uno a trabajar por el desarme, pero la creencia de que habrá
una guerra nuclear puede influir para emigrar a Australia. (No dejes que la ortografía te engañe:
11 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
intentar es sólo un tipo de estado intencional. Creer y desear son otros). La intencionalidad es una característica importante de
muchos estados mentales, pero muchos filósofos creen que no es "la marca de lo mental".
Hay sensaciones corporales, la experiencia del orgasmo, por ejemplo, que son estados mentales genuinos pero no tienen contenido
intencional. (Bueno, tal vez haya un poco de contenido intencional en esta experiencia, por ejemplo, contenido de ubicación, pero
el contenido fenoménico de la experiencia, cómo es tenerlo, claramente no se agota en ese contenido intencional).
Las características del pensamiento que acabamos de mencionar están estrechamente relacionadas con las características del lenguaje.
Los pensamientos representan, se refieren a cosas y pueden ser verdaderos o falsos; y lo mismo ocurre con las oraciones. La oración
"Bruce Springsteen nació en la URSS" se refiere a Springsteen, lo representa como nacido en la Unión Soviética y es falsa. Sería
sorprendente que el contenido intencional del pensamiento y del lenguaje fueran fenómenos independientes, por lo que es natural
tratar de reducir uno al otro o encontrar alguna explicación común para ambos. Continuaremos con esta idea a continuación, pero antes
de continuar, intentemos aclarar cuál es la diferencia entre inteligencia e intencionalidad.
Una forma de entender la distinción entre inteligencia e intencionalidad es notar que, en opinión de muchos escritores sobre este
tema, se puede tener intencionalidad sin inteligencia. Así, John McCarthy (el creador del lenguaje de inteligencia artificial LISP)
sostiene que los termostatos tienen estados intencionales en virtud de su capacidad para representar y controlar la temperatura (McCarthy,
1980). Y hay una escuela de pensamiento que asigna contenido a los anillos de los árboles en virtud de que representan la edad del
árbol. Pero ninguna escuela de pensamiento sostiene que los anillos de los árboles sean realmente inteligentes. Un sistema inteligente
debe tener ciertas capacidades inteligentes, capacidades para hacer cierto tipo de cosas, y los anillos de los árboles no pueden
hacer estas cosas.
De manera menos controvertida, las palabras en una página y las imágenes en una pantalla de televisión tienen intencionalidad. Por
ejemplo, mi comentario anterior en este párrafo en el sentido de que McCarthy creó LISP se trata de McCarthy. Pero las palabras en una
página no tienen inteligencia. Por supuesto, la intencionalidad de las palabras en una página es solo intencionalidad derivada, no
intencionalidad original. (Ver Searle, 1980 y Haugeland, 1980) El contenido intencional derivado se hereda del contenido
intencional original de sistemas intencionales como tú y yo. Tenemos mucha libertad para dar a los símbolos su contenido intencional
derivado. Si queremos, podemos decidir que 'McCarthy' ahora representará a Minsky oa Chomsky. Los contenidos intencionales
originales son los contenidos intencionales que las representaciones de un sistema intencional tienen para ese sistema. Tales contenidos
intencionales no están sujetos a nuestro capricho. Las palabras en una página tienen intencionalidad derivada, pero no tienen ningún
tipo de inteligencia, ni siquiera inteligencia derivada, sea lo que sea.
A la inversa, puede haber inteligencia sin intencionalidad. Imagine que ocurre un evento con una probabilidad insignificante (pero, lo
que es más importante, distinta de cero): en su movimiento aleatorio, las partículas del pantano se juntan y, por casualidad, dan como
resultado un duplicado molécula por molécula de su cerebro. Podría decirse que el cerebro de pantano es inteligente, porque tiene
muchas de las mismas capacidades que tiene su cerebro. Si lo conectamos a las entradas y salidas correctas y le damos un problema
aritmético, obtendríamos una respuesta inteligente.
Pero hay razones para negar que tiene los estados intencionales que tú tienes y, de hecho, para negar que tenga estados intencionales
en absoluto. Porque como no lo hemos conectado a dispositivos de entrada, nunca ha tenido ninguna información del mundo.
Supongamos que su cerebro y él pasan por un proceso idéntico, un proceso que en su caso es el pensamiento del pensamiento de que
Bernini destrozó el Panteón. El proceso idéntico en el cerebropantano tiene las características fenomenales de ese pensamiento, en el
sentido de "contenido fenomenal" indicado en la discusión anterior sobre el orgasmo. Lo que es para ti pensar el pensamiento es
exactamente lo que es para el cerebropantano. Pero, a diferencia de ti, el cerebro del pantano no tiene idea de quién fue Bernini, qué
es el Panteón o qué es el vandalismo. Ninguna información sobre Bernini ha hecho ningún tipo de contacto con el cerebro del
pantano; tampoco le han llegado señales del Panteón. Si tuviera boca, simplemente pronunciaría palabras. Así que nadie debería estar
contento con la idea de que el cerebro del pantano está pensando en que Bernini destrozó el Panteón.
El resultado: lo que hace que un sistema sea inteligente es lo que puede hacer, lo que tiene la capacidad de hacer. Así que
la inteligencia está orientada hacia el futuro. Lo que hace que un sistema sea un sistema intencional, por el contrario, es en parte una
cuestión de su historia causal; debe tener una historia que haga que sus estados representen el mundo, es decir, que tengan un objeto.
La intencionalidad tiene un requisito orientado al pasado. Un sistema puede satisfacer las necesidades orientadas al futuro de
12 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
inteligencia mientras suspende el requisito de intencionalidad orientado al pasado. (Los filósofos no están de acuerdo
acerca de qué tan orientada hacia el futuro es la intencionalidad, si pensar en algo requiere la capacidad de "rastrearlo",
pero no debería haber desacuerdo en cuanto a que hay algún componente orientado al pasado).
Ahora veamos qué tiene que ver la diferencia entre inteligencia e intencionalidad con el modelo informático de la
mente. Nótese que el método de análisis funcional que explica los procesos inteligentes reduciéndolos a procesos
mecánicos no inteligentes no explica la intencionalidad. Las partes de un sistema intencional pueden ser tan
intencionales como el sistema completo. (Ver Fodor (1981)) En particular, los componentes procesadores de un
sistema intencional pueden manipular símbolos que son casi las mismas cosas que los símbolos manipulados por todo
el sistema. Recuerde que el multiplicador de la Figura 2 se explicó a través de una descomposición en dispositivos
que suman, restan y similares. Los estados del multiplicador fueron intencionales en el sentido de que se trataba
de números. Los estados del sumador, restador, etc., también tienen que ver con números y, por lo tanto, son
igualmente intencionales.
Sin embargo, existe una relación importante entre la intencionalidad y la descomposición funcional que se explicará en
la siguiente sección. Como verá, aunque los estados del multiplicador y del sumador se refieren a números, los
estados de representación de la puerta representan números y, en general, el tema de las representaciones
cambia a medida que cruzamos la división de procesadores complejos a procesadores primitivos.
2.1 El cerebro como motor sintáctico que impulsa un motor semántico
Para ver la idea del cerebro como un motor sintáctico, es importante ver la diferencia entre el número 1 y el símbolo (en
este caso, un número o dígito) '1'. Ciertamente, la diferencia entre la ciudad, Boston, y la palabra 'Boston' es bastante
clara. El primero tiene malos conductores; el último no tiene personas ni automóviles, pero tiene seis letras. Nadie
confundiría una ciudad con una palabra, pero es menos obvio cuál es la diferencia entre el número 1 y el
numeral '1'. El punto a tener en cuenta es que muchos símbolos diferentes, por ejemplo, 'II' (en números romanos) y
'dos' (en escritura alfabética) denotan el mismo número, y un símbolo, por ejemplo, '10', puede denotar diferentes
números en diferentes sistemas de conteo (ya que '10' denota un número en binario y otro en decimal).
Con esta distinción en mente, uno puede ver una diferencia importante entre el multiplicador y el sumador discutidos
anteriormente. El algoritmo utilizado por el multiplicador en la Figura 2 es independiente de la notación: multiplicar n
por m sumando n a cero m veces funciona en cualquier notación. Y el programa descrito para implementar este
algoritmo también es independiente de la notación. Como vimos en la descripción de este programa en la sección
1.3, el programa depende de las propiedades de los números representados, no de las representaciones en sí. Por
el contrario, el funcionamiento interno del sumador descrito en las figuras 3A y 3B depende de la notación binaria, y
su descripción en la sección 1.4 habla de numerales (nótense las comillas y la cursiva) en lugar de números.
Recuerde que el sumador explota el hecho de que una compuerta OEXCLUSIVA detecta diferencias de símbolos,
produciendo un '1' cuando sus entradas son dígitos diferentes y un '0' cuando sus entradas son los mismos dígitos.
Esta puerta da la respuesta correcta por sí sola siempre que no se trate de transporte. El truco utilizado por la puerta
O EXCLUSIVA depende del hecho de que cuando sumas dos dígitos del mismo tipo ('1' y '1' o '0' y '0') el dígito más a
la derecha de la respuesta es el mismo. Esto es cierto en binario, pero no en otras notaciones estándar. Por ejemplo,
no es cierto en la notación decimal familiar. (1+1=2, pero 0+0=0)
Las entradas y salidas tanto del multiplicador como del sumador deben verse como números. Una forma de ver esto es
notar que, de lo contrario, no se podría considerar que el multiplicador explota un algoritmo que implica multiplicar
números sumando números. Lo que se multiplica y suma son números. Pero una vez que nos adentramos en el
sumador, debemos ver los estados binarios como referentes a los símbolos mismos. Como se acaba de señalar, los
algoritmos dependen de la notación. Este cambio de tema es aún más dramático en algunos dispositivos
computacionales, en los que hay un nivel de procesamiento en el que los algoritmos operan sobre partes de números
decimales. Considere, por ejemplo, una calculadora, en la que la diferencia entre un '8' y un '3' es una cuestión de 2
pequeños segmentos a la izquierda del '8' que se apagan para formar un '3'. En las calculadoras hay
13 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
un nivel en el que los algoritmos se refieren a estos segmentos.
Este hecho nos brinda una interesante caracterización adicional de los procesadores primitivos. Por lo general, a
medida que descomponemos funcionalmente un sistema computacional, llegamos a un punto en el que hay un cambio
de tema de abstracciones como números o cosas del mundo a los símbolos mismos. Las entradas y salidas del
sumador y el multiplicador se refieren a números, pero las entradas y salidas de las puertas se refieren a números.
Normalmente, este cambio se produce cuando hemos alcanzado el nivel de los procesadores primitivos. El
funcionamiento de los componentes de nivel superior, como el multiplicador, se puede explicar en términos de un
programa o algoritmo que manipula números. Pero el funcionamiento de las puertas no puede explicarse en términos
de manipulación de números; deben explicarse en términos simbólicos (o en niveles inferiores, por ejemplo, en
términos de electroimanes). En el nivel computacional más básico, las computadoras son trituradoras de símbolos
y, por esta razón, el modelo informático de la mente a menudo se describe como la visión de manipulación de símbolos de la mente.
Ver el sumador como un motor sintáctico que impulsa un motor semántico requiere tener en cuenta dos funciones: una
asigna números a otros números y la otra asigna símbolos a otros símbolos. La función de símbolo se ocupa de los
números como símbolos, sin prestar atención a sus significados. Aquí está la función de símbolo:
`0', ̀0' >`0' ̀
0', '1' >'1' '
1', '0' >'1' '
1', '1' >'10'
La idea es que interpretemos algo físico en una máquina o sus salidas como símbolos, y algún otro aspecto físico de
la máquina indicando que los símbolos son entradas o salidas. Luego, dada esa interpretación, el hecho de que
la máquina tenga algunos símbolos como entradas hace que la máquina tenga otros símbolos como salidas. Por
ejemplo, tener el par '0', '0' como entradas hace que tenga '0' como salida. Entonces, la función del símbolo es
una cuestión de la estructura causal de la máquina bajo una interpretación.
Esta función de símbolo se refleja en una función que mapea los números representados por los números de la izquierda
en los números representados por los números de la derecha. Esta función asignará números a números. Podemos
hablar de esta función que asigna números a números como la función semántica (siendo la semántica el estudio
del significado), ya que se ocupa de los significados de los símbolos, no de los símbolos mismos. (Es importante no
confundir la noción de una función semántica en este sentido con una función que asigna símbolos a lo que se refieren;
la función semántica asigna números a números, pero la función que acabamos de mencionar, que a menudo lleva el
mismo nombre, asignaría símbolos en números).
Aquí está la función semántica (en notación decimal; debe elegir alguna notación para expresar una función semántica):
0, 0 >0
0, 1 >1
1, 0 >1
1, 1 >2
Tenga en cuenta que las dos especificaciones que se acaban de dar difieren en que la primera asigna entidades citadas
a otras entidades citadas. El segundo no tiene comillas. La primera función asigna símbolos a símbolos; la segunda
función asigna los números a los que se refieren los argumentos de la primera función en los números a los que se
refieren los valores de la primera función. (Una función asigna argumentos a valores). La primera función es una
especie de "reflejo" lingüístico de la segunda.
14 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
La idea clave detrás del sumador es la de un isomorfismo entre estas dos funciones. El diseñador ha encontrado una máquina
que tiene aspectos físicos que pueden interpretarse simbólicamente y, bajo esa interpretación simbólica, hay regularidades
simbólicas: algunos símbolos en las entradas dan como resultado otros símbolos en las salidas.
Estas regularidades simbólicas son isomorfas a las relaciones racionales entre los valores semánticos de los símbolos de un tipo
que nos son útiles, en este caso la relación de adición. Es el isomorfismo entre estas dos funciones lo que explica cómo es que
un dispositivo que manipula símbolos logra sumar números.
Ahora bien, la idea del cerebro como un motor sintáctico que impulsa un motor semántico es simplemente una generalización
de esta imagen a una clase más amplia de actividades simbólicas, a saber, las actividades simbólicas del pensamiento humano.
La idea es que tenemos estructuras simbólicas en nuestros cerebros, y que la naturaleza (evolución y aprendizaje) se ha
encargado de que existan correlaciones entre las interacciones causales entre estas estructuras y las relaciones racionales entre
los significados de las estructuras simbólicas. Un ejemplo crudo: la forma en que evitamos nadar en aguas infestadas de
tiburones es que la estructura del símbolo del cerebro 'tiburón' causa la estructura del símbolo del cerebro 'peligro'. (Lo
que hace que 'peligro' signifique peligro se discutirá más adelante.)
Los procesadores mecánicos primitivos "saben" sólo las formas "sintácticas" de los símbolos que procesan (por ejemplo, qué
cadenas de ceros y unos ven), y no lo que significan los símbolos. No obstante, estos procesadores primitivos
ciegos al significado controlan los procesos que "tienen sentido": procesos de decisión, resolución de problemas y similares.
En resumen, existe una correlación entre los significados de nuestras representaciones internas y sus formas. Y esto explica
cómo es que nuestro motor sintáctico puede impulsar nuestro motor semántico.3
El último párrafo mencionaba una correlación entre las interacciones causales entre las estructuras simbólicas de nuestro
cerebro y las relaciones racionales entre los significados de las estructuras simbólicas. Esta forma de hablar puede ser
engañosa si fomenta la imagen del neurocientífico abriendo el cerebro, simplemente viendo los símbolos y luego descifrando lo
que significan. Tal imagen invierte el orden del descubrimiento y da la impresión equivocada de lo que hace que algo sea
un símbolo.
La forma de descubrir símbolos en el cerebro es primero mapear las relaciones racionales entre los estados mentales y luego
identificar los aspectos de estos estados que pueden considerarse simbólicos en virtud de sus funciones.
La función es lo que le da a un símbolo su identidad, incluso los símbolos en la ortografía inglesa, aunque esto puede ser difícil
de apreciar porque estas funciones se han vuelto rígidas por el hábito y la convención. Al leer escritura a mano
desconocida, podemos notar un símbolo poco ortodoxo, la forma extraña de alguien de escribir una letra del alfabeto. ¿Cómo
sabemos qué letra del alfabeto es? ¡Por su función! La función% de un símbolo es algo que se puede apreciar% al ver
cómo aparece en s%nt%nc%s que contienen palabras familiares cuyos significados se pueden adivinar. No tendrá
problemas para averiguar, sobre esta base, qué letra en la última oración fue reemplazada por '%'.
2.2 ¿Es una pared una computadora?
John Searle (1990) argumenta en contra de la tesis computacionalista de que el cerebro es una computadora. No dice que la
tesis sea falsa, sino que es trivial, porque, sugiere, todo es una computadora; de hecho, todo es cada computadora. En
particular, su pared es una computadora informática Wordstar. (Ver también Putnam, 1988, para un argumento diferente para
una conclusión similar.) Los puntos de la última sección permiten una fácil comprensión de la motivación de esta
afirmación y lo que está mal en ella. En la última sección vimos que la clave del cálculo es un isomorfismo. Disponemos las
cosas de modo que, si ciertos estados físicos de una máquina se entienden como símbolos, entonces las relaciones
causales entre esos estadossímbolos reflejan relaciones racionales útiles entre los significados de esos símbolos. El
reflejo es un isomorfismo. La afirmación de Searle es que este tipo de isomorfismo es barato. Podemos considerar dos aspectos
de la pared en el tiempo t como los símbolos '0' y '1', y luego podemos considerar un aspecto de la pared en el tiempo t + 1 como
'1', y así la pared calculó 0+ 1=1. Por lo tanto, sugiere Searle, todo (o más bien todo lo que es lo suficientemente grande o
complejo como para tener suficientes estados) es cada computadora, y la afirmación de que el cerebro es una computadora
no tiene sentido.
El problema de este razonamiento es que el isomorfismo que hace que un motor sintáctico impulse un motor semántico
15 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
El motor tiene más cuerpo de lo que reconoce Searle. En particular, el isomorfismo tiene que incluir no solo un cálculo
particular que realiza la máquina, sino todos los cálculos que la máquina podría haber realizado. El punto se puede aclarar
con una mirada a la Figura 6, un tipo de puerta Xor. (Ver O'Rourke y Shattuck, próximamente).
Figura 6: Los números al comienzo de las flechas indican entradas.
Los números al comienzo de las flechas representan entradas. El cálculo de 1 + 0 = 1 está representado por el camino A>C
>E. El cálculo de 0+1 = 1 está representado por el camino A>B>E, y así sucesivamente. Ahora aquí está el punto. Para
que la pared sea esta computadora, no es suficiente que tenga estados que correspondan a '0' y '1' seguidos de
un estado que corresponda a '1'. También debe ser tal que si la entrada '1' hubiera sido reemplazada por una entrada '0' ,
la salida '1' habría sido reemplazada por la salida '0' . En otras palabras, tiene que tener estados simbólicos que
satisfagan no solo el cómputo real , sino también los posibles cómputos que la computadora podría haber realizado. Y
esto no es trivial.
Searle (1992, p. 209) reconoce este punto, pero insiste, no obstante, en que no existe un hecho en cuanto a si el cerebro es
una computadora específica. Si algo es una computadora, argumenta, depende de si decidimos interpretar sus
estados de cierta manera, y eso depende de nosotros. "No podemos, por un lado, decir que algo es una computadora digital
si podemos asignarle una sintaxis, y luego suponer que hay una cuestión fáctica intrínseca a su funcionamiento físico si un
sistema natural como el cerebro funciona o no. es una computadora digital". Searle tiene razón en que si algo es una
computadora y qué computadora es depende en parte de nosotros.
Pero lo que muestra el ejemplo que acabamos de dar es que no depende totalmente de nosotros. Una roca, por ejemplo,
no es una puerta XOR. Tenemos mucha libertad en cuanto a cómo interpretar un dispositivo, pero también hay
restricciones muy importantes sobre esta libertad, y eso es lo que hace que sea una afirmación sustantiva que el cerebro
es una computadora de cierto tipo.
3 Funcionalismo y el Lenguaje del Pensamiento
Hasta ahora, hemos (1) considerado el análisis funcional, el modelo informático del enfoque de la mente hacia la
inteligencia, (2) distinguido la inteligencia de la intencionalidad y (3) considerado la idea del cerebro como un motor sintáctico.
La idea del cerebro como un motor sintáctico explica cómo es que las operaciones de procesamiento de símbolos
pueden dar como resultado que una máquina "tenga sentido". Pero hasta ahora, no hemos encontrado nada que pueda
considerarse la explicación de la intencionalidad del modelo informático. Es hora de admitir que aunque el modelo informático
de la mente tiene una explicación natural y directa de la inteligencia, no existe ninguna explicación de la inteligencia.
16 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
intencionalidad que viene gratis.
No examinaremos el campo aquí. En su lugar, examinemos una visión que representa una especie de ortodoxia, no en el
sentido en que la mayoría de los investigadores la creen, sino en el sentido de que las otras opiniones se definen a sí
mismas en gran parte por su respuesta a ella.
El principio básico de esta ortodoxia es que nuestros contenidos intencionales son simplemente significados de
nuestras representaciones internas. Como se señaló anteriormente, hay algo que decir sobre el contenido del
pensamiento y el lenguaje como un solo fenómeno, y esta es una forma bastante directa de hacerlo. No hay compromiso
en esta ortodoxia sobre si nuestro lenguaje interno, el lenguaje en el que pensamos, es igual o diferente del lenguaje con el
que hablamos. Además, no hay compromiso en cuanto a una dirección de reducción, es decir, en cuanto a cuál es más
básico, el contenido mental o los significados de los símbolos internos.
Para concretar, hablemos en términos de la doctrina de Fodor (1975) de que el significado del lenguaje externo se deriva
del contenido del pensamiento, y el contenido del pensamiento se deriva del significado de los elementos del lenguaje del
pensamiento. (Ver también Harman, 1973.) Según Fodor, creer o esperar que la hierba crezca es un estado de estar en
una u otra relación computacional con una representación interna que significa que la hierba crece. Esto se puede resumir
en una serie de consignas: creer que la hierba crece es tener 'La hierba crece'. en la Caja de Creencias, desear que crezca
la hierba es tener esta oración (o una que signifique lo mismo) en la Caja de Deseos, etc.
Ahora bien, si todo el contenido y el significado se derivan del significado de los elementos del lenguaje del pensamiento,
inmediatamente queremos saber cómo obtienen su significado los símbolos mentales . punto de vista de la ciencia cognitiva.
Veremos brevemente dos de ellos. El primer punto de vista, mencionado anteriormente, toma como una especie de
paradigma aquellos casos en los que podría decirse que un símbolo en la cabeza covaría con los estados del mundo de
la misma manera que el número de anillos en el tronco de un árbol se correlaciona con la edad. del árbol (Ver Dretske, 1981,
Stampe, 1977, Stalnaker, 1984 y Fodor, 1987, 1990.) Desde este punto de vista, el significado de los símbolos
mentales depende de las correlaciones entre estos símbolos y el mundo.
Una versión de este punto de vista (Fodor, 1990) dice que T es la condición de verdad de una oración mental M si y solo
si: M está en la caja de creencias si y solo si T, en condiciones ideales. Es decir, lo que significa que 'La hierba es verde' tenga
la condición de verdad de que la hierba sea verde es que 'La hierba es verde' aparezca en el cuadro de creencias en caso
de que la hierba sea realmente verde (y las condiciones sean ideales). La idea detrás de esta teoría es que existen
mecanismos cognitivos que están diseñados para poner oraciones en la caja de creencias cuando y solo cuando son
verdaderas, y si esos mecanismos cognitivos funcionan correctamente y el entorno coopera (sin espejismos, sin
demonios cartesianos). , estas oraciones aparecerán en el cuadro de creencias cuando y solo cuando sean verdaderas.
Un problema con esta idea es que incluso si esta teoría funciona para "oraciones de observación" como 'Esto es amarillo',
es difícil ver cómo podría funcionar para "oraciones teóricas". Los mecanismos cognitivos de una persona podrían estar
funcionando bien, y el entorno no podría contener evidencia engañosa, y aun así, uno podría no creer que el espacio es
riemanniano o que algunos quarks tienen encanto o que uno está en presencia de un campo magnético. Para las
ideas teóricas, no basta con frotarse las narices con la evidencia: también hay que tener la idea teórica correcta. Y si el
análisis de las condiciones ideales incluye "tiene la idea teórica correcta", eso haría circular el análisis porque tener la
idea teórica correcta equivale a "llegar a la teoría verdadera". Y apelar a la verdad en un análisis de la 'verdad' es moverse
en un círculo muy pequeño. (Véase Block, 1986, págs. 657660.)
El segundo enfoque se conoce como funcionalismo (en realidad, "semántica de roles funcionales" en las discusiones sobre
el significado) en filosofía y como semántica procedimental en psicología cognitiva e informática.
El funcionalismo dice que lo que da a los símbolos internos (y también a los símbolos externos) sus significados es cómo
funcionan. Para maximizar el contraste con la visión descrita en los dos últimos párrafos, es útil pensar en el enfoque
funcionalista con respecto a un símbolo que no tiene (a primera vista) ningún tipo de correlación con los estados del mundo,
decir el símbolo 'y'. Parte de lo que hace que 'y' signifique lo que significa es que si estamos seguros de 'La hierba es verde y
la hierba crece', encontramos la inferencia de 'La hierba es verde' y también
17 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
'La hierba crece' convincente. Y lo encontramos convincente "en sí mismo", no por ningún otro principio. (Ver Peacocke,
1993) O si estamos seguros de que una de las conjunciones es falsa, encontramos convincente la inferencia de que la
conjunción también es falsa. Lo que significa Y por 'y' es encontrar tales inferencias convincentes de esta manera, y así
podemos pensar en el significado de 'y' como una cuestión de su comportamiento en estas y otras inferencias.
La visión funcionalista del significado aplica esta idea a todas las palabras. La imagen es que las representaciones
internas en nuestras cabezas tienen una función en nuestra decisión, deliberación, resolución de problemas de hecho, en
nuestro pensamiento en general y en eso consisten sus significados.
Esta imagen puede verse reforzada por una consideración de lo que sucede cuando uno aprende por primera vez
la mecánica newtoniana. En mi propio caso, escuché una gran cantidad de términos desconocidos más o menos a la vez:
'masa', 'fuerza', 'energía' y similares. Nunca me dijeron definiciones de estos términos en términos que ya conocía. (Nadie
ha llegado jamás a definiciones de tales "términos teóricos" en lenguaje de observación.) Lo que sí aprendí fue cómo usar
estos términos para resolver problemas de tarea, hacer observaciones, explicar el comportamiento de un péndulo y cosas
por el estilo. Al aprender a usar los términos en el pensamiento y la acción (y también en la percepción, aunque su
papel allí es menos obvio), aprendí sus significados, y esto encaja con la idea funcionalista de que el significado de un
término es simplemente su función en la percepción . , pensamiento y acción. Se puede esperar que una teoría de lo
que es el significado concuerde con una teoría de lo que es adquirir significados, por lo que las consideraciones sobre la
adquisición pueden ser relevantes para la semántica.
Surge un problema aparente para tal teoría en su aplicación a los significados de los números. Después de todo, es un
hecho matemático que las verdades en el sistema numérico familiar '1', '2', '3'... se conservan, incluso si se adoptan
ciertas interpretaciones no estándar de los números (siempre y cuando no también se adoptan versiones estándar
de las operaciones). Por ejemplo, '1' se podría asignar a 2, '2' a 4, '3' a 6, y así sucesivamente.
Es decir, los números, tanto "impares" como "pares", se pueden asignar a los números pares . Dado que '1' y '2' pueden
tener el mismo rol funcional en diferentes sistemas numéricos y aun así designar los mismos números que usualmente
designan en la aritmética normal, ¿cómo puede el rol funcional de '1' determinar si '1' significa 1 o 2? Parecería que todo
lo que podría hacer el rol funcional es "recortar" el número de interpretaciones posibles, y si todavía queda un infinito
después de la reducción, el rol funcional no ha ganado nada.
Una respuesta funcionalista natural sería enfatizar los extremos de entrada y salida de los roles funcionales.
Decimos "dos gatos" cuando nos enfrentamos a un par de gatos, no cuando nos enfrentamos a uno o cinco gatos, y nuestros
pensamientos que involucran el símbolo ' 3' afectan nuestras acciones hacia los triples de una manera obvia en la que
estos pensamientos no afectan nuestras acciones. hacia octuples. El funcionalista puede evitar interpretaciones
no estándar de roles funcionales internos al incluir en los roles funcionales semánticamente relevantes relaciones
externas que involucran percepción y acción (Harman, 1973). De esta forma, el funcionalista puede incorporar la idea
de la visión mencionada anteriormente de que el significado tiene algo que ver con la covariación entre los símbolos y el
mundo.
La imagen emergente de cómo la ciencia cognitiva puede manejar la intencionalidad debería ser cada vez más clara.
Los transductores en la periferia y los procesadores primitivos internos producen y operan sobre símbolos para darles
sus roles funcionales. En virtud de sus roles funcionales (tanto internos como externos), estos símbolos tienen
significados. La perspectiva del rol funcional explica la misteriosa correlación entre los símbolos y sus significados. Son las
actividades de los símbolos las que les dan sus significados, por lo que no es un misterio que un sistema basado en la
sintaxis deba tener relaciones racionales entre los significados de los símbolos del sistema. Los estados intencionales
tienen sus relaciones en virtud de estas actividades simbólicas, y los contenidos de los estados intencionales del sistema,
pensar, querer, etc., se heredan de los significados de los símbolos.
Esta es la explicación ortodoxa de la intencionalidad para el modelo informático de la mente. Combina el
funcionalismo con la apuesta por un lenguaje de pensamiento. Ambos puntos de vista son controvertidos, el último tanto en
lo que respecta a su verdad como a su relevancia para la intencionalidad, incluso si es cierto. Nótese, incidentalmente, que
en esta explicación de la intencionalidad, la fuente de la intencionalidad es la estructura computacional,
independientemente de si la estructura computacional es producida por software o hardware. Así, el título de este capítulo,
al indicar que la mente es el software del cerebro, tiene el potencial de inducir a error. Si pensamos que la estructura
computacional de una computadora proviene enteramente de un programa colocado en una máquina de propósito
general sin estructura, estamos muy lejos de los hechos sobre el cerebro humano, que no es un propósito tan general.
18 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
máquina.
Al final de este capítulo, discutiremos el famoso argumento de la habitación china de Searle, que es un ataque directo a esta teoría.
Las siguientes dos secciones estarán dedicadas a los argumentos a favor y en contra del lenguaje del pensamiento.
3.1 Objeciones a la teoría del lenguaje del pensamiento
Se han planteado muchas objeciones al lenguaje de la imagen del pensamiento. Veamos brevemente tres objeciones
hechas por Dennett (1975).
La primera objeción es que todos tenemos una infinidad de creencias (o al menos un número muy grande de ellas).
Por ejemplo, creemos que los árboles no se iluminan como luciérnagas y que este libro probablemente esté más cerca de sus ojos que
el zapato izquierdo del presidente del techo de la tienda de regalos del Museo de Arte Moderno. Pero, ¿cómo puede ser que tantas
creencias estén almacenadas en la pequeña caja de creencias de tu cabeza? Una línea de respuesta a esta objeción implica hacer
una distinción entre el concepto ordinario de creencia y un concepto científico de creencia hacia el cual uno espera que la ciencia
cognitiva esté progresando. Para propósitos científicos, nos centramos en casos en los que nuestras creencias nos llevan a
hacer algo, digamos lanzar una pelota o cambiar de opinión, y casos en los que las creencias son causadas por algo, como cuando la
percepción de un rinoceronte nos hace creer que hay algo. hay un rinoceronte en los alrededores. La ciencia se ocupa de la causalidad
y la explicación causal, por lo que el concepto protocientífico de creencia es el concepto de una creencia causalmente activa . Es
sólo por estas creencias que el lenguaje de la teoría del pensamiento se compromete con oraciones en la cabeza. Esta idea da una
respuesta muy simple a la objeción del infinito, a saber, que en el concepto protocientífico de creencia, la mayoría de nosotros no creía
que los árboles no se encienden como luciérnagas hasta que leyeron este párrafo.
Las creencias en el sentido protocientífico son explícitas, es decir, registradas en el almacenamiento del cerebro. Por ejemplo, sin duda
alguna vez le dijeron que el sol está a 93 millones de millas de la tierra. Si es así, tal vez tenga este hecho registrado explícitamente en
su cabeza, disponible para la acción causal, aunque hasta la lectura de este párrafo, esta creencia no había sido consciente durante
años. Tales creencias explícitas tienen el potencial de interacción causal y, por lo tanto, deben distinguirse de los casos de creencia
en el sentido ordinario (si es que son creencias), como la creencia que tienen todas las personas normales de que los árboles no se
encienden como luciérnagas.
Ser explícito debe distinguirse de otras propiedades de los estados mentales, como ser consciente.
Las teorías de la ciencia cognitiva nos hablan de representaciones mentales de las que nadie sabe por introspección,
como las representaciones mentales de aspectos de la gramática. Si esto es correcto, hay mucho en el camino de la representación
mental que es explícito pero no consciente, y así se abre la puerta a la posibilidad de una creencia que es explícita pero no
consciente.
Es importante señalar que el lenguaje de la teoría del pensamiento no pretende ser una teoría de todos los posibles creyentes,
sino solo de nosotros. El lenguaje de la teoría del pensamiento permite criaturas que pueden creer sin ninguna representación explícita,
pero la afirmación del lenguaje de la teoría del pensamiento es que no somos nosotros. Una computadora digital consta de una unidad
central de procesamiento (CPU) que lee y escribe cadenas explícitas de ceros y unos en los registros de almacenamiento. Se puede
pensar en esta memoria como ilimitada en principio, pero, por supuesto, cualquier máquina real tiene una memoria finita. Ahora,
cualquier computadora con una cantidad finita de almacenamiento explícito puede ser simulada por una máquina con una CPU
mucho más grande y sin almacenamiento explícito, es decir, sin registros ni cintas.
La forma en que funciona la simulación es mediante el uso de estados adicionales como una forma de memoria implícita. Entonces,
en principio, podríamos ser simulados por una máquina sin memoria explícita en absoluto.
Considere, por ejemplo, el autómata finito diagramado en la figura 7. La tabla muestra que tiene tres estados. Los estados, 'S1', 'S2' y
'S3', se enumeran en la parte superior. Las entradas se enumeran en el lado izquierdo. Cada cuadro está en una columna y una fila
que especifica lo que hace la máquina cuando está en el estado mencionado en la parte superior de la columna, y cuando la entrada es
la que aparece al lado de la fila. La parte superior del cuadro nombra la salida y la parte inferior del cuadro nombra el siguiente estado.
Esto es lo que dice la tabla: cuando el
19 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
la máquina está en S1 y ve un 1, dice "1" y va a S2. Cuando está en S2, si ve un '1', dice "2" y pasa al siguiente estado,
S3. En ese estado, si ve un '1' dice "3" y vuelve a S1. Cuando no ve nada, no dice nada y permanece en el mismo
estado. Este autómata cuenta "módulo" de tres, es decir, por lo que dice se puede saber cuántos unos ha visto desde
el último múltiplo de tres. Pero lo que la tabla de la máquina deja en claro es que esta máquina no necesita tener memoria
del tipo que implica escribir algo. Puede "recordar" únicamente cambiando de estado. Algunas teorías basadas en
modelos de redes neuronales (Volumen IV, Capítulo 3) asumen que somos tales máquinas.
Figura 7: Autómata finito que cuenta "módulo" tres
Supongamos, entonces, que somos computadoras digitales con representaciones explícitas. Podríamos ser simulados
por autómatas finitos que tienen muchos más estados y ninguna representación explícita. Los simuladores tendrán las
mismas creencias que nosotros, pero no representaciones explícitas (a menos que los simuladores sean solo máquinas
de discos del tipo de la máquina Aunt Bubbles descrita en 1.1). La máquina en la que los elementos recordados se
registran explícitamente tiene una ventaja sobre una máquina computacionalmente equivalente que "recuerda"
cambiando de estado, a saber, que las representaciones explícitas pueden ser parte de un sistema combinatorio.
Este punto será explicado en la siguiente sección.
Hora de resumir. La objeción fue que una infinidad de creencias no se pueden escribir en la cabeza. Mi respuesta
fue distinguir entre un sentido vago y ordinario de 'creencia' en el que puede ser cierto que tenemos una infinidad de
creencias, y un sentido protocientífico de 'creencia' en el que el concepto de creencia es el concepto de un creencia
causalmente activa. En este último sentido, afirmé, no tenemos una infinidad de creencias.
Incluso si está de acuerdo con esta respuesta a la objeción del infinito, es posible que aún se sienta insatisfecho con la
idea de que, debido a que el tema nunca se les ha pasado por la cabeza, la mayoría de la gente no cree que las
cebras no usen ropa interior en la naturaleza. Quizá ayude decir algo sobre la relación entre el concepto
protocientífico de creencia y el concepto ordinario. Es natural querer algún tipo de reconstrucción del concepto ordinario
en términos científicos, una reconstrucción del tipo que tenemos cuando definimos el concepto ordinario del peso
de una persona como la fuerza ejercida sobre la persona por la tierra en la superficie de la tierra. . Para rascarse esta
comezón, podemos dar una primera aproximación a una definición de creencia en el sentido ordinario como cualquier
cosa que sea (1) una creencia en el sentido protocientífico, o (2) natural y fácilmente deducida de un proto creencia
científica.
Una segunda objeción al lenguaje de la teoría del pensamiento la proporciona el ejemplo de Dennett de un programa de
juego de ajedrez que "piensa" que debería sacar a su reina temprano, aunque no hay una regla representada
explícitamente que diga algo como "Saque a su reina temprano". ". El hecho de que saque a su dama temprano es una
consecuencia "emergente" de una interacción de un gran número de reglas que gobiernan los detalles del juego. Pero
ahora considere un análogo humano de la máquina de jugar al ajedrez. ¿No deberíamos decir que ella cree que debería
sacar a su reina temprano a pesar de la falta de una representación tan explícita?
20 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
La respuesta a este desafío al lenguaje de la teoría del pensamiento es que, en el sentido protocientífico de la creencia, el
jugador de ajedrez simplemente no cree que deba sacar a su dama antes de tiempo. Si esto parece difícil de aceptar,
tenga en cuenta que no hay una fuerza predictiva o explicativa adicional en la hipótesis de que ella cree que debería
sacar a su reina temprano más allá de la fuerza predictiva o explicativa de las estrategias explícitamente representadas de
las que surge sacar a la dama temprano. (Aunque no hay fuerza predictiva adicional, puede haber alguna utilidad predictiva
adicional, tal como hay utilidad en la navegación para suponer que el sol gira alrededor de la tierra). con sus principios de
ajedrez profundamente arraigados, a pesar de ser una propiedad emergente de sus tácticas habituales. Podríamos
suponer que si le señalas que sus estrategias tienen como consecuencia sacar temprano a su dama, ella dice "Oh no,
será mejor que revise mis estrategias habituales". Por lo tanto, postular que ella cree que debería sacar a su reina temprano
podría conducir a predicciones erróneas de su comportamiento. En suma, el concepto protocientífico de creencia
causalmente activa puede restringirse a las estrategias que realmente están explícitamente representadas.
Tal vez haya un sentido de creencia ordinario casi conductista en el que es correcto atribuir la creencia de que la reina
debería salir temprano simplemente sobre la base del hecho de que se comporta como si lo creyera. Incluso si aceptamos
reconocer tal creencia, no es una que afecte causalmente ningún otro estado mental o comportamiento, por lo que tiene
poca importancia desde un punto de vista científico.
Una tercera objeción a la teoría del lenguaje del pensamiento la proporciona el "opuesto" del caso de la "reina fuera
temprano", la hermana de Dennett en el caso de Cleveland. Supongamos que un neurocirujano opera en la caja de
creencias de alguien, insertando la oración "Tengo una hermana en Cleveland". Cuando el paciente se despierta, el médico
dice "¿Tienes una hermana?" "Sí", dice el paciente, "en Cleveland". Doctor: "¿Cómo se llama?" Paciente: "Dios, no puedo
pensar en eso". Doctor: "¿Mayor o menor?" Paciente: "No lo sé, y por Dios, soy hijo único. No sé por qué digo que
tengo una hermana". Finalmente, la paciente concluye que nunca creyó realmente que tuviera una hermana en
Cleveland, sino que fue víctima de algún tipo de compulsión por hablar como si la tuviera. Se supone que el resultado es
que el lenguaje de la teoría del pensamiento es falso porque no se puede producir una creencia simplemente
insertando una oración en el cuadro de creencias.
La objeción revela un aspecto engañoso del eslogan "Belief Box", no un problema con la doctrina que caracteriza el eslogan.
De acuerdo con la teoría del lenguaje del pensamiento, creer que uno tiene una hermana en Cleveland es una relación
computacional con una oración, pero esta relación computacional no debe considerarse como un simple almacenamiento.
Más bien, la relación computacional debe incluir alguna especificación de relaciones con otras oraciones con las que uno
también tiene la misma relación computacional y, en ese sentido, la relación computacional debe ser holística. Este
punto es válido tanto para la noción ordinaria de creencia como para la noción protocientífica. Se mantiene para la
noción ordinaria de creencia porque no contamos a alguien como creyente solo porque pronuncia palabras de la misma
manera que nuestra víctima de neurocirugía pronunció las palabras "Tengo una hermana en Cleveland". Y es válido para la
noción protocientífica de creencia porque es mucho más probable que la unidad de explicación y predicción sean
grupos de oraciones coherentemente relacionadas en el cerebro que oraciones individuales por sí mismas. Si
uno va a retener la forma de hablar del "Recuadro de creencias", debe decir que para que una oración en el Recuadro de
creencias cuente como una creencia, debe ser lo suficientemente coherente con otras oraciones para no ser totalmente
inestable, desapareciendo al exponerse. a la luz
3.2 Argumentos a favor del lenguaje del pensamiento
Así que parece que la hipótesis del lenguaje del pensamiento puede defenderse de estas objeciones a priori. Pero, ¿hay
alguna razón positiva para creerlo? Una de esas razones es que es parte de un programa de investigación
razonablemente exitoso. Pero hay retadores (principalmente, algunas versiones del programa conexionista
mencionado anteriormente), por lo que se requerirá un caso más sólido si los programas de investigación de los retadores
también terminan siendo exitosos.5
Una de las principales razones para aceptar el lenguaje del pensamiento ha sido una u otra forma de argumento de la
productividad , derivada del trabajo de Chomsky (ver Chomsky, 1975). La idea es que las personas son capaces de
21 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
teniendo una gran cantidad de pensamientos que no han pensado antes, y de hecho que nadie puede haber
pensado antes. Considere, por ejemplo, el pensamiento mencionado anteriormente de que este libro está más cerca
de usted que el zapato del presidente de la tienda de regalos del Museo. La explicación más obvia de cómo podemos
pensar tales nuevos pensamientos es la misma que la explicación de cómo podemos enmarcar las oraciones que los
expresan: a saber, a través de un sistema combinatorio en el que pensamos. , y la duración de la vida, puede
que no haya un límite superior en el número de pensamientos pensables. El número de oraciones en el idioma
inglés es ciertamente infinito. Pero, ¿qué significa decir que las oraciones que contienen millones de palabras son "en
principio" pensables?
Aquellos que están a favor de los argumentos de la productividad dicen esto: la explicación del hecho de que en
realidad no podemos pensar oraciones que contengan millones de palabras tendría que apelar a hechos tales como
que si tratáramos de pensar pensamientos lo suficientemente largos o complicados, nuestra atención decaería o nuestra
memoria nos fallaría, o moriríamos. Piensan que podemos idealizar lejos de estas limitaciones, ya que los
mecanismos del pensamiento en sí mismos son ilimitados. Pero esta afirmación de que si nos abstraemos de
la memoria, la mortalidad, la motivación y similares, nuestros mecanismos de pensamiento son ilimitados, es una
doctrina para la que no hay evidencia directa . La perspectiva desde la cual brota esta doctrina ha sido fértil, pero
es una pregunta abierta qué aspecto de la doctrina es responsable de su éxito. @comment[Objeción de Kripke: no
está claro qué es la idealización. kAdemás, tenemos evidencia de hacer la carga más fácil]
Después de todo, podríamos ser seres finitos, esencialmente. No todas las idealizaciones son igualmente correctas
y, contrariamente a la suposición generalizada en la ciencia cognitiva, la idealización de lo ilimitado del pensamiento
puede ser mala. Considere un autómata finito descrito naturalmente por la tabla en la figura 7.6 Su única forma
de memoria es el cambio de estado. Si desea que esta máquina cuente hasta 4 en lugar de solo hasta 3, no puede
simplemente agregar más memoria, debe darle otro estado cambiando la forma en que está construida la máquina.
Quizás somos como esta máquina.
Fodor (1987) y Fodor y Pylyshyn (1988) han propuesto recientemente una extensión del argumento de la productividad
para abordar este tipo de problemas. Fodor y Pylyshyn señalan que es un hecho acerca de los humanos que si alguien
puede pensar que María ama a Juan, entonces también puede pensar que Juan ama a María. Y lo mismo ocurre con
una gran variedad de pares de pensamientos que involucran los mismos constituyentes conceptuales, pero
se juntan de manera diferente. Hay una relación de sistematicidad entre muchos pensamientos que pide una
explicación en términos de un sistema combinatorio. La conclusión es que el pensamiento humano opera en un medio
de "tipos móviles".
Sin embargo, el candidato más obvio para los elementos de tal sistema combinatorio en muchas áreas son los propios
sistemas de símbolos externos . Quizás el caso más obvio son los pensamientos aritméticos. Si alguien es capaz
de pensar que 7 + 16 no es 20, entonces, presumiblemente, es capaz de pensar que 17 + 6 no es 20. De hecho,
alguien que ha dominado los diez números más otros símbolos básicos de la notación árabe y sus reglas de combinación
pueden pensar cualquier pensamiento aritmético que sea expresable en una representación que él pueda leer. (Tenga
en cuenta que las proposiciones falsas pueden ser pensables: uno puede pensar el pensamiento de que 2+2 = 5,
aunque solo sea para pensar que es falso).
Una línea de una página impresa común contiene ochenta símbolos. Hay una gran cantidad de proposiciones aritméticas
diferentes que se pueden escribir en esa línea, aproximadamente tantas como partículas elementales hay en el
universo. Aunque casi todos son falsos, se puede decir que todos se pueden pensar con algo de trabajo. Comenzando
un poco más pequeño, trate de pensar que 695,302,222,387,987 + 695,302,222,387,986 = 2. ¿Cómo es que tenemos
tantos pensamientos aritméticos posibles? La explicación obvia para esto es que podemos unir, ya sea en nuestra
cabeza o en papel, los símbolos (números, más, etc.) en sí mismos, y simplemente leer el pensamiento de la
cadena de símbolos. Por supuesto, esto no demuestra que el argumento de la sistematicidad sea erróneo. Ni
mucho menos, ya que demuestra por qué tiene razón. Pero este punto amenaza considerablemente el valor del
argumento de la sistematicidad. Porque destaca la posibilidad de que el argumento de la sistematicidad pueda aplicarse
solo al pensamiento consciente , y no al resto del iceberg de procesos de pensamiento inconscientes de los que trata
principalmente la ciencia cognitiva. Así que Fodor y Pylyshyn tienen razón en que el argumento de la sistematicidad
muestra que existe un lenguaje de pensamiento. Y tienen razón en que si el conexionismo es incompatible con una
22 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
lenguaje del pensamiento, tanto peor para el conexionismo. Pero donde están equivocados es con respecto a una suposición no
declarada: que el argumento de la sistematicidad muestra que las representaciones similares al lenguaje impregnan la cognición.
Para ver este punto, tenga en cuenta que gran parte del éxito en la ciencia cognitiva ha sido en nuestra comprensión de los
módulos perceptuales y motores. El funcionamiento de estos módulos no es introspectible, accesible al pensamiento consciente,
ni directamente influenciable por el pensamiento consciente. Estos módulos están "informativamente encapsulados". (Ver
Pylyshyn (1984) y Fodor (1983).) La productividad en el pensamiento consciente que es explotada por el argumento de la
sistematicidad ciertamente no demuestra productividad en el procesamiento dentro de tales módulos. Cierto, si alguien puede
pensar que si Juan ama a María, entonces puede pensar que María ama a Juan. Pero no tenemos fácil acceso a tales hechos
sobre pares de representaciones del tipo involucrado en procesos inconscientes. Distinga entre la conclusión de un argumento y el
argumento mismo. La conclusión del argumento de la sistematicidad bien puede ser correcta acerca de las representaciones
inconscientes. Es decir, la sistematicidad misma bien puede obtenerse en estos sistemas. Mi punto es que el argumento de la
sistematicidad muestra poco acerca de los módulos encapsulados y otros sistemas inconscientes.
La debilidad del argumento de la sistematicidad es que, al basarse en hechos que están fácilmente disponibles para el pensamiento
consciente, su aplicación a los procesos inconscientes es más tenue. No obstante, como el lector puede ver fácilmente al mirar
cualquier libro de texto de ciencias cognitivas, el modelo de manipulación de símbolos ha tenido bastante éxito en la explicación
de aspectos de la percepción, el pensamiento y el control motor. Entonces, aunque el argumento de la sistematicidad
está limitado en su aplicación a los procesos inconscientes, el modelo que apoya para los procesos conscientes parece tener
una aplicación considerable a los procesos inconscientes, no obstante.
Para evitar malentendidos, debo agregar que el punto que acabo de señalar no desafía todo el impulso de la crítica del conexionismo
de Fodor y Pylyshyn. Cualquier modelo de red neuronal de la mente tendrá que acomodar el hecho de nuestro uso de un
sistema de símbolos combinatorios sistemáticos en el pensamiento consciente. Es difícil ver cómo un modelo de red neuronal
podría hacer esto sin ser, en parte, una implementación de un modelo estándar de procesamiento de símbolos.
En efecto, Fodor y Pylyshyn (1988, p. 44) contrarrestan la idea de que el argumento de la sistematicidad depende por
completo de la manipulación consciente de símbolos diciendo que el argumento de la sistematicidad se aplica a los animales.
Por ejemplo, argumentan que la literatura sobre el condicionamiento no contiene casos de animales que puedan ser entrenados
para elegir la cosa roja en lugar de la verde, pero que no puedan ser entrenados para elegir la cosa verde en lugar de la roja.
Esta respuesta tiene algo de fuerza, pero es incómodamente anecdótica. Los datos que recopila un científico dependen de su
teoría. No podemos confiar en los datos recopilados en experimentos de condicionamiento animal realizados por conductistas,
quienes, después de todo, se oponían notoriamente a teorizar sobre los estados internos.
Otra objeción al argumento de la sistematicidad se deriva de la distinción entre representación lingüística y pictórica que
juega un papel en las controversias sobre las imágenes mentales. Muchos investigadores piensan que tenemos dos sistemas de
representación diferentes, un sistema similar al lenguaje (pensar en palabras) y un sistema pictórico (pensar en imágenes). Si
un animal que puede ser entrenado para elegir rojo en lugar de verde también puede ser entrenado para elegir verde en lugar de
rojo, eso puede reflejar las propiedades de un sistema de imágenes compartido por humanos y animales, no un sistema
propiamente parecido al lenguaje. Supongamos que Fodor y Pylyshyn tienen razón sobre la sistematicidad del pensamiento en los
animales. Eso puede reflejar solo un sistema pictórico combinatorio. Si es así, sugeriría (aunque no mostraría) que los humanos
también tienen un sistema pictórico combinatorio. Pero la pregunta aún estaría abierta si los humanos tienen un sistema combinatorio
similar al lenguaje que se usa en el pensamiento inconsciente. En suma, el argumento de la sistematicidad ciertamente
se aplica al pensamiento consciente, y es parte de una perspectiva sobre el pensamiento inconsciente que ha sido fértil, pero
existen dificultades en su aplicación al pensamiento inconsciente.
3.3 Niveles explicativos y la teoría sintáctica de la mente
23 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
En esta sección, supongamos que la hipótesis del lenguaje del pensamiento es correcta para hacer otra pregunta:
¿deberían las explicaciones de la ciencia cognitiva apelar solo a los elementos sintácticos del lenguaje del
pensamiento (los ̀0's y ̀1's y similares ) , o ¿Deberían apelar también al contenido de estos símbolos? Stich (1983)
ha defendido la "teoría sintáctica de la mente", una versión del modelo informático en el que el lenguaje del
pensamiento se construye en términos de símbolos no interpretados, símbolos que pueden tener contenidos, pero
cuyo contenido es irrelevante para los propósitos de Ciencia cognitiva. Plantearé el tema en términos de una
crítica de una versión simplificada del argumento de Stich (1983).
Comencemos con el caso de Stich de la Sra. T, una anciana senil que responde "¿Qué le pasó a McKinley?" con
"McKinley fue asesinado", pero no puede responder preguntas como "¿Dónde está McKinley ahora?", "¿Está vivo o
muerto?" y similares. Las instalaciones lógicas de la Sra. T están bien, pero ha perdido la mayoría de sus recuerdos y
prácticamente todos los conceptos que normalmente están conectados con el concepto de asesinato, como el
concepto de muerte. Stich esboza el caso para persuadirnos de que, aunque la Sra. T puede saber que algo
le sucedió a McKinley, no comprende realmente el concepto de asesinato y, por lo tanto, no se puede decir que crea
que McKinley fue asesinado.
El argumento que criticaré concluye que las explicaciones puramente sintácticas socavan las explicaciones
de contenido porque una explicación sintáctica es superior a una explicación de contenido. Hay dos aspectos
de la superioridad del enfoque sintáctico: primero, la explicación sintáctica puede manejar a la Sra. T, que tiene
poco contenido intencional, pero muchas representaciones internas cuyas interacciones pueden usarse para explicar y
predecir lo que hace, simplemente ya que las interacciones de las estructuras de símbolos en una computadora
pueden usarse para explicar y predecir lo que hace. Y lo mismo ocurre con los niños muy pequeños, las
personas con extraños trastornos psiquiátricos y los habitantes de culturas exóticas. En todos estos casos, la
ciencia cognitiva puede (al menos potencialmente) asignar descripciones sintácticas internas y usarlas para
predecir y explicar, pero hay problemas con las adscripciones de contenido (aunque, al menos en el último caso, el
problema no es que estas personas tengan ningún contenido, sino que sus contenidos son tan diferentes de los
nuestros que no podemos asignarles contenidos en nuestros términos). En suma, el primer tipo de superioridad
de la perspectiva sintáctica sobre la perspectiva de contenido, es que permite la psicología del senil, del muy
joven, del desordenado y del exótico, y así, se alega, la perspectiva sintáctica es mucho más general que la perspectiva del conten
El segundo aspecto de la superioridad de la perspectiva sintáctica es que permite predicciones y
explicaciones más detalladas que la perspectiva del contenido. Para tomar un ejemplo monótono, la perspectiva
del contenido nos permite predecir que si alguien cree que todos los hombres son mortales y que él es un hombre,
puede concluir que es mortal. Pero supongamos que la forma en que esta persona representa la generalización de
que todos los hombres son mortales para sí mismo es a través de una forma sintáctica del tipo 'Todos los no
mortales son no hombres'; entonces la inferencia será más difícil de sacar que si la hubiera representado sin las
negaciones. En general, qué inferencias son más difíciles que fáciles, y qué tipo de errores son probables, serán más
predecibles desde la perspectiva sintáctica que desde la perspectiva del contenido, en la que se agrupan todas las
diferentes formas de representar una creencia.
Se supone que el resultado de este argumento es que, dado que el enfoque sintáctico es más general y más detallado
que el enfoque del contenido, las explicaciones del contenido se ven socavadas y se demuestra que son
defectuosas. Así que la ciencia cognitiva haría bien en descartar los intentos de explicar y predecir en términos de
contenido a favor de apelar a la forma sintáctica únicamente.
Pero hay una falla fatal en este argumento, que se aplica a muchos argumentos reduccionistas. El hecho de que las
explicaciones sintácticas sean mejores que las explicaciones de contenido en algunos aspectos no dice nada acerca
de si las explicaciones de contenido no son también mejores que las explicaciones sintácticas en algunos aspectos.
Una forma dramática de revelar este hecho es notar que si el argumento contra el nivel de contenido fuera correcto,
socavaría el enfoque sintáctico mismo. Este punto es tan simple, fundamental y ampliamente aplicable, que merece
un nombre; llamémoslo el Triturador Reduccionista. Así como los objetos sintácticos en el papel pueden describirse
en términos moleculares, por ejemplo, como estructuras de moléculas de carbono, los objetos sintácticos en nuestras
cabezas pueden describirse en términos del punto de vista de la química y la física. Pero una explicación
fisicoquímica de los objetos sintácticos en nuestra cabeza será más general que la explicación sintáctica de la misma manera que
24 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
la cuenta sintáctica es más general que la cuenta de contenido. Hay seres posibles, como la Sra. T, que son similares a
nosotros sintácticamente pero no en contenidos intencionales. Del mismo modo, existen seres posibles que son similares
a nosotros en aspectos físicoquímicos, pero no sintácticamente. Por ejemplo, las criaturas podrían ser como nosotros en
aspectos físicoquímicos sin tener partes físicoquímicas que funcionen como objetos sintácticos, del mismo modo que
los objetos sintácticos de la Sra. T no funcionan para conferirles contenido. Si los modelos de redes neuronales del tipo que
favorecen los teóricos del antilenguaje del pensamiento pudieran ser diseñados mediante bioingeniería,
encajarían en esta descripción. Los modelos de bioingeniería serían como nosotros y como la Sra. T en aspectos físico
químicos, pero diferentes a nosotros y diferentes a la Sra. T en aspectos sintácticos. Además, la explicación fisicoquímica
será más detallada que la explicación sintáctica, al igual que la explicación sintáctica es más detallada que la explicación
del contenido. Las generalizaciones sintácticas fallarán en algunas circunstancias fisicoquímicamente especificables, al
igual que las generalizaciones de contenido fallan en algunas circunstancias sintácticamente especificables.
Mencioné que las generalizaciones de contenido podrían verse comprometidas si las realizaciones sintácticas incluyen
demasiadas negaciones sintácticas. El punto actual es que las generalizaciones sintácticas pueden fallar cuando los
objetos sintácticos interactúan sobre la base de ciertas propiedades físicoquímicas. Para tomar un ejemplo un poco
tonto, si una ficha de s y una ficha de s>t tienen carga positiva para que se repelan entre sí, eso podría evitar que los
procesadores lógicos las junten para producir una ficha de t.
En resumen, si pudiéramos refutar el enfoque de contenido mostrando que el enfoque sintáctico es más general y detallado
que el enfoque de contenido, también podríamos refutar el enfoque sintáctico mostrando la misma deficiencia en relación
con una teoría aún más profunda. El Cruncher reduccionista se aplica incluso dentro de la física misma. Por ejemplo,
cualquiera que rechace las explicaciones de la termodinámica en favor de las explicaciones de la mecánica
estadística se sentirá frustrado por el hecho de que las mismas explicaciones de la mecánica estadística pueden ser
"socavadas" de la misma manera por la mecánica cuántica.
Los mismos puntos se pueden hacer en términos de la explicación de cómo funciona una computadora. Compare
dos explicaciones del comportamiento de la computadora en mi escritorio, una en términos del lenguaje de programación y
la otra en términos de lo que sucede en los circuitos de la computadora. El último nivel es ciertamente más general en el
sentido de que se aplica no solo a las computadoras programadas, sino también a las computadoras no programables
que son electrónicamente similares a la mía, por ejemplo, ciertas calculadoras. Así, la mayor generalidad del nivel del
circuito es como la mayor generalidad de la perspectiva sintáctica. Además, el nivel del circuito es más detallado,
ya que nos permite predecir y explicar fallas informáticas que no tienen nada que ver con problemas técnicos del programa.
Los circuitos fallarán bajo ciertas circunstancias (por ejemplo, sobrecarga, calor o humedad excesivos) que no son
caracterizables en el vocabulario del nivel del programa. Así el mayor poder predictivo y explicativo del nivel circuito
es como el mayor poder del nivel sintáctico para distinguir casos de un mismo contenido representado en diferentes formas
sintácticas que marcan una diferencia en el procesamiento.
Sin embargo, la analogía de la computadora revela una falla en el argumento de que las explicaciones del nivel "superior" (el
nivel del programa en este ejemplo) son defectuosas y deben descartarse. El hecho de que un nivel "inferior" como el
nivel de circuito sea superior en algunos aspectos no muestra que los niveles "superiores" como los niveles de programa
no sean superiores en otros aspectos. Por tanto, no se muestra que los niveles superiores sean prescindibles. El nivel
de programa tiene su propio tipo de mayor generalidad, es decir, se aplica a computadoras que usan el mismo
lenguaje de programación, pero están construidas de diferentes maneras, incluso computadoras que no tienen ningún
circuito (pero digamos que funcionan a través de engranajes y poleas). De hecho, hay muchas predicciones y explicaciones
que son simples a nivel de programa, pero que serían absurdamente complicadas a nivel de circuito. Además
(y aquí está de nuevo el Cruncher reduccionista), si el nivel del circuito pudiera demostrar que el nivel del programa es
defectuoso, entonces una teoría más profunda podría demostrar que el nivel del circuito es defectuoso, por ejemplo, la
teoría del campo cuántico de circuitos
El punto aquí no es que el nivel del programa sea una ficción conveniente. Por el contrario, el nivel de programa es tan
real y explicativo como el nivel de circuito.
Quizás sea útil ver el asunto en términos de un ejemplo de Putnam (1975). Considere una clavija redonda rígida de 1
pulgada de diámetro y un agujero cuadrado en una tabla rígida con una diagonal de 1 pulgada. La clavija no pasará por
el agujero por razones que son fáciles de entender con un poco de geometría. (El lado del agujero es 1
25 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
dividido por la raíz cuadrada de 2, que es un número sustancialmente menor que 1.) Ahora bien, si fuéramos al nivel de
descripción de este aparato en términos de la estructura molecular que constituye un tablero sólido específico,
podríamos explicar la rigidez de los materiales, y tendríamos una comprensión más detallada, incluida la capacidad
de predecir el caso increíble en el que la alineación y el movimiento de las moléculas es tal que permite que la clavija
atraviese el tablero. Pero la explicación del nivel "superior" en términos de rigidez y geometría proporciona, no obstante,
explicaciones y predicciones correctas, y se aplica de manera más general a cualquier clavija y tablero rígidos, incluso
uno con un tipo de constitución molecular bastante diferente, por ejemplo, uno hecho de vidrio. líquido sobreenfriado,
en lugar de un sólido.
Es tentador decir que la explicación en términos de rigidez y geometría es sólo una aproximación, siendo la
explicación molecular la realmente correcta. (Ver Smolensky, 1988, para un caso dramático de ceder a este tipo de
tentación.) Pero la cura para esta tentación es el Triturador Reduccionista: el reduccionista también tendrá que decir que
una explicación de partículas elementales muestra que la explicación molecular es solo una aproximación. Y
la propia explicación de las partículas elementales se verá socavada por una teoría aún más profunda. El punto de una
explicación científica es cortar la naturaleza por sus articulaciones, y la naturaleza tiene articulaciones reales en muchos
niveles diferentes, cada uno de los cuales requiere su propio tipo de idealización.
Además, lo que hoy se cuenta como partículas elementales puede encontrarse mañana compuesto por aún más
partículas elementales, y así sucesivamente, hasta el infinito. De hecho, la física contemporánea permite esta
posibilidad de una serie infinita de partículas dentro de partículas. (Ver Dehmelt, 1989.) Si se obtiene una serie infinita de
este tipo, el reduccionista se comprometería a decir que no hay explicaciones genuinas porque para cualquier explicación
en cualquier nivel dado, siempre hay una explicación más profunda que es más general y más fina. granulado que lo
socava. ¡Pero la existencia de explicaciones genuinas seguramente no depende de este asunto recóndito de la física de
partículas!
He estado hablando como si hubiera un solo nivel de contenido, pero en realidad hay muchos. Marr distinguió entre
tres niveles diferentes: el nivel computacional, el nivel de representación y algoritmo, y el nivel de implementación. A
nivel computacional o formal, el multiplicador discutido anteriormente debe entenderse como una función de pares de
números a sus productos, por ejemplo, de {7,9} a 63. La caracterización más abstracta a nivel de representación y algoritmo
es simplemente el algoritmo del multiplicador, a saber: multiplicar n por m sumando m a cero n veces. Una
caracterización menos abstracta en este nivel medio es el programa descrito anteriormente, una secuencia de
operaciones que incluye restar 1 del registro que inicialmente representa n hasta que se reduce a cero, sumando m al
registro de respuesta cada vez.
(Consulte la Figura 2). Cada uno de estos niveles es un nivel de contenido en lugar de un nivel sintáctico. Hay muchos
tipos de multiplicadores cuyo comportamiento puede explicarse (aunque a un nivel algo superficial) simplemente
por el hecho de que son multiplicadores. El algoritmo mencionado brinda una explicación más profunda, y el programa,
uno de los muchos programas que pueden realizar ese algoritmo, brinda una explicación aún más profunda.
Sin embargo, cuando descomponemos el multiplicador en partes como el sumador de las Figuras 3a y 3b,
explicamos su operación interna en términos de puertas que operan sobre la sintaxis, es decir, en términos de
operaciones sobre números. Ahora bien, es de crucial importancia darse cuenta de que la mera posibilidad de una
descripción de un sistema en un cierto vocabulario no demuestra por sí misma la existencia de un nivel explicativo
genuino. Lo que nos interesa aquí es cortar la naturaleza en sus articulaciones, y hablar como si hubiera una articulación
no la convierte en tal. El hecho de que sea una buena metodología buscar primero la función, luego el algoritmo,
luego la implementación, no muestra por sí mismo que estas consultas sean consultas en diferentes niveles, en oposición
a diferentes formas de abordar el mismo nivel. La cuestión crucial es si los diferentes vocabularios corresponden a
leyes y explicaciones genuinamente distintas y, en cualquier caso dado, esta pregunta solo podrá responderse
empíricamente. Sin embargo, ya tenemos buena evidencia empírica de la realidad de los niveles de contenido que
acabamos de mencionar, así como del nivel sintáctico. La evidencia se encuentra en este mismo libro, donde vemos
explicaciones genuinas y distintas a nivel de función, algoritmo y sintaxis.
Otro punto sobre los niveles explicativos es que es legítimo utilizar idealizaciones diferentes e incluso incompatibles
en diferentes niveles. Ver Putnam (1975).) Se ha argumentado que dado que el cerebro es analógico, la computadora
digital debe ser incorrecta como modelo de la mente. Pero incluso las computadoras digitales son analógicas en un nivel
de descripción. Por ejemplo, puertas del tipo descrito anteriormente en las que 4 voltios dan cuenta de '1' y 7
26 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
volts se da cuenta de que '0' se entiende desde la perspectiva digital como siempre representando '0' o '1'. Pero un
examen a nivel electrónico muestra que valores intermedios entre 4 y 7 voltios aparecen momentáneamente
cuando un registro cambia entre ellos. Hacemos abstracción de estos valores intermedios a los efectos de un nivel de
descripción, pero no de otro.
4. Argumento de la habitación china de Searle
Como hemos visto, la idea de que cierto tipo de procesamiento de símbolos puede ser lo que convierte a algo
en un sistema intencional es fundamental para el modelo informático de la mente. Pasemos ahora a un extravagante
ataque frontal a esta idea por parte de John Searle (1980, 1990b, Churchland y Churchland, 1990; la idea básica de
este argumento proviene de Block, 1978). La estrategia de Searle consiste en evitar objeciones sobre programas
específicos imaginando que la ciencia cognitiva de un futuro lejano puede generar el programa de una persona real
que habla y entiende chino, y que este programa puede implementarse en una máquina. A diferencia de muchos
críticos del modelo informático, Searle está dispuesto a conceder que tal vez esto se pueda hacer para centrarse en
su afirmación de que incluso si se puede hacer, la máquina no tendrá estados intencionales.
El argumento se basa en un experimento mental. Imagínate que te dan un trabajo en el que trabajas en una
habitación (la habitación china). Solo entiendes inglés. Se colocan tiras de papel escritas en chino debajo de la puerta
de entrada, y su trabajo consiste en escribir respuestas sensatas en chino en otras tiras y empujarlas por debajo de
la puerta de salida. ¿Cómo lo haces? Usted actúa como la CPU (unidad central de procesamiento) de una computadora,
siguiendo el programa de computadora mencionado anteriormente que describe el procesamiento de símbolos
en la cabeza de un hablante chino real. El programa está impreso en inglés en una biblioteca en la habitación. Así es
como sigues el programa. Supongamos que la última entrada tiene ciertos garabatos chinos ininteligibles (para usted).
Hay una pizarra en una pared de la habitación con un número de "estado" escrito en ella; dice '17'. (La CPU de una
computadora es un dispositivo con un número finito de estados cuya actividad está determinada únicamente por su
estado y entrada actuales, y dado que usted actúa como CPU, su salida estará determinada por su entrada y su
"estado". El '17' está en la pizarra para decirle cuál es su "estado".) Saque el libro 17 de la biblioteca y busque estos
garabatos particulares en él. El Libro 17 le dice que mire lo que está escrito en su bloc de notas (la memoria
interna de la computadora), y dados tanto los garabatos de entrada como las marcas de la libreta de notas, se le
indica que cambie lo que está en la libreta de notas de cierta manera, escriba algunos otros garabatos en su bloc de
salida, empuje el papel debajo de la puerta de salida y, finalmente, cambie el número en el tablero de estado a '193'.
Como resultado de esta actividad, los hablantes de chino descubren que las hojas de papel que deslizas debajo de la
puerta de salida son respuestas sensatas a las entradas.
Pero no sabes nada de lo que se dice en chino; solo está siguiendo instrucciones (en inglés) para buscar en ciertos
libros y escribir ciertas marcas. Según Searle, dado que no entiendes nada de chino, el sistema del que eres la
CPU es un mero simulador de chino, no un verdadero entendido de chino. Por supuesto, Searle (con
razón) rechaza la prueba de Turing para comprender el chino. Su argumento, entonces, es que dado que el programa
de un verdadero comprensor de chino no es suficiente para comprender el chino, ninguna teoría de manipulación de
símbolos de la comprensión china (o cualquier otro estado intencional) es correcta acerca de lo que hace que algo
sea un comprensor de chino . Por lo tanto, la conclusión del argumento de Searle es que la idea fundamental del
pensamiento como procesamiento de símbolos es incorrecta incluso si nos permite construir una máquina que
pueda duplicar el procesamiento de símbolos de una persona y, por lo tanto, duplicar el comportamiento de una persona.
Las mejores críticas al argumento de la habitación china se han centrado en lo que Searle, anticipando el
desafío, llama la respuesta de los sistemas. (Véanse las respuestas que siguen a Searle (1980) y el comentario sobre
Searle en Hofstadter y Dennett (1981).) La respuesta del sistema tiene un componente positivo y otro negativo.
El componente negativo es que no podemos razonar de "Bill nunca vendió uranio a Corea del Norte" a "La compañía
de Bill nunca vendió uranio a Corea del Norte". De manera similar, no podemos razonar de "Bill no entiende
chino" a "El sistema del que Bill es parte no entiende chino". (Ver Copeland, 1993b). Hay una brecha en el argumento
de Searle. El componente positivo va más allá, diciendo que todo el sistema (hombre + programa + tablero + papel +
puertas de entrada y salida) entiende chino, aunque
27 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
el hombre que actúa como CPU no lo hace. Si abre su propia computadora y busca la CPU, encontrará que es
solo uno de los muchos chips y otros componentes en la placa de circuito principal. La respuesta de los sistemas
nos recuerda que las CPU de las computadoras pensantes que esperamos tener algún día no pensarán por sí
mismas , sino que serán partes de sistemas pensantes.
La inteligente respuesta de Searle es imaginar la parafernalia del "sistema" internalizada de la siguiente manera.
Primero, en lugar de pedirle que consulte una biblioteca, debemos imaginarlo memorizando toda la biblioteca. En
segundo lugar, en lugar de escribir notas en los blocs de notas, debe memorizar lo que hubiera escrito en los blocs
y debe memorizar lo que diría la pizarra estatal. Finalmente, en lugar de mirar las notas colocadas debajo de una
puerta y pasar notas debajo de otra puerta, solo usa su propio cuerpo para escuchar declaraciones en chino
y producir respuestas. (Esta versión de la sala china tiene la ventaja adicional de que se puede generalizar para
incluir el comportamiento completo de un sistema de habla china en lugar de solo un cambiador de billetes chino).
Pero como enfatizaría Searle, cuando a los hablantes de chino les parece que estás dirigiendo un discurso
aprendido con ellos en chino, todo lo que estás consciente de hacer es pensar en qué ruidos te dice el programa
que hagas a continuación, dados los ruidos que escuchas y lo que He escrito en tu bloc de notas mental.
Argumenté anteriormente que la CPU es solo uno de muchos componentes. Si todo el sistema entiende chino,
eso no debería llevarnos a esperar que la CPU entienda chino. El efecto del movimiento de internalización de
Searle, la "nueva" Sala China, es intentar destruir la analogía entre mirar dentro de la computadora y
mirar dentro de la Sala China. Si uno mira dentro de la computadora, ve muchos chips además de la CPU. Pero si
uno mira dentro de la "nueva" Sala China, todo lo que ve es a usted, ya que ha memorizado la biblioteca e
interiorizado las funciones del bloc de notas y la pizarra. Pero el punto a tener en cuenta es que aunque los
componentes que no son de la CPU ya no son fáciles de ver, no se han ido.
Más bien, se internalizan. Si el programa requiere que el contenido de un registro se coloque en otro registro, y
si hubiera hecho esto en la Sala china original copiando de una hoja de papel borrador a otra, en la nueva
Sala china debe copiar de una de tus análogos mentales de un pedazo de papel borrador a otro. Está
implementando el sistema haciendo lo que haría la CPU y simultáneamente está simulando los componentes que
no son de la CPU. Entonces, si el lado positivo de la respuesta del sistema es correcto, el sistema total que está
implementando entiende chino.
"Pero, ¿cómo puede ser", objetaría Searle, "que usted implemente un sistema que entiende chino aunque usted
no entienda chino?" La réplica de la respuesta de los sistemas es que usted implementa un sistema de
comprensión de chino sin que usted entienda chino o sin que necesariamente sea consciente de lo que está
haciendo bajo esa descripción. La respuesta de los sistemas ve la Sala China (nueva y antigua) como un
sistema inglés que implementa un sistema chino. Lo que conoce son los pensamientos del sistema inglés, por
ejemplo, seguir instrucciones y consultar su biblioteca interna. Pero en virtud de hacer esta tarea hercúlea,
también está implementando un sistema inteligente real de habla china, por lo que su cuerpo alberga dos
sistemas inteligentes genuinamente distintos. El sistema chino también piensa, pero aunque implementas este
pensamiento, no eres consciente de ello.
La respuesta del sistema se puede respaldar con una adición al experimento mental que destaca la división
del trabajo. Imagina que te enfrentas a los chinos simulando un trabajo de 9 a 5. Llegas el lunes por la mañana
después de un fin de semana de relajación y te pagan por seguir el programa hasta las 5 p. m. Cuando está
trabajando, se concentra mucho en el trabajo y, por lo tanto, en lugar de tratar de averiguar el significado de lo
que se le dice, enfoca sus energías en averiguar qué le dice el programa que haga en respuesta a cada entrada.
Como resultado, durante las horas de trabajo, respondes a todo tal como dicta el programa, excepto por las miradas
ocasionales a tu reloj. (Las miradas a su reloj entran en la misma categoría que los ruidos y el calor que emiten
las computadoras: aspectos de su comportamiento que no forman parte de la descripción de la máquina sino que
se deben más bien a las características de la implementación). Si alguien le habla en Inglés, dices lo que dicta el
programa (que, recuerdas, describe a un hablante chino real). Entonces, si durante las horas de trabajo
alguien le habla en inglés, usted responde con una solicitud en chino para hablar chino, o incluso un inexperto
pronunciado "No habla inglés", que una vez fue memorizado por el hablante de chino que se está simulando,
y que usted el inglés sistema de habla puede incluso fallar en reconocer como inglés. Luego, llegan las 5 p. m.,
dejas de trabajar y reaccionas a hablar en chino como lo haría cualquier hablante monolingüe de inglés.
28 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
¿Por qué el sistema inglés implementa el sistema chino en lugar de, digamos, al revés?
Porque ustedes (el sistema inglés al que ahora me dirijo) están siguiendo las instrucciones de un programa en inglés para hacer
ruidos chinos y no al revés. Si decides dejar tu trabajo para convertirte en mago, el sistema chino desaparece. Sin embargo, si el
sistema chino decide convertirse en mago, hará planes que expresaría en chino, pero luego, cuando lleguen las 5 p.
trabajar. Y por supuesto no tienes ningún compromiso de hacer lo que dicte el programa. Si el programa dicta que realice una serie
de movimientos que lo lleven a un vuelo a China, puede salir del modo de simulación y decir "¡Renuncio!" La existencia del
hablante chino y el cumplimiento de sus planes depende de tu horario de trabajo y de tus planes, no al revés.
Por lo tanto, usted y el sistema chino cohabitan en un solo cuerpo. En efecto, Searle usa el hecho de que no eres consciente de los
pensamientos del sistema chino como argumento de que no tiene pensamientos. Pero este es un argumento inválido.
Los casos reales de personalidades múltiples son a menudo casos en los que una personalidad no es consciente de las demás.
Es instructivo comparar el experimento mental de Searle con la máquina de búsqueda de cuerdas de la tía Bubbles descrita al
comienzo de este artículo. Esta máquina fue utilizada contra una propuesta conductista de un concepto conductista de inteligencia.
Pero la visión de la manipulación de símbolos de la mente no es una propuesta sobre nuestro concepto cotidiano. En la
medida en que pensemos que el sistema inglés implementa un sistema chino, será porque encontramos plausible la teoría de la
manipulación de símbolos de la mente como teoría empírica.
Hay un aspecto del caso de Searle con el que simpatizo. Tengo mis dudas de si hay algo que se parezca al sistema chino, es decir,
si el sistema chino es un sistema fenoménicamente consciente. Mis dudas surgen de la idea de que quizás la conciencia
sea más una cuestión de implementación del procesamiento de símbolos que del procesamiento de símbolos en sí
mismo. Aunque sorprendentemente Searle no menciona esta idea en relación con la Sala China, puede verse como el corazón
argumentativo de su posición. Searle ha argumentado independientemente de la Sala China (Searle, 1992, capítulo 7) que la
intencionalidad requiere conciencia. (Ver las respuestas a Searle en Behavioral and Brain Sciences 13, 1990.) Pero esta doctrina, si
es correcta, puede apuntalar el argumento de la habitación china. Porque si el sistema chino no es consciente, entonces, según
la doctrina de Searle, tampoco es un sistema intencional.
Incluso si tengo razón sobre el fracaso del argumento de Searle, logra agudizar nuestra comprensión de la naturaleza de la
intencionalidad y su relación con el cálculo y la representación.7
notas al pie
1. La máquina de la tía Bubbles refuta algo más fuerte que el conductismo, a saber, la afirmación de que lo mental "superviene"
a lo conductual; es decir, que no puede haber diferencia mental sin diferencia de comportamiento. (Por supuesto, las disposiciones
conductuales son finitas; véase el siguiente párrafo del texto). Estoy en deuda con Stephen White por señalarme que la doctrina
de la superveniencia de lo mental sobre lo conductual está muy extendida entre los pensadores que rechazan el conductismo. ,
como Donald Davidson. La máquina de la tía Bubbles se describe y defiende en detalle en Block (1978, 1981a), y fue descubierta de
forma independiente por White (1982).
2. El dígito más a la derecha en binario (como en el familiar decimal) es el lugar de los 1. El segundo dígito de la derecha es el lugar
de los 2 (que corresponde al lugar de las 10 en decimal). El siguiente es el lugar de 4s (es decir, 2 al cuadrado), tal como el lugar
correspondiente en decimal es el lugar de 10 al cuadrado.
3. La idea descrita aquí fue articulada por primera vez, según mi conocimiento, en Fodor (1975, 1980); véase también Dennett (1981)
al que se deben los términos 'motor semántico' y 'motor sintáctico', y Newell (1980). Se puede encontrar más sobre este tema en
Dennett (1987) buscando 'motor sintáctico' y 'motor semántico' en el
29 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
índice.
4. En un aspecto, los significados de los símbolos mentales no pueden ser semánticamente más básicos que los
significados de los símbolos externos. El nombre 'Aristóteles' tiene la referencia que tiene debido a su conexión causal
(a través de generaciones de hablantes) a un hombre que fue llamado por un nombre que era un antepasado de nuestro
término externo 'Aristóteles'. Así que el término en el lenguaje del pensamiento que corresponde a 'Aristóteles' ciertamente
derivará su referencia y por lo tanto será semánticamente menos básico que la palabra del lenguaje público.
5. Tenga en cuenta que el tipo de éxito es importante para determinar si el conexionismo es realmente un rival del punto de
vista del lenguaje del pensamiento. Las redes conexionistas han tenido éxito en varias tareas de reconocimiento de
patrones, por ejemplo, discriminar minas de rocas. Por supuesto, incluso si se pudiera hacer que estas redes hicieran
tareas de reconocimiento de patrones mucho mejor que nosotros, eso no sugeriría que estas redes puedan proporcionar
modelos de cognición superior. Las computadoras que están programadas para hacer aritmética en el modo
clásico de procesamiento de símbolos pueden hacer aritmética mucho mejor que nosotros, pero nadie concluiría que,
por lo tanto, estas computadoras proporcionan modelos de cognición superior.
6. Esta tabla podría usarse para describir una máquina que tiene una memoria con representación explícita. Digo
"naturalmente descrito" para indicar que estoy pensando en una máquina que no tiene esa memoria, una máquina para la
cual la tabla de la Figura 7 es una descripción adecuada y natural.
7. Estoy en deuda con Ken Aizawa, George Boolos, Susan Carey, Willem DeVries, Jerry Fodor y Steven White por sus
comentarios sobre un borrador anterior. Este trabajo fue apoyado por la Fundación Nacional de Ciencias (DIR8812559)
Bibliografía
Beakeley, B. y Ludlow, P. eds. (1992). Filosofía de la Mente: Problemas Clásicos/ Problemas Contemporáneos.
Cambridge: MIT Press. @blankspace[2 line] Block, Ned, 1978. "Problemas con el funcionalismo". En CW
Savage, ed., Estudios de Minnesota en Filosofía de la Ciencia, IX. Prensa de la Universidad de Minnesota: Minneapolis:
261325. Reimpreso en Rosenthal (1991) y Lycan (1990). @blankspace[.9 línea] Block, Ned, 1980, 1981b. Lecturas
de Filosofía de la Psicología, Vol 1, 2. Harvard University Press: Cambridge.
Bloque, Ned, 1981a. "Psicologismo y conductismo", The Philosophical Review LXXXX/1/54.
Block, Ned, 1986. "Publicidad de una semántica para la psicología". En francés, PA, et. al., ed., Midwest Studies in Philosophy,
vol. X. Prensa de la Universidad de Minnesota: Minneapolis: 615678.
Block, N. (1990a) Tierra invertida. En Perspectivas Filosóficas 4 ed J. Tomberlin. Ridgeview
Bloque, N. (1990b). "¿Puede la mente cambiar el mundo?" En G. Boolos, ed., Ensayos en honor de Hilary Putnam.
Prensa de la Universidad de Cambridge: Cambridge.
Burge, Tyler, 1979. "Individualismo y lo mental". En francés PA, et. al., ed., Estudios del Medio Oeste en Filosofía IV.
Prensa de la Universidad de Minnesota: Minneapolis: 73121.
Burge, Tyler, 1986. "Individualismo y psicología", The Philosophical Review 95/1/345.
Chalmers, D. próximamente. "Una base conceptual para el estudio de la cognición". Mentes y Máquinas
Chomsky, N., 1959. revisión de Verbal Behavior de BF Skinner. Lengua 35, nº 1: 2658
Chomsky, N., 1975. Reflections on Language Pantheon: Nueva York
30 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Churchland, PM, 1981. "El materialismo eliminativo y las actitudes proposicionales", The Journal of Philosophy 78/6790.
Churchland, PS, 1986. Neurofilosofía. Prensa del MIT: Cambridge.
Churchland PM y Churchland PS, 1990. "¿Podría pensar una máquina?" Científico americano 262 (1) 2631
Clark, A. 199 Motores asociativos. Cambridge: Prensa del MIT
Copeland, J. 1993a. Inteligencia artificial: una introducción filosófica , Oxford: Blackwell
Copeland, J. 1993b. "El curioso caso del gimnasio chino", Synthese 95: 173186
Cummins, Robert, 1975. "Análisis funcional", Journal of Philosophy 72/741765. Parcialmente reimpreso en Block (1980).
Cummins, Robert, 1989. Significado y representación mental. Prensa del MIT: Cambridge.
Davies, M., Humphreys, G. 199 Conciencia. Blackwell: Oxford
Dehmelt, Hans, 1989. "Tritón,... electrón,... cosmon...: ¿Una regresión infinita? Actas de la Academia Nacional de Ciencias, 86,
8618.
Dennett, D. (1969). Contenido y Conciencia. Londres: Routledge y Kegan Paul
Dennett, DC, 1974. "Por qué la ley del efecto no desaparecerá", Journal of the Theory of Social Behavior 5/169187.
Dennett, DC, 1975. "Escritura cerebral y lectura mental". En K. Gunderson, ed., Estudios de Minnesota en Filosofía de la
Ciencia VII. Prensa de la Universidad de Minnesota: Minneapolis.
Dennett, DC, 1981. "Tres tipos de psicología intencional". En R. Healy, ed., Reducción, Tiempo y Realidad. Prensa de la
Universidad de Cambridge: Cambridge.
Dennett, DC, 1987. La Postura Intencional. Prensa del MIT: Cambridge.
Dennett, DC, 1988. "Quining Qualia". En A. Marcel y E. Bisiach, ed., Consciousness in Contemporary Society.
Prensa de la Universidad de Oxford: Oxford.
Dretske, Fred, 1981. El conocimiento y el flujo de información. Prensa del MIT: Cambridge
Dretske, Fred, 1988. Explicando el Comportamiento: Razones en un Mundo de Causas MIT Press: Cambridge.
Dreyfus, Hubert L., 1979. Lo que las computadoras no pueden hacer Harper and Row: Nueva York
Field, Hartry, 1978. "Representación mental", Erkenntnis 13/1/961. Reimpreso en Block (1980).
Fodor, Jerry, 1968. "La apelación al conocimiento tácito en la explicación psicológica", The Journal of Philosophy 65/20.
Fodor, Jerry, 1975. El lenguaje del pensamiento. Crowell: Nueva York
Fodor, Jerry, 1980. "El solipsismo metodológico considerado como una estrategia de investigación en
Psychology", The Behavioral and Brain Sciences 3/417424. Reimpreso en Haugeland (1981).
Fodor, Jerry, 1981. "Tres hurras por las actitudes proposicionales", en Representaciones de Fodor. MIT
31 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Prensa: Cambridge.
Fodor, Jerry, 1987. Psicosemántica. Prensa del MIT: Cambridge.
Fodor, Jerry, 198 La modularidad de la mente. Prensa del MIT: Cambridge
Fodor, Jerry, 1985. "Guía de Fodor para la representación mental", Mind XCIV/76100.
Fodor, Jerry, 1990. "Psicosemántica o ¿de dónde vienen las condiciones de verdad?", en Lycan, 1990.
Fodor, Jerry; y Pylyshyn, Zenon, 1988. "Conexionismo y arquitectura cognitiva: una crítica
Análisis", Cognición 28/371.
Goldman, A. ed., 1993 Lecturas de Filosofía y Ciencias Cognitivas Cambridge: MIT Press
Guttenplan, S. ed. 1994. Un compañero de la filosofía de la mente Oxford: Blackwell
Harman, Gilbert, 1973 Pensamiento Princeton University Press: Princeton.
Harman, Gilbert, 1989. "La calidad intrínseca de la experiencia". En J. Tomberlin, ed., 1989.
Haugeland, John, 1978. "La naturaleza y la plausibilidad del cognitivismo", The Behavioral and Brain Sciences 1/215226.
Reimpreso en Haugeland (1981).
Haugeland, John, ed., 1981. Diseño mental. Prensa del MIT: Cambridge.
Haugeland, John, 1990. "Las estrellas de la intencionalidad". En Perspectivas Filosóficas 4 ed J. Tomberlin.
Ridgeview: Atascedero
Hofstadter, D. y Dennett, D., 1981. The Mind's I: Fantasies and Refelctions on Mind and Soul New York: Basic Books
Horwich, Paul, 1990. Verdad Blackwells: Oxford.
Kim, J., 1992. "La realización múltiple y la metafísica de la reducción", Filosofía y Fenomenología
Investigación LII, 1.
LePore, E. y Loewer, B., 1987. "Mind Matters", The Journal of Philosophy LXXXIV/11/630641.
Lycan, William, ed., 1987. Conciencia. Prensa del MIT: Cambridge
Lycan, William, 1990. Mente y cognición. BH Blackwell: Oxford. @blankspace[.9 línea] Newell, Alan,
1980. "Sistemas de símbolos físicos", Cognitive Science 4/2: 13518
Marr, David, 1977. "Inteligencia artificial: una visión personal", Inteligencia artificial 9/3748. Reimpreso en Haugeland (1981).
McCarthy, John, 1980. "Creencias, máquinas y teorías", The Behavioral and Brain Sciences 3/435.
Millikan, RG (1984) 1984. Lenguaje, pensamiento y otras categorías biológicas: nuevos fundamentos para
Realismo. Cambridge, Massachusetts: MIT Press
Moro, James, 1987. "Prueba de Turing". En Shapiro, ed., Enciclopedia de Inteligencia Artificial. John Wiley e hijos: 11261130.
@blankspace[1 línea] O'Rourke, J., Shattuck, J., "¿Se da cuenta una roca de todos los
¿Autómata? Una crítica del teorema de Putnam".
Papineau, D. (1984). Representación y explicación. Filosofía de la ciencia 51, 4:550572
32 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Peacocke, C. 1993 Un estudio de conceptos. Cambridge: Prensa del MIT
Pettit, P. y McDowell, J., 1986. Sujeto, Pensamiento y Contexto. Prensa de la Universidad de Oxford: Oxford.
Putnam, Hilary, 1975. "La filosofía y nuestra vida mental". En mente, lenguaje y realidad: artículos filosóficos, volumen 2.
Cambridge University Press: Londres. Reimpreso en Block (1980), y en algo
forma diferente, en Haugeland (1981). Publicado originalmente en Cognition 2 (1973) con una sección sobre CI que
se ha omitido de las dos versiones reimpresas.
Putnam, Hilary, 1988. Representación y Realidad. Prensa del MIT: Cambridge.
Pylyshyn, Zenon, 1984. Computación y cognición: problemas en los fundamentos de la ciencia cognitiva. MIT
Prensa: Cambridge.
Ramsey, W., Stich, S, Rumelhart, D. 1991. Filosofía y teoría conexionista. Hillsdale: Erlebaum
Rosenthal, DM, ed., 1991. La naturaleza de la mente. Prensa de la Universidad de Oxford: Oxford.
Schiffer, Stephen, 1987. Remanentes de significado MIT Press: Cambridge.
Schwartz, Jacob, 1988. "El nuevo conexionismo: desarrollo de relaciones entre la neurociencia y
Inteligencia Artificial", Daedalus 117/1/123142.
Searle, John, 1980. "Mentes, cerebros y programas", The Behavioral and Brain Sciences 3/417424.
Reimpreso en Haugeland (1981).
Searle, John, 1990a. "¿Es el cerebro una computadora digital?" Procedimientos y Direcciones de la American
Asociación Filosófica 64: 2137
Searle, John, 1990b. "¿Es la mente del cerebro un programa de computadora?" Científico americano 262 (1), 2025
Searle, John, 1992. El redescubrimiento de la mente. Cambridge: MIT
Shieber, S. 1994. "La primera prueba de Turing". Actas de la ACM
Shoemaker, Sydney, 1981. "El espectro invertido", The Journal of Philosophy LXXIV/7/357381.
Smolensky, Paul, 1988. "Sobre el tratamiento adecuado del conexionismo", Behavioral and Brain Sciences 11,123.
Véase también el comentario que sigue y la respuesta del autor.
Stalnaker, Robert, 1984. Investigación. Prensa del MIT: Cambridge.
Stampe, Dennis W., 1977. "Hacia una teoría causal de la representación lingüística". En PA French, et.al.,
ed., Estudios del Medio Oeste en Filosofía II. Prensa de la Universidad de Minnesota: Minneapolis: 426
Sterelny, Kim, 1985. "Revisión de Stich, From Folk Psychology to Cognitive Science: The Case Against
Creencia", Australasian Journal of Philosophy 63/4/510519.
Sterelny, K. 1990. La teoría representacional de la mente Blackwell: Oxford
Stich, Stephen, 1983. De la psicología popular a la ciencia cognitiva: el caso contra la creencia. Prensa del MIT: Cambridge
Tomberlin, J., 1990. Perspectivas Filosóficas, IV: Filosofía de la Mente y Teoría de la Acción. Ridgeview Publishing Co:
Atascadero.
Turing, AM, 1950. "Maquinaria informática e inteligencia", Mind 59/433460.
33 de 34 20/04/2004 16.04
"La mente como software del cerebro" de Ned Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google
Tye, M. 1991. The Imagery Debate Cambridge: MIT Press
Weizenbaum, Joseph, 1976. El poder de la computadora y la razón humana. WH Freeman: San Francisco.
White, Stephen, 1982. "Funcionalismo y contenido proposicional", tesis doctoral, Universidad de California, Berkeley.
Palabras clave
Computación, mente, inteligencia, test de Turing, ELIZA, intencionalidad, análisis funcional, procesador
primitivo, cerebro de pantano, motor sintáctico, motor semántico, lenguaje de pensamiento, conexionismo, caja de
creencias, productividad, sistematicidad, niveles de descripción, argumento de la habitación china
34 de 34 Ver estadísticas de publicación
20/04/2004 16.04