Está en la página 1de 35

Machine Translated by Google

Vea  discusiones,  estadísticas  y  perfiles  de  autor  para  esta  publicación  en:  https://www.researchgate.net/publication/2928775

La  mente  como  el  software  del  cerebro

Artículo  ∙  Mayo  2004

Fuente:  CiteSeer

CITAS LEE

136 5,793

1  autor:

Bloque  Ned

Universidad  de  Nueva  York

151  PUBLICACIONES  11.297  CITAS

VER  EL  PERFIL

Algunos  de  los  autores  de  esta  publicación  también  están  trabajando  en  estos  proyectos  relacionados:

Cerebro  base  de  la  conciencia  Ver  proyecto

La  base  cerebral  de  la  cognición  consciente:  ahora  hay  mucha  evidencia.  Ver  Proyecto

Todo  el  contenido  que  sigue  a  esta  página  fue  subido  por  Ned  Block  el  19  de  febrero  de  2013.

El  usuario  ha  solicitado  la  mejora  del  archivo  descargado.
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

La  mente  como  el  software  del  cerebro
Bloque  Ned
Universidad  de  Nueva  York

1.  Inteligencia  artificial

2.  Inteligencia  e  Intencionalidad

3.  El  funcionalismo  y  el  lenguaje  del  pensamiento

4.  Argumento  de  la  habitación  china  de  Searle

Los  científicos  cognitivos  suelen  decir  que  la  mente  es  el  software  del  cerebro.  Este  capítulo  trata  sobre  lo  que  significa  esta  
afirmación.

1.  Inteligencia  artificial
En  esta  sección,  comenzaremos  con  un  influyente  intento  de  definir  la  "inteligencia",  y  luego  pasaremos  a  considerar  cómo  se  debe  
investigar  la  inteligencia  humana  en  el  modelo  de  máquina.  La  última  parte  de  la  sección  discutirá  la  relación  entre  lo  mental  y  lo  
biológico.

1.1  La  prueba  de  Turing

Un  enfoque  de  la  mente  ha  sido  evitar  sus  misterios  simplemente  definiendo  lo  mental  en  términos  de  comportamiento.  Este  
enfoque  ha  sido  popular  entre  los  pensadores  que  temen  que  reconocer  estados  mentales  que  no  se  reducen  a  la  conducta  haría  
que  la  psicología  no  sea  científica,  porque  los  estados  mentales  no  reducidos  no  son  intersubjetivamente  accesibles  a  la  manera  de  
las  entidades  de  las  ciencias  duras.  El  "conductismo",  como  se  denomina  el  intento  de  reducir  lo  mental  a  lo  conductual,  se  ha  
considerado  a  menudo  como  refutado,  pero  periódicamente  reaparece  bajo  nuevas  formas.

Los  conductistas  no  definen  lo  mental  en  términos  de  simple  comportamiento,  ya  que,  después  de  todo,  algo  puede  ser  
inteligente  incluso  si  nunca  ha  tenido  la  oportunidad  de  exhibir  su  inteligencia.  Los  conductistas  definen  lo  mental  no  en  términos  de  
comportamiento,  sino  más  bien  de  disposiciones  conductuales ,  la  tendencia  a  emitir  ciertos  comportamientos  ante  ciertos  
estímulos.  Es  importante  que  los  estímulos  y  la  conducta  se  especifiquen  de  forma  no  mentalista.  Así,  la  inteligencia  no  podría  
definirse  en  términos  de  la  disposición  a  dar  respuestas  sensibles  a  las  preguntas,  ya  que  eso  sería  definir  una  noción  mental  en  
términos  de  otra  noción  mental  (de  hecho,  una  estrechamente  relacionada).
Para  ver  la  dificultad  de  los  análisis  conductistas,  uno  tiene  que  apreciar  cuán  mentalistas  son  nuestras  descripciones  
conductuales  ordinarias.  Considere,  por  ejemplo,  lanzar.  Una  serie  de  movimientos  que  constituyen  arrojar  si  es  producido  por  una  
causa  mental  podría  ser  un  baile  para  espantar  las  hormigas  si  es  producido  por  otra.

AM  Turing  (1950)  presentó  una  definición  conductista  de  inteligencia  especialmente  influyente.
Turing,  uno  de  los  matemáticos  que  descifraron  el  código  alemán  durante  la  Segunda  Guerra  Mundial,  formuló  la  idea  de  la  
máquina  de  Turing  universal,  que  contiene,  en  forma  matemática,  la  esencia  de  la

1  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

computadora  digital  programable.  Turing  quería  definir  la  inteligencia  de  una  manera  que  se  aplicara  tanto  a  los  hombres  
como  a  las  máquinas  y,  de  hecho,  a  todo  lo  que  es  inteligente.  Su  versión  del  conductismo  formula  la  cuestión  de  si  las  
máquinas  podrían  pensar  o  ser  inteligentes  en  términos  de  si  podrían  pasar  la  siguiente  prueba:  un  juez  en  una  sala  se  
comunica  por  teletipo  (¡Esto  fue  en  1950!)  con  una  computadora  en  una  segunda  sala  y  una  persona  en  una  tercera  
habitación  por  un  período  específico.  (Digamos  una  hora.)  La  computadora  es  inteligente  si  y  solo  si  el  juez  no  puede  
diferenciar  entre  la  computadora  y  la  persona.  La  definición  de  Turing  resolvió  el  difícil  problema  de  especificar  de  
forma  no  mentalista  las  disposiciones  conductuales  que  son  características  de  la  inteligencia  incorporando  la  
conducta  discriminatoria  de  un  juez  humano.  Y  la  definición  generaliza.  Cualquier  cosa  es  inteligente  en  caso  de  
que  pueda  pasar  la  prueba  de  Turing.

Turing  sugirió  que  reemplazáramos  el  concepto  de  inteligencia  con  el  concepto  de  pasar  la  prueba  de  Turing.
Pero,  ¿para  qué  es  el  reemplazo ?  Si  el  propósito  del  reemplazo  es  práctico,  la  prueba  de  Turing  no  es  de  gran  
utilidad.  Si  uno  quiere  saber  si  una  máquina  juega  bien  al  ajedrez,  diagnostica  una  neumonía  o  planifica  una  estrategia  de  
fútbol,  es  mejor  ver  cómo  se  desempeña  la  máquina  en  acción  que  hacer  que  tome  una  prueba  de  Turing.  Por  un  lado,  lo  
que  nos  importa  es  que  detecte  bien  la  neumonía,  no  que  lo  haga  de  una  manera  indistinguible  de  la  forma  en  que  lo  haría  
una  persona.  Entonces,  si  hace  el  trabajo,  ¿a  quién  le  importa  si  no  pasa  la  prueba  de  Turing?

Un  segundo  propósito  podría  ser  la  utilidad  para  propósitos  teóricos.  Pero  las  máquinas  que  pueden  pasar  la  prueba  de  
Turing,  como  ELIZA  de  Weizenbaum  (ver  más  abajo),  han  sido  callejones  sin  salida  en  la  investigación  de  inteligencia  
artificial,  no  comienzos  emocionantes.  (Ver  "Mimetismo  versus  Exploración"  en  Marr  1977  y  Shieber,  1994.)

Un  tercer  propósito,  el  que  más  se  acerca  a  las  intenciones  de  Turing,  es  el  propósito  de  la  clarificación  
conceptual.  Turing  fue  famoso  por  haber  formulado  un  concepto  matemático  preciso  que  ofreció  como  reemplazo  de  la  vaga  
idea  de  computabilidad  mecánica.  El  concepto  preciso  (computabilidad  por  una  máquina  de  Turing)  hizo  todo  lo  que  uno  
quisiera  que  hiciera  un  concepto  preciso  de  computabilidad  mecánica.  Sin  duda,  Turing  esperaba  que  la  concepción  de  
inteligencia  de  la  prueba  de  Turing  arrojaría  todo  lo  que  uno  desearía  de  una  definición  de  inteligencia  sin  la  vaguedad  
del  concepto  ordinario.

Construida  como  una  propuesta  sobre  cómo  precisar  el  concepto  de  inteligencia,  hay  un  vacío  en  la  propuesta  de  Turing:  
no  se  nos  dice  cómo  se  elegirá  al  juez.  Un  juez  que  fuera  una  autoridad  líder  en  máquinas  genuinamente  inteligentes  podría  
saber  cómo  diferenciarlas  de  las  personas.  Por  ejemplo,  el  experto  puede  saber  que  las  máquinas  inteligentes  actuales  
resuelven  correctamente  ciertos  problemas  que  las  personas  resuelven  mal.  Turing  reconoció  este  punto  al  descartar  la  
afirmación  de  que  ser  capaz  de  pasar  el  Test  de  Turing  es  una  condición  necesaria  de  la  inteligencia,  debilitando  su  
afirmación  de  que  pasar  el  Test  de  Turing  es  una  condición  suficiente  para  la  inteligencia.  Él  dice:  "¿No  pueden  las  máquinas  
llevar  a  cabo  algo  que  debería  describirse  como  pensar  pero  que  es  muy  diferente  de  lo  que  hace  un  hombre?  Esta  
objeción  es  muy  fuerte,  pero  al  menos  podemos  decir  que  si,  sin  embargo,  una  máquina  puede  ser  construida  para  
jugar  satisfactoriamente  el  juego  de  la  imitación,  no  debemos  preocuparnos  por  esta  objeción” (p.  435)  En  otras  
palabras,  una  máquina  que  pasa  es  necesariamente  inteligente,  incluso  si  algunas  máquinas  inteligentes  fallan.

Pero  el  problema  de  cómo  especificar  las  cualidades  del  juez  va  más  allá  de  lo  que  reconoce  Turing,  y  compromete  
también  la  prueba  de  Turing  como  condición  suficiente.  Un  juez  estúpido,  o  uno  que  no  haya  tenido  contacto  con  la  
tecnología,  podría  pensar  que  una  radio  es  inteligente.  Las  personas  que  son  ingenuas  con  las  computadoras  son  
increíblemente  fáciles  de  engañar,  como  se  demostró  en  la  Primera  Prueba  de  Turing  en  el  Museo  de  Computación  de  
Boston  en  1991.  (Ver  Shieber,  1994)  Una  versión  de  ELIZA  de  Weizenbaum  (descrita  en  el  siguiente  párrafo)  fue  
clasificada  como  humana  por  cinco  de  diez  jueces.  La  prueba  fue  "restringida"  en  el  sentido  de  que  a  los  programadores  de  
computadoras  se  les  dieron  temas  específicos  a  los  que  se  limitarían  sus  preguntas  y  se  prohibió  a  los  jueces  hacer  
preguntas  "complicadas".  Por  ejemplo,  si  el  tema  fuera  Washington  DC,  no  se  suponía  que  un  juez  hiciera  preguntas  
como  "¿Washington  DC  es  más  grande  que  una  caja  de  pan?".  Sin  embargo,  el  tema  del  programa  ganador  fue  
"conversación  caprichosa",  una  forma  "elegante"  de  interactuar  con  la  que  todos  los  jueces  aceptaron  de  inmediato,  y  que  
habría  tenido  el  mismo  efecto,  incluso  sin  temas  establecidos.  Además,  no  se  aplicaron  las  restricciones  a  las  
preguntas  no  complicadas.  (Hablo  como  uno  de  los  árbitros  que  no  los  hizo  cumplir).  En  su  mayor  parte,  los  jueces  inexpertos  
en  computación  realmente  no  sabían  cómo  formular  una  pregunta  difícil.  Por  lo  tanto,  la

2  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Se  puede  considerar  que  la  variante  de  ELIZA  ha  tenido  un  buen  desempeño  en  una  prueba  de  Turing  sin  restricciones.  Las  variantes  de  ELIZA  
(todas  escritas  por  Joseph  Weintraub)  también  obtuvieron  la  victoria  en  la  Segunda  y  Tercera  Prueba  de  Turing.  El  resultado  es  que  ya  se  ha  
demostrado  que  un  programa  de  computadora  completamente  estúpido  pasa  un  facsímil  razonable  de  una  prueba  de  Turing.

ELIZA  es  un  sencillo  programa  escrito  por  Joseph  Weizenbaum  que  en  una  versión  imita  a  un  psiquiatra.  Véase  Weizenbaum  (1976).  Emplea  un  
grupo  de  estrategias  simples  pero  efectivas.  Por  ejemplo,  busca  "palabras  clave"  en  una  lista  proporcionada  por  el  programador,  por  ejemplo,  
'yo',  'tú',  'igual',  'padre'  y  'todos'.  Las  palabras  están  ordenadas;  por  ejemplo,  'padre'  viene  antes  que  'todos',  por  lo  que  si  escribes  "Mi  padre  le  
tiene  miedo  a  todos",  la  máquina  escupirá  una  de  sus  respuestas  de  "padre",  como  "¿QUÉ  MÁS  TE  PARECE  CUANDO  PIENSAS?"  DE  
TU  PADRE?"  Si  escribes  "Todos  se  rieron  de  mí",  obtendrás  una  de  sus  respuestas  a  'todos',  como  "¿EN  QUIÉN  EN  PARTICULAR  ESTÁS  
PENSANDO?"  También  tiene  técnicas  que  transforman  simultáneamente  'tú'  en  'yo',  y  'yo'  en  'tú',  de  modo  que  si  escribes  "No  estás  de  acuerdo  
conmigo",  puede  responder:  "¿POR  QUÉ  CREES  QUE  YO  ¿NO  ESTOY  DE  ACUERDO  CON  USTED?"  También  almacena  oraciones  que  
contienen  ciertas  palabras  clave  como  'mi'.  Si  su  entrada  actual  no  contiene  palabras  clave,  pero  si  antes  dijo  "Mi  novio  me  obligó  a  venir  
aquí",  el  programa  dirá  "¿ESTO  TIENE  ALGO  QUE  VER  CON  EL  HECHO  DE  QUE  SU  NOVIO  LE  HIZO  VENIR  AQUÍ?"  También  tiene  
respuestas  comunes  a  'Parlez  vous  Francais' (o  cualquier  otra  oración  con  'Francais'),  a  saber,  "SÓLO  HABLO  INGLÉS".  Si  todo  lo  demás  falla,  
la  máquina  tiene  una  lista  de  respuestas  de  última  hora  como  "¿QUIÉN  ES  EL  PSIQUIATRA  AQUÍ,  USTED  O  YO?"

Este  tipo  de  programa  es  fácil  de  tropezar  si  sabe  cómo  funciona.  Por  ejemplo,  en  la  Primera  prueba  de  Turing,  un  juez  dijo:  "Estás  tratando  
de  hacerme  esto  difícil,  ¿no?"  y  el  programa  respondió  más  o  menos  de  la  siguiente  manera:  "¿Preferirías  que  no  fuera  cierto  que  estás  tratando  
de  ponerte  esto  difícil,  verdad?"
Como  señala  Shieber,  las  reglas  de  transposición  de  pronombres  no  pueden  manejar  "preguntas  de  etiqueta"  que  terminan  con,  por  
ejemplo,  "¿no  eres  tú?"

El  punto  que  ilustra  este  programa  es  que  un  programa  simple  puede  ser  extraordinariamente  exitoso  en  actividades  similares  a  pasar  
la  prueba  de  Turing.  @comentario<  Weizenbaum  informa@nota{Comunicación  personal}  que  un  científico  informático  que  
sabía  todo  sobre  el  programa  le  envió  un  mensaje  de  computadora  mientras  Weizenbaum  estaba  tomando  una  siesta  pero  tenía  activado  el  
modo  psiquiatra.  El  colega  le  estaba  pidiendo  a  Weizenbaum  que  cerrara  la  sesión,  porque  Weizenbaum  estaba  bloqueando  la  computadora  
sin  usarla,  y  el  colega  quería  usar  la  máquina.  Los  mensajes  de  la  colega  fueron  contestados  por  ELIZA,  y  la  conversación  pudo  haber  
ido  de  la  siguiente  manera.  (Obtuve  las  respuestas  de  ELIZA  a  estas  preguntas  de  una  versión  para  PC  del  programa.)  "Joe,  por  favor,  cierra  la  
sesión".  ESTABAMOS  HABLANDO  DE  USTED,  NO  YO  "Necesito  usar  la  computadora".  ¿TE  PREOCUPAN  LAS  COMPUTADORAS?  "No,  las  
computadoras  no  me  preocupan".  ¿QUÉ  CREES  QUE  TIENEN  QUE  VER  LAS  MÁQUINAS  CON  TU  PROBLEMA?  "Venga  ya." ¿POR  QUÉ  
DICES  ESO?  El  colega,  un  profesional  que  sabía  todo  sobre  ELIZA  no  tenía  idea  de  que  no  estaba  hablando  con  un  humano,  y  llamó  a  
Weizenbaum  en  un  ataque  de  rabia.>  El  programa  de  Weizenbaum  no  es  sofisticado  ni  complejo  para  los  estándares  actuales  (hay  una  

versión  para  PC  que  solo  es  200  líneas  en  BASIC),  sin  embargo,  este  tipo  de  programa  es  mejor  para  pasar  la  Prueba  de  Turing  que  cualquier  
otro  escrito  hasta  la  fecha,  como  lo  demuestran  las  tres  victorias  consecutivas  en  las  Pruebas  de  Turing  mencionadas  anteriormente.  
¡Imagínese  lo  convincente  que  sería  producir  un  programa  si  el  presupuesto  de  Defensa  se  dedicara  a  esta  tarea  durante  un  año!  Pero  incluso  
si  una  iniciativa  gubernamental  de  alto  presupuesto  produjera  un  programa  que  fuera  bueno  para  pasar  la  prueba  de  Turing,  si  el  programa  fuera  
solo  un  conjunto  de  trucos  como  el  programa  Weizenbaum,  con  tipos  de  preguntas  pensados  de  antemano  y  respuestas  enlatadas  colocadas  en  
la  máquina ,  la  máquina  no  sería  inteligente.

Una  forma  de  abordar  el  problema  de  la  especificación  del  juez  es  hacer  que  algún  tipo  de  caracterización  de  las  cualidades  
mentales  del  juez  forme  parte  de  la  formulación  del  Test  de  Turing.  Por  ejemplo,  se  podría  especificar  que  el  juez  tenga  un  conocimiento  
moderado  sobre  computadoras  y  sea  bueno  para  pensar,  o  mejor,  bueno  para  pensar  sobre  el  pensamiento.  Pero  incluir  una  especificación  
de  las  cualidades  mentales  del  juez  en  la  descripción  de  la  prueba  arruinará  la  prueba  como  una  forma  de  definir  el  concepto  de  inteligencia  en  
términos  no  mentalistas.  Además,  si  vamos  a  especificar  que  el  juez  sea  bueno  para  pensar  sobre  el  pensamiento,  también  podríamos  renunciar  
a  que  el  juez  juzgue  qué  concursantes  son  humanos  o

3  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

máquinas  y  que  el  juez  juzgue  lo  que  piensan  los  concursantes.  Y  entonces,  la  idea  de  la  prueba  de  Turing  sería:  una  máquina  piensa  si  nuestros  
mejores  pensadores  (sobre  el  pensamiento)  piensan  que  piensa.  Aunque  esto  suene  a  tópico,  en  realidad  es  falso.  Incluso  nuestros  mejores  
pensadores  son  falibles.  Lo  máximo  que  se  puede  afirmar  es  que  si  nuestros  mejores  pensadores  piensan  que  algo  piensa,  entonces  es  racional  que  
creamos  que  lo  hace.

Le  he  dado  mucha  importancia  a  la  afirmación  de  que  los  jueces  pueden  ser  engañados  por  una  máquina  sin  sentido  que  es  solo  una  bolsa  de  trucos.
"Pero",  puede  objetar,  "¿Cómo  sabemos  que  no  somos  solo  una  bolsa  de  trucos?".  Por  supuesto,  en  cierto  sentido  tal  vez  lo  estemos,  pero  ese  
no  es  el  sentido  relevante  para  lo  que  está  mal  con  la  prueba  de  Turing.  Para  ver  este  punto,  considere  lo  último  en  personas  no  inteligentes  que  
pasan  la  prueba  de  Turing,  una  máquina  hipotética  que  contiene  todas  las  conversaciones  de  una  duración  determinada  en  las  que  las  
respuestas  de  la  máquina  tienen  sentido.  Estipulemos  que  la  prueba  dura  una  hora.  Dado  que  hay  un  límite  superior  en  la  rapidez  con  la  que  puede  
escribir  un  mecanógrafo  humano,  y  dado  que  hay  un  número  finito  de  teclas  en  un  teletipo,  existe  un  límite  superior  en  la  "longitud"  de  una  
conversación  de  prueba  de  Turing.  Por  lo  tanto,  hay  un  número  finito  (aunque  más  que  astronómico)  de  diferentes  conversaciones  de  prueba  de  Turing,  
y  no  hay  contradicción  en  la  idea  de  enumerarlas  todas.

Llamemos  a  una  cadena  de  caracteres  que  se  pueden  escribir  en  una  hora  o  menos  una  cadena  "escribible".  En  principio,  se  podrían  generar  
todas  las  cadenas  tipeables,  y  un  equipo  de  programadores  inteligentes  podría  descartar  todas  las  cadenas  que  no  se  pueden  interpretar  como  una  
conversación  en  la  que  al  menos  una  de  las  partes  (por  ejemplo,  el  segundo  contribuyente)  tiene  sentido.  Las  cadenas  restantes  (llamémoslas  
cadenas  sensibles)  podrían  almacenarse  en  una  computadora  hipotética  (digamos,  con  marcas  que  separan  las  contribuciones  de  las  partes  
separadas),  que  funciona  de  la  siguiente  manera.
El  juez  escribe  algo.  Luego,  la  máquina  localiza  una  cadena  que  comienza  con  el  comentario  del  juez  y  arroja  el  siguiente  elemento.  El  juez  
luego  escribe  algo  más.  La  máquina  encuentra  una  cadena  que  comienza  con  la  primera  contribución  del  juez,  seguida  por  la  de  la  máquina,  seguida  por  
la  siguiente  contribución  del  juez  (la  cadena  estará  allí  ya  que  todas  las  cadenas  sensibles  están  allí),  y  luego  la  máquina  escupe  su  cuarto  elemento,  
y  así  en.  (Podemos  eliminar  la  suposición  simplificadora  de  que  el  juez  habla  primero  registrando  pares  de  cadenas;  esto  también  permitiría  que  
el  juez  y  la  máquina  hablen  al  mismo  tiempo).  Por  supuesto,  tal  máquina  solo  es  lógicamente  posible,  no  físicamente  posible.  La  cantidad  de  cadenas  
es  demasiado  grande  para  existir,  e  incluso  si  pudieran  existir,  ningún  tipo  de  máquina  podría  acceder  a  ellas  en  tiempo  real.  Pero  dado  que  estamos  
considerando  una  definición  propuesta  de  inteligencia  que  se  supone  que  captura  el  concepto  de  inteligencia,  la  posibilidad  conceptual  hará  el  
trabajo.  Si  se  supone  que  el  concepto  de  inteligencia  está  agotado  por  la  capacidad  de  pasar  el  Test  de  Turing,  entonces  incluso  un  universo  en  el  
que  las  leyes  de  la  física  son  muy  diferentes  a  las  nuestras  debería  contener  exactamente  tantos  no  inteligentes  que  pasaron  el  Test  de  Turing  
como  solteros  casados,  a  saber,  cero.

Tenga  en  cuenta  que  la  elección  de  una  hora  como  límite  para  la  prueba  de  Turing  no  tiene  consecuencias,  ya  que  el  procedimiento  que  se  acaba  de  
describir  funciona  para  cualquier  prueba  de  Turing  finita.

La  siguiente  variante  de  la  máquina  puede  ser  más  fácil  de  entender.  Los  programadores  comienzan  escribiendo  todas  las  cadenas  que  se  pueden  
escribir,  llámelas  A1...An.  Luego  piensan  en  una  sola  respuesta  sensata  para  cada  uno  de  ellos,  que  podemos  llamar  B1...Bn.  (En  realidad,  habrá  

menos  B  que  A  porque  algunos  de  los  A  ocuparán  toda  la  hora.)  A  los  programadores  les  resultará  más  fácil  si  creen  que  simulan  una  personalidad  

definida,  digamos  mi  tía  Bubbles,  y  algunos  situación  definida,  digamos  que  la  tía  Bubbles  es  llevada  a  la  sala  de  teletipos  por  su  extraño  sobrino  
y  se  le  pide  que  responda  preguntas  durante  una  hora.  Entonces,  cada  una  de  las  B  será  el  tipo  de  respuesta  que  la  tía  Bubbles  le  daría  a  la  A  
anterior.  Por  ejemplo,  si  A73  es  "Explicar  la  relatividad  general",  B73  podría  ser  "Pregúntale  a  mi  sobrino,  él  es  el  profesor".  ¿Qué  pasa  con  las  
respuestas  del  juez  a  cada  una  de  las  B?  El  juez  puede  dar  cualquier  respuesta  hasta  el  límite  de  longitud  remanente,  por  lo  que  debajo  de  cada  una  

de  las  Bs,  brotará  un  gran  número  de  Cs  (amplio,  pero  menor  que  el  número  de  Bs,  ya  que  el  tiempo  remanente  ha  disminuido).  La  siguiente  tarea  

de  los  programadores  es  producir  solo  una  D  para  cada  una  de  las  C.  Entonces,  si  la  B  que  acabamos  de  mencionar  es  seguida  por  una  C  que  es  
"xyxyxyxyxyxyxy!" (Recuerde,  el  juez  no  tiene  que  tener  sentido),  los  programadores  podrían  hacer  la  siguiente  D  "Mi  sobrino  me  advirtió  que  
podría  escribir  algunos  mensajes  extraños".

Piense  en  las  conversaciones  como  caminos  hacia  abajo  a  través  de  un  árbol,  comenzando  con  un  Ai  del  juez,  una  respuesta,  Bi

4  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

de  la  máquina,  etc.  Ver  Figura  1.  Para  cada  Ai­Bi­Ci  j  que  es  el  comienzo  de  una  conversación,  el
los  programadores  deben  producir  una  D  que  tenga  sentido  dadas  las  A,  B  y  C  que  la  preceden.

Figura  1:  Una  conversación  es  cualquier  camino  de  arriba  hacia  abajo.

La  máquina  funciona  de  la  siguiente  manera.  El  juez  va  primero.  Cualquier  cosa  que  el  juez  escriba  (errores  tipográficos  y  todo)  
es  uno  de  A1...An.  La  máquina  localiza  la  A  en  particular,  digamos  A2398,  y  luego  escupe  B2398,  una  respuesta  elegida  por  
los  programadores  como  apropiada  para  A2398.  El  juez  escribe  otro  mensaje,  y  la  máquina  lo  encuentra  nuevamente  en  la  
lista  de  C  que  brotan  debajo  de  B2398,  y  luego  escupe  la  respuesta  pregrabada  (que  tiene  en  cuenta  lo  que  se  dijo  en  A2398  
y  B2398).  Etcétera.  Aunque  la  máquina  puede  funcionar  tan  bien  en  la  prueba  de  Turing  de  una  hora  como  la  tía  Bubbles,  
tiene  la  inteligencia  de  una  máquina  de  discos.  Los  programadores  pensaron  específicamente  en  cada  comentario  
inteligente  que  produce  como  una  respuesta  al  comentario  anterior  del  juez  en  el  contexto  de  la  conversación  anterior.

Aunque  esta  máquina  es  demasiado  grande  para  existir,  no  hay  nada  incoherente  o  contradictorio  en  su  
especificación,  por  lo  que  es  suficiente  para  refutar  la  interpretación  conductista  de  la  prueba  de  Turing  de  la  que  he  estado  
hablando.1

Tenga  en  cuenta  que  hay  un  límite  superior  sobre  cuánto  tiempo  puede  funcionar  una  máquina  particular  de  Aunt  Bubbles  en  
una  prueba  de  Turing,  un  límite  establecido  por  la  longitud  de  las  cadenas  que  se  le  ha  dado.  Por  supuesto,  las  personas  reales  
también  tienen  sus  límites  superiores,  dado  que  las  personas  reales  eventualmente  renunciarán  o  morirán.  Sin  embargo,  
existe  una  diferencia  muy  importante  entre  la  máquina  de  la  tía  Bubbles  y  una  persona  real.  Podemos  definir  
'competencia'  como  un  desempeño  idealizado.  Entonces,  en  relación  con  las  idealizaciones  apropiadas,  bien  puede  ser  que  
las  personas  reales  tengan  una  competencia  infinita  para  continuar.  Es  decir,  si  a  los  seres  humanos  se  les  proporcionara  
una  memoria  ilimitada  y  sistemas  motivacionales  que  dieran  un  peso  infinito  a  la  prueba  de  Turing,  podrían  continuar  para  
siempre  (al  menos  según  la  sabiduría  convencional  en  la  ciencia  cognitiva).  Este  definitivamente  no  es  el  caso  de  la  máquina  Aunt  Bubbles.
Pero  esta  diferencia  no  proporciona  ninguna  objeción  a  la  máquina  de  la  tía  Bubbles  como  una  refutación  de  la  concepción  de  
la  inteligencia  de  la  prueba  de  Turing,  porque  la  noción  de  competencia  no  es  conductistamente  aceptable,  ya  que  requiere  para  
su  especificación,  una  distinción  entre  los  componentes  de  la  mente.  Por  ejemplo,  los  mecanismos  del  pensamiento  deben  
distinguirse  de  los  mecanismos  de  la  memoria  y  la  motivación.

"Pero",  puede  objetar,  "¿no  es  bastante  chovinista  suponer  que  una  máquina  debe  procesar  información  de  la  misma  manera  
que  lo  hacemos  nosotros  para  ser  inteligentes?"  Respuesta:  Tal  suposición  ciertamente  sería  chovinista,  pero  no  la  asumo.  El  
punto  en  contra  de  la  concepción  de  la  inteligencia  de  la  prueba  de  Turing  no  es  que  la  máquina  de  la  tía  Bubbles  no  
procesaría  la  información  de  la  manera  en  que  lo  hacemos,  sino  que  la  forma  en  que  procesa  la  información  no  es  inteligente  
a  pesar  de  su  desempeño  en  la  prueba  de  Turing.

En  última  instancia,  el  problema  con  la  prueba  de  Turing  para  propósitos  teóricos  es  que  se  enfoca  en  el  desempeño  más  
que  en  la  competencia.  Por  supuesto,  el  desempeño  es  evidencia  de  competencia,  pero  el  núcleo  de  nuestra  
comprensión  de  la  mente  radica  en  la  competencia  mental,  no  en  el  desempeño  conductual.  El  elenco  conductista

5  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

de  la  mente  que  lleva  a  la  concepción  de  inteligencia  del  test  de  Turing  también  lleva  a  etiquetar  las  ciencias  de  la  mente  
como  "las  ciencias  del  comportamiento".  Pero,  como  ha  señalado  Chomsky  (1959),  eso  es  como  llamar  a  la  física  la  ciencia  
de  las  lecturas  de  contadores.

1.2  Dos  tipos  de  definiciones  de  inteligencia
Hemos  estado  hablando  de  un  intento  de  definir  la  inteligencia  utilizando  los  recursos  de  la  prueba  de  Turing.
Sin  embargo,  existe  un  enfoque  muy  diferente  para  definir  la  inteligencia.

Para  explicar  este  enfoque,  será  útil  contrastar  dos  tipos  de  definiciones  de  agua.  Uno  podría  considerarse  mejor  como  
una  definición  de  la  palabra  'agua'.  La  palabra  podría  definirse  como  el  líquido  incoloro,  inodoro  e  insípido  que  se  encuentra  
en  lagos  y  océanos.  En  este  sentido  de  'definición',  la  definición  de  'agua'  está  disponible  para  cualquiera  que  hable  el  
idioma,  incluso  para  alguien  que  no  sepa  de  ciencia.  Pero  uno  también  podría  definir  el  agua  diciendo  qué  es  realmente  
el  agua,  es  decir,  diciendo  qué  estructura  fisicoquímica  de  hecho  hace  que  algo  sea  agua  pura.  La  respuesta  a  esta  
pregunta  implicaría  su  constitución  química:  H2O.
Definir  una  palabra  es  algo  que  podemos  hacer  en  nuestro  sillón,  consultando  nuestras  intuiciones  lingüísticas  sobre  
casos  hipotéticos,  o,  saltándose  este  proceso,  simplemente  estipulando  un  significado  para  una  palabra.  Definir  (o  
explicar)  la  cosa  es  una  actividad  que  implica  una  investigación  empírica  de  la  naturaleza  de  algo  en  el  mundo.

Lo  que  hemos  estado  discutiendo  hasta  ahora  es  el  primer  tipo  de  definición  de  inteligencia,  la  definición  de  la  palabra,  
no  la  cosa.  La  definición  de  Turing  no  es  el  resultado  de  una  investigación  empírica  sobre  los  componentes  de  la  inteligencia  
del  tipo  que  condujo  a  la  definición  del  agua  como  H2O.  Más  bien,  esperaba  evitar  el  pensamiento  turbio  sobre  la  
inteligencia  de  las  máquinas  al  estipular  que  la  palabra  "inteligente"  debería  usarse  de  cierta  manera,  al  menos  con  respecto  
a  las  máquinas.  Una  manera  muy  diferente  de  proceder  es  investigar  la  inteligencia  misma  como  los  químicos  físicos  
investigan  el  agua.  Consideraremos  cómo  podría  hacerse  esto  en  la  siguiente  sección,  pero  primero  debemos  señalar  una  
complicación.

Hay  dos  tipos  (al  menos)  de  tipos:  tipos  estructurales  como  el  agua  o  el  tigre,  y  tipos  funcionales  como  la  ratonera  o  el  gen.  
Un  tipo  estructural  tiene  una  "esencia  compositiva  oculta";  en  el  caso  del  agua,  la  esencia  compositiva  se  trata  de  sus  
moléculas  que  consisten  en  dos  moléculas  de  hidrógeno  y  una  molécula  de  oxígeno.  Los  tipos  funcionales,  por  el  contrario,  
no  tienen  esencia  que  sea  una  cuestión  de  composición.  Cierto  tipo  de  función,  un  papel  causal,  es  la  clave  para  ser  una  
ratonera  o  un  carburador.  (La  historia  completa  es  bastante  compleja:  algo  puede  ser  una  ratonera  porque  está  hecho  
para  serlo  incluso  si  no  cumple  muy  bien  esa  función).  Lo  que  hace  que  un  trozo  de  ADN  sea  un  gen  es  su  función  
con  respecto  a  los  mecanismos  que  pueden  lea  la  información  que  codifica  y  use  esta  información  para  hacer  un  
producto  biológico.

Ahora  bien,  la  propiedad  de  ser  inteligente  es  sin  duda  de  tipo  funcional,  pero  todavía  tiene  sentido  investigarla  
experimentalmente,  al  igual  que  tiene  sentido  investigar  los  genes  experimentalmente.  Un  tema  de  investigación  es  el  
papel  de  la  inteligencia  en  la  resolución  de  problemas,  la  planificación,  la  toma  de  decisiones,  etc.  Qué  funciones  
están  involucradas  en  un  tipo  funcional  es  a  menudo  una  pregunta  empírica  difícil  e  importante.  El  proyecto  de  la  
genética  mendeliana  ha  sido  investigar  la  función  de  los  genes  a  un  nivel  de  descripción  que  no  involucra  sus  
realizaciones  moleculares.  Un  segundo  tema  de  investigación  es  la  naturaleza  de  las  realizaciones  que  tienen  la  función  
en  nosotros,  en  los  humanos:  el  ADN  en  el  caso  de  los  genes.  Por  supuesto,  si  hay  marcianos,  sus  genes  pueden  no  estar  
compuestos  de  ADN.  De  manera  similar,  podemos  investigar  los  detalles  funcionales  y  la  base  física  de  la  inteligencia  
humana  sin  prestar  atención  al  hecho  de  que  nuestros  resultados  no  se  aplicarán  a  otros  mecanismos  de  otras  
inteligencias  hipotéticas.

1.3  Análisis  funcional

6  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Ambos  tipos  de  proyectos  que  acabamos  de  mencionar  se  pueden  llevar  a  cabo  a  través  de  una  metodología  común,  una  
metodología  a  veces  conocida  como  análisis  funcional.  Piense  en  la  mente  humana  representada  por  un  ser  inteligente  en  la  cabeza,  un  
"homúnculo".  Piensa  en  este  homúnculo  como  si  estuviera  compuesto  de  homúnculos  más  pequeños  y  más  estúpidos,  y  cada  
uno  de  ellos  compuesto  por  homúnculos  aún  más  pequeños  y  más  estúpidos  hasta  que  alcances  un  nivel  de  homúnculos  completamente  
mecánicos.  (Esta  imagen  se  articuló  por  primera  vez  en  Fodor  (1968);  véase  también  Dennett  (1974)  y  Cummins  (1975).)

Supongamos  que  uno  quiere  explicar  cómo  entendemos  el  lenguaje.  Parte  del  sistema  reconocerá  palabras  individuales.  Este  
reconocedor  de  palabras  puede  estar  compuesto  por  tres  componentes,  uno  de  los  cuales  tiene  la  tarea  de  buscar  cada  palabra  
entrante,  una  a  la  vez,  y  pasarla  a  un  segundo  componente.  El  segundo  componente  incluye  un  diccionario,  es  decir,  una  lista  de  todas  las  
palabras  del  vocabulario,  junto  con  la  información  sintáctica  y  semántica  de  cada  palabra.  Este  segundo  componente  compara  la  
palabra  objetivo  con  palabras  en  el  vocabulario  (quizás  ejecutando  muchas  comparaciones  de  este  tipo  simultáneamente)  hasta  
que  obtiene  una  coincidencia.  Cuando  encuentra  una  coincidencia,  envía  una  señal  a  un  tercer  componente  cuyo  trabajo  es  recuperar  
la  información  sintáctica  y  semántica  almacenada  en  el  diccionario.  Se  supone  que  esta  especulación  sobre  cómo  funciona  un  modelo  de  
comprensión  del  lenguaje  ilustra  cómo  se  puede  explicar  una  competencia  cognitiva  apelando  a  competencias  cognitivas  más  
simples,  en  este  caso,  las  simples  operaciones  mecánicas  de  buscar  y  emparejar.

La  idea  de  este  tipo  de  explicación  de  la  inteligencia  proviene  de  la  atención  prestada  a  la  forma  en  que  funcionan  las  computadoras.
Considere  una  computadora  que  multiplica  m  por  n  sumando  m  a  cero  n  veces.  Aquí  hay  un  programa  para  hacer  esto.  Piense  en  m  y  n  
como  se  representan  en  los  registros  M  y  N  en  la  figura  2.  El  registro  A  está  reservado  para  la  respuesta,  a.  Primero,  se  coloca  una  
representación  de  0  en  el  registro  A.  Segundo,  se  examina  el  registro  N  para  ver  si  contiene  (una  representación  de)  0.  Si  la  respuesta  es  
sí,  el  programa  se  detiene  y  la  respuesta  correcta  es  0.  (Si  n  =  0,  m  por  n  =  0.)  Si  no,  N  se  decrementa  en  1  (así  que  el  registro  N  ahora  
contiene  una  representación  de  n­1),  y  (una  representación  de)  m  se  agrega  al  registro  de  respuesta,  A.  Entonces,  el  procedimiento  regresa  
al  segundo  paso:  el  registro  N  se  verifica  una  vez  más  para  ver  si  su  valor  es  0;  si  no,  se  decrementa  nuevamente  en  1,  y  nuevamente  se  
agrega  m  al  registro  de  respuesta.  Este  procedimiento  continúa  hasta  que  N  finalmente  tiene  el  valor  0,  en  cuyo  momento  se  habrá  
agregado  m  al  registro  de  respuesta  exactamente  n  veces.  En  este  punto,  el  registro  de  respuesta  contiene  una  representación  de  la  
respuesta.

Figura  2:  Programa  para  multiplicar.  Uno  comienza  la  multiplicación  poniendo  representaciones  de  m  y  n,  los  números  a  
multiplicar,  en  los  registros  M  y  N.  Al  final  del  cálculo,  la  respuesta  se  encontrará  en  el  registro  A.  Consulte  el  texto  para  
obtener  una  descripción  de  cómo  funciona  el  programa.  obras.

Este  programa  multiplica  a  través  de  una  "descomposición"  de  la  multiplicación  en  otros  procesos,  a  saber,  la  suma,  la  resta  de  1,  el  
establecimiento  de  un  registro  en  0  y  la  verificación  de  un  registro  para  0.  Dependiendo  de  cómo  se  hagan  estas  cosas,  pueden  ser  más  
descomponibles,  o  pueden  ser  el  nivel  inferior  fundamental

7  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

procesos,  conocidos  como  procesos  primitivos.

La  definición  o  explicación  de  la  ciencia  cognitiva  de  la  inteligencia  es  análoga  a  esta  explicación  de  la  multiplicación.  Las  
capacidades  inteligentes  se  entienden  a  través  de  la  descomposición  en  una  red  de  capacidades  menos  inteligentes,  basadas  en  
última  instancia  en  capacidades  totalmente  mecánicas  ejecutadas  por  procesadores  primitivos.

El  concepto  de  proceso  primitivo  es  muy  importante;  la  siguiente  sección  está  dedicada  a  ello.

1.4  Procesadores  primitivos

¿Qué  hace  que  un  procesador  sea  primitivo?  Una  respuesta  es  que  para  los  procesadores  primitivos,  la  pregunta  "¿Cómo  funciona  el  
procesador?"  no  es  una  pregunta  que  deba  responder  la  ciencia  cognitiva.  El  científico  cognitivo  responde  "¿Cómo  funciona  el  
multiplicador?"  en  el  caso  del  multiplicador  descrito  anteriormente,  dando  el  programa  o  el  diagrama  de  flujo  de  información  para  el  
multiplicador.  Pero  si  los  componentes  del  multiplicador,  digamos  las  puertas  que  componen  el  sumador,  son  primitivos,  entonces  
no  es  asunto  del  científico  cognitivo  responder  a  la  pregunta  de  cómo  funciona  esa  puerta.  El  científico  cognitivo  puede  decir:  "Esa  
pregunta  pertenece  a  otra  disciplina,  la  teoría  de  circuitos  electrónicos".  Distinguir  la  cuestión  de  cómo  funciona  algo  de  la  cuestión  
de  qué  hace.  La  cuestión  de  qué  hace  un  procesador  primitivo  es  parte  de  la  ciencia  cognitiva,  pero  la  cuestión  de  cómo  lo  hace  no  lo  
es.

Esta  idea  se  puede  aclarar  un  poco  al  observar  cómo  funciona  realmente  un  procesador  primitivo.  El  ejemplo  involucrará  un  tipo  común  
de  sumador  de  computadora,  simplificado  para  agregar  solo  un  dígito.

Para  comprender  este  ejemplo,  debe  conocer  los  siguientes  hechos  simples  sobre  la  notación  binaria:  2  0  y  1  se  representan  de  la  
misma  manera  en  notación  binaria  y  normal  (decimal),  pero  la  representación  binaria  que  corresponde  al  '2'  decimal  es  
'10'.  Nuestro  sumador  resolverá  los  siguientes  cuatro  problemas:

0  +  0  =  0

1  +  0  =  1

0  +  1  =  1

1  +  1  =  10

Las  primeras  tres  ecuaciones  son  verdaderas  tanto  en  binario  como  en  decimal,  pero  la  última  es  verdadera  solo  si  se  entiende  
en  binario.

El  segundo  elemento  de  información  de  fondo  es  la  noción  de  puerta.  Una  puerta  "Y"  es  un  dispositivo  que  acepta  dos  entradas  
y  emite  una  sola  salida.  Si  ambas  entradas  son  '1's,  la  salida  es  un  '1';  de  lo  contrario,  la  salida  es  un  '0'.  Una  puerta  "EXCLUSIVA­
O" (cualquiera  de  las  dos,  pero  no  ambas)  es  un  "detector  de  diferencia":  emite  un  '0'  si  sus  entradas  son  las  mismas  (es  decir,  '1'/'1'  o  
'0'/'0'). ),  y  emite  un  '1'  si  sus  entradas  son  diferentes  (es  decir,  '1'/  '0'  o  '0'/  '1')

Esta  charla  de  '1'  y  '0'  es  una  forma  de  pensar  sobre  los  estados  "biestables"  de  los  representantes  de  computadora.  Estos  
representantes  están  hechos  para  que  estén  siempre  en  uno  u  otro  de  los  dos  estados,  y  solo  momentáneamente  en  el  medio.  (Esto  
es  lo  que  es  ser  biestable.)  Los  estados  pueden  ser  un  potencial  de  4  voltios  y  7  voltios.  Si  los  dos  estados  de  entrada  de  una  puerta  
son  los  mismos  (por  ejemplo,  4  voltios),  y  la  salida  también  es  la  misma  (4  voltios),  y  si  cualquier  otra  combinación  de  entradas  
produce  la  salida  de  7  voltios,  entonces  la  puerta  es  una  puerta  Y ,  y  el  estado  de  4  voltios  realiza  '1'.  (Alternativamente,  si  se  toma  
el  estado  de  4  voltios  para  realizar  '0',  la  compuerta  es  una  compuerta  "inclusiva  o" (cualquiera  o  ambas).)  Se  puede  hacer  un  tipo  
diferente  de  compuerta  AND  para  que  el  estado  de  7  voltios  realice  '  1  '.  El  punto  es  que  '1'  se  asigna  convencionalmente  a  cualquier  
estado  físico  biestable  de  una  compuerta  AND  que  tenga  el  rol  mencionado,  es  decir,  '1'  se  asigna  convencionalmente  a  cualquier  
estado  en  el  que  dos  de  ellos  como  entradas  produzcan

8  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

otro  como  salida,  y  nada  más  produce  esa  salida.  Y  todo  lo  que  cuenta  sobre  una  compuerta  AND  desde  el  punto  de  
vista  computacional  es  su  función  de  entrada­salida,  no  cómo  funciona  o  si  4  o  7  voltios  generan  un  '1'.  Tenga  en  
cuenta  la  terminología  que  he  estado  usando:  uno  habla  de  un  estado  físico  (potencial  de  4  voltios)  como  "realizando"  
un  estado  computacional  (que  tiene  el  valor  '1').  Esta  distinción  entre  los  niveles  de  descripción  computacional  y  
físico  será  importante  en  lo  que  sigue,  especialmente  en  la  sección  3.

Así  es  como  funciona  el  sumador.  Los  dos  dígitos  a  sumar  están  conectados  tanto  a  una  puerta  AND  como  a  una  
puerta  OR  EXCLUSIVA  como  se  ilustra  en  las  Figuras  3a  y  3b.  Veamos  primero  3a.  Los  dígitos  que  se  agregarán  son  
'1'  y  '0',  y  se  colocan  en  el  registro  de  entrada,  que  es  el  par  de  casillas  superior.  La  puerta  EXCLUSIVA­OR,  que,  como  
recordará,  es  un  detector  de  diferencias,  ve  cosas  diferentes  y,  por  lo  tanto,  emite  un  '1'  en  el  cuadro  más  a  la  derecha  
del  registro  de  respuesta,  que  es  el  par  de  cuadros  inferior.  La  puerta  AND  genera  un  '0'  excepto  cuando  ve  dos  '1',  
por  lo  que  genera  un  '0'.  De  esta  forma,  el  circuito  calcula  '1  +  0  =  1'.  Para  este  problema,  como  para  '0  +  1  =  1'  y  '0  +  
0  =  0',  la  puerta  EXCLUSIVA­OR  hace  todo  el  trabajo  real.  El  papel  de  la  compuerta  AND  en  este  circuito  es  el  
transporte,  y  eso  se  ilustra  en  la  Figura  3b.  Los  dígitos  que  se  van  a  sumar,  '1'  y  '1',  se  colocan  de  nuevo  en  el  registro  
superior.  Ahora,  ambas  entradas  a  la  compuerta  AND  son  '1's,  por  lo  que  la  compuerta  AND  genera  un  '1'  en  el  cuadro  
más  a  la  izquierda  del  registro  de  respuesta  (inferior).  La  puerta  O­EXCLUSIVA  pone  un  '0'  en  el  recuadro  más  a  la  
derecha,  por  lo  que  tenemos  la  respuesta  correcta,  '10'.

Figura  3:  (a)  Sumador  haciendo  1  +  0  =  1;  (b)  Sumador  haciendo  1  +  1  =  10.

Las  fronteras  entre  las  disciplinas  científicas  son  notoriamente  difusas.  Nadie  puede  decir  exactamente  dónde  termina  
la  química  y  comienza  la  física.  Dado  que  la  línea  entre  los  niveles  superiores  de  los  procesadores  y  el  nivel  de  los  
procesadores  primitivos  es  la  misma  que  la  línea  entre  la  ciencia  cognitiva  y  una  de  las  ciencias  de  "realización"  como  
la  electrónica  o  la  fisiología,  el  límite  entre  los  niveles  de  los  procesadores  complejos  y  el  nivel  de  los  
procesadores  primitivos  tendrán  la  misma  borrosidad.  No  obstante,  en  este  ejemplo  deberíamos  esperar  que  las  puertas  
sean  los  procesadores  primitivos.  Si  se  fabrican  de  la  manera  habitual,  son  los  componentes  más  grandes  cuyo  
funcionamiento  debe  explicarse,  no  en  términos  de  ciencia  cognitiva,  sino  en  términos  de  electrónica  o  mecánica  o  
alguna  otra  ciencia  de  realización.  ¿Por  qué  la  calificación  "Si  se  hacen  de  la  manera  habitual"?  Sería  posible  hacer  un  
sumador  cada  una  de  cuyas  puertas  fueran  computadoras  completas,  con  sus  propios  multiplicadores,  
sumadores  y  puertas  normales.  Sería  una  tontería  desperdiciar  una  computadora  completa  en  una  tarea  tan  simple  como

9  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

el  de  una  puerta  AND,  pero  podría  hacerse.  En  ese  caso,  el  nivel  real  de  las  primitivas  no  serían  las  puertas  del  sumador  
original,  sino  las  puertas  (normales)  de  las  computadoras  componentes.

Los  procesadores  primitivos  son  los  únicos  dispositivos  computacionales  para  los  cuales  el  conductismo  es  verdadero.  
Dos  procesadores  primitivos  (como  puertas)  cuentan  como  computacionalmente  equivalentes  si  tienen  la  misma  
función  de  entrada­salida,  es  decir,  el  mismo  comportamiento  real  y  potencial,  incluso  si  uno  funciona  hidráulicamente  
y  el  otro  eléctricamente.  Pero  la  equivalencia  computacional  de  dispositivos  no  primitivos  no  debe  entenderse  de  esta  manera.
Considere  dos  multiplicadores  que  funcionan  a  través  de  diferentes  programas.  Ambos  aceptan  entradas  y  emiten  salidas  
solo  en  notación  decimal.  Uno  de  ellos  convierte  las  entradas  a  binario,  realiza  el  cálculo  en  binario  y  luego  vuelve  
a  convertirlo  a  decimal.  El  otro  hace  el  cálculo  directamente  en  decimal.  Estos  no  son  multiplicadores  
computacionalmente  equivalentes  a  pesar  de  sus  funciones  de  entrada­salida  idénticas.

Si  la  mente  es  el  software  del  cerebro,  entonces  debemos  tomarnos  en  serio  la  idea  de  que  el  análisis  funcional  de  la  
inteligencia  humana  tocará  fondo  en  los  procesadores  primitivos  del  cerebro.

1.5  Lo  mental  y  lo  biológico

Un  tipo  de  compuerta  AND  eléctrica  consta  de  dos  circuitos  con  interruptores  dispuestos  como  en  la  Figura  4.  Los  
interruptores  de  la  izquierda  son  las  entradas.  Cuando  solo  uno  o  ninguno  de  los  interruptores  de  entrada  está  cerrado,  
no  sucede  nada,  porque  el  circuito  de  la  izquierda  no  está  completo.  Solo  cuando  ambos  interruptores  están  cerrados,  el  
electroimán  se  enciende,  y  eso  cierra  el  interruptor  de  la  derecha,  y  por  lo  tanto  enciende  el  circuito  de  la  derecha.  (El  
circuito  de  la  derecha  solo  se  ilustra  parcialmente).  En  este  ejemplo,  un  interruptor  que  se  cierra  da  cuenta  de  '1';  es  el  
estado  biestable  que  se  obtiene  como  salida  si  y  solo  si  dos  de  ellos  están  presentes  como  entrada.

En  la  Figura  5  se  ilustra  otra  puerta  AND.  Si  ninguno  de  los  ratones  de  la  izquierda  se  suelta  en  la  parte  derecha  de  sus  
jaulas,  o  si  solo  se  suelta  uno  de  los  ratones,  el  gato  no  se  esfuerza  lo  suficiente  para  tirar  de  la  correa.  Pero  cuando  ambos  
se  liberan  y,  por  lo  tanto,  son  visibles  para  el  gato,  el  gato  se  esfuerza  lo  suficiente  como  para  levantar  la  puerta  del  tercer  
ratón,  dejándolo  entrar  en  la  parte  cursi  de  su  caja.  Así  que  tenemos  una  situación  en  la  que  se  da  salida  a  un  ratón  
obteniendo  queso  si  y  solo  si  se  ingresan  dos  casos  de  ratones  obteniendo  queso.

Figura  4:  Portón  AND  eléctrico.  Abierto  =  0,  cerrado  =  1

Figura  5:  Gato  y  ratón  Y  puerta.  Ratón  hambriento  =  0,  ratón  alimentado  =  1

10  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

El  punto  ilustrado  aquí  es  la  irrelevancia  de  la  realización  del  hardware  para  la  descripción  computacional.  Estas  
puertas  funcionan  de  formas  muy  diferentes,  pero  no  obstante  son  computacionalmente  equivalentes.  Y,  por  supuesto,  
es  posible  pensar  en  una  variedad  indefinida  de  otras  formas  de  hacer  una  puerta  AND  primitiva.  Cómo  funcionan  tales  
puertas  no  es  más  parte  del  dominio  de  la  ciencia  cognitiva  que  la  naturaleza  de  los  edificios  que  albergan  
fábricas  de  computadoras.  Esto  revela  un  sentido  en  el  que  el  modelo  informático  de  la  mente  es  
profundamente  antibiológico.  Somos  seres  que  tenemos  un  nivel  de  descripción  biológico  útil  e  interesante,  pero  el  
modelo  informático  de  la  mente  apunta  a  un  nivel  de  descripción  de  la  mente  que  se  abstrae  de  las  realizaciones  
biológicas  de  las  estructuras  cognitivas.  En  lo  que  respecta  al  modelo  informático,  no  importa  si  nuestras  puertas  
se  realizan  en  materia  gris,  interruptores  o  gatos  y  ratones.

Por  supuesto,  esto  no  quiere  decir  que  el  modelo  informático  sea  de  ninguna  manera  incompatible  con  un  
enfoque  biológico.  De  hecho,  la  cooperación  entre  los  enfoques  biológico  y  computacional  es  vital  para  
descubrir  el  programa  del  cerebro.  Supongamos  que  a  uno  se  le  presenta  una  computadora  de  diseño  extraterrestre  y  
se  plantea  el  problema  de  determinar  su  programa  por  cualquier  medio  posible.  Solo  un  tonto  elegiría  ignorar  la  
información  que  se  obtiene  al  abrir  la  computadora  para  ver  cómo  funcionan  sus  circuitos.  Uno  querría  juntar  la  
información  a  nivel  de  programa  con  la  información  a  nivel  electrónico  y,  del  mismo  modo,  al  encontrar  el  programa  de  
la  mente  humana,  se  puede  esperar  que  los  enfoques  biológico  y  cognitivo  se  complementen  entre  sí.

No  obstante,  el  modelo  informático  de  la  mente  tiene  un  sesgo  antibiológico  incorporado,  en  el  siguiente  sentido.  Si  el  
modelo  informático  es  correcto,  deberíamos  ser  capaces  de  crear  máquinas  inteligentes  a  nuestra  imagen,  
es  decir,  nuestra  imagen  computacional .  Y  las  máquinas  que  creamos  en  nuestra  imagen  computacional  
pueden  no  ser  biológicamente  similares  a  nosotros.  Si  podemos  crear  máquinas  a  nuestra  imagen  computacional,  
naturalmente  sentiremos  que  la  teoría  más  convincente  de  la  mente  es  la  que  es  lo  suficientemente  general  como  
para  aplicarla  tanto  a  ellos  como  a  nosotros,  y  esta  será  una  teoría  computacional,  no  una  teoría  biológica.  Una  teoría  
biológica  de  la  mente  humana  no  se  aplicará  a  estas  máquinas,  aunque  la  teoría  biológica  tendrá  una  ventaja  
complementaria:  a  saber,  que  dicha  teoría  biológica  nos  englobará  junto  con  nuestros  primos  biológicos  menos  
inteligentes  y,  por  lo  tanto,  proporcionará  un  tipo  diferente  de  comprensión.  en  la  naturaleza  de  la  inteligencia  
humana.  Ambos  enfoques  pueden  acomodar  consideraciones  evolutivas,  aunque  en  el  caso  del  paradigma  
computacional,  la  evolución  no  es  más  relevante  para  la  naturaleza  de  la  mente  que  las  intenciones  de  los  
programadores  para  la  naturaleza  de  un  programa  de  computadora.

2  Inteligencia  e  Intencionalidad
Nuestra  discusión  hasta  ahora  se  ha  centrado  en  el  enfoque  computacional  de  un  aspecto  de  la  mente,  la  inteligencia.
Pero  hay  un  aspecto  diferente  de  la  mente  que  aún  no  hemos  discutido,  uno  que  tiene  una  relación  muy  diferente  
con  las  ideas  computacionales,  a  saber,  la  intencionalidad.

Para  nuestros  propósitos,  podemos  tomar  la  inteligencia  como  una  capacidad,  una  capacidad  para  varias  
actividades  inteligentes,  como  resolver  problemas  matemáticos,  decidir  si  ir  a  la  escuela  de  posgrado  y  descubrir  
cómo  se  hacen  los  espaguetis.  (Nótese  que  este  análisis  de  la  inteligencia  como  capacidad  para  resolver,  descifrar,  
decidir  y  similares,  es  un  análisis  mentalista,  no  un  análisis  conductista).

La  intencionalidad  es  acerca  de.  Los  estados  intencionales  representan  el  mundo  como  siendo  de  cierta  manera.  El  
pensamiento  de  que  la  luna  está  llena  y  el  estado  perceptivo  de  ver  que  la  luna  está  llena  se  refieren  a  la  luna  y  ambos  
representan  la  luna  llena.  Así  que  ambos  son  estados  intencionales.  Decimos  que  el  contenido  intencional  tanto  del  
pensamiento  como  del  estado  de  percepción  es  que  la  luna  está  llena.  Un  solo  contenido  intencional  puede  tener  
efectos  conductuales  muy  diferentes,  dependiendo  de  su  relación  con  la  persona  que  tiene  el  contenido.  Por  ejemplo,  el  
temor  de  que  haya  una  guerra  nuclear  puede  inspirar  a  uno  a  trabajar  por  el  desarme,  pero  la  creencia  de  que  habrá  
una  guerra  nuclear  puede  influir  para  emigrar  a  Australia.  (No  dejes  que  la  ortografía  te  engañe:

11  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

intentar  es  sólo  un  tipo  de  estado  intencional.  Creer  y  desear  son  otros).  La  intencionalidad  es  una  característica  importante  de  
muchos  estados  mentales,  pero  muchos  filósofos  creen  que  no  es  "la  marca  de  lo  mental".
Hay  sensaciones  corporales,  la  experiencia  del  orgasmo,  por  ejemplo,  que  son  estados  mentales  genuinos  pero  no  tienen  contenido  
intencional.  (Bueno,  tal  vez  haya  un  poco  de  contenido  intencional  en  esta  experiencia,  por  ejemplo,  contenido  de  ubicación,  pero  
el  contenido  fenoménico  de  la  experiencia,  cómo  es  tenerlo,  claramente  no  se  agota  en  ese  contenido  intencional).

Las  características  del  pensamiento  que  acabamos  de  mencionar  están  estrechamente  relacionadas  con  las  características  del  lenguaje.  
Los  pensamientos  representan,  se  refieren  a  cosas  y  pueden  ser  verdaderos  o  falsos;  y  lo  mismo  ocurre  con  las  oraciones.  La  oración  
"Bruce  Springsteen  nació  en  la  URSS"  se  refiere  a  Springsteen,  lo  representa  como  nacido  en  la  Unión  Soviética  y  es  falsa.  Sería  
sorprendente  que  el  contenido  intencional  del  pensamiento  y  del  lenguaje  fueran  fenómenos  independientes,  por  lo  que  es  natural  
tratar  de  reducir  uno  al  otro  o  encontrar  alguna  explicación  común  para  ambos.  Continuaremos  con  esta  idea  a  continuación,  pero  antes  
de  continuar,  intentemos  aclarar  cuál  es  la  diferencia  entre  inteligencia  e  intencionalidad.

Una  forma  de  entender  la  distinción  entre  inteligencia  e  intencionalidad  es  notar  que,  en  opinión  de  muchos  escritores  sobre  este  
tema,  se  puede  tener  intencionalidad  sin  inteligencia.  Así,  John  McCarthy  (el  creador  del  lenguaje  de  inteligencia  artificial  LISP)  
sostiene  que  los  termostatos  tienen  estados  intencionales  en  virtud  de  su  capacidad  para  representar  y  controlar  la  temperatura  (McCarthy,  
1980).  Y  hay  una  escuela  de  pensamiento  que  asigna  contenido  a  los  anillos  de  los  árboles  en  virtud  de  que  representan  la  edad  del  
árbol.  Pero  ninguna  escuela  de  pensamiento  sostiene  que  los  anillos  de  los  árboles  sean  realmente  inteligentes.  Un  sistema  inteligente  
debe  tener  ciertas  capacidades  inteligentes,  capacidades  para  hacer  cierto  tipo  de  cosas,  y  los  anillos  de  los  árboles  no  pueden  
hacer  estas  cosas.
De  manera  menos  controvertida,  las  palabras  en  una  página  y  las  imágenes  en  una  pantalla  de  televisión  tienen  intencionalidad.  Por  
ejemplo,  mi  comentario  anterior  en  este  párrafo  en  el  sentido  de  que  McCarthy  creó  LISP  se  trata  de  McCarthy.  Pero  las  palabras  en  una  
página  no  tienen  inteligencia.  Por  supuesto,  la  intencionalidad  de  las  palabras  en  una  página  es  solo  intencionalidad  derivada,  no  
intencionalidad  original.  (Ver  Searle,  1980  y  Haugeland,  1980)  El  contenido  intencional  derivado  se  hereda  del  contenido  
intencional  original  de  sistemas  intencionales  como  tú  y  yo.  Tenemos  mucha  libertad  para  dar  a  los  símbolos  su  contenido  intencional  
derivado.  Si  queremos,  podemos  decidir  que  'McCarthy'  ahora  representará  a  Minsky  oa  Chomsky.  Los  contenidos  intencionales  
originales  son  los  contenidos  intencionales  que  las  representaciones  de  un  sistema  intencional  tienen  para  ese  sistema.  Tales  contenidos  
intencionales  no  están  sujetos  a  nuestro  capricho.  Las  palabras  en  una  página  tienen  intencionalidad  derivada,  pero  no  tienen  ningún  
tipo  de  inteligencia,  ni  siquiera  inteligencia  derivada,  sea  lo  que  sea.

A  la  inversa,  puede  haber  inteligencia  sin  intencionalidad.  Imagine  que  ocurre  un  evento  con  una  probabilidad  insignificante  (pero,  lo  
que  es  más  importante,  distinta  de  cero):  en  su  movimiento  aleatorio,  las  partículas  del  pantano  se  juntan  y,  por  casualidad,  dan  como  
resultado  un  duplicado  molécula  por  molécula  de  su  cerebro.  Podría  decirse  que  el  cerebro  de  pantano  es  inteligente,  porque  tiene  
muchas  de  las  mismas  capacidades  que  tiene  su  cerebro.  Si  lo  conectamos  a  las  entradas  y  salidas  correctas  y  le  damos  un  problema  
aritmético,  obtendríamos  una  respuesta  inteligente.
Pero  hay  razones  para  negar  que  tiene  los  estados  intencionales  que  tú  tienes  y,  de  hecho,  para  negar  que  tenga  estados  intencionales  
en  absoluto.  Porque  como  no  lo  hemos  conectado  a  dispositivos  de  entrada,  nunca  ha  tenido  ninguna  información  del  mundo.  
Supongamos  que  su  cerebro  y  él  pasan  por  un  proceso  idéntico,  un  proceso  que  en  su  caso  es  el  pensamiento  del  pensamiento  de  que  
Bernini  destrozó  el  Panteón.  El  proceso  idéntico  en  el  cerebro­pantano  tiene  las  características  fenomenales  de  ese  pensamiento,  en  el  
sentido  de  "contenido  fenomenal"  indicado  en  la  discusión  anterior  sobre  el  orgasmo.  Lo  que  es  para  ti  pensar  el  pensamiento  es  
exactamente  lo  que  es  para  el  cerebro­pantano.  Pero,  a  diferencia  de  ti,  el  cerebro  del  pantano  no  tiene  idea  de  quién  fue  Bernini,  qué  
es  el  Panteón  o  qué  es  el  vandalismo.  Ninguna  información  sobre  Bernini  ha  hecho  ningún  tipo  de  contacto  con  el  cerebro  del  
pantano;  tampoco  le  han  llegado  señales  del  Panteón.  Si  tuviera  boca,  simplemente  pronunciaría  palabras.  Así  que  nadie  debería  estar  
contento  con  la  idea  de  que  el  cerebro  del  pantano  está  pensando  en  que  Bernini  destrozó  el  Panteón.

El  resultado:  lo  que  hace  que  un  sistema  sea  inteligente  es  lo  que  puede  hacer,  lo  que  tiene  la  capacidad  de  hacer.  Así  que  
la  inteligencia  está  orientada  hacia  el  futuro.  Lo  que  hace  que  un  sistema  sea  un  sistema  intencional,  por  el  contrario,  es  en  parte  una  
cuestión  de  su  historia  causal;  debe  tener  una  historia  que  haga  que  sus  estados  representen  el  mundo,  es  decir,  que  tengan  un  objeto.
La  intencionalidad  tiene  un  requisito  orientado  al  pasado.  Un  sistema  puede  satisfacer  las  necesidades  orientadas  al  futuro  de

12  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

inteligencia  mientras  suspende  el  requisito  de  intencionalidad  orientado  al  pasado.  (Los  filósofos  no  están  de  acuerdo  
acerca  de  qué  tan  orientada  hacia  el  futuro  es  la  intencionalidad,  si  pensar  en  algo  requiere  la  capacidad  de  "rastrearlo",  
pero  no  debería  haber  desacuerdo  en  cuanto  a  que  hay  algún  componente  orientado  al  pasado).

Ahora  veamos  qué  tiene  que  ver  la  diferencia  entre  inteligencia  e  intencionalidad  con  el  modelo  informático  de  la  
mente.  Nótese  que  el  método  de  análisis  funcional  que  explica  los  procesos  inteligentes  reduciéndolos  a  procesos  
mecánicos  no  inteligentes  no  explica  la  intencionalidad.  Las  partes  de  un  sistema  intencional  pueden  ser  tan  
intencionales  como  el  sistema  completo.  (Ver  Fodor  (1981))  En  particular,  los  componentes  procesadores  de  un  
sistema  intencional  pueden  manipular  símbolos  que  son  casi  las  mismas  cosas  que  los  símbolos  manipulados  por  todo  
el  sistema.  Recuerde  que  el  multiplicador  de  la  Figura  2  se  explicó  a  través  de  una  descomposición  en  dispositivos  
que  suman,  restan  y  similares.  Los  estados  del  multiplicador  fueron  intencionales  en  el  sentido  de  que  se  trataba  
de  números.  Los  estados  del  sumador,  restador,  etc.,  también  tienen  que  ver  con  números  y,  por  lo  tanto,  son  
igualmente  intencionales.

Sin  embargo,  existe  una  relación  importante  entre  la  intencionalidad  y  la  descomposición  funcional  que  se  explicará  en  
la  siguiente  sección.  Como  verá,  aunque  los  estados  del  multiplicador  y  del  sumador  se  refieren  a  números,  los  
estados  de  representación  de  la  puerta  representan  números  y,  en  general,  el  tema  de  las  representaciones  
cambia  a  medida  que  cruzamos  la  división  de  procesadores  complejos  a  procesadores  primitivos.

2.1  El  cerebro  como  motor  sintáctico  que  impulsa  un  motor  semántico

Para  ver  la  idea  del  cerebro  como  un  motor  sintáctico,  es  importante  ver  la  diferencia  entre  el  número  1  y  el  símbolo  (en  
este  caso,  un  número  o  dígito)  '1'.  Ciertamente,  la  diferencia  entre  la  ciudad,  Boston,  y  la  palabra  'Boston'  es  bastante  
clara.  El  primero  tiene  malos  conductores;  el  último  no  tiene  personas  ni  automóviles,  pero  tiene  seis  letras.  Nadie  
confundiría  una  ciudad  con  una  palabra,  pero  es  menos  obvio  cuál  es  la  diferencia  entre  el  número  1  y  el  
numeral  '1'.  El  punto  a  tener  en  cuenta  es  que  muchos  símbolos  diferentes,  por  ejemplo,  'II' (en  números  romanos)  y  
'dos' (en  escritura  alfabética)  denotan  el  mismo  número,  y  un  símbolo,  por  ejemplo,  '10',  puede  denotar  diferentes  
números  en  diferentes  sistemas  de  conteo  (ya  que  '10'  denota  un  número  en  binario  y  otro  en  decimal).

Con  esta  distinción  en  mente,  uno  puede  ver  una  diferencia  importante  entre  el  multiplicador  y  el  sumador  discutidos  
anteriormente.  El  algoritmo  utilizado  por  el  multiplicador  en  la  Figura  2  es  independiente  de  la  notación:  multiplicar  n  
por  m  sumando  n  a  cero  m  veces  funciona  en  cualquier  notación.  Y  el  programa  descrito  para  implementar  este  
algoritmo  también  es  independiente  de  la  notación.  Como  vimos  en  la  descripción  de  este  programa  en  la  sección  
1.3,  el  programa  depende  de  las  propiedades  de  los  números  representados,  no  de  las  representaciones  en  sí.  Por  
el  contrario,  el  funcionamiento  interno  del  sumador  descrito  en  las  figuras  3A  y  3B  depende  de  la  notación  binaria,  y  
su  descripción  en  la  sección  1.4  habla  de  numerales  (nótense  las  comillas  y  la  cursiva)  en  lugar  de  números.  
Recuerde  que  el  sumador  explota  el  hecho  de  que  una  compuerta  O­EXCLUSIVA  detecta  diferencias  de  símbolos,  
produciendo  un  '1'  cuando  sus  entradas  son  dígitos  diferentes  y  un  '0'  cuando  sus  entradas  son  los  mismos  dígitos.  
Esta  puerta  da  la  respuesta  correcta  por  sí  sola  siempre  que  no  se  trate  de  transporte.  El  truco  utilizado  por  la  puerta  
O  EXCLUSIVA  depende  del  hecho  de  que  cuando  sumas  dos  dígitos  del  mismo  tipo  ('1'  y  '1'  o  '0'  y  '0')  el  dígito  más  a  
la  derecha  de  la  respuesta  es  el  mismo.  Esto  es  cierto  en  binario,  pero  no  en  otras  notaciones  estándar.  Por  ejemplo,  
no  es  cierto  en  la  notación  decimal  familiar.  (1+1=2,  pero  0+0=0)

Las  entradas  y  salidas  tanto  del  multiplicador  como  del  sumador  deben  verse  como  números.  Una  forma  de  ver  esto  es  
notar  que,  de  lo  contrario,  no  se  podría  considerar  que  el  multiplicador  explota  un  algoritmo  que  implica  multiplicar  
números  sumando  números.  Lo  que  se  multiplica  y  suma  son  números.  Pero  una  vez  que  nos  adentramos  en  el  
sumador,  debemos  ver  los  estados  binarios  como  referentes  a  los  símbolos  mismos.  Como  se  acaba  de  señalar,  los  
algoritmos  dependen  de  la  notación.  Este  cambio  de  tema  es  aún  más  dramático  en  algunos  dispositivos  
computacionales,  en  los  que  hay  un  nivel  de  procesamiento  en  el  que  los  algoritmos  operan  sobre  partes  de  números  
decimales.  Considere,  por  ejemplo,  una  calculadora,  en  la  que  la  diferencia  entre  un  '8'  y  un  '3'  es  una  cuestión  de  2  
pequeños  segmentos  a  la  izquierda  del  '8'  que  se  apagan  para  formar  un  '3'.  En  las  calculadoras  hay

13  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

un  nivel  en  el  que  los  algoritmos  se  refieren  a  estos  segmentos.

Este  hecho  nos  brinda  una  interesante  caracterización  adicional  de  los  procesadores  primitivos.  Por  lo  general,  a  
medida  que  descomponemos  funcionalmente  un  sistema  computacional,  llegamos  a  un  punto  en  el  que  hay  un  cambio  
de  tema  de  abstracciones  como  números  o  cosas  del  mundo  a  los  símbolos  mismos.  Las  entradas  y  salidas  del  
sumador  y  el  multiplicador  se  refieren  a  números,  pero  las  entradas  y  salidas  de  las  puertas  se  refieren  a  números.  
Normalmente,  este  cambio  se  produce  cuando  hemos  alcanzado  el  nivel  de  los  procesadores  primitivos.  El  
funcionamiento  de  los  componentes  de  nivel  superior,  como  el  multiplicador,  se  puede  explicar  en  términos  de  un  
programa  o  algoritmo  que  manipula  números.  Pero  el  funcionamiento  de  las  puertas  no  puede  explicarse  en  términos  
de  manipulación  de  números;  deben  explicarse  en  términos  simbólicos  (o  en  niveles  inferiores,  por  ejemplo,  en  
términos  de  electroimanes).  En  el  nivel  computacional  más  básico,  las  computadoras  son  trituradoras  de  símbolos  
y,  por  esta  razón,  el  modelo  informático  de  la  mente  a  menudo  se  describe  como  la  visión  de  manipulación  de  símbolos  de  la  mente.

Ver  el  sumador  como  un  motor  sintáctico  que  impulsa  un  motor  semántico  requiere  tener  en  cuenta  dos  funciones:  una  
asigna  números  a  otros  números  y  la  otra  asigna  símbolos  a  otros  símbolos.  La  función  de  símbolo  se  ocupa  de  los  
números  como  símbolos,  sin  prestar  atención  a  sus  significados.  Aquí  está  la  función  de  símbolo:

`0',  ̀0'  ­­>`0'  ̀

0',  '1'  ­­>'1'  '

1',  '0'  ­­>'1'  '

1',  '1'  ­­>'10'

La  idea  es  que  interpretemos  algo  físico  en  una  máquina  o  sus  salidas  como  símbolos,  y  algún  otro  aspecto  físico  de  
la  máquina  indicando  que  los  símbolos  son  entradas  o  salidas.  Luego,  dada  esa  interpretación,  el  hecho  de  que  
la  máquina  tenga  algunos  símbolos  como  entradas  hace  que  la  máquina  tenga  otros  símbolos  como  salidas.  Por  
ejemplo,  tener  el  par  '0',  '0'  como  entradas  hace  que  tenga  '0'  como  salida.  Entonces,  la  función  del  símbolo  es  
una  cuestión  de  la  estructura  causal  de  la  máquina  bajo  una  interpretación.

Esta  función  de  símbolo  se  refleja  en  una  función  que  mapea  los  números  representados  por  los  números  de  la  izquierda  
en  los  números  representados  por  los  números  de  la  derecha.  Esta  función  asignará  números  a  números.  Podemos  
hablar  de  esta  función  que  asigna  números  a  números  como  la  función  semántica  (siendo  la  semántica  el  estudio  
del  significado),  ya  que  se  ocupa  de  los  significados  de  los  símbolos,  no  de  los  símbolos  mismos.  (Es  importante  no  
confundir  la  noción  de  una  función  semántica  en  este  sentido  con  una  función  que  asigna  símbolos  a  lo  que  se  refieren;  
la  función  semántica  asigna  números  a  números,  pero  la  función  que  acabamos  de  mencionar,  que  a  menudo  lleva  el  
mismo  nombre,  asignaría  símbolos  en  números).
Aquí  está  la  función  semántica  (en  notación  decimal;  debe  elegir  alguna  notación  para  expresar  una  función  semántica):

0,  0  ­­>0

0,  1  ­­>1

1,  0  ­­>1

1,  1  ­­>2

Tenga  en  cuenta  que  las  dos  especificaciones  que  se  acaban  de  dar  difieren  en  que  la  primera  asigna  entidades  citadas  
a  otras  entidades  citadas.  El  segundo  no  tiene  comillas.  La  primera  función  asigna  símbolos  a  símbolos;  la  segunda  
función  asigna  los  números  a  los  que  se  refieren  los  argumentos  de  la  primera  función  en  los  números  a  los  que  se  
refieren  los  valores  de  la  primera  función.  (Una  función  asigna  argumentos  a  valores).  La  primera  función  es  una  
especie  de  "reflejo"  lingüístico  de  la  segunda.

14  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

La  idea  clave  detrás  del  sumador  es  la  de  un  isomorfismo  entre  estas  dos  funciones.  El  diseñador  ha  encontrado  una  máquina  
que  tiene  aspectos  físicos  que  pueden  interpretarse  simbólicamente  y,  bajo  esa  interpretación  simbólica,  hay  regularidades  
simbólicas:  algunos  símbolos  en  las  entradas  dan  como  resultado  otros  símbolos  en  las  salidas.
Estas  regularidades  simbólicas  son  isomorfas  a  las  relaciones  racionales  entre  los  valores  semánticos  de  los  símbolos  de  un  tipo  
que  nos  son  útiles,  en  este  caso  la  relación  de  adición.  Es  el  isomorfismo  entre  estas  dos  funciones  lo  que  explica  cómo  es  que  
un  dispositivo  que  manipula  símbolos  logra  sumar  números.

Ahora  bien,  la  idea  del  cerebro  como  un  motor  sintáctico  que  impulsa  un  motor  semántico  es  simplemente  una  generalización  
de  esta  imagen  a  una  clase  más  amplia  de  actividades  simbólicas,  a  saber,  las  actividades  simbólicas  del  pensamiento  humano.  
La  idea  es  que  tenemos  estructuras  simbólicas  en  nuestros  cerebros,  y  que  la  naturaleza  (evolución  y  aprendizaje)  se  ha  
encargado  de  que  existan  correlaciones  entre  las  interacciones  causales  entre  estas  estructuras  y  las  relaciones  racionales  entre  
los  significados  de  las  estructuras  simbólicas.  Un  ejemplo  crudo:  la  forma  en  que  evitamos  nadar  en  aguas  infestadas  de  
tiburones  es  que  la  estructura  del  símbolo  del  cerebro  'tiburón'  causa  la  estructura  del  símbolo  del  cerebro  'peligro'.  (Lo  
que  hace  que  'peligro'  signifique  peligro  se  discutirá  más  adelante.)

Los  procesadores  mecánicos  primitivos  "saben"  sólo  las  formas  "sintácticas"  de  los  símbolos  que  procesan  (por  ejemplo,  qué  
cadenas  de  ceros  y  unos  ven),  y  no  lo  que  significan  los  símbolos.  No  obstante,  estos  procesadores  primitivos  
ciegos  al  significado  controlan  los  procesos  que  "tienen  sentido":  procesos  de  decisión,  resolución  de  problemas  y  similares.  
En  resumen,  existe  una  correlación  entre  los  significados  de  nuestras  representaciones  internas  y  sus  formas.  Y  esto  explica  
cómo  es  que  nuestro  motor  sintáctico  puede  impulsar  nuestro  motor  semántico.3

El  último  párrafo  mencionaba  una  correlación  entre  las  interacciones  causales  entre  las  estructuras  simbólicas  de  nuestro  
cerebro  y  las  relaciones  racionales  entre  los  significados  de  las  estructuras  simbólicas.  Esta  forma  de  hablar  puede  ser  
engañosa  si  fomenta  la  imagen  del  neurocientífico  abriendo  el  cerebro,  simplemente  viendo  los  símbolos  y  luego  descifrando  lo  
que  significan.  Tal  imagen  invierte  el  orden  del  descubrimiento  y  da  la  impresión  equivocada  de  lo  que  hace  que  algo  sea  
un  símbolo.

La  forma  de  descubrir  símbolos  en  el  cerebro  es  primero  mapear  las  relaciones  racionales  entre  los  estados  mentales  y  luego  
identificar  los  aspectos  de  estos  estados  que  pueden  considerarse  simbólicos  en  virtud  de  sus  funciones.
La  función  es  lo  que  le  da  a  un  símbolo  su  identidad,  incluso  los  símbolos  en  la  ortografía  inglesa,  aunque  esto  puede  ser  difícil  
de  apreciar  porque  estas  funciones  se  han  vuelto  rígidas  por  el  hábito  y  la  convención.  Al  leer  escritura  a  mano  
desconocida,  podemos  notar  un  símbolo  poco  ortodoxo,  la  forma  extraña  de  alguien  de  escribir  una  letra  del  alfabeto.  ¿Cómo  
sabemos  qué  letra  del  alfabeto  es?  ¡Por  su  función!  La  función%  de  un  símbolo  es  algo  que  se  puede  apreciar%  al  ver  
cómo  aparece  en  s%nt%nc%s  que  contienen  palabras  familiares  cuyos  significados  se  pueden  adivinar.  No  tendrá  
problemas  para  averiguar,  sobre  esta  base,  qué  letra  en  la  última  oración  fue  reemplazada  por  '%'.

2.2  ¿Es  una  pared  una  computadora?

John  Searle  (1990)  argumenta  en  contra  de  la  tesis  computacionalista  de  que  el  cerebro  es  una  computadora.  No  dice  que  la  
tesis  sea  falsa,  sino  que  es  trivial,  porque,  sugiere,  todo  es  una  computadora;  de  hecho,  todo  es  cada  computadora.  En  
particular,  su  pared  es  una  computadora  informática  Wordstar.  (Ver  también  Putnam,  1988,  para  un  argumento  diferente  para  
una  conclusión  similar.)  Los  puntos  de  la  última  sección  permiten  una  fácil  comprensión  de  la  motivación  de  esta  
afirmación  y  lo  que  está  mal  en  ella.  En  la  última  sección  vimos  que  la  clave  del  cálculo  es  un  isomorfismo.  Disponemos  las  
cosas  de  modo  que,  si  ciertos  estados  físicos  de  una  máquina  se  entienden  como  símbolos,  entonces  las  relaciones  
causales  entre  esos  estados­símbolos  reflejan  relaciones  racionales  útiles  entre  los  significados  de  esos  símbolos.  El  
reflejo  es  un  isomorfismo.  La  afirmación  de  Searle  es  que  este  tipo  de  isomorfismo  es  barato.  Podemos  considerar  dos  aspectos  
de  la  pared  en  el  tiempo  t  como  los  símbolos  '0'  y  '1',  y  luego  podemos  considerar  un  aspecto  de  la  pared  en  el  tiempo  t  +  1  como  
'1',  y  así  la  pared  calculó  0+  1=1.  Por  lo  tanto,  sugiere  Searle,  todo  (o  más  bien  todo  lo  que  es  lo  suficientemente  grande  o  
complejo  como  para  tener  suficientes  estados)  es  cada  computadora,  y  la  afirmación  de  que  el  cerebro  es  una  computadora  
no  tiene  sentido.

El  problema  de  este  razonamiento  es  que  el  isomorfismo  que  hace  que  un  motor  sintáctico  impulse  un  motor  semántico

15  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

El  motor  tiene  más  cuerpo  de  lo  que  reconoce  Searle.  En  particular,  el  isomorfismo  tiene  que  incluir  no  solo  un  cálculo  
particular  que  realiza  la  máquina,  sino  todos  los  cálculos  que  la  máquina  podría  haber  realizado.  El  punto  se  puede  aclarar  
con  una  mirada  a  la  Figura  6,  un  tipo  de  puerta  X­or.  (Ver  O'Rourke  y  Shattuck,  próximamente).

Figura  6:  Los  números  al  comienzo  de  las  flechas  indican  entradas.

Los  números  al  comienzo  de  las  flechas  representan  entradas.  El  cálculo  de  1  +  0  =  1  está  representado  por  el  camino  A­­>C­­
>E.  El  cálculo  de  0+1  =  1  está  representado  por  el  camino  A­­>B­­>E,  y  así  sucesivamente.  Ahora  aquí  está  el  punto.  Para  
que  la  pared  sea  esta  computadora,  no  es  suficiente  que  tenga  estados  que  correspondan  a  '0'  y  '1'  seguidos  de  
un  estado  que  corresponda  a  '1'.  También  debe  ser  tal  que  si  la  entrada  '1'  hubiera  sido  reemplazada  por  una  entrada  '0' ,  
la  salida  '1'  habría  sido  reemplazada  por  la  salida  '0' .  En  otras  palabras,  tiene  que  tener  estados  simbólicos  que  
satisfagan  no  solo  el  cómputo  real ,  sino  también  los  posibles  cómputos  que  la  computadora  podría  haber  realizado.  Y  
esto  no  es  trivial.

Searle  (1992,  p.  209)  reconoce  este  punto,  pero  insiste,  no  obstante,  en  que  no  existe  un  hecho  en  cuanto  a  si  el  cerebro  es  
una  computadora  específica.  Si  algo  es  una  computadora,  argumenta,  depende  de  si  decidimos  interpretar  sus  
estados  de  cierta  manera,  y  eso  depende  de  nosotros.  "No  podemos,  por  un  lado,  decir  que  algo  es  una  computadora  digital  
si  podemos  asignarle  una  sintaxis,  y  luego  suponer  que  hay  una  cuestión  fáctica  intrínseca  a  su  funcionamiento  físico  si  un  
sistema  natural  como  el  cerebro  funciona  o  no.  es  una  computadora  digital".  Searle  tiene  razón  en  que  si  algo  es  una  
computadora  y  qué  computadora  es  depende  en  parte  de  nosotros.
Pero  lo  que  muestra  el  ejemplo  que  acabamos  de  dar  es  que  no  depende  totalmente  de  nosotros.  Una  roca,  por  ejemplo,  
no  es  una  puerta  X­OR.  Tenemos  mucha  libertad  en  cuanto  a  cómo  interpretar  un  dispositivo,  pero  también  hay  
restricciones  muy  importantes  sobre  esta  libertad,  y  eso  es  lo  que  hace  que  sea  una  afirmación  sustantiva  que  el  cerebro  
es  una  computadora  de  cierto  tipo.

3  Funcionalismo  y  el  Lenguaje  del  Pensamiento
Hasta  ahora,  hemos  (1)  considerado  el  análisis  funcional,  el  modelo  informático  del  enfoque  de  la  mente  hacia  la  
inteligencia,  (2)  distinguido  la  inteligencia  de  la  intencionalidad  y  (3)  considerado  la  idea  del  cerebro  como  un  motor  sintáctico.  
La  idea  del  cerebro  como  un  motor  sintáctico  explica  cómo  es  que  las  operaciones  de  procesamiento  de  símbolos  
pueden  dar  como  resultado  que  una  máquina  "tenga  sentido".  Pero  hasta  ahora,  no  hemos  encontrado  nada  que  pueda  
considerarse  la  explicación  de  la  intencionalidad  del  modelo  informático.  Es  hora  de  admitir  que  aunque  el  modelo  informático  
de  la  mente  tiene  una  explicación  natural  y  directa  de  la  inteligencia,  no  existe  ninguna  explicación  de  la  inteligencia.

16  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

intencionalidad  que  viene  gratis.

No  examinaremos  el  campo  aquí.  En  su  lugar,  examinemos  una  visión  que  representa  una  especie  de  ortodoxia,  no  en  el  
sentido  en  que  la  mayoría  de  los  investigadores  la  creen,  sino  en  el  sentido  de  que  las  otras  opiniones  se  definen  a  sí  
mismas  en  gran  parte  por  su  respuesta  a  ella.

El  principio  básico  de  esta  ortodoxia  es  que  nuestros  contenidos  intencionales  son  simplemente  significados  de  
nuestras  representaciones  internas.  Como  se  señaló  anteriormente,  hay  algo  que  decir  sobre  el  contenido  del  
pensamiento  y  el  lenguaje  como  un  solo  fenómeno,  y  esta  es  una  forma  bastante  directa  de  hacerlo.  No  hay  compromiso  
en  esta  ortodoxia  sobre  si  nuestro  lenguaje  interno,  el  lenguaje  en  el  que  pensamos,  es  igual  o  diferente  del  lenguaje  con  el  
que  hablamos.  Además,  no  hay  compromiso  en  cuanto  a  una  dirección  de  reducción,  es  decir,  en  cuanto  a  cuál  es  más  
básico,  el  contenido  mental  o  los  significados  de  los  símbolos  internos.

Para  concretar,  hablemos  en  términos  de  la  doctrina  de  Fodor  (1975)  de  que  el  significado  del  lenguaje  externo  se  deriva  
del  contenido  del  pensamiento,  y  el  contenido  del  pensamiento  se  deriva  del  significado  de  los  elementos  del  lenguaje  del  
pensamiento.  (Ver  también  Harman,  1973.)  Según  Fodor,  creer  o  esperar  que  la  hierba  crezca  es  un  estado  de  estar  en  
una  u  otra  relación  computacional  con  una  representación  interna  que  significa  que  la  hierba  crece.  Esto  se  puede  resumir  
en  una  serie  de  consignas:  creer  que  la  hierba  crece  es  tener  'La  hierba  crece'.  en  la  Caja  de  Creencias,  desear  que  crezca  
la  hierba  es  tener  esta  oración  (o  una  que  signifique  lo  mismo)  en  la  Caja  de  Deseos,  etc.

Ahora  bien,  si  todo  el  contenido  y  el  significado  se  derivan  del  significado  de  los  elementos  del  lenguaje  del  pensamiento,  
inmediatamente  queremos  saber  cómo  obtienen  su  significado  los  símbolos  mentales .  punto  de  vista  de  la  ciencia  cognitiva.  
Veremos  brevemente  dos  de  ellos.  El  primer  punto  de  vista,  mencionado  anteriormente,  toma  como  una  especie  de  
paradigma  aquellos  casos  en  los  que  podría  decirse  que  un  símbolo  en  la  cabeza  covaría  con  los  estados  del  mundo  de  
la  misma  manera  que  el  número  de  anillos  en  el  tronco  de  un  árbol  se  correlaciona  con  la  edad.  del  árbol  (Ver  Dretske,  1981,  
Stampe,  1977,  Stalnaker,  1984  y  Fodor,  1987,  1990.)  Desde  este  punto  de  vista,  el  significado  de  los  símbolos  
mentales  depende  de  las  correlaciones  entre  estos  símbolos  y  el  mundo.

Una  versión  de  este  punto  de  vista  (Fodor,  1990)  dice  que  T  es  la  condición  de  verdad  de  una  oración  mental  M  si  y  solo  
si:  M  está  en  la  caja  de  creencias  si  y  solo  si  T,  en  condiciones  ideales.  Es  decir,  lo  que  significa  que  'La  hierba  es  verde'  tenga  
la  condición  de  verdad  de  que  la  hierba  sea  verde  es  que  'La  hierba  es  verde'  aparezca  en  el  cuadro  de  creencias  en  caso  
de  que  la  hierba  sea  realmente  verde  (y  las  condiciones  sean  ideales).  La  idea  detrás  de  esta  teoría  es  que  existen  
mecanismos  cognitivos  que  están  diseñados  para  poner  oraciones  en  la  caja  de  creencias  cuando  y  solo  cuando  son  
verdaderas,  y  si  esos  mecanismos  cognitivos  funcionan  correctamente  y  el  entorno  coopera  (sin  espejismos,  sin  
demonios  cartesianos). ,  estas  oraciones  aparecerán  en  el  cuadro  de  creencias  cuando  y  solo  cuando  sean  verdaderas.

Un  problema  con  esta  idea  es  que  incluso  si  esta  teoría  funciona  para  "oraciones  de  observación"  como  'Esto  es  amarillo',  
es  difícil  ver  cómo  podría  funcionar  para  "oraciones  teóricas".  Los  mecanismos  cognitivos  de  una  persona  podrían  estar  
funcionando  bien,  y  el  entorno  no  podría  contener  evidencia  engañosa,  y  aun  así,  uno  podría  no  creer  que  el  espacio  es  
riemanniano  o  que  algunos  quarks  tienen  encanto  o  que  uno  está  en  presencia  de  un  campo  magnético.  Para  las  
ideas  teóricas,  no  basta  con  frotarse  las  narices  con  la  evidencia:  también  hay  que  tener  la  idea  teórica  correcta.  Y  si  el  
análisis  de  las  condiciones  ideales  incluye  "tiene  la  idea  teórica  correcta",  eso  haría  circular  el  análisis  porque  tener  la  
idea  teórica  correcta  equivale  a  "llegar  a  la  teoría  verdadera".  Y  apelar  a  la  verdad  en  un  análisis  de  la  'verdad'  es  moverse  
en  un  círculo  muy  pequeño.  (Véase  Block,  1986,  págs.  657­660.)

El  segundo  enfoque  se  conoce  como  funcionalismo  (en  realidad,  "semántica  de  roles  funcionales"  en  las  discusiones  sobre  
el  significado)  en  filosofía  y  como  semántica  procedimental  en  psicología  cognitiva  e  informática.
El  funcionalismo  dice  que  lo  que  da  a  los  símbolos  internos  (y  también  a  los  símbolos  externos)  sus  significados  es  cómo  
funcionan.  Para  maximizar  el  contraste  con  la  visión  descrita  en  los  dos  últimos  párrafos,  es  útil  pensar  en  el  enfoque  
funcionalista  con  respecto  a  un  símbolo  que  no  tiene  (a  primera  vista)  ningún  tipo  de  correlación  con  los  estados  del  mundo,  
decir  el  símbolo  'y'.  Parte  de  lo  que  hace  que  'y'  signifique  lo  que  significa  es  que  si  estamos  seguros  de  'La  hierba  es  verde  y  
la  hierba  crece',  encontramos  la  inferencia  de  'La  hierba  es  verde'  y  también

17  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

'La  hierba  crece'  convincente.  Y  lo  encontramos  convincente  "en  sí  mismo",  no  por  ningún  otro  principio.  (Ver  Peacocke,  
1993)  O  si  estamos  seguros  de  que  una  de  las  conjunciones  es  falsa,  encontramos  convincente  la  inferencia  de  que  la  
conjunción  también  es  falsa.  Lo  que  significa  Y  por  'y'  es  encontrar  tales  inferencias  convincentes  de  esta  manera,  y  así  
podemos  pensar  en  el  significado  de  'y'  como  una  cuestión  de  su  comportamiento  en  estas  y  otras  inferencias.
La  visión  funcionalista  del  significado  aplica  esta  idea  a  todas  las  palabras.  La  imagen  es  que  las  representaciones  
internas  en  nuestras  cabezas  tienen  una  función  en  nuestra  decisión,  deliberación,  resolución  de  problemas  ­de  hecho,  en  
nuestro  pensamiento  en  general­  y  en  eso  consisten  sus  significados.

Esta  imagen  puede  verse  reforzada  por  una  consideración  de  lo  que  sucede  cuando  uno  aprende  por  primera  vez  
la  mecánica  newtoniana.  En  mi  propio  caso,  escuché  una  gran  cantidad  de  términos  desconocidos  más  o  menos  a  la  vez:  
'masa',  'fuerza',  'energía'  y  similares.  Nunca  me  dijeron  definiciones  de  estos  términos  en  términos  que  ya  conocía.  (Nadie  
ha  llegado  jamás  a  definiciones  de  tales  "términos  teóricos"  en  lenguaje  de  observación.)  Lo  que  sí  aprendí  fue  cómo  usar  
estos  términos  para  resolver  problemas  de  tarea,  hacer  observaciones,  explicar  el  comportamiento  de  un  péndulo  y  cosas  
por  el  estilo.  Al  aprender  a  usar  los  términos  en  el  pensamiento  y  la  acción  (y  también  en  la  percepción,  aunque  su  
papel  allí  es  menos  obvio),  aprendí  sus  significados,  y  esto  encaja  con  la  idea  funcionalista  de  que  el  significado  de  un  
término  es  simplemente  su  función  en  la  percepción . ,  pensamiento  y  acción.  Se  puede  esperar  que  una  teoría  de  lo  
que  es  el  significado  concuerde  con  una  teoría  de  lo  que  es  adquirir  significados,  por  lo  que  las  consideraciones  sobre  la  
adquisición  pueden  ser  relevantes  para  la  semántica.

Surge  un  problema  aparente  para  tal  teoría  en  su  aplicación  a  los  significados  de  los  números.  Después  de  todo,  es  un  
hecho  matemático  que  las  verdades  en  el  sistema  numérico  familiar  '1',  '2',  '3'...  se  conservan,  incluso  si  se  adoptan  
ciertas  interpretaciones  no  estándar  de  los  números  (siempre  y  cuando  no  también  se  adoptan  versiones  estándar  
de  las  operaciones).  Por  ejemplo,  '1'  se  podría  asignar  a  2,  '2'  a  4,  '3'  a  6,  y  así  sucesivamente.
Es  decir,  los  números,  tanto  "impares"  como  "pares",  se  pueden  asignar  a  los  números  pares .  Dado  que  '1'  y  '2'  pueden  
tener  el  mismo  rol  funcional  en  diferentes  sistemas  numéricos  y  aun  así  designar  los  mismos  números  que  usualmente  
designan  en  la  aritmética  normal,  ¿cómo  puede  el  rol  funcional  de  '1'  determinar  si  '1'  significa  1  o  2?  Parecería  que  todo  
lo  que  podría  hacer  el  rol  funcional  es  "recortar"  el  número  de  interpretaciones  posibles,  y  si  todavía  queda  un  infinito  
después  de  la  reducción,  el  rol  funcional  no  ha  ganado  nada.

Una  respuesta  funcionalista  natural  sería  enfatizar  los  extremos  de  entrada  y  salida  de  los  roles  funcionales.
Decimos  "dos  gatos"  cuando  nos  enfrentamos  a  un  par  de  gatos,  no  cuando  nos  enfrentamos  a  uno  o  cinco  gatos,  y  nuestros  
pensamientos  que  involucran  el  símbolo  '  3'  afectan  nuestras  acciones  hacia  los  triples  de  una  manera  obvia  en  la  que  
estos  pensamientos  no  afectan  nuestras  acciones.  hacia  octuples.  El  funcionalista  puede  evitar  interpretaciones  
no  estándar  de  roles  funcionales  internos  al  incluir  en  los  roles  funcionales  semánticamente  relevantes  relaciones  
externas  que  involucran  percepción  y  acción  (Harman,  1973).  De  esta  forma,  el  funcionalista  puede  incorporar  la  idea  
de  la  visión  mencionada  anteriormente  de  que  el  significado  tiene  algo  que  ver  con  la  covariación  entre  los  símbolos  y  el  
mundo.

La  imagen  emergente  de  cómo  la  ciencia  cognitiva  puede  manejar  la  intencionalidad  debería  ser  cada  vez  más  clara.
Los  transductores  en  la  periferia  y  los  procesadores  primitivos  internos  producen  y  operan  sobre  símbolos  para  darles  
sus  roles  funcionales.  En  virtud  de  sus  roles  funcionales  (tanto  internos  como  externos),  estos  símbolos  tienen  
significados.  La  perspectiva  del  rol  funcional  explica  la  misteriosa  correlación  entre  los  símbolos  y  sus  significados.  Son  las  
actividades  de  los  símbolos  las  que  les  dan  sus  significados,  por  lo  que  no  es  un  misterio  que  un  sistema  basado  en  la  
sintaxis  deba  tener  relaciones  racionales  entre  los  significados  de  los  símbolos  del  sistema.  Los  estados  intencionales  
tienen  sus  relaciones  en  virtud  de  estas  actividades  simbólicas,  y  los  contenidos  de  los  estados  intencionales  del  sistema,  
pensar,  querer,  etc.,  se  heredan  de  los  significados  de  los  símbolos.
Esta  es  la  explicación  ortodoxa  de  la  intencionalidad  para  el  modelo  informático  de  la  mente.  Combina  el  
funcionalismo  con  la  apuesta  por  un  lenguaje  de  pensamiento.  Ambos  puntos  de  vista  son  controvertidos,  el  último  tanto  en  
lo  que  respecta  a  su  verdad  como  a  su  relevancia  para  la  intencionalidad,  incluso  si  es  cierto.  Nótese,  incidentalmente,  que  
en  esta  explicación  de  la  intencionalidad,  la  fuente  de  la  intencionalidad  es  la  estructura  computacional,  
independientemente  de  si  la  estructura  computacional  es  producida  por  software  o  hardware.  Así,  el  título  de  este  capítulo,  
al  indicar  que  la  mente  es  el  software  del  cerebro,  tiene  el  potencial  de  inducir  a  error.  Si  pensamos  que  la  estructura  
computacional  de  una  computadora  proviene  enteramente  de  un  programa  colocado  en  una  máquina  de  propósito  
general  sin  estructura,  estamos  muy  lejos  de  los  hechos  sobre  el  cerebro  humano,  que  no  es  un  propósito  tan  general.

18  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

máquina.

Al  final  de  este  capítulo,  discutiremos  el  famoso  argumento  de  la  habitación  china  de  Searle,  que  es  un  ataque  directo  a  esta  teoría.  
Las  siguientes  dos  secciones  estarán  dedicadas  a  los  argumentos  a  favor  y  en  contra  del  lenguaje  del  pensamiento.

3.1  Objeciones  a  la  teoría  del  lenguaje  del  pensamiento

Se  han  planteado  muchas  objeciones  al  lenguaje  de  la  imagen  del  pensamiento.  Veamos  brevemente  tres  objeciones  
hechas  por  Dennett  (1975).

La  primera  objeción  es  que  todos  tenemos  una  infinidad  de  creencias  (o  al  menos  un  número  muy  grande  de  ellas).
Por  ejemplo,  creemos  que  los  árboles  no  se  iluminan  como  luciérnagas  y  que  este  libro  probablemente  esté  más  cerca  de  sus  ojos  que  
el  zapato  izquierdo  del  presidente  del  techo  de  la  tienda  de  regalos  del  Museo  de  Arte  Moderno.  Pero,  ¿cómo  puede  ser  que  tantas  
creencias  estén  almacenadas  en  la  pequeña  caja  de  creencias  de  tu  cabeza?  Una  línea  de  respuesta  a  esta  objeción  implica  hacer  
una  distinción  entre  el  concepto  ordinario  de  creencia  y  un  concepto  científico  de  creencia  hacia  el  cual  uno  espera  que  la  ciencia  
cognitiva  esté  progresando.  Para  propósitos  científicos,  nos  centramos  en  casos  en  los  que  nuestras  creencias  nos  llevan  a  
hacer  algo,  digamos  lanzar  una  pelota  o  cambiar  de  opinión,  y  casos  en  los  que  las  creencias  son  causadas  por  algo,  como  cuando  la  
percepción  de  un  rinoceronte  nos  hace  creer  que  hay  algo.  hay  un  rinoceronte  en  los  alrededores.  La  ciencia  se  ocupa  de  la  causalidad  
y  la  explicación  causal,  por  lo  que  el  concepto  protocientífico  de  creencia  es  el  concepto  de  una  creencia  causalmente  activa .  Es  
sólo  por  estas  creencias  que  el  lenguaje  de  la  teoría  del  pensamiento  se  compromete  con  oraciones  en  la  cabeza.  Esta  idea  da  una  
respuesta  muy  simple  a  la  objeción  del  infinito,  a  saber,  que  en  el  concepto  protocientífico  de  creencia,  la  mayoría  de  nosotros  no  creía  
que  los  árboles  no  se  encienden  como  luciérnagas  hasta  que  leyeron  este  párrafo.

Las  creencias  en  el  sentido  protocientífico  son  explícitas,  es  decir,  registradas  en  el  almacenamiento  del  cerebro.  Por  ejemplo,  sin  duda  
alguna  vez  le  dijeron  que  el  sol  está  a  93  millones  de  millas  de  la  tierra.  Si  es  así,  tal  vez  tenga  este  hecho  registrado  explícitamente  en  
su  cabeza,  disponible  para  la  acción  causal,  aunque  hasta  la  lectura  de  este  párrafo,  esta  creencia  no  había  sido  consciente  durante  
años.  Tales  creencias  explícitas  tienen  el  potencial  de  interacción  causal  y,  por  lo  tanto,  deben  distinguirse  de  los  casos  de  creencia  
en  el  sentido  ordinario  (si  es  que  son  creencias),  como  la  creencia  que  tienen  todas  las  personas  normales  de  que  los  árboles  no  se  
encienden  como  luciérnagas.

Ser  explícito  debe  distinguirse  de  otras  propiedades  de  los  estados  mentales,  como  ser  consciente.
Las  teorías  de  la  ciencia  cognitiva  nos  hablan  de  representaciones  mentales  de  las  que  nadie  sabe  por  introspección,  
como  las  representaciones  mentales  de  aspectos  de  la  gramática.  Si  esto  es  correcto,  hay  mucho  en  el  camino  de  la  representación  
mental  que  es  explícito  pero  no  consciente,  y  así  se  abre  la  puerta  a  la  posibilidad  de  una  creencia  que  es  explícita  pero  no  
consciente.

Es  importante  señalar  que  el  lenguaje  de  la  teoría  del  pensamiento  no  pretende  ser  una  teoría  de  todos  los  posibles  creyentes,  
sino  solo  de  nosotros.  El  lenguaje  de  la  teoría  del  pensamiento  permite  criaturas  que  pueden  creer  sin  ninguna  representación  explícita,  
pero  la  afirmación  del  lenguaje  de  la  teoría  del  pensamiento  es  que  no  somos  nosotros.  Una  computadora  digital  consta  de  una  unidad  
central  de  procesamiento  (CPU)  que  lee  y  escribe  cadenas  explícitas  de  ceros  y  unos  en  los  registros  de  almacenamiento.  Se  puede  
pensar  en  esta  memoria  como  ilimitada  en  principio,  pero,  por  supuesto,  cualquier  máquina  real  tiene  una  memoria  finita.  Ahora,  
cualquier  computadora  con  una  cantidad  finita  de  almacenamiento  explícito  puede  ser  simulada  por  una  máquina  con  una  CPU  
mucho  más  grande  y  sin  almacenamiento  explícito,  es  decir,  sin  registros  ni  cintas.
La  forma  en  que  funciona  la  simulación  es  mediante  el  uso  de  estados  adicionales  como  una  forma  de  memoria  implícita.  Entonces,  
en  principio,  podríamos  ser  simulados  por  una  máquina  sin  memoria  explícita  en  absoluto.

Considere,  por  ejemplo,  el  autómata  finito  diagramado  en  la  figura  7.  La  tabla  muestra  que  tiene  tres  estados.  Los  estados,  'S1',  'S2'  y  
'S3',  se  enumeran  en  la  parte  superior.  Las  entradas  se  enumeran  en  el  lado  izquierdo.  Cada  cuadro  está  en  una  columna  y  una  fila  
que  especifica  lo  que  hace  la  máquina  cuando  está  en  el  estado  mencionado  en  la  parte  superior  de  la  columna,  y  cuando  la  entrada  es  
la  que  aparece  al  lado  de  la  fila.  La  parte  superior  del  cuadro  nombra  la  salida  y  la  parte  inferior  del  cuadro  nombra  el  siguiente  estado.  
Esto  es  lo  que  dice  la  tabla:  cuando  el

19  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

la  máquina  está  en  S1  y  ve  un  1,  dice  "1"  y  va  a  S2.  Cuando  está  en  S2,  si  ve  un  '1',  dice  "2"  y  pasa  al  siguiente  estado,  
S3.  En  ese  estado,  si  ve  un  '1'  dice  "3"  y  vuelve  a  S1.  Cuando  no  ve  nada,  no  dice  nada  y  permanece  en  el  mismo  
estado.  Este  autómata  cuenta  "módulo"  de  tres,  es  decir,  por  lo  que  dice  se  puede  saber  cuántos  unos  ha  visto  desde  
el  último  múltiplo  de  tres.  Pero  lo  que  la  tabla  de  la  máquina  deja  en  claro  es  que  esta  máquina  no  necesita  tener  memoria  
del  tipo  que  implica  escribir  algo.  Puede  "recordar"  únicamente  cambiando  de  estado.  Algunas  teorías  basadas  en  
modelos  de  redes  neuronales  (Volumen  IV,  Capítulo  3)  asumen  que  somos  tales  máquinas.

Figura  7:  Autómata  finito  que  cuenta  "módulo"  tres

Supongamos,  entonces,  que  somos  computadoras  digitales  con  representaciones  explícitas.  Podríamos  ser  simulados  
por  autómatas  finitos  que  tienen  muchos  más  estados  y  ninguna  representación  explícita.  Los  simuladores  tendrán  las  
mismas  creencias  que  nosotros,  pero  no  representaciones  explícitas  (a  menos  que  los  simuladores  sean  solo  máquinas  
de  discos  del  tipo  de  la  máquina  Aunt  Bubbles  descrita  en  1.1).  La  máquina  en  la  que  los  elementos  recordados  se  
registran  explícitamente  tiene  una  ventaja  sobre  una  máquina  computacionalmente  equivalente  que  "recuerda"  
cambiando  de  estado,  a  saber,  que  las  representaciones  explícitas  pueden  ser  parte  de  un  sistema  combinatorio.  
Este  punto  será  explicado  en  la  siguiente  sección.

Hora  de  resumir.  La  objeción  fue  que  una  infinidad  de  creencias  no  se  pueden  escribir  en  la  cabeza.  Mi  respuesta  
fue  distinguir  entre  un  sentido  vago  y  ordinario  de  'creencia'  en  el  que  puede  ser  cierto  que  tenemos  una  infinidad  de  
creencias,  y  un  sentido  protocientífico  de  'creencia'  en  el  que  el  concepto  de  creencia  es  el  concepto  de  un  creencia  
causalmente  activa.  En  este  último  sentido,  afirmé,  no  tenemos  una  infinidad  de  creencias.

Incluso  si  está  de  acuerdo  con  esta  respuesta  a  la  objeción  del  infinito,  es  posible  que  aún  se  sienta  insatisfecho  con  la  
idea  de  que,  debido  a  que  el  tema  nunca  se  les  ha  pasado  por  la  cabeza,  la  mayoría  de  la  gente  no  cree  que  las  
cebras  no  usen  ropa  interior  en  la  naturaleza.  Quizá  ayude  decir  algo  sobre  la  relación  entre  el  concepto  
protocientífico  de  creencia  y  el  concepto  ordinario.  Es  natural  querer  algún  tipo  de  reconstrucción  del  concepto  ordinario  
en  términos  científicos,  una  reconstrucción  del  tipo  que  tenemos  cuando  definimos  el  concepto  ordinario  del  peso  
de  una  persona  como  la  fuerza  ejercida  sobre  la  persona  por  la  tierra  en  la  superficie  de  la  tierra. .  Para  rascarse  esta  
comezón,  podemos  dar  una  primera  aproximación  a  una  definición  de  creencia  en  el  sentido  ordinario  como  cualquier  
cosa  que  sea  (1)  una  creencia  en  el  sentido  protocientífico,  o  (2)  natural  y  fácilmente  deducida  de  un  proto­  creencia  
científica.

Una  segunda  objeción  al  lenguaje  de  la  teoría  del  pensamiento  la  proporciona  el  ejemplo  de  Dennett  de  un  programa  de  
juego  de  ajedrez  que  "piensa"  que  debería  sacar  a  su  reina  temprano,  aunque  no  hay  una  regla  representada  
explícitamente  que  diga  algo  como  "Saque  a  su  reina  temprano".  ".  El  hecho  de  que  saque  a  su  dama  temprano  es  una  
consecuencia  "emergente"  de  una  interacción  de  un  gran  número  de  reglas  que  gobiernan  los  detalles  del  juego.  Pero  
ahora  considere  un  análogo  humano  de  la  máquina  de  jugar  al  ajedrez.  ¿No  deberíamos  decir  que  ella  cree  que  debería  
sacar  a  su  reina  temprano  a  pesar  de  la  falta  de  una  representación  tan  explícita?

20  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

La  respuesta  a  este  desafío  al  lenguaje  de  la  teoría  del  pensamiento  es  que,  en  el  sentido  protocientífico  de  la  creencia,  el  
jugador  de  ajedrez  simplemente  no  cree  que  deba  sacar  a  su  dama  antes  de  tiempo.  Si  esto  parece  difícil  de  aceptar,  
tenga  en  cuenta  que  no  hay  una  fuerza  predictiva  o  explicativa  adicional  en  la  hipótesis  de  que  ella  cree  que  debería  
sacar  a  su  reina  temprano  más  allá  de  la  fuerza  predictiva  o  explicativa  de  las  estrategias  explícitamente  representadas  de  
las  que  surge  sacar  a  la  dama  temprano.  (Aunque  no  hay  fuerza  predictiva  adicional,  puede  haber  alguna  utilidad  predictiva  
adicional,  tal  como  hay  utilidad  en  la  navegación  para  suponer  que  el  sol  gira  alrededor  de  la  tierra).  con  sus  principios  de  
ajedrez  profundamente  arraigados,  a  pesar  de  ser  una  propiedad  emergente  de  sus  tácticas  habituales.  Podríamos  
suponer  que  si  le  señalas  que  sus  estrategias  tienen  como  consecuencia  sacar  temprano  a  su  dama,  ella  dice  "Oh  no,  
será  mejor  que  revise  mis  estrategias  habituales".  Por  lo  tanto,  postular  que  ella  cree  que  debería  sacar  a  su  reina  temprano  
podría  conducir  a  predicciones  erróneas  de  su  comportamiento.  En  suma,  el  concepto  protocientífico  de  creencia  
causalmente  activa  puede  restringirse  a  las  estrategias  que  realmente  están  explícitamente  representadas.

Tal  vez  haya  un  sentido  de  creencia  ordinario  casi  conductista  en  el  que  es  correcto  atribuir  la  creencia  de  que  la  reina  
debería  salir  temprano  simplemente  sobre  la  base  del  hecho  de  que  se  comporta  como  si  lo  creyera.  Incluso  si  aceptamos  
reconocer  tal  creencia,  no  es  una  que  afecte  causalmente  ningún  otro  estado  mental  o  comportamiento,  por  lo  que  tiene  
poca  importancia  desde  un  punto  de  vista  científico.

Una  tercera  objeción  a  la  teoría  del  lenguaje  del  pensamiento  la  proporciona  el  "opuesto"  del  caso  de  la  "reina  fuera  
temprano",  la  hermana  de  Dennett  en  el  caso  de  Cleveland.  Supongamos  que  un  neurocirujano  opera  en  la  caja  de  
creencias  de  alguien,  insertando  la  oración  "Tengo  una  hermana  en  Cleveland".  Cuando  el  paciente  se  despierta,  el  médico  
dice  "¿Tienes  una  hermana?"  "Sí",  dice  el  paciente,  "en  Cleveland".  Doctor:  "¿Cómo  se  llama?"  Paciente:  "Dios,  no  puedo  
pensar  en  eso".  Doctor:  "¿Mayor  o  menor?"  Paciente:  "No  lo  sé,  y  por  Dios,  soy  hijo  único.  No  sé  por  qué  digo  que  
tengo  una  hermana".  Finalmente,  la  paciente  concluye  que  nunca  creyó  realmente  que  tuviera  una  hermana  en  
Cleveland,  sino  que  fue  víctima  de  algún  tipo  de  compulsión  por  hablar  como  si  la  tuviera.  Se  supone  que  el  resultado  es  
que  el  lenguaje  de  la  teoría  del  pensamiento  es  falso  porque  no  se  puede  producir  una  creencia  simplemente  
insertando  una  oración  en  el  cuadro  de  creencias.

La  objeción  revela  un  aspecto  engañoso  del  eslogan  "Belief  Box",  no  un  problema  con  la  doctrina  que  caracteriza  el  eslogan.  
De  acuerdo  con  la  teoría  del  lenguaje  del  pensamiento,  creer  que  uno  tiene  una  hermana  en  Cleveland  es  una  relación  
computacional  con  una  oración,  pero  esta  relación  computacional  no  debe  considerarse  como  un  simple  almacenamiento.  
Más  bien,  la  relación  computacional  debe  incluir  alguna  especificación  de  relaciones  con  otras  oraciones  con  las  que  uno  
también  tiene  la  misma  relación  computacional  y,  en  ese  sentido,  la  relación  computacional  debe  ser  holística.  Este  
punto  es  válido  tanto  para  la  noción  ordinaria  de  creencia  como  para  la  noción  protocientífica.  Se  mantiene  para  la  
noción  ordinaria  de  creencia  porque  no  contamos  a  alguien  como  creyente  solo  porque  pronuncia  palabras  de  la  misma  
manera  que  nuestra  víctima  de  neurocirugía  pronunció  las  palabras  "Tengo  una  hermana  en  Cleveland".  Y  es  válido  para  la  
noción  protocientífica  de  creencia  porque  es  mucho  más  probable  que  la  unidad  de  explicación  y  predicción  sean  
grupos  de  oraciones  coherentemente  relacionadas  en  el  cerebro  que  oraciones  individuales  por  sí  mismas.  Si  
uno  va  a  retener  la  forma  de  hablar  del  "Recuadro  de  creencias",  debe  decir  que  para  que  una  oración  en  el  Recuadro  de  
creencias  cuente  como  una  creencia,  debe  ser  lo  suficientemente  coherente  con  otras  oraciones  para  no  ser  totalmente  
inestable,  desapareciendo  al  exponerse.  a  la  luz

3.2  Argumentos  a  favor  del  lenguaje  del  pensamiento

Así  que  parece  que  la  hipótesis  del  lenguaje  del  pensamiento  puede  defenderse  de  estas  objeciones  a  priori.  Pero,  ¿hay  
alguna  razón  positiva  para  creerlo?  Una  de  esas  razones  es  que  es  parte  de  un  programa  de  investigación  
razonablemente  exitoso.  Pero  hay  retadores  (principalmente,  algunas  versiones  del  programa  conexionista  
mencionado  anteriormente),  por  lo  que  se  requerirá  un  caso  más  sólido  si  los  programas  de  investigación  de  los  retadores  
también  terminan  siendo  exitosos.5

Una  de  las  principales  razones  para  aceptar  el  lenguaje  del  pensamiento  ha  sido  una  u  otra  forma  de  argumento  de  la  
productividad ,  derivada  del  trabajo  de  Chomsky  (ver  Chomsky,  1975).  La  idea  es  que  las  personas  son  capaces  de

21  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

teniendo  una  gran  cantidad  de  pensamientos  que  no  han  pensado  antes,  y  de  hecho  que  nadie  puede  haber  
pensado  antes.  Considere,  por  ejemplo,  el  pensamiento  mencionado  anteriormente  de  que  este  libro  está  más  cerca  
de  usted  que  el  zapato  del  presidente  de  la  tienda  de  regalos  del  Museo.  La  explicación  más  obvia  de  cómo  podemos  
pensar  tales  nuevos  pensamientos  es  la  misma  que  la  explicación  de  cómo  podemos  enmarcar  las  oraciones  que  los  
expresan:  a  saber,  a  través  de  un  sistema  combinatorio  en  el  que  pensamos. ,  y  la  duración  de  la  vida,  puede  
que  no  haya  un  límite  superior  en  el  número  de  pensamientos  pensables.  El  número  de  oraciones  en  el  idioma  
inglés  es  ciertamente  infinito.  Pero,  ¿qué  significa  decir  que  las  oraciones  que  contienen  millones  de  palabras  son  "en  
principio"  pensables?

Aquellos  que  están  a  favor  de  los  argumentos  de  la  productividad  dicen  esto:  la  explicación  del  hecho  de  que  en  
realidad  no  podemos  pensar  oraciones  que  contengan  millones  de  palabras  tendría  que  apelar  a  hechos  tales  como  
que  si  tratáramos  de  pensar  pensamientos  lo  suficientemente  largos  o  complicados,  nuestra  atención  decaería  o  nuestra  
memoria  nos  fallaría,  o  moriríamos.  Piensan  que  podemos  idealizar  lejos  de  estas  limitaciones,  ya  que  los  
mecanismos  del  pensamiento  en  sí  mismos  son  ilimitados.  Pero  esta  afirmación  de  que  si  nos  abstraemos  de  
la  memoria,  la  mortalidad,  la  motivación  y  similares,  nuestros  mecanismos  de  pensamiento  son  ilimitados,  es  una  
doctrina  para  la  que  no  hay  evidencia  directa .  La  perspectiva  desde  la  cual  brota  esta  doctrina  ha  sido  fértil,  pero  
es  una  pregunta  abierta  qué  aspecto  de  la  doctrina  es  responsable  de  su  éxito.  @comment[Objeción  de  Kripke:  no  
está  claro  qué  es  la  idealización.  kAdemás,  tenemos  evidencia  de  hacer  la  carga  más  fácil]

Después  de  todo,  podríamos  ser  seres  finitos,  esencialmente.  No  todas  las  idealizaciones  son  igualmente  correctas  
y,  contrariamente  a  la  suposición  generalizada  en  la  ciencia  cognitiva,  la  idealización  de  lo  ilimitado  del  pensamiento  
puede  ser  mala.  Considere  un  autómata  finito  descrito  naturalmente  por  la  tabla  en  la  figura  7.6  Su  única  forma  
de  memoria  es  el  cambio  de  estado.  Si  desea  que  esta  máquina  cuente  hasta  4  en  lugar  de  solo  hasta  3,  no  puede  
simplemente  agregar  más  memoria,  debe  darle  otro  estado  cambiando  la  forma  en  que  está  construida  la  máquina.  
Quizás  somos  como  esta  máquina.

Fodor  (1987)  y  Fodor  y  Pylyshyn  (1988)  han  propuesto  recientemente  una  extensión  del  argumento  de  la  productividad  
para  abordar  este  tipo  de  problemas.  Fodor  y  Pylyshyn  señalan  que  es  un  hecho  acerca  de  los  humanos  que  si  alguien  
puede  pensar  que  María  ama  a  Juan,  entonces  también  puede  pensar  que  Juan  ama  a  María.  Y  lo  mismo  ocurre  con  
una  gran  variedad  de  pares  de  pensamientos  que  involucran  los  mismos  constituyentes  conceptuales,  pero  
se  juntan  de  manera  diferente.  Hay  una  relación  de  sistematicidad  entre  muchos  pensamientos  que  pide  una  
explicación  en  términos  de  un  sistema  combinatorio.  La  conclusión  es  que  el  pensamiento  humano  opera  en  un  medio  
de  "tipos  móviles".

Sin  embargo,  el  candidato  más  obvio  para  los  elementos  de  tal  sistema  combinatorio  en  muchas  áreas  son  los  propios  
sistemas  de  símbolos  externos .  Quizás  el  caso  más  obvio  son  los  pensamientos  aritméticos.  Si  alguien  es  capaz  
de  pensar  que  7  +  16  no  es  20,  entonces,  presumiblemente,  es  capaz  de  pensar  que  17  +  6  no  es  20.  De  hecho,  
alguien  que  ha  dominado  los  diez  números  más  otros  símbolos  básicos  de  la  notación  árabe  y  sus  reglas  de  combinación  
pueden  pensar  cualquier  pensamiento  aritmético  que  sea  expresable  en  una  representación  que  él  pueda  leer.  (Tenga  
en  cuenta  que  las  proposiciones  falsas  pueden  ser  pensables:  uno  puede  pensar  el  pensamiento  de  que  2+2  =  5,  
aunque  solo  sea  para  pensar  que  es  falso).

Una  línea  de  una  página  impresa  común  contiene  ochenta  símbolos.  Hay  una  gran  cantidad  de  proposiciones  aritméticas  
diferentes  que  se  pueden  escribir  en  esa  línea,  aproximadamente  tantas  como  partículas  elementales  hay  en  el  
universo.  Aunque  casi  todos  son  falsos,  se  puede  decir  que  todos  se  pueden  pensar  con  algo  de  trabajo.  Comenzando  
un  poco  más  pequeño,  trate  de  pensar  que  695,302,222,387,987  +  695,302,222,387,986  =  2.  ¿Cómo  es  que  tenemos  
tantos  pensamientos  aritméticos  posibles?  La  explicación  obvia  para  esto  es  que  podemos  unir,  ya  sea  en  nuestra  
cabeza  o  en  papel,  los  símbolos  (números,  más,  etc.)  en  sí  mismos,  y  simplemente  leer  el  pensamiento  de  la  
cadena  de  símbolos.  Por  supuesto,  esto  no  demuestra  que  el  argumento  de  la  sistematicidad  sea  erróneo.  Ni  
mucho  menos,  ya  que  demuestra  por  qué  tiene  razón.  Pero  este  punto  amenaza  considerablemente  el  valor  del  
argumento  de  la  sistematicidad.  Porque  destaca  la  posibilidad  de  que  el  argumento  de  la  sistematicidad  pueda  aplicarse  
solo  al  pensamiento  consciente ,  y  no  al  resto  del  iceberg  de  procesos  de  pensamiento  inconscientes  de  los  que  trata  
principalmente  la  ciencia  cognitiva.  Así  que  Fodor  y  Pylyshyn  tienen  razón  en  que  el  argumento  de  la  sistematicidad  
muestra  que  existe  un  lenguaje  de  pensamiento.  Y  tienen  razón  en  que  si  el  conexionismo  es  incompatible  con  una

22  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

lenguaje  del  pensamiento,  tanto  peor  para  el  conexionismo.  Pero  donde  están  equivocados  es  con  respecto  a  una  suposición  no  
declarada:  que  el  argumento  de  la  sistematicidad  muestra  que  las  representaciones  similares  al  lenguaje  impregnan  la  cognición.

Para  ver  este  punto,  tenga  en  cuenta  que  gran  parte  del  éxito  en  la  ciencia  cognitiva  ha  sido  en  nuestra  comprensión  de  los  
módulos  perceptuales  y  motores.  El  funcionamiento  de  estos  módulos  no  es  introspectible,  accesible  al  pensamiento  consciente,  
ni  directamente  influenciable  por  el  pensamiento  consciente.  Estos  módulos  están  "informativamente  encapsulados".  (Ver  
Pylyshyn  (1984)  y  Fodor  (1983).)  La  productividad  en  el  pensamiento  consciente  que  es  explotada  por  el  argumento  de  la  
sistematicidad  ciertamente  no  demuestra  productividad  en  el  procesamiento  dentro  de  tales  módulos.  Cierto,  si  alguien  puede  
pensar  que  si  Juan  ama  a  María,  entonces  puede  pensar  que  María  ama  a  Juan.  Pero  no  tenemos  fácil  acceso  a  tales  hechos  
sobre  pares  de  representaciones  del  tipo  involucrado  en  procesos  inconscientes.  Distinga  entre  la  conclusión  de  un  argumento  y  el  
argumento  mismo.  La  conclusión  del  argumento  de  la  sistematicidad  bien  puede  ser  correcta  acerca  de  las  representaciones  
inconscientes.  Es  decir,  la  sistematicidad  misma  bien  puede  obtenerse  en  estos  sistemas.  Mi  punto  es  que  el  argumento  de  la  
sistematicidad  muestra  poco  acerca  de  los  módulos  encapsulados  y  otros  sistemas  inconscientes.

La  debilidad  del  argumento  de  la  sistematicidad  es  que,  al  basarse  en  hechos  que  están  fácilmente  disponibles  para  el  pensamiento  
consciente,  su  aplicación  a  los  procesos  inconscientes  es  más  tenue.  No  obstante,  como  el  lector  puede  ver  fácilmente  al  mirar  
cualquier  libro  de  texto  de  ciencias  cognitivas,  el  modelo  de  manipulación  de  símbolos  ha  tenido  bastante  éxito  en  la  explicación  
de  aspectos  de  la  percepción,  el  pensamiento  y  el  control  motor.  Entonces,  aunque  el  argumento  de  la  sistematicidad  
está  limitado  en  su  aplicación  a  los  procesos  inconscientes,  el  modelo  que  apoya  para  los  procesos  conscientes  parece  tener  
una  aplicación  considerable  a  los  procesos  inconscientes,  no  obstante.

Para  evitar  malentendidos,  debo  agregar  que  el  punto  que  acabo  de  señalar  no  desafía  todo  el  impulso  de  la  crítica  del  conexionismo  
de  Fodor  y  Pylyshyn.  Cualquier  modelo  de  red  neuronal  de  la  mente  tendrá  que  acomodar  el  hecho  de  nuestro  uso  de  un  
sistema  de  símbolos  combinatorios  sistemáticos  en  el  pensamiento  consciente.  Es  difícil  ver  cómo  un  modelo  de  red  neuronal  
podría  hacer  esto  sin  ser,  en  parte,  una  implementación  de  un  modelo  estándar  de  procesamiento  de  símbolos.

En  efecto,  Fodor  y  Pylyshyn  (1988,  p.  44)  contrarrestan  la  idea  de  que  el  argumento  de  la  sistematicidad  depende  por  
completo  de  la  manipulación  consciente  de  símbolos  diciendo  que  el  argumento  de  la  sistematicidad  se  aplica  a  los  animales.
Por  ejemplo,  argumentan  que  la  literatura  sobre  el  condicionamiento  no  contiene  casos  de  animales  que  puedan  ser  entrenados  
para  elegir  la  cosa  roja  en  lugar  de  la  verde,  pero  que  no  puedan  ser  entrenados  para  elegir  la  cosa  verde  en  lugar  de  la  roja.

Esta  respuesta  tiene  algo  de  fuerza,  pero  es  incómodamente  anecdótica.  Los  datos  que  recopila  un  científico  dependen  de  su  
teoría.  No  podemos  confiar  en  los  datos  recopilados  en  experimentos  de  condicionamiento  animal  realizados  por  conductistas,  
quienes,  después  de  todo,  se  oponían  notoriamente  a  teorizar  sobre  los  estados  internos.

Otra  objeción  al  argumento  de  la  sistematicidad  se  deriva  de  la  distinción  entre  representación  lingüística  y  pictórica  que  
juega  un  papel  en  las  controversias  sobre  las  imágenes  mentales.  Muchos  investigadores  piensan  que  tenemos  dos  sistemas  de  
representación  diferentes,  un  sistema  similar  al  lenguaje  (pensar  en  palabras)  y  un  sistema  pictórico  (pensar  en  imágenes).  Si  
un  animal  que  puede  ser  entrenado  para  elegir  rojo  en  lugar  de  verde  también  puede  ser  entrenado  para  elegir  verde  en  lugar  de  
rojo,  eso  puede  reflejar  las  propiedades  de  un  sistema  de  imágenes  compartido  por  humanos  y  animales,  no  un  sistema  
propiamente  parecido  al  lenguaje.  Supongamos  que  Fodor  y  Pylyshyn  tienen  razón  sobre  la  sistematicidad  del  pensamiento  en  los  
animales.  Eso  puede  reflejar  solo  un  sistema  pictórico  combinatorio.  Si  es  así,  sugeriría  (aunque  no  mostraría)  que  los  humanos  
también  tienen  un  sistema  pictórico  combinatorio.  Pero  la  pregunta  aún  estaría  abierta  si  los  humanos  tienen  un  sistema  combinatorio  
similar  al  lenguaje  que  se  usa  en  el  pensamiento  inconsciente.  En  suma,  el  argumento  de  la  sistematicidad  ciertamente  
se  aplica  al  pensamiento  consciente,  y  es  parte  de  una  perspectiva  sobre  el  pensamiento  inconsciente  que  ha  sido  fértil,  pero  
existen  dificultades  en  su  aplicación  al  pensamiento  inconsciente.

3.3  Niveles  explicativos  y  la  teoría  sintáctica  de  la  mente

23  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

En  esta  sección,  supongamos  que  la  hipótesis  del  lenguaje  del  pensamiento  es  correcta  para  hacer  otra  pregunta:  
¿deberían  las  explicaciones  de  la  ciencia  cognitiva  apelar  solo  a  los  elementos  sintácticos  del  lenguaje  del  
pensamiento  (los  ̀0's  y  ̀1's  y  similares ) ,  o  ¿Deberían  apelar  también  al  contenido  de  estos  símbolos?  Stich  (1983)  
ha  defendido  la  "teoría  sintáctica  de  la  mente",  una  versión  del  modelo  informático  en  el  que  el  lenguaje  del  
pensamiento  se  construye  en  términos  de  símbolos  no  interpretados,  símbolos  que  pueden  tener  contenidos,  pero  
cuyo  contenido  es  irrelevante  para  los  propósitos  de  Ciencia  cognitiva.  Plantearé  el  tema  en  términos  de  una  
crítica  de  una  versión  simplificada  del  argumento  de  Stich  (1983).

Comencemos  con  el  caso  de  Stich  de  la  Sra.  T,  una  anciana  senil  que  responde  "¿Qué  le  pasó  a  McKinley?"  con  
"McKinley  fue  asesinado",  pero  no  puede  responder  preguntas  como  "¿Dónde  está  McKinley  ahora?",  "¿Está  vivo  o  
muerto?"  y  similares.  Las  instalaciones  lógicas  de  la  Sra.  T  están  bien,  pero  ha  perdido  la  mayoría  de  sus  recuerdos  y  
prácticamente  todos  los  conceptos  que  normalmente  están  conectados  con  el  concepto  de  asesinato,  como  el  
concepto  de  muerte.  Stich  esboza  el  caso  para  persuadirnos  de  que,  aunque  la  Sra.  T  puede  saber  que  algo  
le  sucedió  a  McKinley,  no  comprende  realmente  el  concepto  de  asesinato  y,  por  lo  tanto,  no  se  puede  decir  que  crea  
que  McKinley  fue  asesinado.

El  argumento  que  criticaré  concluye  que  las  explicaciones  puramente  sintácticas  socavan  las  explicaciones  
de  contenido  porque  una  explicación  sintáctica  es  superior  a  una  explicación  de  contenido.  Hay  dos  aspectos  
de  la  superioridad  del  enfoque  sintáctico:  primero,  la  explicación  sintáctica  puede  manejar  a  la  Sra.  T,  que  tiene  
poco  contenido  intencional,  pero  muchas  representaciones  internas  cuyas  interacciones  pueden  usarse  para  explicar  y  
predecir  lo  que  hace,  simplemente  ya  que  las  interacciones  de  las  estructuras  de  símbolos  en  una  computadora  
pueden  usarse  para  explicar  y  predecir  lo  que  hace.  Y  lo  mismo  ocurre  con  los  niños  muy  pequeños,  las  
personas  con  extraños  trastornos  psiquiátricos  y  los  habitantes  de  culturas  exóticas.  En  todos  estos  casos,  la  
ciencia  cognitiva  puede  (al  menos  potencialmente)  asignar  descripciones  sintácticas  internas  y  usarlas  para  
predecir  y  explicar,  pero  hay  problemas  con  las  adscripciones  de  contenido  (aunque,  al  menos  en  el  último  caso,  el  
problema  no  es  que  estas  personas  tengan  ningún  contenido,  sino  que  sus  contenidos  son  tan  diferentes  de  los  
nuestros  que  no  podemos  asignarles  contenidos  en  nuestros  términos).  En  suma,  el  primer  tipo  de  superioridad  
de  la  perspectiva  sintáctica  sobre  la  perspectiva  de  contenido,  es  que  permite  la  psicología  del  senil,  del  muy  
joven,  del  desordenado  y  del  exótico,  y  así,  se  alega,  la  perspectiva  sintáctica  es  mucho  más  general  que  la  perspectiva  del  conten

El  segundo  aspecto  de  la  superioridad  de  la  perspectiva  sintáctica  es  que  permite  predicciones  y  
explicaciones  más  detalladas  que  la  perspectiva  del  contenido.  Para  tomar  un  ejemplo  monótono,  la  perspectiva  
del  contenido  nos  permite  predecir  que  si  alguien  cree  que  todos  los  hombres  son  mortales  y  que  él  es  un  hombre,  
puede  concluir  que  es  mortal.  Pero  supongamos  que  la  forma  en  que  esta  persona  representa  la  generalización  de  
que  todos  los  hombres  son  mortales  para  sí  mismo  es  a  través  de  una  forma  sintáctica  del  tipo  'Todos  los  no  
mortales  son  no  hombres';  entonces  la  inferencia  será  más  difícil  de  sacar  que  si  la  hubiera  representado  sin  las  
negaciones.  En  general,  qué  inferencias  son  más  difíciles  que  fáciles,  y  qué  tipo  de  errores  son  probables,  serán  más  
predecibles  desde  la  perspectiva  sintáctica  que  desde  la  perspectiva  del  contenido,  en  la  que  se  agrupan  todas  las  
diferentes  formas  de  representar  una  creencia.

Se  supone  que  el  resultado  de  este  argumento  es  que,  dado  que  el  enfoque  sintáctico  es  más  general  y  más  detallado  
que  el  enfoque  del  contenido,  las  explicaciones  del  contenido  se  ven  socavadas  y  se  demuestra  que  son  
defectuosas.  Así  que  la  ciencia  cognitiva  haría  bien  en  descartar  los  intentos  de  explicar  y  predecir  en  términos  de  
contenido  a  favor  de  apelar  a  la  forma  sintáctica  únicamente.

Pero  hay  una  falla  fatal  en  este  argumento,  que  se  aplica  a  muchos  argumentos  reduccionistas.  El  hecho  de  que  las  
explicaciones  sintácticas  sean  mejores  que  las  explicaciones  de  contenido  en  algunos  aspectos  no  dice  nada  acerca  
de  si  las  explicaciones  de  contenido  no  son  también  mejores  que  las  explicaciones  sintácticas  en  algunos  aspectos.  
Una  forma  dramática  de  revelar  este  hecho  es  notar  que  si  el  argumento  contra  el  nivel  de  contenido  fuera  correcto,  
socavaría  el  enfoque  sintáctico  mismo.  Este  punto  es  tan  simple,  fundamental  y  ampliamente  aplicable,  que  merece  
un  nombre;  llamémoslo  el  Triturador  Reduccionista.  Así  como  los  objetos  sintácticos  en  el  papel  pueden  describirse  
en  términos  moleculares,  por  ejemplo,  como  estructuras  de  moléculas  de  carbono,  los  objetos  sintácticos  en  nuestras  
cabezas  pueden  describirse  en  términos  del  punto  de  vista  de  la  química  y  la  física.  Pero  una  explicación  
fisicoquímica  de  los  objetos  sintácticos  en  nuestra  cabeza  será  más  general  que  la  explicación  sintáctica  de  la  misma  manera  que

24  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

la  cuenta  sintáctica  es  más  general  que  la  cuenta  de  contenido.  Hay  seres  posibles,  como  la  Sra.  T,  que  son  similares  a  
nosotros  sintácticamente  pero  no  en  contenidos  intencionales.  Del  mismo  modo,  existen  seres  posibles  que  son  similares  
a  nosotros  en  aspectos  físico­químicos,  pero  no  sintácticamente.  Por  ejemplo,  las  criaturas  podrían  ser  como  nosotros  en  
aspectos  físico­químicos  sin  tener  partes  físico­químicas  que  funcionen  como  objetos  sintácticos,  del  mismo  modo  que  
los  objetos  sintácticos  de  la  Sra.  T  no  funcionan  para  conferirles  contenido.  Si  los  modelos  de  redes  neuronales  del  tipo  que  
favorecen  los  teóricos  del  anti­lenguaje  del  pensamiento  pudieran  ser  diseñados  mediante  bioingeniería,  
encajarían  en  esta  descripción.  Los  modelos  de  bioingeniería  serían  como  nosotros  y  como  la  Sra.  T  en  aspectos  físico­
químicos,  pero  diferentes  a  nosotros  y  diferentes  a  la  Sra.  T  en  aspectos  sintácticos.  Además,  la  explicación  fisicoquímica  
será  más  detallada  que  la  explicación  sintáctica,  al  igual  que  la  explicación  sintáctica  es  más  detallada  que  la  explicación  
del  contenido.  Las  generalizaciones  sintácticas  fallarán  en  algunas  circunstancias  fisicoquímicamente  especificables,  al  
igual  que  las  generalizaciones  de  contenido  fallan  en  algunas  circunstancias  sintácticamente  especificables.  
Mencioné  que  las  generalizaciones  de  contenido  podrían  verse  comprometidas  si  las  realizaciones  sintácticas  incluyen  
demasiadas  negaciones  sintácticas.  El  punto  actual  es  que  las  generalizaciones  sintácticas  pueden  fallar  cuando  los  
objetos  sintácticos  interactúan  sobre  la  base  de  ciertas  propiedades  físico­químicas.  Para  tomar  un  ejemplo  un  poco  
tonto,  si  una  ficha  de  s  y  una  ficha  de  s­­>t  tienen  carga  positiva  para  que  se  repelan  entre  sí,  eso  podría  evitar  que  los  
procesadores  lógicos  las  junten  para  producir  una  ficha  de  t.

En  resumen,  si  pudiéramos  refutar  el  enfoque  de  contenido  mostrando  que  el  enfoque  sintáctico  es  más  general  y  detallado  
que  el  enfoque  de  contenido,  también  podríamos  refutar  el  enfoque  sintáctico  mostrando  la  misma  deficiencia  en  relación  
con  una  teoría  aún  más  profunda.  El  Cruncher  reduccionista  se  aplica  incluso  dentro  de  la  física  misma.  Por  ejemplo,  
cualquiera  que  rechace  las  explicaciones  de  la  termodinámica  en  favor  de  las  explicaciones  de  la  mecánica  
estadística  se  sentirá  frustrado  por  el  hecho  de  que  las  mismas  explicaciones  de  la  mecánica  estadística  pueden  ser  
"socavadas"  de  la  misma  manera  por  la  mecánica  cuántica.

Los  mismos  puntos  se  pueden  hacer  en  términos  de  la  explicación  de  cómo  funciona  una  computadora.  Compare  
dos  explicaciones  del  comportamiento  de  la  computadora  en  mi  escritorio,  una  en  términos  del  lenguaje  de  programación  y  
la  otra  en  términos  de  lo  que  sucede  en  los  circuitos  de  la  computadora.  El  último  nivel  es  ciertamente  más  general  en  el  
sentido  de  que  se  aplica  no  solo  a  las  computadoras  programadas,  sino  también  a  las  computadoras  no  programables  
que  son  electrónicamente  similares  a  la  mía,  por  ejemplo,  ciertas  calculadoras.  Así,  la  mayor  generalidad  del  nivel  del  
circuito  es  como  la  mayor  generalidad  de  la  perspectiva  sintáctica.  Además,  el  nivel  del  circuito  es  más  detallado,  
ya  que  nos  permite  predecir  y  explicar  fallas  informáticas  que  no  tienen  nada  que  ver  con  problemas  técnicos  del  programa.  
Los  circuitos  fallarán  bajo  ciertas  circunstancias  (por  ejemplo,  sobrecarga,  calor  o  humedad  excesivos)  que  no  son  
caracterizables  en  el  vocabulario  del  nivel  del  programa.  Así  el  mayor  poder  predictivo  y  explicativo  del  nivel  circuito  
es  como  el  mayor  poder  del  nivel  sintáctico  para  distinguir  casos  de  un  mismo  contenido  representado  en  diferentes  formas  
sintácticas  que  marcan  una  diferencia  en  el  procesamiento.

Sin  embargo,  la  analogía  de  la  computadora  revela  una  falla  en  el  argumento  de  que  las  explicaciones  del  nivel  "superior" (el  
nivel  del  programa  en  este  ejemplo)  son  defectuosas  y  deben  descartarse.  El  hecho  de  que  un  nivel  "inferior"  como  el  
nivel  de  circuito  sea  superior  en  algunos  aspectos  no  muestra  que  los  niveles  "superiores"  como  los  niveles  de  programa  
no  sean  superiores  en  otros  aspectos.  Por  tanto,  no  se  muestra  que  los  niveles  superiores  sean  prescindibles.  El  nivel  
de  programa  tiene  su  propio  tipo  de  mayor  generalidad,  es  decir,  se  aplica  a  computadoras  que  usan  el  mismo  
lenguaje  de  programación,  pero  están  construidas  de  diferentes  maneras,  incluso  computadoras  que  no  tienen  ningún  
circuito  (pero  digamos  que  funcionan  a  través  de  engranajes  y  poleas).  De  hecho,  hay  muchas  predicciones  y  explicaciones  
que  son  simples  a  nivel  de  programa,  pero  que  serían  absurdamente  complicadas  a  nivel  de  circuito.  Además  
(y  aquí  está  de  nuevo  el  Cruncher  reduccionista),  si  el  nivel  del  circuito  pudiera  demostrar  que  el  nivel  del  programa  es  
defectuoso,  entonces  una  teoría  más  profunda  podría  demostrar  que  el  nivel  del  circuito  es  defectuoso,  por  ejemplo,  la  
teoría  del  campo  cuántico  de  circuitos

El  punto  aquí  no  es  que  el  nivel  del  programa  sea  una  ficción  conveniente.  Por  el  contrario,  el  nivel  de  programa  es  tan  
real  y  explicativo  como  el  nivel  de  circuito.

Quizás  sea  útil  ver  el  asunto  en  términos  de  un  ejemplo  de  Putnam  (1975).  Considere  una  clavija  redonda  rígida  de  1  
pulgada  de  diámetro  y  un  agujero  cuadrado  en  una  tabla  rígida  con  una  diagonal  de  1  pulgada.  La  clavija  no  pasará  por  
el  agujero  por  razones  que  son  fáciles  de  entender  con  un  poco  de  geometría.  (El  lado  del  agujero  es  1

25  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

dividido  por  la  raíz  cuadrada  de  2,  que  es  un  número  sustancialmente  menor  que  1.)  Ahora  bien,  si  fuéramos  al  nivel  de  
descripción  de  este  aparato  en  términos  de  la  estructura  molecular  que  constituye  un  tablero  sólido  específico,  
podríamos  explicar  la  rigidez  de  los  materiales,  y  tendríamos  una  comprensión  más  detallada,  incluida  la  capacidad  
de  predecir  el  caso  increíble  en  el  que  la  alineación  y  el  movimiento  de  las  moléculas  es  tal  que  permite  que  la  clavija  
atraviese  el  tablero.  Pero  la  explicación  del  nivel  "superior"  en  términos  de  rigidez  y  geometría  proporciona,  no  obstante,  
explicaciones  y  predicciones  correctas,  y  se  aplica  de  manera  más  general  a  cualquier  clavija  y  tablero  rígidos,  incluso  
uno  con  un  tipo  de  constitución  molecular  bastante  diferente,  por  ejemplo,  uno  hecho  de  vidrio.  líquido  sobreenfriado,  
en  lugar  de  un  sólido.

Es  tentador  decir  que  la  explicación  en  términos  de  rigidez  y  geometría  es  sólo  una  aproximación,  siendo  la  
explicación  molecular  la  realmente  correcta.  (Ver  Smolensky,  1988,  para  un  caso  dramático  de  ceder  a  este  tipo  de  
tentación.)  Pero  la  cura  para  esta  tentación  es  el  Triturador  Reduccionista:  el  reduccionista  también  tendrá  que  decir  que  
una  explicación  de  partículas  elementales  muestra  que  la  explicación  molecular  es  solo  una  aproximación.  Y  
la  propia  explicación  de  las  partículas  elementales  se  verá  socavada  por  una  teoría  aún  más  profunda.  El  punto  de  una  
explicación  científica  es  cortar  la  naturaleza  por  sus  articulaciones,  y  la  naturaleza  tiene  articulaciones  reales  en  muchos  
niveles  diferentes,  cada  uno  de  los  cuales  requiere  su  propio  tipo  de  idealización.

Además,  lo  que  hoy  se  cuenta  como  partículas  elementales  puede  encontrarse  mañana  compuesto  por  aún  más  
partículas  elementales,  y  así  sucesivamente,  hasta  el  infinito.  De  hecho,  la  física  contemporánea  permite  esta  
posibilidad  de  una  serie  infinita  de  partículas  dentro  de  partículas.  (Ver  Dehmelt,  1989.)  Si  se  obtiene  una  serie  infinita  de  
este  tipo,  el  reduccionista  se  comprometería  a  decir  que  no  hay  explicaciones  genuinas  porque  para  cualquier  explicación  
en  cualquier  nivel  dado,  siempre  hay  una  explicación  más  profunda  que  es  más  general  y  más  fina.  granulado  que  lo  
socava.  ¡Pero  la  existencia  de  explicaciones  genuinas  seguramente  no  depende  de  este  asunto  recóndito  de  la  física  de  
partículas!

He  estado  hablando  como  si  hubiera  un  solo  nivel  de  contenido,  pero  en  realidad  hay  muchos.  Marr  distinguió  entre  
tres  niveles  diferentes:  el  nivel  computacional,  el  nivel  de  representación  y  algoritmo,  y  el  nivel  de  implementación.  A  
nivel  computacional  o  formal,  el  multiplicador  discutido  anteriormente  debe  entenderse  como  una  función  de  pares  de  
números  a  sus  productos,  por  ejemplo,  de  {7,9}  a  63.  La  caracterización  más  abstracta  a  nivel  de  representación  y  algoritmo  
es  simplemente  el  algoritmo  del  multiplicador,  a  saber:  multiplicar  n  por  m  sumando  m  a  cero  n  veces.  Una  
caracterización  menos  abstracta  en  este  nivel  medio  es  el  programa  descrito  anteriormente,  una  secuencia  de  
operaciones  que  incluye  restar  1  del  registro  que  inicialmente  representa  n  hasta  que  se  reduce  a  cero,  sumando  m  al  
registro  de  respuesta  cada  vez.
(Consulte  la  Figura  2).  Cada  uno  de  estos  niveles  es  un  nivel  de  contenido  en  lugar  de  un  nivel  sintáctico.  Hay  muchos  
tipos  de  multiplicadores  cuyo  comportamiento  puede  explicarse  (aunque  a  un  nivel  algo  superficial)  simplemente  
por  el  hecho  de  que  son  multiplicadores.  El  algoritmo  mencionado  brinda  una  explicación  más  profunda,  y  el  programa,  
uno  de  los  muchos  programas  que  pueden  realizar  ese  algoritmo,  brinda  una  explicación  aún  más  profunda.
Sin  embargo,  cuando  descomponemos  el  multiplicador  en  partes  como  el  sumador  de  las  Figuras  3a  y  3b,  
explicamos  su  operación  interna  en  términos  de  puertas  que  operan  sobre  la  sintaxis,  es  decir,  en  términos  de  
operaciones  sobre  números.  Ahora  bien,  es  de  crucial  importancia  darse  cuenta  de  que  la  mera  posibilidad  de  una  
descripción  de  un  sistema  en  un  cierto  vocabulario  no  demuestra  por  sí  misma  la  existencia  de  un  nivel  explicativo  
genuino.  Lo  que  nos  interesa  aquí  es  cortar  la  naturaleza  en  sus  articulaciones,  y  hablar  como  si  hubiera  una  articulación  
no  la  convierte  en  tal.  El  hecho  de  que  sea  una  buena  metodología  buscar  primero  la  función,  luego  el  algoritmo,  
luego  la  implementación,  no  muestra  por  sí  mismo  que  estas  consultas  sean  consultas  en  diferentes  niveles,  en  oposición  
a  diferentes  formas  de  abordar  el  mismo  nivel.  La  cuestión  crucial  es  si  los  diferentes  vocabularios  corresponden  a  
leyes  y  explicaciones  genuinamente  distintas  y,  en  cualquier  caso  dado,  esta  pregunta  solo  podrá  responderse  
empíricamente.  Sin  embargo,  ya  tenemos  buena  evidencia  empírica  de  la  realidad  de  los  niveles  de  contenido  que  
acabamos  de  mencionar,  así  como  del  nivel  sintáctico.  La  evidencia  se  encuentra  en  este  mismo  libro,  donde  vemos  
explicaciones  genuinas  y  distintas  a  nivel  de  función,  algoritmo  y  sintaxis.

Otro  punto  sobre  los  niveles  explicativos  es  que  es  legítimo  utilizar  idealizaciones  diferentes  e  incluso  incompatibles  
en  diferentes  niveles.  Ver  Putnam  (1975).)  Se  ha  argumentado  que  dado  que  el  cerebro  es  analógico,  la  computadora  
digital  debe  ser  incorrecta  como  modelo  de  la  mente.  Pero  incluso  las  computadoras  digitales  son  analógicas  en  un  nivel  
de  descripción.  Por  ejemplo,  puertas  del  tipo  descrito  anteriormente  en  las  que  4  voltios  dan  cuenta  de  '1'  y  7

26  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

volts  se  da  cuenta  de  que  '0'  se  entiende  desde  la  perspectiva  digital  como  siempre  representando  '0'  o  '1'.  Pero  un  
examen  a  nivel  electrónico  muestra  que  valores  intermedios  entre  4  y  7  voltios  aparecen  momentáneamente  
cuando  un  registro  cambia  entre  ellos.  Hacemos  abstracción  de  estos  valores  intermedios  a  los  efectos  de  un  nivel  de  
descripción,  pero  no  de  otro.

4.  Argumento  de  la  habitación  china  de  Searle

Como  hemos  visto,  la  idea  de  que  cierto  tipo  de  procesamiento  de  símbolos  puede  ser  lo  que  convierte  a  algo  
en  un  sistema  intencional  es  fundamental  para  el  modelo  informático  de  la  mente.  Pasemos  ahora  a  un  extravagante  
ataque  frontal  a  esta  idea  por  parte  de  John  Searle  (1980,  1990b,  Churchland  y  Churchland,  1990;  la  idea  básica  de  
este  argumento  proviene  de  Block,  1978).  La  estrategia  de  Searle  consiste  en  evitar  objeciones  sobre  programas  
específicos  imaginando  que  la  ciencia  cognitiva  de  un  futuro  lejano  puede  generar  el  programa  de  una  persona  real  
que  habla  y  entiende  chino,  y  que  este  programa  puede  implementarse  en  una  máquina.  A  diferencia  de  muchos  
críticos  del  modelo  informático,  Searle  está  dispuesto  a  conceder  que  tal  vez  esto  se  pueda  hacer  para  centrarse  en  
su  afirmación  de  que  incluso  si  se  puede  hacer,  la  máquina  no  tendrá  estados  intencionales.

El  argumento  se  basa  en  un  experimento  mental.  Imagínate  que  te  dan  un  trabajo  en  el  que  trabajas  en  una  
habitación  (la  habitación  china).  Solo  entiendes  inglés.  Se  colocan  tiras  de  papel  escritas  en  chino  debajo  de  la  puerta  
de  entrada,  y  su  trabajo  consiste  en  escribir  respuestas  sensatas  en  chino  en  otras  tiras  y  empujarlas  por  debajo  de  
la  puerta  de  salida.  ¿Cómo  lo  haces?  Usted  actúa  como  la  CPU  (unidad  central  de  procesamiento)  de  una  computadora,  
siguiendo  el  programa  de  computadora  mencionado  anteriormente  que  describe  el  procesamiento  de  símbolos  
en  la  cabeza  de  un  hablante  chino  real.  El  programa  está  impreso  en  inglés  en  una  biblioteca  en  la  habitación.  Así  es  
como  sigues  el  programa.  Supongamos  que  la  última  entrada  tiene  ciertos  garabatos  chinos  ininteligibles  (para  usted).  
Hay  una  pizarra  en  una  pared  de  la  habitación  con  un  número  de  "estado"  escrito  en  ella;  dice  '17'.  (La  CPU  de  una  
computadora  es  un  dispositivo  con  un  número  finito  de  estados  cuya  actividad  está  determinada  únicamente  por  su  
estado  y  entrada  actuales,  y  dado  que  usted  actúa  como  CPU,  su  salida  estará  determinada  por  su  entrada  y  su  
"estado".  El  '17'  está  en  la  pizarra  para  decirle  cuál  es  su  "estado".)  Saque  el  libro  17  de  la  biblioteca  y  busque  estos  
garabatos  particulares  en  él.  El  Libro  17  le  dice  que  mire  lo  que  está  escrito  en  su  bloc  de  notas  (la  memoria  
interna  de  la  computadora),  y  dados  tanto  los  garabatos  de  entrada  como  las  marcas  de  la  libreta  de  notas,  se  le  
indica  que  cambie  lo  que  está  en  la  libreta  de  notas  de  cierta  manera,  escriba  algunos  otros  garabatos  en  su  bloc  de  
salida,  empuje  el  papel  debajo  de  la  puerta  de  salida  y,  finalmente,  cambie  el  número  en  el  tablero  de  estado  a  '193'.  
Como  resultado  de  esta  actividad,  los  hablantes  de  chino  descubren  que  las  hojas  de  papel  que  deslizas  debajo  de  la  
puerta  de  salida  son  respuestas  sensatas  a  las  entradas.

Pero  no  sabes  nada  de  lo  que  se  dice  en  chino;  solo  está  siguiendo  instrucciones  (en  inglés)  para  buscar  en  ciertos  
libros  y  escribir  ciertas  marcas.  Según  Searle,  dado  que  no  entiendes  nada  de  chino,  el  sistema  del  que  eres  la  
CPU  es  un  mero  simulador  de  chino,  no  un  verdadero  entendido  de  chino.  Por  supuesto,  Searle  (con  
razón)  rechaza  la  prueba  de  Turing  para  comprender  el  chino.  Su  argumento,  entonces,  es  que  dado  que  el  programa  
de  un  verdadero  comprensor  de  chino  no  es  suficiente  para  comprender  el  chino,  ninguna  teoría  de  manipulación  de  
símbolos  de  la  comprensión  china  (o  cualquier  otro  estado  intencional)  es  correcta  acerca  de  lo  que  hace  que  algo  
sea  un  comprensor  de  chino .  Por  lo  tanto,  la  conclusión  del  argumento  de  Searle  es  que  la  idea  fundamental  del  
pensamiento  como  procesamiento  de  símbolos  es  incorrecta  incluso  si  nos  permite  construir  una  máquina  que  
pueda  duplicar  el  procesamiento  de  símbolos  de  una  persona  y,  por  lo  tanto,  duplicar  el  comportamiento  de  una  persona.

Las  mejores  críticas  al  argumento  de  la  habitación  china  se  han  centrado  en  lo  que  Searle,  anticipando  el  
desafío,  llama  la  respuesta  de  los  sistemas.  (Véanse  las  respuestas  que  siguen  a  Searle  (1980)  y  el  comentario  sobre  
Searle  en  Hofstadter  y  Dennett  (1981).)  La  respuesta  del  sistema  tiene  un  componente  positivo  y  otro  negativo.  
El  componente  negativo  es  que  no  podemos  razonar  de  "Bill  nunca  vendió  uranio  a  Corea  del  Norte"  a  "La  compañía  
de  Bill  nunca  vendió  uranio  a  Corea  del  Norte".  De  manera  similar,  no  podemos  razonar  de  "Bill  no  entiende  
chino"  a  "El  sistema  del  que  Bill  es  parte  no  entiende  chino".  (Ver  Copeland,  1993b).  Hay  una  brecha  en  el  argumento  
de  Searle.  El  componente  positivo  va  más  allá,  diciendo  que  todo  el  sistema  (hombre  +  programa  +  tablero  +  papel  +  
puertas  de  entrada  y  salida)  entiende  chino,  aunque

27  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

el  hombre  que  actúa  como  CPU  no  lo  hace.  Si  abre  su  propia  computadora  y  busca  la  CPU,  encontrará  que  es  
solo  uno  de  los  muchos  chips  y  otros  componentes  en  la  placa  de  circuito  principal.  La  respuesta  de  los  sistemas  
nos  recuerda  que  las  CPU  de  las  computadoras  pensantes  que  esperamos  tener  algún  día  no  pensarán  por  sí  
mismas ,  sino  que  serán  partes  de  sistemas  pensantes.

La  inteligente  respuesta  de  Searle  es  imaginar  la  parafernalia  del  "sistema"  internalizada  de  la  siguiente  manera.  
Primero,  en  lugar  de  pedirle  que  consulte  una  biblioteca,  debemos  imaginarlo  memorizando  toda  la  biblioteca.  En  
segundo  lugar,  en  lugar  de  escribir  notas  en  los  blocs  de  notas,  debe  memorizar  lo  que  hubiera  escrito  en  los  blocs  
y  debe  memorizar  lo  que  diría  la  pizarra  estatal.  Finalmente,  en  lugar  de  mirar  las  notas  colocadas  debajo  de  una  
puerta  y  pasar  notas  debajo  de  otra  puerta,  solo  usa  su  propio  cuerpo  para  escuchar  declaraciones  en  chino  
y  producir  respuestas.  (Esta  versión  de  la  sala  china  tiene  la  ventaja  adicional  de  que  se  puede  generalizar  para  
incluir  el  comportamiento  completo  de  un  sistema  de  habla  china  en  lugar  de  solo  un  cambiador  de  billetes  chino).
Pero  como  enfatizaría  Searle,  cuando  a  los  hablantes  de  chino  les  parece  que  estás  dirigiendo  un  discurso  
aprendido  con  ellos  en  chino,  todo  lo  que  estás  consciente  de  hacer  es  pensar  en  qué  ruidos  te  dice  el  programa  
que  hagas  a  continuación,  dados  los  ruidos  que  escuchas  y  lo  que  He  escrito  en  tu  bloc  de  notas  mental.

Argumenté  anteriormente  que  la  CPU  es  solo  uno  de  muchos  componentes.  Si  todo  el  sistema  entiende  chino,  
eso  no  debería  llevarnos  a  esperar  que  la  CPU  entienda  chino.  El  efecto  del  movimiento  de  internalización  de  
Searle,  la  "nueva"  Sala  China,  es  intentar  destruir  la  analogía  entre  mirar  dentro  de  la  computadora  y  
mirar  dentro  de  la  Sala  China.  Si  uno  mira  dentro  de  la  computadora,  ve  muchos  chips  además  de  la  CPU.  Pero  si  
uno  mira  dentro  de  la  "nueva"  Sala  China,  todo  lo  que  ve  es  a  usted,  ya  que  ha  memorizado  la  biblioteca  e  
interiorizado  las  funciones  del  bloc  de  notas  y  la  pizarra.  Pero  el  punto  a  tener  en  cuenta  es  que  aunque  los  
componentes  que  no  son  de  la  CPU  ya  no  son  fáciles  de  ver,  no  se  han  ido.
Más  bien,  se  internalizan.  Si  el  programa  requiere  que  el  contenido  de  un  registro  se  coloque  en  otro  registro,  y  
si  hubiera  hecho  esto  en  la  Sala  china  original  copiando  de  una  hoja  de  papel  borrador  a  otra,  en  la  nueva  
Sala  china  debe  copiar  de  una  de  tus  análogos  mentales  de  un  pedazo  de  papel  borrador  a  otro.  Está  
implementando  el  sistema  haciendo  lo  que  haría  la  CPU  y  simultáneamente  está  simulando  los  componentes  que  
no  son  de  la  CPU.  Entonces,  si  el  lado  positivo  de  la  respuesta  del  sistema  es  correcto,  el  sistema  total  que  está  
implementando  entiende  chino.

"Pero,  ¿cómo  puede  ser",  objetaría  Searle,  "que  usted  implemente  un  sistema  que  entiende  chino  aunque  usted  
no  entienda  chino?"  La  réplica  de  la  respuesta  de  los  sistemas  es  que  usted  implementa  un  sistema  de  
comprensión  de  chino  sin  que  usted  entienda  chino  o  sin  que  necesariamente  sea  consciente  de  lo  que  está  
haciendo  bajo  esa  descripción.  La  respuesta  de  los  sistemas  ve  la  Sala  China  (nueva  y  antigua)  como  un  
sistema  inglés  que  implementa  un  sistema  chino.  Lo  que  conoce  son  los  pensamientos  del  sistema  inglés,  por  
ejemplo,  seguir  instrucciones  y  consultar  su  biblioteca  interna.  Pero  en  virtud  de  hacer  esta  tarea  hercúlea,  
también  está  implementando  un  sistema  inteligente  real  de  habla  china,  por  lo  que  su  cuerpo  alberga  dos  
sistemas  inteligentes  genuinamente  distintos.  El  sistema  chino  también  piensa,  pero  aunque  implementas  este  
pensamiento,  no  eres  consciente  de  ello.

La  respuesta  del  sistema  se  puede  respaldar  con  una  adición  al  experimento  mental  que  destaca  la  división  
del  trabajo.  Imagina  que  te  enfrentas  a  los  chinos  simulando  un  trabajo  de  9  a  5.  Llegas  el  lunes  por  la  mañana  
después  de  un  fin  de  semana  de  relajación  y  te  pagan  por  seguir  el  programa  hasta  las  5  p.  m.  Cuando  está  
trabajando,  se  concentra  mucho  en  el  trabajo  y,  por  lo  tanto,  en  lugar  de  tratar  de  averiguar  el  significado  de  lo  
que  se  le  dice,  enfoca  sus  energías  en  averiguar  qué  le  dice  el  programa  que  haga  en  respuesta  a  cada  entrada.  
Como  resultado,  durante  las  horas  de  trabajo,  respondes  a  todo  tal  como  dicta  el  programa,  excepto  por  las  miradas  
ocasionales  a  tu  reloj.  (Las  miradas  a  su  reloj  entran  en  la  misma  categoría  que  los  ruidos  y  el  calor  que  emiten  
las  computadoras:  aspectos  de  su  comportamiento  que  no  forman  parte  de  la  descripción  de  la  máquina  sino  que  
se  deben  más  bien  a  las  características  de  la  implementación).  Si  alguien  le  habla  en  Inglés,  dices  lo  que  dicta  el  
programa  (que,  recuerdas,  describe  a  un  hablante  chino  real).  Entonces,  si  durante  las  horas  de  trabajo  
alguien  le  habla  en  inglés,  usted  responde  con  una  solicitud  en  chino  para  hablar  chino,  o  incluso  un  inexperto  
pronunciado  "No  habla  inglés",  que  una  vez  fue  memorizado  por  el  hablante  de  chino  que  se  está  simulando,  
y  que  usted  el  inglés  sistema  de  habla  puede  incluso  fallar  en  reconocer  como  inglés.  Luego,  llegan  las  5  p.  m.,  
dejas  de  trabajar  y  reaccionas  a  hablar  en  chino  como  lo  haría  cualquier  hablante  monolingüe  de  inglés.

28  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

¿Por  qué  el  sistema  inglés  implementa  el  sistema  chino  en  lugar  de,  digamos,  al  revés?
Porque  ustedes  (el  sistema  inglés  al  que  ahora  me  dirijo)  están  siguiendo  las  instrucciones  de  un  programa  en  inglés  para  hacer  
ruidos  chinos  y  no  al  revés.  Si  decides  dejar  tu  trabajo  para  convertirte  en  mago,  el  sistema  chino  desaparece.  Sin  embargo,  si  el  
sistema  chino  decide  convertirse  en  mago,  hará  planes  que  expresaría  en  chino,  pero  luego,  cuando  lleguen  las  5  p.  
trabajar.  Y  por  supuesto  no  tienes  ningún  compromiso  de  hacer  lo  que  dicte  el  programa.  Si  el  programa  dicta  que  realice  una  serie  
de  movimientos  que  lo  lleven  a  un  vuelo  a  China,  puede  salir  del  modo  de  simulación  y  decir  "¡Renuncio!"  La  existencia  del  
hablante  chino  y  el  cumplimiento  de  sus  planes  depende  de  tu  horario  de  trabajo  y  de  tus  planes,  no  al  revés.

Por  lo  tanto,  usted  y  el  sistema  chino  cohabitan  en  un  solo  cuerpo.  En  efecto,  Searle  usa  el  hecho  de  que  no  eres  consciente  de  los  
pensamientos  del  sistema  chino  como  argumento  de  que  no  tiene  pensamientos.  Pero  este  es  un  argumento  inválido.
Los  casos  reales  de  personalidades  múltiples  son  a  menudo  casos  en  los  que  una  personalidad  no  es  consciente  de  las  demás.

Es  instructivo  comparar  el  experimento  mental  de  Searle  con  la  máquina  de  búsqueda  de  cuerdas  de  la  tía  Bubbles  descrita  al  
comienzo  de  este  artículo.  Esta  máquina  fue  utilizada  contra  una  propuesta  conductista  de  un  concepto  conductista  de  inteligencia.  
Pero  la  visión  de  la  manipulación  de  símbolos  de  la  mente  no  es  una  propuesta  sobre  nuestro  concepto  cotidiano.  En  la  
medida  en  que  pensemos  que  el  sistema  inglés  implementa  un  sistema  chino,  será  porque  encontramos  plausible  la  teoría  de  la  
manipulación  de  símbolos  de  la  mente  como  teoría  empírica.

Hay  un  aspecto  del  caso  de  Searle  con  el  que  simpatizo.  Tengo  mis  dudas  de  si  hay  algo  que  se  parezca  al  sistema  chino,  es  decir,  
si  el  sistema  chino  es  un  sistema  fenoménicamente  consciente.  Mis  dudas  surgen  de  la  idea  de  que  quizás  la  conciencia  
sea  más  una  cuestión  de  implementación  del  procesamiento  de  símbolos  que  del  procesamiento  de  símbolos  en  sí  
mismo.  Aunque  sorprendentemente  Searle  no  menciona  esta  idea  en  relación  con  la  Sala  China,  puede  verse  como  el  corazón  
argumentativo  de  su  posición.  Searle  ha  argumentado  independientemente  de  la  Sala  China  (Searle,  1992,  capítulo  7)  que  la  
intencionalidad  requiere  conciencia.  (Ver  las  respuestas  a  Searle  en  Behavioral  and  Brain  Sciences  13,  1990.)  Pero  esta  doctrina,  si  
es  correcta,  puede  apuntalar  el  argumento  de  la  habitación  china.  Porque  si  el  sistema  chino  no  es  consciente,  entonces,  según  
la  doctrina  de  Searle,  tampoco  es  un  sistema  intencional.

Incluso  si  tengo  razón  sobre  el  fracaso  del  argumento  de  Searle,  logra  agudizar  nuestra  comprensión  de  la  naturaleza  de  la  
intencionalidad  y  su  relación  con  el  cálculo  y  la  representación.7

notas  al  pie

1.  La  máquina  de  la  tía  Bubbles  refuta  algo  más  fuerte  que  el  conductismo,  a  saber,  la  afirmación  de  que  lo  mental  "superviene"  
a  lo  conductual;  es  decir,  que  no  puede  haber  diferencia  mental  sin  diferencia  de  comportamiento.  (Por  supuesto,  las  disposiciones  
conductuales  son  finitas;  véase  el  siguiente  párrafo  del  texto).  Estoy  en  deuda  con  Stephen  White  por  señalarme  que  la  doctrina  
de  la  superveniencia  de  lo  mental  sobre  lo  conductual  está  muy  extendida  entre  los  pensadores  que  rechazan  el  conductismo. ,  
como  Donald  Davidson.  La  máquina  de  la  tía  Bubbles  se  describe  y  defiende  en  detalle  en  Block  (1978,  1981a),  y  fue  descubierta  de  
forma  independiente  por  White  (1982).

2.  El  dígito  más  a  la  derecha  en  binario  (como  en  el  familiar  decimal)  es  el  lugar  de  los  1.  El  segundo  dígito  de  la  derecha  es  el  lugar  
de  los  2  (que  corresponde  al  lugar  de  las  10  en  decimal).  El  siguiente  es  el  lugar  de  4s  (es  decir,  2  al  cuadrado),  tal  como  el  lugar  
correspondiente  en  decimal  es  el  lugar  de  10  al  cuadrado.

3.  La  idea  descrita  aquí  fue  articulada  por  primera  vez,  según  mi  conocimiento,  en  Fodor  (1975,  1980);  véase  también  Dennett  (1981)  
al  que  se  deben  los  términos  'motor  semántico'  y  'motor  sintáctico',  y  Newell  (1980).  Se  puede  encontrar  más  sobre  este  tema  en  
Dennett  (1987)  buscando  'motor  sintáctico'  y  'motor  semántico'  en  el

29  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

índice.

4.  En  un  aspecto,  los  significados  de  los  símbolos  mentales  no  pueden  ser  semánticamente  más  básicos  que  los  
significados  de  los  símbolos  externos.  El  nombre  'Aristóteles'  tiene  la  referencia  que  tiene  debido  a  su  conexión  causal  
(a  través  de  generaciones  de  hablantes)  a  un  hombre  que  fue  llamado  por  un  nombre  que  era  un  antepasado  de  nuestro  
término  externo  'Aristóteles'.  Así  que  el  término  en  el  lenguaje  del  pensamiento  que  corresponde  a  'Aristóteles'  ciertamente  
derivará  su  referencia  y  por  lo  tanto  será  semánticamente  menos  básico  que  la  palabra  del  lenguaje  público.

5.  Tenga  en  cuenta  que  el  tipo  de  éxito  es  importante  para  determinar  si  el  conexionismo  es  realmente  un  rival  del  punto  de  
vista  del  lenguaje  del  pensamiento.  Las  redes  conexionistas  han  tenido  éxito  en  varias  tareas  de  reconocimiento  de  
patrones,  por  ejemplo,  discriminar  minas  de  rocas.  Por  supuesto,  incluso  si  se  pudiera  hacer  que  estas  redes  hicieran  
tareas  de  reconocimiento  de  patrones  mucho  mejor  que  nosotros,  eso  no  sugeriría  que  estas  redes  puedan  proporcionar  
modelos  de  cognición  superior.  Las  computadoras  que  están  programadas  para  hacer  aritmética  en  el  modo  
clásico  de  procesamiento  de  símbolos  pueden  hacer  aritmética  mucho  mejor  que  nosotros,  pero  nadie  concluiría  que,  
por  lo  tanto,  estas  computadoras  proporcionan  modelos  de  cognición  superior.

6.  Esta  tabla  podría  usarse  para  describir  una  máquina  que  tiene  una  memoria  con  representación  explícita.  Digo  
"naturalmente  descrito"  para  indicar  que  estoy  pensando  en  una  máquina  que  no  tiene  esa  memoria,  una  máquina  para  la  
cual  la  tabla  de  la  Figura  7  es  una  descripción  adecuada  y  natural.

7.  Estoy  en  deuda  con  Ken  Aizawa,  George  Boolos,  Susan  Carey,  Willem  DeVries,  Jerry  Fodor  y  Steven  White  por  sus  
comentarios  sobre  un  borrador  anterior.  Este  trabajo  fue  apoyado  por  la  Fundación  Nacional  de  Ciencias  (DIR8812559)

Bibliografía

Beakeley,  B.  y  Ludlow,  P.  eds.  (1992).  Filosofía  de  la  Mente:  Problemas  Clásicos/  Problemas  Contemporáneos.
Cambridge:  MIT  Press.  @blankspace[2  line]  Block,  Ned,  1978.  "Problemas  con  el  funcionalismo".  En  CW
Savage,  ed.,  Estudios  de  Minnesota  en  Filosofía  de  la  Ciencia,  IX.  Prensa  de  la  Universidad  de  Minnesota:  Minneapolis:  
261­325.  Reimpreso  en  Rosenthal  (1991)  y  Lycan  (1990).  @blankspace[.9  línea]  Block,  Ned,  1980,  1981b.  Lecturas  
de  Filosofía  de  la  Psicología,  Vol  1,  2.  Harvard  University  Press:  Cambridge.

Bloque,  Ned,  1981a.  "Psicologismo  y  conductismo",  The  Philosophical  Review  LXXXX/1/5­4.

Block,  Ned,  1986.  "Publicidad  de  una  semántica  para  la  psicología".  En  francés,  PA,  et.  al.,  ed.,  Midwest  Studies  in  Philosophy,  
vol.  X.  Prensa  de  la  Universidad  de  Minnesota:  Minneapolis:  615­678.

Block,  N.  (1990a)  Tierra  invertida.  En  Perspectivas  Filosóficas  4  ed  J.  Tomberlin.  Ridgeview

Bloque,  N.  (1990b).  "¿Puede  la  mente  cambiar  el  mundo?"  En  G.  Boolos,  ed.,  Ensayos  en  honor  de  Hilary  Putnam.  
Prensa  de  la  Universidad  de  Cambridge:  Cambridge.

Burge,  Tyler,  1979.  "Individualismo  y  lo  mental".  En  francés  PA,  et.  al.,  ed.,  Estudios  del  Medio  Oeste  en  Filosofía  IV.  
Prensa  de  la  Universidad  de  Minnesota:  Minneapolis:  73­121.

Burge,  Tyler,  1986.  "Individualismo  y  psicología",  The  Philosophical  Review  95/1/3­45.

Chalmers,  D.  próximamente.  "Una  base  conceptual  para  el  estudio  de  la  cognición".  Mentes  y  Máquinas

Chomsky,  N.,  1959.  revisión  de  Verbal  Behavior  de  BF  Skinner.  Lengua  35,  nº  1:  26­58

Chomsky,  N.,  1975.  Reflections  on  Language  Pantheon:  Nueva  York

30  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Churchland,  PM,  1981.  "El  materialismo  eliminativo  y  las  actitudes  proposicionales",  The  Journal  of  Philosophy  78/67­90.

Churchland,  PS,  1986.  Neurofilosofía.  Prensa  del  MIT:  Cambridge.

Churchland  PM  y  Churchland  PS,  1990.  "¿Podría  pensar  una  máquina?"  Científico  americano  262  (1)  26­31

Clark,  A.  199  Motores  asociativos.  Cambridge:  Prensa  del  MIT

Copeland,  J.  1993a.  Inteligencia  artificial:  una  introducción  filosófica ,  Oxford:  Blackwell

Copeland,  J.  1993b.  "El  curioso  caso  del  gimnasio  chino",  Synthese  95:  173­186

Cummins,  Robert,  1975.  "Análisis  funcional",  Journal  of  Philosophy  72/741­765.  Parcialmente  reimpreso  en  Block  (1980).

Cummins,  Robert,  1989.  Significado  y  representación  mental.  Prensa  del  MIT:  Cambridge.

Davies,  M.,  Humphreys,  G.  199  Conciencia.  Blackwell:  Oxford

Dehmelt,  Hans,  1989.  "Tritón,...  electrón,...  cosmon...:  ¿Una  regresión  infinita?  Actas  de  la  Academia  Nacional  de  Ciencias,  86,  
8618.

Dennett,  D.  (1969).  Contenido  y  Conciencia.  Londres:  Routledge  y  Kegan  Paul

Dennett,  DC,  1974.  "Por  qué  la  ley  del  efecto  no  desaparecerá",  Journal  of  the  Theory  of  Social  Behavior  5/169­187.

Dennett,  DC,  1975.  "Escritura  cerebral  y  lectura  mental".  En  K.  Gunderson,  ed.,  Estudios  de  Minnesota  en  Filosofía  de  la  
Ciencia  VII.  Prensa  de  la  Universidad  de  Minnesota:  Minneapolis.

Dennett,  DC,  1981.  "Tres  tipos  de  psicología  intencional".  En  R.  Healy,  ed.,  Reducción,  Tiempo  y  Realidad.  Prensa  de  la  
Universidad  de  Cambridge:  Cambridge.

Dennett,  DC,  1987.  La  Postura  Intencional.  Prensa  del  MIT:  Cambridge.

Dennett,  DC,  1988.  "Quining  Qualia".  En  A.  Marcel  y  E.  Bisiach,  ed.,  Consciousness  in  Contemporary  Society.  
Prensa  de  la  Universidad  de  Oxford:  Oxford.

Dretske,  Fred,  1981.  El  conocimiento  y  el  flujo  de  información.  Prensa  del  MIT:  Cambridge

Dretske,  Fred,  1988.  Explicando  el  Comportamiento:  Razones  en  un  Mundo  de  Causas  MIT  Press:  Cambridge.

Dreyfus,  Hubert  L.,  1979.  Lo  que  las  computadoras  no  pueden  hacer  Harper  and  Row:  Nueva  York

Field,  Hartry,  1978.  "Representación  mental",  Erkenntnis  13/1/9­61.  Reimpreso  en  Block  (1980).

Fodor,  Jerry,  1968.  "La  apelación  al  conocimiento  tácito  en  la  explicación  psicológica",  The  Journal  of  Philosophy  65/20.

Fodor,  Jerry,  1975.  El  lenguaje  del  pensamiento.  Crowell:  Nueva  York

Fodor,  Jerry,  1980.  "El  solipsismo  metodológico  considerado  como  una  estrategia  de  investigación  en
Psychology",  The  Behavioral  and  Brain  Sciences  3/417­424.  Reimpreso  en  Haugeland  (1981).

Fodor,  Jerry,  1981.  "Tres  hurras  por  las  actitudes  proposicionales",  en  Representaciones  de  Fodor.  MIT

31  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Prensa:  Cambridge.

Fodor,  Jerry,  1987.  Psicosemántica.  Prensa  del  MIT:  Cambridge.

Fodor,  Jerry,  198  La  modularidad  de  la  mente.  Prensa  del  MIT:  Cambridge

Fodor,  Jerry,  1985.  "Guía  de  Fodor  para  la  representación  mental",  Mind  XCIV/76­100.

Fodor,  Jerry,  1990.  "Psicosemántica  o  ¿de  dónde  vienen  las  condiciones  de  verdad?",  en  Lycan,  1990.

Fodor,  Jerry;  y  Pylyshyn,  Zenon,  1988.  "Conexionismo  y  arquitectura  cognitiva:  una  crítica
Análisis",  Cognición  28/3­71.

Goldman,  A.  ed.,  1993  Lecturas  de  Filosofía  y  Ciencias  Cognitivas  Cambridge:  MIT  Press

Guttenplan,  S.  ed.  1994.  Un  compañero  de  la  filosofía  de  la  mente  Oxford:  Blackwell

Harman,  Gilbert,  1973  Pensamiento  Princeton  University  Press:  Princeton.

Harman,  Gilbert,  1989.  "La  calidad  intrínseca  de  la  experiencia".  En  J.  Tomberlin,  ed.,  1989.

Haugeland,  John,  1978.  "La  naturaleza  y  la  plausibilidad  del  cognitivismo",  The  Behavioral  and  Brain  Sciences  1/215­226.  
Reimpreso  en  Haugeland  (1981).

Haugeland,  John,  ed.,  1981.  Diseño  mental.  Prensa  del  MIT:  Cambridge.

Haugeland,  John,  1990.  "Las  estrellas  de  la  intencionalidad".  En  Perspectivas  Filosóficas  4  ed  J.  Tomberlin.
Ridgeview:  Atascedero

Hofstadter,  D.  y  Dennett,  D.,  1981.  The  Mind's  I:  Fantasies  and  Refelctions  on  Mind  and  Soul  New  York:  Basic  Books

Horwich,  Paul,  1990.  Verdad  Blackwells:  Oxford.

Kim,  J.,  1992.  "La  realización  múltiple  y  la  metafísica  de  la  reducción",  Filosofía  y  Fenomenología
Investigación  LII,  1.

LePore,  E.  y  Loewer,  B.,  1987.  "Mind  Matters",  The  Journal  of  Philosophy  LXXXIV/11/630­641.

Lycan,  William,  ed.,  1987.  Conciencia.  Prensa  del  MIT:  Cambridge

Lycan,  William,  1990.  Mente  y  cognición.  BH  Blackwell:  Oxford.  @blankspace[.9  línea]  Newell,  Alan,
1980.  "Sistemas  de  símbolos  físicos",  Cognitive  Science  4/2:  135­18

Marr,  David,  1977.  "Inteligencia  artificial:  una  visión  personal",  Inteligencia  artificial  9/37­48.  Reimpreso  en  Haugeland  (1981).

McCarthy,  John,  1980.  "Creencias,  máquinas  y  teorías",  The  Behavioral  and  Brain  Sciences  3/435.

Millikan,  RG  (1984)  1984.  Lenguaje,  pensamiento  y  otras  categorías  biológicas:  nuevos  fundamentos  para
Realismo.  Cambridge,  Massachusetts:  MIT  Press

Moro,  James,  1987.  "Prueba  de  Turing".  En  Shapiro,  ed.,  Enciclopedia  de  Inteligencia  Artificial.  John  Wiley  e  hijos:  1126­1130.  
@blankspace[1  línea]  O'Rourke,  J.,  Shattuck,  J.,  "¿Se  da  cuenta  una  roca  de  todos  los
¿Autómata?  Una  crítica  del  teorema  de  Putnam".

Papineau,  D.  (1984).  Representación  y  explicación.  Filosofía  de  la  ciencia  51,  4:550­572

32  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Peacocke,  C.  1993  Un  estudio  de  conceptos.  Cambridge:  Prensa  del  MIT

Pettit,  P.  y  McDowell,  J.,  1986.  Sujeto,  Pensamiento  y  Contexto.  Prensa  de  la  Universidad  de  Oxford:  Oxford.

Putnam,  Hilary,  1975.  "La  filosofía  y  nuestra  vida  mental".  En  mente,  lenguaje  y  realidad:  artículos  filosóficos,  volumen  2.  
Cambridge  University  Press:  Londres.  Reimpreso  en  Block  (1980),  y  en  algo
forma  diferente,  en  Haugeland  (1981).  Publicado  originalmente  en  Cognition  2  (1973)  con  una  sección  sobre  CI  que
se  ha  omitido  de  las  dos  versiones  reimpresas.

Putnam,  Hilary,  1988.  Representación  y  Realidad.  Prensa  del  MIT:  Cambridge.

Pylyshyn,  Zenon,  1984.  Computación  y  cognición:  problemas  en  los  fundamentos  de  la  ciencia  cognitiva.  MIT
Prensa:  Cambridge.

Ramsey,  W.,  Stich,  S,  Rumelhart,  D.  1991.  Filosofía  y  teoría  conexionista.  Hillsdale:  Erlebaum

Rosenthal,  DM,  ed.,  1991.  La  naturaleza  de  la  mente.  Prensa  de  la  Universidad  de  Oxford:  Oxford.

Schiffer,  Stephen,  1987.  Remanentes  de  significado  MIT  Press:  Cambridge.

Schwartz,  Jacob,  1988.  "El  nuevo  conexionismo:  desarrollo  de  relaciones  entre  la  neurociencia  y
Inteligencia  Artificial",  Daedalus  117/1/123­142.

Searle,  John,  1980.  "Mentes,  cerebros  y  programas",  The  Behavioral  and  Brain  Sciences  3/417­424.
Reimpreso  en  Haugeland  (1981).

Searle,  John,  1990a.  "¿Es  el  cerebro  una  computadora  digital?"  Procedimientos  y  Direcciones  de  la  American
Asociación  Filosófica  64:  21­37

Searle,  John,  1990b.  "¿Es  la  mente  del  cerebro  un  programa  de  computadora?"  Científico  americano  262  (1),  20­25

Searle,  John,  1992.  El  redescubrimiento  de  la  mente.  Cambridge:  MIT

Shieber,  S.  1994.  "La  primera  prueba  de  Turing".  Actas  de  la  ACM

Shoemaker,  Sydney,  1981.  "El  espectro  invertido",  The  Journal  of  Philosophy  LXXIV/7/357­381.

Smolensky,  Paul,  1988.  "Sobre  el  tratamiento  adecuado  del  conexionismo",  Behavioral  and  Brain  Sciences  11,1­23.  
Véase  también  el  comentario  que  sigue  y  la  respuesta  del  autor.

Stalnaker,  Robert,  1984.  Investigación.  Prensa  del  MIT:  Cambridge.

Stampe,  Dennis  W.,  1977.  "Hacia  una  teoría  causal  de  la  representación  lingüística".  En  PA  French,  et.al.,
ed.,  Estudios  del  Medio  Oeste  en  Filosofía  II.  Prensa  de  la  Universidad  de  Minnesota:  Minneapolis:  42­6

Sterelny,  Kim,  1985.  "Revisión  de  Stich,  From  Folk  Psychology  to  Cognitive  Science:  The  Case  Against
Creencia",  Australasian  Journal  of  Philosophy  63/4/510­519.

Sterelny,  K.  1990.  La  teoría  representacional  de  la  mente  Blackwell:  Oxford

Stich,  Stephen,  1983.  De  la  psicología  popular  a  la  ciencia  cognitiva:  el  caso  contra  la  creencia.  Prensa  del  MIT:  Cambridge

Tomberlin,  J.,  1990.  Perspectivas  Filosóficas,  IV:  Filosofía  de  la  Mente  y  Teoría  de  la  Acción.  Ridgeview  Publishing  Co:  
Atascadero.

Turing,  AM,  1950.  "Maquinaria  informática  e  inteligencia",  Mind  59/433­460.

33  de  34 20/04/2004  16.04
"La  mente  como  software  del  cerebro"  de  Ned  Block http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/msb.html
Machine Translated by Google

Tye,  M.  1991.  The  Imagery  Debate  Cambridge:  MIT  Press

Weizenbaum,  Joseph,  1976.  El  poder  de  la  computadora  y  la  razón  humana.  WH  Freeman:  San  Francisco.

White,  Stephen,  1982.  "Funcionalismo  y  contenido  proposicional",  tesis  doctoral,  Universidad  de  California,  Berkeley.

Palabras  clave

Computación,  mente,  inteligencia,  test  de  Turing,  ELIZA,  intencionalidad,  análisis  funcional,  procesador  
primitivo,  cerebro  de  pantano,  motor  sintáctico,  motor  semántico,  lenguaje  de  pensamiento,  conexionismo,  caja  de  
creencias,  productividad,  sistematicidad,  niveles  de  descripción,  argumento  de  la  habitación  china

34  de  34 Ver  estadísticas  de  publicación
20/04/2004  16.04

También podría gustarte