Está en la página 1de 289

ANDY CLARK

ESTAR AHÍ
Cerebro, cuerpo y mundo
en la nueva ciencia cognitiva

PAIDÓS 4
Barcelona • Buenos Aires • México
Título original: Being there: Putting Brain, Body, and World TogetherAgain
Publicado en Inglés por The Mit Press, Cambridge, Massachusetts

Traducción de Genis Sánchez Barberán


Revisión técnica de Fernando Martínez Manrique

Cubierta de Ferran Caries y Montse Piass

Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del -Copyright-,
bajo tas sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier
m edio o procedimiento, comprendidos la reprogratia y el tratam iento informático, y la distribución
de ejemplares d e el!¿ mediante alquiler o préstamo públicos.

© 1997, Massachusetts Institute ol Technology


© 1999 de la traducción, Genis Sánchez Barberán
© 1999 de todas las ediciones en castellano,
Ediciones Paidós Ibérica, S. A.,
Mariano Cubf, 92 - 08021 Barcelona
y Editorial Paidós, SAICF,
Defensa, 599 - Buenos Aires.
http://www.paidos.com

ISBN: 84-493-0670-1
Depósito legal: B. 2.014-1999
I

Impreso en A&M Gráfic, s.l„


08130 Sta. Perpetua de Mogoda (Barcelona)

Impreso en España - Printed ¡n Spain


A mi padre, Jim Clark, el chicarrón escocés
que me enseñó a preguntarme...
Sumario

Agradecimientos . ........................................................................................ 13
Prólogo: Del conexionismo a ¡a mente corpórea y em b eb id a___ . . . . 15
Prefacio: Pensamiento profundo contra acción flu id a............................ 31
Bases ............................................................. ..................... ......................... .... 35
Introducción: Un automóvil con cerebro de cucaracha ......................... 39

Primera parte
DE EXCURSIÓN POR I.A M ENTE

1. Agentes autónomos: un paseo por 3a luna .............................. 49


1.1 Bajo el volcán ..................................... ................ ..................... 49
1.2 Desfile de robots ...................... , ................................................... 50
1.3 Mentes sin modelos .................... ................................................. 61
1.4 N ic h o s.............................................................................. ............... 63
1.5 ¿Sensibilidad para los detalles? ............................................ .. 65
1.6 El robot refinado ..................................................................... 71

2. El niño situ ad o ..................................................................................... 75


2.1 Yo, robot ....................................................................................... 75
2.2 Bucles de acción ........................................... ............................... 76
2.3 Desarrollo sin diseñ os........................................ ......................... 79
2.4 «Montaje blando» y soluciones descentralizadas .................... 83
2.5 Mentes con andam iajes................................................................. 86
2.6 La mente como espejo frente a la mente como controladora . 88
10 I Estar ahí

3. Mente y mundo: la frontera p lástica.................................................. 93


3.1 La mente escurridiza........................................................................ 93
3.2 Las redes neuronales: una revolución in conclusa.................... 93
3-.3 Apoyarse en el en torno............................ .................................... 100
3.4 Planificación y resolución de p ro b lem as................................... 104
3.5 Después del archivador ............................................................... 109

4. Sabiduría colectiva al estilo de los hongos m ucilaginosos............. 113


4.1 Aquí llega el mucílago ................................................................. 113
4.2 Dos formas de em ergencia............................................................ 116
4.3 Tripulaciones m arinas..................................................................... 119
4.4 Las raíces de la arm o n ía............................................................... 120
4.5 Modelos de la mente oportunista................................................ 123
Intermedio: una historia con den sada.................................................. 126

Segunda parte

EXPLICAR LA M ENTE EXTEND ID A

5. Robots en evolución .............................. ............................................. 131


5.1 Las elusivas estratagemas de la mente corpórea y embebida . 131
5.2 Un telón de fondo evolutivo......................................................... 132
5.3 Los algoritmos genéticos como instrumentos de exploración 133
5.4 Inteligencia corpórea en evolución ............................................ 135
5.5 La batalla de los simuladores (¡Viva lo auténtico!)............... .. 139
5.6 Cómo comprender los agentes evolucionados,
corpóreos y em bebidos................................................................. 142

6. Emergencia y explicación ..................................... .............................. 149


6.1 ¿Estilos diferentes?................... ................................................... 149
6.2 De las partes a los t o d o s ............................................................... 150
6.3 Los sistemas dinámicos y la explicación basada en la
em ergencia....................................................................................... 160
6.4 Matemáticos e ingenieros......................... 166
6.5 Decisiones, decisiones ................................................................. 170
6.6 El cerebro contraataca ................................................................. 174

7. La imagen neurocientífica................................................................... 177


7.1 ¿Cerebros? ¡Para qué! ................................................................. 177
7.2 Los dedos del m o n o ..................................................................... 179
Sumario I 11

7.3 La visión de los primates: de la detección de


características a los filtros sintonizados..................................... 182
7.4 Hipótesis del control neuronal.................................................... 184
7.5 Refinar la representación ............................................................ 190

8. Ser, computar, representar................................................................... 193


8.1 ¿Noventa por ciento de vida (artificial)?................................... 193
8.2 ¿Qué es eso que llamamos representación?.............................. 193
8.3 Representación orientada hacia la acción ............................ 200
8.4 Programas, fuerzas y programas parciales................................... 204
8.5 Seguir el ritm o.................................................................................. 213
8.6 Causalidad recíproca continua...................................................... 215
8.7 Problemas ávidos de representación .............................. 219
8.8 R aíces..................................................................................................224
8.9 Representacionalismo m ín im o...................................................... 228

Tercera parte

MÁS ALLÁ

9. Mentes y mercados .............................. . ......................... ...................233


9.1 Cerebros salvajes, mentes andam iadas......................................... 233
9.2 Perdidos en el superm ercado.........................................................235
9.3 ¿Oficinas inteligentes?..................... 239
9.4 Dentro de la m áqu ina............................................... 241
9.5 Entornos de d iseñ o ..........................................................................245

10. Lenguaje: el artefacto d efin itiv o ...........................................................247


10.1 El poder de la palabra ...............................................................247
10.2 Más allá de la comunicación................................................. .... 248
10.3 Cambio de espacios ..................................................................... 255
10.4 Pensar sobre el pensar: el efecto del m an g la r........................263
10.5 La adaptación del lenguaje al cerebro ..................................... 267
10.6 ¿Dónde acaba la mente y empieza el resto del m u n d o ?---- 270

11. Mentes, cerebros y atunes: un resumen en salm uera......................277

Epílogo: habla un cereb ro................................. 281


Bibliografía ......................................................................................................287
Indice analítico y de n om b res..................................................................... 301
Agradecimientos

Parte de los capítulos 6 y 9 y del epílogo se basan en los siguientes ar­


tículos escritos por mí. Agradezco a los compiladores y editores su autoriza­
ción para utilizar este material.

• «Happy complings: Emergence, exploratory styles and embodied, em-


bedded cognition», en Readings in tbe Philosopby o f A rtificial Life, M. Bo-
den (comp.), Oxford University Press.
• «Economic reason: The interplay of individual learning and external
structure», en Frontiers o f hutilutional Economics, J. Drobak (comp.), Aca-
demic Press.
• «I am John’s brain», en Journal o f Consciomness Stttdies, 2 (1995),
n° 2, págs. 144-148.

La procedencia de las figuras se acredita en las notas al pie correspon­


dientes.
Prólogo: Del conexionismo
a la mente corpórea y embebida

La visión un tanto idealizada que la ciencia cognitiva tiene de sí misma


(por ejemplo, Gardner, 1985) es la de un área en la que confluyen los es­
fuerzos interdisciplinarios de fuentes tan diversas como la inteligencia artifi­
cial, la psicología, la lingüística o las neurociencias. Cada una de estas disci­
plinas es a su vez una ciencia en movimiento, en la que cada semana están
apareciendo nuevas tecnologías, nuevas hipótesis y un caudal de datos que
resulta difícil conjugar en un todo coherente. Si a esto añadimos que la ma­
teria de estudio, el fenómeno de lo mental, está plagada de embrollos filosó­
ficos, nos encontramos con una ciencia que está en un proceso continuo de
redefinición de sus límites, de sus tareas y de su aparato conceptual. Es fácil
que al adentrarse en busca de explicaciones uno se encuentre inmerso en
unas arenas movedizas que amenazan con tragarle. Como sabe todo aquel
que haya visto una película de la jungla, la mejor manera de salir de unas are­
nas movedizas no es por medio de brazadas bruscas y movimientos violen­
tos, sino sujetándose a alguna liana y tirando firmemente pero con paciencia.
Estar ahí, el tercer libro de Andy Clark, nos proporciona una de esas lianas.
A diferencia de sus dos obras anteriores, Microcogn ilion («Microcogni-
ción», 1989) y Associative Engines («Motores asociativos», 1993), centradas
principalmente en analizar los supuestos que hay detrás del enfoque cone-
xionista de la cognición y en articular las consecuencias de este enfoque para
la concepción general de la mente, el conexionismo no es el tema central de
Estar ahí, aunque siga ocupando un lugar preeminente. De hecho, y muy en
consonancia con el enfoque de la ciencia cognitiva que se va a ofrecer, no es
fácil ni conveniente identificar un aspecto determinado como el tema o ar­
gumento central de este libro, sino que existe toda una colección de concep­
tos clave que se entrelazan en un tejido explicativo común. Nociones como
descentralización, emergencia, sistemas dinámicos, reconocimiento de p a­
16 ! Estar ahí

trones, conducta adaptativa, van a conformar un entramado caleidoscopio),


aderezado por una multitud de ejemplos de procedencia tan diversa como la
robótica, la etología, la economía o el desarrollo infantil. Todo ello con el ob­
jeto de recuperar para la ciencia cognitiva cuestiones relativas al cuerpo y al
ambiente, que no sólo rodean a la mente sino que, de acuerdo con el autor,
forman con ella un mismo sistema.
A pesar del carácter notablemente diferente de este último libro respec
to a los trabajos anteriores, hay un rastro de preocupaciones y motivos afines
a lo largo de las tres obras. El objeto de este prólogo, por tanto, es poner a la
vista la evolución del pensamiento de Clark en el contexto de sus primeras
obras sobre conexionismo, de modo que el lector pueda apreciar, al menos a
grandes rasgos, el proceso que desemboca en la imagen de la mente corpó­
rea y embebida que se plasma en Estar ahí.

Las redes del pensamiento

Los sistemas conexionistas irrumpieron con fuerza en el ruedo cognitivo


a mediados de la década de los ochenta. En ese momento la concepción do­
minante entre quienes emplean modelos computacionales de las funciones
mentales se basa en la manipulación de representaciones simbólicas discre­
tas y sintácticamente estructuradas por medio de reglas sensibles a dicha es
tructura. Las representaciones se conciben como símbolos capaces de reci­
bir una interpretación semántica en función de la relación particular que
posean con el ambiente o con otros símbolos. Son, asimismo, capaces de
combinarse con otros símbolos para formar estructuras más complejas. Los
procesos cognitivos, por su parte, serán de carácter algorítmico. Una deter­
minada función se realizará a través de una serie de transformaciones de es­
tructuras simbólicas. Las transformaciones vienen dadas por un conjunto de
reglas que determinan los pasos permisibles a partir de cada estado del sis­
tema. El enfoque que se deriva de esta visión ha recibido distintas etiquetas,
más o menos afortunadas, como cognitivismo clásico, paradigma simbólico,
computacionalismo ortodoxo, enfoque de representaciones y reglas, o el
acróstico GOFAI (Good Old-Fasbioned A rtificial bitelligence o inteligencia
artificial al viejo estilo).
En oposición a este tipo de organización, los distintos tipos de sistemas
conexionistas están constituidos por unidades simples interconectadas for­
mando una red cuya estructura está inspirada, de un modo muy general, en
las características de la arquitectura neuronal del sistema nervioso, por lo
que también reciben el nombre de redes neuronales artificiales. Las unida­
des o nodos poseen un determinado grado de activación, la cual se propaga
Prólogo I 17

a través de las conexiones hacia otras unidades, activándolas o inhibiéndolas


en mayor o menor medida según el peso y valor (positivo o negativo) de las
conexiones. Para llevar a cabo una tarea es preciso entrenar a la red, de ma­
nera que modifique los pesos de las conexiones entre las unidades hasta que
se asiente en una solución estable al problema. La conducta del sistema es así
el producto de la interacción de sus elementos. Este enfoque también ha
sido bautizado de diversas maneras, como conexionismo, paradigma sub­
simbólico, neurocomputacionalismo o enfoque PDP (Procesamiento Distri­
buido en Paralelo).
El conexionismo atrajo inmediatamente la atención de un nutrido grupo
de insatisfechos con las aproximaciones computacionalistas simbólicas tradi­
cionales. Entre ellos se contaban investigadores de muy distintos credos, ta­
les como holistas, asociacionistas, eliminativistas, neurocomputacionalistas o
anticomputacionalistas. Esta diversidad de partidarios se debe, en parte, al
carácter opaco de los procesos en los que se basa la conducta de una red co-
nexionista. La actividad es producto de los vínculos asociativos existentes en­
tre las unidades de la red, de ahí la etiqueta (o, para algunos, la acusación) de
asociacionista. El sistema integra simultáneamente (en paralelo) un cúmulo de
elementos de información que determinan conjuntamente la respuesta del sis­
tema ante un estímulo determinado, de ahí la etiqueta de bolista. Por otra
parte, los neurocomputacionalistas confiaban en que los nuevos sistemas per­
mitirían integrar los datos procedentes de la neurociencia en modelos com-
putacionales que idealizasen el funcionamiento de los sistemas nerviosos. Así,
el conexionismo permitiría vislumbrar la forma básica de las representaciones
en los sistemas biológicos. Los detractores del computacionalismo, por el
contrario, veían en el carácter emergente de la conducta de la red con respec­
to a la actividad de las unidades un punto de apoyo para rechazar cualquier
interpretación representacional y computacional de las estructuras y procesos
internos responsables de dicha conducta. Los eliminativistas, sin embargo, in­
terpretaban la falta de vínculos claros entre las entidades que identificamos
en nuestras explicaciones psicológicas de andar por casa (entidades tales
como creencias y deseos) para decretar la expurgación de nuestro lenguaje
psicológico científico de semejantes entidades ficticias.
A la hora de contrastar el enfoque conexionista con el simbólico, el des­
concierto ha seguido siendo la norma. Las redes eran empleadas con éxito
en la solución de problemas del mismo tipo que en el enfoque convencional,
y la vocación de sus primeros promotores era más reformista que revolucio­
naria con respecto a la ortodoxia cognitiva. No obstante, las redes se resistí­
an al análisis clásico en términos de estructuras (los datos) y procesos (los
programas) que caracterizaba a la inteligencia artificial típica. A primera vis­
ta es evidente que existe alguna diferencia entre ambas familias y para ca­
18 I Estar ahí

racterizarla se han señalado aspectos como los primitivos computacionales


que emplean, la metodología de construcción del sistema, la capacidad re­
presen racional, la adecuación a los datos procedentes de la neurofisiología,
la posesión de reglas, el nivel de explicación en el que se sitúan, el grado o
tipo de innatismo que permiten, el modo de tratar las actitudes preposicio­
nales, el tipo de contenido, el tipo de conceptos y un sinfín de aspectos más;
y prácticamente respecto a cada diferencia señalada ha habido quien ha ar­
gumentado que tal diferencia no existe.
El conexionismo pedía a gritos un análisis de sus cualidades y supuestos
que permitiera ubicar con mayor claridad su lugar dentro del estudio de la
cognición. Microcognition, el primer libro de Clark, es uno de los hitos prin­
cipales en la tarea de llevar a cabo este análisis. Su objeto es delinear qué
imagen de la mente y de la ciencia cognitiva se sigue si aceptamos los postu­
lados conexionistas. Clark evita los posicionamientos rupturistas y las con­
frontaciones estériles para rescatar una imagen de la cognición que haga jus­
ticia tanto a tres décadas de ciencia clásica como a los deseos de renovación.
Una propiedad crucial con la que exhibir la diferencia entre los sistemas
conexionistas y sus predecesores simbólicos es la transparencia semántica. En
expresión de Clark U989, pág. 18), un sistema posee transparencia semánti­
ca cuando «es posible describir una correspondencia nítida entre una des­
cripción semántica simbólica (de nivel conceptual) de la conducta de un sis­
tema y una interpretación semántica proyectable de los objetos de su
actividad computacional formal representados internamente». Las descrip­
ciones de nivel conceptual son, en general, aquellas que nos proporcionan
los predicados psicológicos ordinarios que utilizamos para hablar de la con­
ducta propia y ajena. En estas descripciones tienen un papel destacado las
referencias a creencias, deseos y otros términos con los que designamos es­
tados mentales, tales como ver, esperar, intentar, suponer, etc., pero también
pertenece a este nivel todo aquello que identificamos normalmente como un
concepto. Así, al ver un perro uno categoriza de una determinada manera
una porción de realidad, esto es, la hace corresponder a un concepto.
Los sistemas clásicos son inherentemente transparentes. Los objetos de
computación son los símbolos que se transforman en las transiciones de es­
tado del sistema. Muchos de estos símbolos poseen una interpretación se­
mántica que corresponde a las entidades del nivel conceptual y los distintos
estados mentales se diferencian en términos de los roles funcionales en que
se puede hacer intervenir a los símbolos. Las reglas que gobiernan las transi­
ciones están definidas de modo que la conducta global del sistema sea se­
mánticamente coherente a través del tiempo, generalmente haciendo que el
sistema respete una serie de principios lógicos. En el caso de los sistemas co­
nexionistas, por el contrario, la transparencia desaparece: los procesos com-
Prólogo I 19

putacionales que tienen lugar en una red neurona) no se llevan a cabo sobre
elementos que posean una interpretación directa en el nivel conceptual. In­
cluso cuando se trata de una red local (aquella en que cada unidad sí corres­
ponde a una entidad de nivel conceptual, como objetos o proposiciones), la
conducta viene determinada por el funcionamiento conjunto de todas las
unidades, no por la transformación serial de unos símbolos en otros. Cada
una de las pequeñas porciones de información codificadas en las unidades y
en los pesos o fuerzas de las conexiones puede considerarse como una res­
tricción débil que influye en el resultado final de la conducta de la red. Una
lección del conexionismo, por tanto, es que la relación entre los pensamien­
tos y lo computacional puede ser más laxa que lo supuesto inicialmente.
Otro importante principio defendido en Microcognition es la multiplici­
dad de la mente. La polémica entre clásicos y conexionistas gravita, en bue­
na parte, en una sucesión de intentos de mostrar que el enfoque respectivo
es capaz de constituir el sustrato único en el que se desarrolla toda la activi­
dad mental. En la terminología de Pylyshyn (1984), se puede decir que am­
bos campos se consideran capaces de proporcionar la arquitectura funcio­
nal, esto es, una suerte de punto fijo sobre el que se definen todas y cada una
de las funciones mentales.
Clark rechaza el supuesto de uniformidad que subyace en esta discusión:
no tenemos motivos para pensar que todas las funciones mentales tengan
que asentarse sobre el mismo tipo de arquitectura computacional. Al igual
que es posible programar un determinado soporte computacional para que
opere simulando el modo de funcionamiento de un soporte distinto, es po­
sible que el hardware de la mente esté formado en ocasiones por un sistema
PDP que simula un sistema simbólico. Esto no significa, como algunos pro­
ponen (por ejemplo, Smolensky, 1988), que lo simbólico sólo sea una des­
cripción aproximada de un mecanismo causal genuinamente conexionista;
más bien, lo simbólico podría constituir en ocasiones la descripción funcio­
nal correcta. Lo cierto es que no tiene por qué existir un solo tipo de rela­
ción entre ambos tipos de sistemas a lo largo de toda la mente. Es mejor con­
cebir que existe una pluralidad de máquinas virtuales adaptadas para
distintos propósitos en el curso de la evolución, máquinas que dejan traslu­
cir sus propiedades en dominios de problemas diferentes.
La idea de la multiplicidad de la mente cobra nuevos giros en Estar ahí,
especialmente en el énfasis en los procesos descentralizados. La imagen sim­
bólica de la mente está a menudo asociada con la presencia de un sistema
central que recibe y procesa la información de una variedad de sistemas pe­
riféricos. Por ejemplo, en la concepción modular de Fodor (1983) este pro­
cesador central llevaría a cabo la fijación de creencias atendiendo a toda la
evidencia suministrada por los sistemas modulares de entrada, tales como la
20 ] Estar ahí

percepción visual o el lenguaje, para enviar la decisión adoptada a un siste­


ma motor de salida encargado de ejecutar la orden en cuestión. Clark, sin
embargo, muestra una abigarrada colección de ejemplos en que la figura del
sistema central desaparece y la mente se multiplica a lo largo de un sistema
de entidades individuales enfrascadas en una tarea común. Podemos ver des­
centralización tanto en las conductas colectivas de las sociedades de insec­
tos, como en la estructura neuronal del sistema nervioso o en la organización
de las funciones de un determinado grupo humano.
Descentralización no entraña desorganización: el medio en el que se de­
sarrolla la conducta en cuestión impone una serie de restricciones que con­
figuran el resultado final tanto como la dinámica interna de los agentes im­
plicados. Si el conexionismo, al igual que los modelos clásicos, no puede
fundamentar toda la cognición, los recursos de procesamiento de base esta­
dística con que cuenta necesitan ser complementados y potenciados. Estar
ahí examina los modos en que tanto la misma constitución corporal como la
manera en que ésta se relaciona con un ambiente que posee su propia es­
tructura y dinámica pueden proporcionar dicha complementariedad, en un
delicado equilibrio de factores internos y externos.

Lo interno y lo externo: el caso de la sistematicidad

El desplazamiento desde una posición conexionista baria una visión que


otorga mayor relieve al papel del cuerpo y el medio externo es en parte una
consecuencia natural de las propias ventajas y debilidades de las redes neu-
ronales artificiales. Podemos tomar como ejemplo una de las más arduas po­
lémicas entre el cognitivismo clásico y el conexionismo: el argumento de la
sistem aticidad, desarrollado por Fodor y Pylyshyn (1988). Existe una rela­
ción intrínseca entre pensamientos como Juan ama a María y María ama a
Juan, de modo que las mentes capaces de pensar el primero son así mismo
capaces de pensar el segundo. Una propiedad como ésta puede explicarse si
consideramos que el medio en que se desarrollan los pensamientos posee
una estructura de constituyentes que corresponden a cada uno de los ele­
mentos identificables en el pensamiento correspondiente {Juan, ama y Ma­
ría). Estos constituyentes son combinables entre sí, de modo que el signifi­
cado del compuesto viene determinado por el significado de los
componentes más simples que intervienen. En otras palabras, la composicio-
nalidad del lenguaje y el pensamiento sería un factor explicativo crucial para
la sistematicidad.
El argumento de la sistematicidad se emplea contra el conexionismo
aduciendo que los sistemas conexionistas no poseen estructura de constitu­
Prólogo I 21

yentes, con lo cual no son capaces de explicar una propiedad omnipresente


de lo mental. Pero lo que es más, de acuerdo con Fodor y Pylyshyn, poseer
dicha estructura es, sumado a la presencia de procesos sensibles a ella, una
característica que define a los sistemas clásicos. En consecuencia, si los co-
nexionistas son capaces de dotar a sus sistemas de una estructura de consti­
tuyentes, lo máximo que habrán logrado es implementar un sistema clásico
en una red neuronal artificial. Dicho de otro modo, la auténtica explicación
psicológica seguiría siendo de naturaleza simbólica y el conexionismo sólo
habría proporcionado el mecanismo, descrito a un nivel demasiado bajo
para los propósitos de la ciencia cognitiva, en el que el sistema de símbolos
se realiza. El conexionista se encuentra así ante un dilema: o bien sus mode­
los no son capaces de explicar la sistematicidad porque carecen de la estruc­
tura necesaria, o si lo hacen en realidad parasitan la explicación clásica.
Ante este dilema la reacción de algunos partidarios del conexionismo
(por ejemplo, Smolensky, 1988) es desarrollar metodologías para dotar a las
redes de constituyentes y mostrar al mismo tiempo que los sistemas obteni­
dos no son implementaciones de modelos clásicos. Estas propuestas han
sido objeto de una larga disputa con los cognitivistas clásicos, disputa difícil
de resolver por cuanto comporta cuestiones espinosas (por ejemplo, cuándo
podemos decir que un sistema tiene una estructura de constituyentes o qué
condiciones deben cumplirse para afirmar que un sistema realiza o imple-
menta a otro). Otros (por ejemplo, van Gelder, 1990) desarrollan una noción
de composicionalidad que no requiere la concatenación de símbolos, una
composicionalidad funcional que podría responder a las necesidades de los
procesos conexionistas.
En la posición adoptada por Clark, los intentos de emplear la sistematici­
dad como objeción contra el conexionismo son fútiles, puesto que la sistema­
ticidad no es una propiedad de la arquitectura interna de la mente. Clark
(1989, cap. 8) insiste en que el hecho empírico a explicar es la sistematicidad
de la conducta, no la sistematicidad del pensamiento. Esta última propiedad
hace referencia a un hecho conceptual. No se trata de que no podamos encon­
trar organismos que posean capacidades mentales no sistemáticas (en el senti­
do de que falte la conexión intrínseca reclamada por Fodor y Pylyshyn), sino
que precisamente la ausencia de sistematicidad sería motivo suficiente para no
atribuir mente a tales entidades. En otras palabras, forma parte de nuestro
concepto de mente el hecho de que los pensamientos estén sistemáticamente
relacionados. Clark no niega que las causas internas (es decir, computaciona-
les) tengan relevancia constitutiva para el pensamiento, pero no ve la necesi­
dad de que se preserve una correspondencia 1:1 entre pensamientos y estados
computacionales. Ello se debe a que la individuación de los pensamientos de­
pende de otros factores (las conductas) cuya influencia es holística.
22 I Estar ahí

La adscripción de un determinado pensamiento a un agente, apunta


Clark, se hace en función de una amplia porción de la conducta del agente.
Supongamos que un organismo es capaz de responder a una determinada re­
lación entre dos objetos aRb (por ejemplo, a es más alto que b) pero no a bRa
(por ejemplo, un animal al que fuera posible entrenar para que respondiera
ante aRb, pero no ante bRa). De un hecho como éste no concluimos, argu­
menta Clark, que el organismo es capaz de pensar aRb e incapaz de pensar
bRa, sino más bien que «su patente incapacidad de tener un espectro de pen­
samientos que involucren a a, b y la relación mayor-que debería frustrar el
intento de adscribirle el pensamiento ‘a es mayor que b' en primera instan­
cia». (1989, pág. 147).
En Associative Engittes, la sistematicidad va a ser contemplada más bien
como una propiedad de determinados entornos. Se puede establecer un
contraste entre «la sistematicidad como algo impuesto en una criatura por
la forma básica de su arquitectura cognitiva y la sistematicidad como un ras­
go de uno o más dominios (esto es, como algo a aprender por parte de una
criatura a medida que intenta dar sentido a un conjunto de datos de entre­
namiento)». (1993, pág. 148). En un entorno sistemático existen patrones
recurrentes de estados de cosas, por ejemplo, individuos y propiedades aso­
ciados de maneras estables, que un mecanismo cuya capacidad básica es el
reconocimiento de patrones puede llegar a aprehender. Un entorno siste­
mático por excelencia lo constituye el lenguaje. Su sugerencia, por tanto, es
vincular las condiciones de aparición de la sistematicidad con las de la ad­
quisición de un lenguaje público estructurado sintácticamente. Pero el pro­
blema es, a sus ojos, tan intratable que recomienda ponerlo entre parénte­
sis mientras se investigan ulteriores métodos de procesamiento sensible a la
estructura.
La actividad de un organismo en su entorno pasa a un primerísimo pla­
no en Estar a h í, no sólo para la adscripción de estados mentales sino como
parte integrante de ellos. Desde el cognitivismo tradicional, la conducta
constituye una de las fuentes (o la principal) de evidencia acerca de las pro­
piedades y capacidades mentales. Pero lo mental propiamente dicho es algo
que interviene entre los estímulos (la entrada o input, en términos de proce­
samiento de información) y las respuestas (la salida o output). A diferencia
de esto, Clark va a proponer que la interacción cuerpo-mundo es constituti­
va de la mente. Esta posición podría parecer a primera vista un retorno al
conductismo de viejo cuño, para el cual no existe lo mental como elemento
explicativo ni ontológicamente sólido, sino tan sólo cadenas de estímulos y
respuestas observables. Pero la postura de Clark dista mucho de esta disolu­
ción de la mente que realiza el conductista. Muy al contrario, su intención es
extender lo mental, de modo que podamos abandonar la idea de una esfera
Prólogo I 23

desconectada de los avatares del cuerpo que realiza las acciones y del am­
biente en que éstas se llevan a cabo.
Esta extensión puede interpretarse en dos fases o momentos. El primero
tiene que ver con la metodología explicativa. Los constructos necesarios y su­
ficientes en una explicación cognitiva abarcan mucho más que los estados in­
ternos del sistema a explicar. No solamente se trata de que estos estados nos
sean ininteligibles e indetectables si no es desentrañando las condiciones ex­
ternas en que la acción del sistema se lleva a cabo; se trata de que la explica­
ción misma será radicalmente incompleta si no hacemos referencia a tales
condiciones. Esta ¡dea se encuentra ya plenamente presente en Associative
Engines y permite repensar desde la perspectiva conexionista una clase am­
plia de fenómenos mentales olvidados en buena medida por la ciencia cogni­
tiva. Se trata de los fenómenos relacionados con el desenvolvimiento de la
conducta en el tiempo, por ejemplo, todos aquellos implicados en el proceso
de desarrollo y cambio conceptual. Los análisis de la ciencia cognitiva al uso
(por ejemplo, Von Eckardt, 1993) dictaminan que su objeto de estudio típico
es la cognición adulta, normal y típica. Los estudios del desarrollo de las fun­
ciones mentales tienen sólo una función secundaria, en la medida en que ayu­
den a esclarecer el funcionamiento de una mente formada. Una desafortuna­
da consecuencia de este enfoque es la concepción de la mente como un
estadio «a alcanzar», una suerte de horizonte ideal cuyas bases constitutivas
es posible estudiar con independencia de su proceso de adquisición.
Los procesos de cambio en el tiempo forman, sin embargo, una parte
consustancial del estudio de la mente para Clark. En estos procesos el am­
biente interviene de una manera crucial. Una red neuronal no alcanza una
solución con igual facilidad (o incluso no la alcanza en absoluto) a partir de
distintos conjuntos de entrenamiento. La disposición y dosificación de la in­
formación a lo largo del aprendizaje puede ser crucial para que el sistema no
se asiente inicialmente en soluciones erróneas de las que es muy difícil ha­
cerle salir. Es preciso que la red discurra a través de una apropiada trayecto­
ria representacional de modo que acceda a las representaciones básicas en
primer lugar y aprenda las complejas una vez consolidadas las primeras. El
mundo proporciona lo que Clark denomina el andamiaje de esas trayecto­
rias, tema en el que Estar ah í va a ahondar. En otras palabras, el proceso de
desarrollo adquiere un perfil que no se debe tanto a la naturaleza del meca­
nismo de procesamiento interno, como a la naturaleza y disposición de los
datos con que se entrena al sistema. En la explicación de la sistematicidad
deben figurar, por tanto, parámetros relativos a la arquitectura y parámetros
relativos al proceso temporal de adquisición de propiedades del dominio. La
sistematicidad de las capacidades es consecuencia de este proceso de apren
dizaje.
24 I Estar ahí

Los aspectos temporales desempeñan un papel destacado en Estar ahí,


en un doble sentido. Primeramente, respecto a la necesidad de considerar las
conductas de los sistemas en tiempo real para calibrar los recursos que son
capaces de ofrecer respuestas eficientes rápidas; en segundo lugar, respecto
al desarrollo de dichas conductas eficientes tanto desde el punto de vista
evolutivo como ontogenético. Ello va a requerir nuevos instrumentos de aná­
lisis más apropiados para captar el despliegue de actividad en el tiempo. Uno
de estos instrumentos es la teoría matemática de sistemas dinámicos, a la
cual Clark presta detallada atención.
El segundo momento de esta extensión de lo mental va a ser ontológico,
esto es, se refiere a la propia naturaleza de la mente e implica difuminar los
confines que delimitan dónde acaba la mente y dónde comienza el entorno.
Lo mental se extiende hacia los dominios en los que actúa, de modo que
«gran parte de lo que identificamos como nuestras capacidades mentales en
realidad pueden ser propiedades de los sistemas más amplios, y extendidos
en el entorno, de los que los cerebros humanos mismos son sólo una parte
{importante)» (1997, pág. 214; esta edición, pág. 255). En la concepción clá­
sica, los estados mentales internos se relacionan con el mundo externo por
medio de mecanismos de transducción, es decir, dispositivos que transfor­
man la energía presente en un determinado medio (luz, sonido, etc.) en in­
formación manejable en un medio completamente distinto (por ejemplo, un
sistema de símbolos). En expresión de Pylyshyn (1984), la transducción
constituye «el puente entre lo físico y lo simbólico», o lo que es lo mismo,
entre lo no mental y lo mental. Esto permite contemplar los fenómenos cog-
nitivos como un coto cerrado que recibe información a partir de toda una se­
rie de periféricos y que realiza sus acciones a través de diferentes efectores.
Pero como señala Dennett (1996, pág. 74), la realidad biológica es que exis­
ten transductores y efectores prácticamente en cada esquina del organismo,
en los niveles mismos de las sinapsis neuronales o de las secreciones quími­
cas. La consecuencia es que lo externo y lo interno se entremezclan empe­
zando por nuestro propio cuerpo.
Clark comparte esta idea de indisolubilidad de la unión entre mente y
cuerpo, esto es, la idea de una mente esencialmente corporeizada (embodied).
Esta mente corpórea se encuentra además encajada o embebida (embedded)
en el mundo-en el que actúa. Las trayectorias representacionales, por tanto, no
tienen su principio y fin dentro de la organización interna, sino que los mismos
elementos del ambiente que proporcionan el andamiaje pueden verse como
parte integrante de la trayectpria. La unidad de estudio, en consecuencia, ya
no serán las transiciones de estado internas, sino que abarca las interacciones
con el entorno, en las cuales dichas transiciones son un componente posible­
mente mucho más pequeño que lo sospechado en el enfoque clásico.
Prólogo I 25

En resumidas cuentas, el caso de la sistematicidad muestra cómo cambiar


la forma de un problema al reconceptualizar como externa una propiedad
que inicialmente se atribuye a la arquitectura interna. Si la sistematicidad es
una propiedad del dominio externo con el que interacciona un agente y lo
mental se extiende hacia lo externo, entonces toda explicación de la sistema­
ticidad debe incluir los procesos que se realizan en esa interacción entre agen
te y entorno. Los requisitos de estructura de constituyentes y procesos sensi­
bles a dicha estructura no tienen por qué demandar una arquitectura clásica
dentro del agente, toda vez que podemos incluir estructuras del ambiente y
procesos sensibles a dichas estructuras dentro de nuestras explicaciones cog-
nitivas. Esto permite al conexionista esquivar el dilema de Fodor y Pylyshyn:
la arquitectura cognitiva puede seguir siendo fundamentalmente un sistema
PDP siempre y cuando podamos explicar los procesos de interacción que
permiten que un sistema de reconocimiento de patrones explote la estructu­
ra sistemática que el mundo le proporciona.
Para los detractores del enfoque conexionista, éste puede parecer un
caso paradigmático de cómo hacer de la necesidad virtud, puesto que es la
propia carencia de la estructura interna necesaria en las redes neuronales lo
que empuja al teórico a buscar una solución (descabellada, para el clásico)
extendida en el entorno. Probablemente, como el mismo Clark señala, no
sea posible solucionar la disputa en ausencia de ulteriores trabajos empíri­
cos, trabajos que muestren si es posible o no dar cuenta de funciones men­
tales complejas partiendo de un dispositivo básico de reconocimiento de pa­
trones y un ambiente estructurado. Pero el mensaje de fondo es claro:
independientemente de la forma que la arquitectura de la mente acabe por
tener, es bien posible que debamos aligerar el tipo de representaciones in­
ternas que el organismo precisa.

Representación sin textos

El desarrollo de la inteligencia artificial (IA) se puede organizar en tomo


a tres grandes debates (Franklin, 1995). El primero tendría que ver con la
posibilidad misma de existencia de la disciplina, esto es, de la validez tanto
de la metáfora del ordenador como de los supuestos filosóficos y metodoló­
gicos de la IA para proporcionar una comprensión satisfactoria de los fenó­
menos mentales. El segundo debate sería la polémica simbólico-conexionis-
ta. El tercer debate se centraría en la cuestión de las representaciones y en él
se ven inmersas tanto la IA como la ciencia cognitiva en general. Aunque no
puede decirse que los dos primeros debates se hayan disipado por completo
ni tampoco que ninguno de ellos haya alcanzado una solución satisfactoria,
26 I Estar ahí

el más acuciante en el momento presente es el debate sobre la represen­


tación.
Es un tema común de la filosofía de la mente hablar de la intencionalidad
como una de las propiedades cruciales de los fenómenos mentales. Estados
tales como percepciones, creencias o deseos tienen la característica de estar
«dirigidos hacia», de tener un contenido que se refiere a algún otro aspecto
de la realidad o incluso a lo inexistente. Si veo un gato, creo que mañana será
martes o deseo que vengan los Reyes Magos, mis estados mentales apuntan
hacia objetos y estados de cosas que son el objeto de mis pensamientos. Es
un problema filosófico y cognitivo de primer orden elucidar cómo es posible
que lo mental exhiba esta propiedad. La representación constituye el mo­
derno ensayo de una solución a este problema. Aunque hay muchas nocio­
nes de representación, podemos decir que en términos generales implica la
idea de una entidad que sustituye o «está pOD> otra, a la cual se refiere o de­
nota. La idea de representación resulta más clara en los sistemas de repre­
sentación externos, como las palabras y los dibujos, así que no es extraño
que las teorías acerca de la representación interna hayan tomado a menudo
como modelo esos otros sistemas.
Desde la aparición de E l lenguaje del pensam iento (Fodor, 1975) la
teoría representacional de la mente se ha presentado como «el único jue­
go en la ciudad». Los argumentos a favor de las representaciones estruc­
turadas como elemento explicativo ineludible de los fenómenos cogniti-
vos siempre han añadido como colofón la coletilla «({alguien tiene algo
m ejor?». En consecuencia, el rechazo categórico a las representaciones
tiene un aire de bravata, de mera estratagema por parte del aparato de
propaganda de unos científicos deseosos de llamar la atención sobre su
trabajo pero que «en el fondo» saben que el estudio de la mente no pue­
de prescindir de ellas en casi todos los ámbitos de interés. El empleo de
nuevas herramientas descriptivas no ligadas al vocabulario representacio­
nal, como las de la teoría de sistemas dinámicos, puede funcionar para
una gama de fenómenos de bajo nivel, como deambular o evitar obstácu­
los. Pero cuando se trata de dar cuenta de las capacidades del sistema que
responden a las propiedades sem ánticas del entorno, las representaciones
se hacen ineludibles. Así, cuando se trata de que el sistema distinga ‘pa­
red’ como algo bien distinto de ‘suelo’, y no como un mero conjunto de
estímulos ante los que reaccionar, nos enfrentamos al problema de dotar
al agente de una estructura conceptual. Uno de los aspectos claves de la IA
clásica consiste en elegir la conceptualización adecuada para la resolución
del problema dentro de un dominio determinado. Esto supone desarrollar
el tipo de representación más acorde para representar los aspectos esen­
ciales de dicho dominio.
Prólogo I 27

La crítica de muchos partidarios del enfoque dinámico es que las con-


ceptualizaciones intentan resolver el problema abarrotando los modelos
mentales de detalles del mundo que no requieren ser representados. El clá­
sico malgasta recursos computacionales en dotar a su sistema de una fuerza
expresiva (por ejemplo, por medio de lógicas cada vez más potentes) que es
en el mejor de los casos innecesaria y, en el peor, un auténtico obstáculo en
la resolución de problemas. En consecuencia, es preferible abandonar la no­
ción de representación y sustituirla por la de un sistema acoplado con el
mundo, que toma de éste los elementos necesarios en el momento en que los
precisa, sin necesidad de representarlos internamente.
El problema es cómo mantener la idea de representación recogiendo a
un tiempo lo que tienen de cierto las críticas dinámicas. En Associative En-
gines Clark no duda de que cualquier inteligencia que merezca la pena va a
requerir el concurso de lo conceptual, pero descarta la visión clásica de los
conceptos como «sólidos mentales» (1993, cap. 1} que se transparentan des­
de las entidades que identificamos en el habla ordinaria hasta los estados in­
ternos responsables causalmente de nuestros pensamientos y acciones. En su
lugar, los conceptos podrían tener un carácter mucho más activo, relaciona­
do con la capacidad de poner en práctica diversas habilidades. Poseer y em­
plear un concepto podría ser en el fondo una acción de reconocer o com­
pletar un patrón y la naturaleza exacta del proceso computacional que
subyace en este reconocimiento no tiene por qué mantenerse invariable a lo
largo de todas las apariciones del concepto. De hecho, el propio carácter
inestable de los conceptos desaconseja este postulado. El rechazo de la soli­
dificación de los conceptos es congruente con críticas desde dentro de la IA,
que sugieren que la división tradicional entre percepción y cognición es in­
sostenible para poder hablar de conceptos fluidos (por ejemplo, Hofstadter
y otros, 1995).
El antirrepresentacionalista yerra el tiro porque apunta al blanco equi­
vocado. Como señala Cummins (1989), es posible distinguir entre el proble­
ma de la representación y el problema de las representaciones. El primero
hace referencia a qué es lo que hace que representar sea posible, cuál es la
fuente de la representacionalidad, y el segundo a qué caracterización pre­
sentan los estados y procesos representacionales. La solución de Clark pue­
de entenderse como una reorientación de los ataques del andrrepresentacio-
nalismo desde el primero al segundo problema. Lo que los críticos esgrimen
como un ataque frontal contra la noción misma de representación resulta
ser, si lo observamos bien, un ataque contra las representaciones, esto es,
contra una de las respuestas ofrecidas a la pregunta por la naturaleza de esos
correlatos mentales de la realidad: una respuesta creada a imagen y semejan­
za de los textos lingüísticos, cuyas representaciones exhiben propiedades de
28 I Estar ahí

tipo lógico-sintáctico. Si en A ssoáative Engtnes Clark propone sustituir la


imagen clásica de la mente como texto por la imagen de la mente como pro­
cero, en Estar ah iva a permitir que ese proceso abarque más que los sucesos
con base cerebral, permitiendo al teórico dinámico entrar en el juego expli­
cativo. No obstante, el texto no desaparece del todo: el lenguaje público pro­
porciona a la mente todos los recursos textuales que necesita un dispositivo
de reconocimiento de patrones. No es preciso moldear las características
computacionales de éste en términos cuasiíingüísticos, puesto que el mismo
lenguaje es capaz de adaptarse de modo inverso a un mecanismo que fue se­
leccionado por demandas ambientales bien distintas.

Conclusión: ¿un nuevo paradigma?

Desde que el filósofo Thomas Kuhn caracterizara el desarrollo de una


ciencia en términos de paradigmas, marcos normativos que se constituyen en
un proceso histórico y que pueden desaparecer tras un proceso de ciencia re
volucionaria, da la impresión de que el sueño de todo científico cognitivo
que tiene entre sus manos alguna nueva herramienta o teoría es el de con­
vertirla en la base de un nuevo paradigma para el estudio de la mente. Una
idea tentadora, por tanto, es calificar la imagen de la mente corpórea y em­
bebida como un nuevo paradigma. Sin embargo, una de las lecciones, a mi
entender, del trabajo de Clark es que no debemos apresurarnos a rechazar el
bagaje conceptual con el que contamos antes de considerar las posibilidades
de una revisión menos traumática.
La visión de la ciencia cognitiva que Clark presenta en Estar ah í puede
calificarse, al igual que su trabajo sobre el conexionismo, de «razonadamen­
te ecléctica». No es el de Clark el único enfoque que conjuga una perspecti­
va favorable a los mecanismos conexionistas con una lectura desde la teoría
de sistemas dinámicos (tal es, por ejemplo, la visión de Horgan y Tienson
[1996], para quienes las matemáticas de los sistemas dinámicos constituyen
un marco que engloba el computacionalismo tradicional como un caso es­
pecial). Ni es tampoco el único en intentar tender puentes entre disciplinas
que trabajan en distintos niveles (como es el caso de Hardcastle [1996], que
desarrolla yna idea de teoría cognitiva que cruza desde lo biológico hasta lo
psicológico). Pero el rango de dominios empíricos que recorre y el esfuerzo
integrador de todos ellos en una visión coherente es de mayor calado. La
ciencia cognitiva es una amalgama de disciplinas que se disputan el papel
vertebrador y Clark está dispuesto a admitir un heterogéneo cúmulo de tra­
bajos como parte integrante del estudio de la mente, no sólo como investi­
gaciones situadas en los márgenes de la tradición dominante y conspirando
Prólogo I 29

contra ésta. Una de las riquezas de Estar ahí es e! modo en que dirige nues­
tra atención hacia pautas generales y motivos básicos que aparecen de modo
recurrente en los ámbitos y niveles más insospechados. Así, podemos pre­
senciar la influencia de las restricciones impuestas por la disposición parti
cular del ambiente tanto si este ambiente consiste en un nicho ecológico, en
un entramado de leyes económicas o en la presencia perenne del lenguaje.
Confieso que mis propias intuiciones divergen respecto a algunas de las
consecuencias que se desprenden de esta visión de la mente. Por ejemplo, la
imagen del lenguaje como sistema representacional externo sometido a una
adaptación inversa a los recursos computacionales de la mente parece des­
conectar en demasía los productos lingüísticos de los propios organismos
productores, desatendiendo las características de organización interna que
permiten que una mente cree un lenguaje en primer lugar. Igualmente, mien­
tras como metáfora me parece sugerente la concepción de una mente que se
filtra y extiende hacia el entorno próximo, como tesis ontológica me resulta
difícil de aceptar. Pero son tantas las intuiciones ordinarias que la moderna
ciencia de la mente ha hecho añicos, que no parece conveniente rechazar in­
cluso estas conjeturas aparentemente extemporáneas sin someterlas primero
al mas severo escrutinio, tanto en sus aspectos conceptuales como empíricos.
Los conceptos clave de este libro también exigen un esfuerzo de acomo­
dación por parte del lector acostumbrado al punto de vista de la ciencia cog-
nitiva más clásica. Le solicita que abandone su propia actitud mental centra-
lizadora de buscar en alguna parte del libro la explicación o el conjunto de
elegantes ecuaciones definitivas que da sentido a la totalidad; que sea pa­
ciente mientras ve emerger entre la barabúnda de insectos artificiales y mun­
dos simulados un patrón común que sus dispositivos de reconocimiento de­
ben ir entrenándose para captar; y que adapte su propia mirada al ritmo de
la dinámica interna de la ciencia cognitiva que, como cualquier otro sistema
vivo, también se desarrolla en el tiempo y obedece a la interacción de una
miríada de mentes activas y mundos (reales y simulados) estructurados.

Referencias

Clark, A., Microcognilion: Philosophy, CognitiveScience and Parallel Distributed Pro­


cessing, Cambridge, MA: MIT Press, 1989.
Clark, A., Associative Engines: Conncctionism, Concep/s and Representational Chan­
ga, Cambridge, MA: MIT Press, 1993.
Clark, A., Being There; Putting Brain, Body, and World Togelher Again, Cambridge,
MA: MIT Press, 1997.
Cummins, R., Meaning and Mental Representalion, Cambridge, MA: MIT Press,
1989.
30 1 Estar ahí

Dennett, D. C., Kittdsof Minds, Nueva York, Basic Books, 1996.


Fodor, J. A., The Language o f Thought, Nueva York, Crowell, 1975 (trac!. cast.:E/
lenguaje del pensamiento, Madrid, Alianza, 1984)
Fodor, J. A., The Modularity o f Miad, Cambridge, MA: Bradford/MIT Press, 1983
(trad. cast.:L/ modularidadde la mente, Madrid, Morata, 1986).
Fodor, J. A. & Pylyshyn, Z. \V„ «Connectionism and Cognitive Architecture: A Cri-
tical Analysis», Cognition, 28, 1988, págs. 3-71.
Franklin, S., Artificial Minds, Cambridge, MA: Bradford/MIT Press, 1995.
Gardner, H., The Mind's New Science, Nueva York, Basic Books, 1985 (trad. cast.:Lt
nueva ciencia de la mente Barcelona, Paidós, 1988).
Hardcastle, V. G., How to Build a Theory in Cognitive Science, Albany, Nueva York,
State University of New York Press, 1996.
Hofstadter, D. and the Fluid Analogies Research Group, Fluid Concepts and Creati­
ve Analogies, Nueva York, Basic Books, 1995.
Horgan, T. & Ticnson, J., Connectionism and the Phtlosophy o f Psychology, Cam­
bridge, MA: MIT Press,1996.
Pylyshyn, Z. W., Computation and Cognition Cambridge, MA: Bradford/MIT Press,
1984 (trad. cast.: Computación y conocimiento, Madrid, Debate, 1988).
Smolensky, P., «On the Proper Treatment of Connectionism», Behavioral and Brain
Sciences, 1 1 ,1988, págs. 1-23.
Van Gelder, T„ «Compositionality: A Connectionist Variation on a Classical The-
me», Cognitive Science, 14, 1990, págs. 355-384.
Von Eckardt, B., What Is Cognitive Science '■>,Cambridge, MA: MIT Press, 1993.
Prefacio

Pensar a fondo o actuar con fluidez

Si tuviera el lector que construir un agente inteligente, ¿por dónde empeza­


ría? ¿Qué cree que es ese algo especial que separa el mundo no pensante de las
rocas, las cascadas y los volcanes, de los reinos de la inteligencia sensible? ¿Qué
es lo que permite que algunas partes del orden natural sobrevivan percibiendo
y actuando, mientras el resto se queda al margen, inerte y sin pensamiento?
«Mente», «intelecto», «ideas»: éstos son los elementos que marcan la dife­
rencia. Pero, ¿cómo los debemos entender? Estas palabras evocan reinos nebu­
losos. Hablamos de «intelecto puro» y decimos del sabio que está «sumido en el
pensamiento». Nos cuesta muy poco dejarmos seducir por la visión de Descar­
tes de la mente como una esfera totalmente distinta de los reinos del cuerpo y el
mundo.1Una esfera cuya esencia no debe nada a los accidentes del cuerpo y del
entorno: el famoso (en lo bueno y en lo malo) «fantasma en la máquina».12
Esta extrema oposición entre mente y materia ya hace tiempo que ha sido
abandonada. En su lugar nos encontramos con una amplia coalición de cien­
cias de la mente cuya meta común es llegar a comprender cómo es material­
mente posible el pensamiento mismo. Esta coalición recibe el nombre de
ciencia cogniíiva y durante más de treinta años los modelos computacionales
de la mente han estado entre sus instrumentos más importantes. Teorizando

1. Descartes describió la mente como una sustancia inmaterial que se comunicaba con el
cuerpo mediante la interfaz de la glándula pineal. Véanse, por ejemplo, Meditations II y IV en
The Philosophical Works o f Descartes, Cambridge University Press, 1991 (trad. cast.: Medita­
ciones metafísicas, Madrid, Alfaguara, 1997).
2. Véase Gilbert Ryle, The Coneept o/Mmd, Hutdiinson, 1949 (trad. cast.: El concepto de
lo mental, Buenos Aires, Paidós, 1967).
32 I Estar ahi

en el vértice entre la ciencia ficción y la ingeniería pura y dura, las personas


que trabajan en un subcampo conocido como inteligencia artificial (IA)’ han
tratado de dar un cuerpo computational a las ideas sobre cómo puede surgir
la mente a partir del funcionamiento de una máquina física que, en nuestro
caso, es el cerebro. Como dijo Aaron Sloman en una ocasión, «Todo fantas­
ma inteligente debe contener una máquina».345Según parece, el cerebro hu­
mano es el puntal mecanicista de la mente humana. Cuando la evolución
produjo cerebros complejos, cuerpos móviles y sistemas nerviosos, abrió la
puerta (por medios puramente físicos) a maneras totalmente nuevas de vivir
y de adaptarse, maneras que nos colocan en un lado de una línea divisoria
natural, dejando en el otro a los volcanes, las cascadas y el resto de la crea­
ción cognitivamente inerte.
Pero, a pesar de todo, persiste una versión de la antigua oposición entre
mente y materia. Persiste en la manera en que estudiamos el cerebro y la
mente, excluyendo como «periféricos» los papeles desempeñados por el res­
to del cuerpo y el entorno local. Persiste en la tradición de modelar la inteli­
gencia como la producción de soluciones codificadas simbólicamente a pro­
blemas expresados mediante símbolos. Persiste en la falta de atención a las
maneras en que el cuerpo y el entorno local forman parte, literalmente, de
los bucles de procesamiento que ocasionan la acción inteligente. Y persiste
en la elección de los dominios de problemas: por ejemplo, modelamos el jue­
go del ajedrez mediante programas como Deep Thought1 cuando aún no he­
mos podido conseguir que un robot real atraviese con éxito una sala abarro­
tada y seguimos sin poder modelar completamente el éxito adaptativo de
una cucaracha.
En el contexto natural del cuerpo y el mundo, las maneras en que los ce
rebros resuelven problemas se transforman radicalmente. No se trata de una
cuestión filosófica profunda (aunque tiene profundas consecuencias). Es
una cuestión práctica. Jim Nevíns, que trabaja en una planta de montaje con­
trolada por ordenador, cita un buen ejemplo. Ante el problema de conseguir
que una máquina controlada por ordenador ensamble unos componentes
con extrema precisión, una solución consiste en explotar múltiples bucles de

3. La inteligencia artificial estudia cómo hacer que los ordenadores realicen tareas para
las que se considera que hace falta inteligencia, conocimiento o comprensión.
4. Sloman, «Notes on consciousness». /USB Quarterly 72 (1990), págs. 8-14.
5. Deep Thought (‘Pensamiento Profundo’) es un programa de ajedrez que juega al nivel de
gran maestro. Se basa en una búsqueda exhaustiva que examina cerca de un millardo de movi­
mientos posibles por segundo. En cambio, los expertos humanos en ajedrez parecen emplear me
nos la búsqueda y basarse más en estilos de razonamiento muy diferentes; véase, por ejemplo, H.
Simón and K. Gilmartin, «A simulation of memory for chess positions», Cognitive Psycbology 5
(1973), págs. 29-46.
Prefacio I 33

retroalímentación. Estos bucles pueden decir al ordenador si ha fracasado


en el ajuste para que lo intente otra vez con una orientación ligeramente di­
ferente. Esta es, si se quiere, la solución formulada mediante «pensamiento
puro». La solución basada en el «pensamiento corpóreo» es bastante dife­
rente. Basta con armar los brazos de la máquina de montaje con articulacio­
nes de goma, permitiendo que cedan a lo largo de dos ejes espaciales. Una
vez hecho esto, el ordenador puede prescindir de los detallados bucles de re-
troalimentación ya que las piezas «se mueven y deslizan hasta su lugar como
si se estuvieran calculando continuamente millones de minúsculos ajustes de
retroalímentación hacia un sistema rígido».* En esencia, todo esto significa
que tratar la cognición como una pura resolución de problemas equivale a
separarnos del mismísimo cuerpo y el mismísimo mundo en los que nuestros
cerebros han evolucionado para guiarnos.
¿N o sería más fructífero pensar en los cerebros como controladores de la
actividad corpórea? Este pequeño cambio de perspectiva tiene grandes con­
secuencias para nuestra manera de construir una ciencia de la mente. De he­
cho, exige una reforma radical de nuestra manera de concebir la conducta
inteligente. Nos exige abandonar la idea (común desde Descartes) de lo
mental como una esfera distinta del ámbito del cuerpo; abandonar la idea de
unas limpias líneas divisorias entre percepción, cognición y acción;67 abando­
nar la ¡dea de un centro ejecutivo donde el cerebro lleva a cabo el razona­
miento de alto nivel;8 y, sobre todo, abandonar los métodos de investigación
que separan artificialmente el pensamiento de la actuación corpórea.
Lo que emerge es nada menos que una nueva ciencia de la mente; una
ciencia que, por cierto, se basa en los frutos de tres décadas de investigación
en colaboración, pero cuyos instrumentos y modelos son sorprendentemen­
te diferentes: una ciencia cognitiva de la mente corpórea. Este libro da testi­
monio de esta ciencia. Describe parte de sus orígenes, expone su sabor y
hace frente a algunos de sus problemas. Seguramente no será la última cien­
cia nueva de la mente. Pero es un paso más en ese viaje tan fascinante de la
mente en su intento de conocerse a sí misma y de comprender cuál es su lu­
gar en la naturaleza.

6. Este ejemplo se cita en Michie yjohnson, 198-1 y se comunica en Clark, 1989. El pasa­
je en sí procede de la pág. 95 de Michic yjohnson.
7. La expresión existente más clara de este punto de vista es probablemente el «marco de
enacción» desarrollado en Varela y otros, 1991
8. Véase especialmente Dcnnctt, 1991
Bases

Estar ah í no ha surgido de la nada. La imagen de la mente unida inex­


tricablemente a cuerpo, mundo y acción, ya visible en Being and Time de
Martin Heidegger (1927), encuentra una clara expresión en Structure ofbe-
havior, de Maurice Merleau-Ponty (1942). Algunos de los temas fundamen­
tales están presentes en el trabajo de los psicólogos soviéticos, especialmen­
te de Lev Vygotsky; otros deben mucho al trabajo de Jean Piaget sobre el
papel de la acción en el desarrollo cognitivo. Entre las discusiones previas
en la literatura de la ciencia cognitiva, destacan por su importancia e in­
fluencia Maturana y Vareta, 1987, Winograd y Flores, 1986 y, especialmen­
te, The Embodied Mind (Varela y otros, 1991). The Embodied Mind se en­
cuentra directamente en las raíces de varias de las tendencias identificadas y
estudiadas en esta obra.
Creo que mi propio contacto con estas tendencias empezó con la obra de
Hubert Dreyfus What Computen Can't Do, publicada en 1979. El persisten­
te acoso de Dreyfus a la inteligencia artificial clásica contribuyó a motivar
mis propias exploraciones de modelos computadonales alternativos {los en­
foques del conexionismo o del procesamiento distribuido en paralelo; véan­
se Clark, 1989 y Clark, 1993) y a consolidar mi interés en imágenes biológi­
camente plausibles de la mente y la cognición. Di mis primeros pasos en
1987 con un breve artículo también titulado (y no por coincidencia) «Being
There» [Estar ahí], donde el tema explícito de la discusión era la cognición
corpórea y embebida en el entorno. Desde entonces, el conexionismo, la
neurociencia y la robótíca en mundo real han hecho unos grandes progresos.
Y aquí, especialmente en la explosión de la investigación en la robótica y en
la denominada vida artificial (véanse, por ejemplo, los artículos de Brooks y
Maes, 1994), encontramos por fin el impulso más inmediato de la presente
discusión. Por fin (me parece a mí) aparece una imagen más redonda, con-
36 I Estar ahi

víncente e integradora, que reúne muchos de los elementos de las discusio­


nes previas en un marco de referencia rico en ilustraciones prácticas y ejem
píos concretos. Esta imagen, más amplia e integradora, es la que aquí me
propongo exponer y examinar.
La postura que desarrollo debe mucho a varios autores y amigos. Sin
duda alguna, en el primer lugar de la lista se encuentran Paul Churchland y
Dan Dennett, cuyas reconstrucciones cuidadosas y al mismo tiempo imagina­
tivas de la mente y la cognición han sido la inspiración constante que subya­
ce a todo mi trabajo. Más recientemente, he aprendido mucho en mis inte­
racciones y conversaciones con los especialistas en robótica Rodney Brooks,
Randall Beer, Tim Smithers y John Hallam. También me han informado, en­
tusiasmado y desafiado varios fans de la teoría de los sistemas dinámicos, en
particular Tim van Gelder, Linda Smith, Esther Thelen y Michael Wheeíer.
Además, hay varios miembros del Sussex University Evolutionary Robotics
Group que me han inspirado, enfurecido y siempre fascinado, especialmen­
te Dave Cliff e Inman Harvey.
Un agradecimiento muy especial a Bill Bechtel, Morten Christiansen,
David Chalmers, Keith Butler, Rick Grush, Tim Lañe, Pete Mandik, Rob
Stufflebeam y a todos mis amigos, colegas y estudiantes del programa PNP
(Philosophy/Neuroscience/Psychology) de la Universidad de Washington en
St. Louis. También aquí tuve la buena fortuna de conocer a Dave Hilditch,
cuyos pacientes intentos de integrar las visiones de Merleau Ponty con la
ciencia cognitiva contemporánea fueron fuente de alegría e inspiración. Gra­
cias también a Roger Gibson, Larry May, Marilyn Friedman y Mark Rollins,
así como a todos los miembros del Departamento de Filosofía de la Univer­
sidad de Washington por su inestimable ayuda, apoyo y crítica.
David van Essen, Charlie Anderson y Tom Thach, de la Escuela Médica
de la Universidad de Washington, merecen un agradecimiento especial por
introducirme en el funcionamiento de la auténtica neurociencía, aunque pre­
cisamente aquí la expresión de mi agradecimiento no debe implicar culpa al­
guna por cualquier vestigio de error o malentendido. Doug North, Art Den-
zau, Norman Schofield y John Drobak hicieron mucho por aligerar y alentar
la breve incursión en la teoría económica que aparece en el capítulo 9: gra­
cias también a los miembros del Hoover Institute Seminar on Collective
Choice de la Universidad de Stanford. No debería olvidarme de mi gato,
Lolo, que mantenía las cosas en su verdadera dimensión sentándose sobre
muchas versiones del manuscrito, ni del Santa Fe Institute, que me ofreció
tiempo de investigación y Reacciones críticas básica en varios momentos cru­
ciales: gracias especialmente a David Lañe, Brian Arthur, Chris Langton y
Melanie Mitchell por hacer que mis diversas estancias allí fueran tan pro­
ductivas. Gracias también a Paul Bethge, Jerry Weinstein, Betty Stanton y al
Bases I 37

resto del personal de The MIT Press: vuestro apoyo, consejo y entusiasmo
me han ayudado enormemente. Beth Stufflebeam me proporcionó una fan­
tástica ayuda durante la preparación del manuscrito. Y Josefa Toribio, mi es­
posa y colega, me ha ofrecido una combinación perfecta de crítica, apoyo e
inspiración. Mi más sincero agradecimiento a todos.
Introducción:
un automóvil con cerebro de cucaracha

¿Dónde están las mentes artificiales prometidas por la ciencia ficción de


los años cincuenta y el periodismo científico de los sesenta? ¿Por qué inclu­
so nuestros mejores artefactos «inteligentes» son aún tan insoportable y
mortalmente tontos? Una posibilidad es que, sencillamente, hemos malin-
terpretado la naturaleza de la inteligencia misma. Concebíamos la mente
como una especie de dispositivo de razonamiento lógico asociado a un al­
macén de datos explícitos: una especie de combinación entre una máquina
lógica y un archivador. Al adoptar esta perspectiva, desatendíamos el hecho
de que las mentes han evolucionado para hacer que ocurran cosas. Desaten­
díamos el hecho de que la mente biológica es, antes que nada, un órgano
para controlar el cuerpo biológico. Las mentes hacen movimientos y los de­
ben hacer con rapidez: antes de que el depredador nos pille o de que nues­
tra presa consiga escapar. Las mentes no son dispositivos incorpóreos de ra­
zonamiento lógico,
Este simple cambio de perspectiva ha generado algunos de los trabajos
más apasionantes e innovadores en el estudio contemporáneo de la mente.
La investigación de modelos computacionales basados en «redes neurona-
íes» ha empezado a desarrollar una visión radicalmente diferente de la es­
tructura computacional de la mente. La investigación en la neurociencia cog-
nitiva ha empezado a sacar a la luz las maneras, siempre sorprendentes, con
que los cerebros reales emplean sus recursos neuronales y sinápticos para re­
solver problemas. Y una oleada creciente de trabajos sobre robótica simple
y en mundo real (por ejemplo, conseguir que una cucaracha robot camine,
busque alimento y evite peligros) nos enseña cómo pueden los seres biológi­
cos llevar a cabo en el mundo real las acciones rápidas y fluidas necesarias
para la supervivencia. Donde convergen estas investigaciones vislumbramos
una nueva visión de la naturaleza de la cognición biológica: una visión que
40 I Estar ahí

coloca el almacenamiento de datos explícitos y la manipulación lógica en su


lugar, es decir, como complemento secundario de la dinámica y los comple­
jos bucles de respuesta que unen entre sí cerebros, cuerpos y entornos rea­
les. Al parecer, la cognición natural no tiene tiempo (literalmente) para ar­
chivadores.
Naturalmente, no todo el mundo está de acuerdo. Un ejemplo extremo
del punto de vista opuesto es un reciente intento de inculcar el sentido co­
mún a un ordenador, previa inversión de 50 millones de dólares, dándole
una inmensa colección de conocimientos explícitos. Este proyecto, conoci­
do como CYC (abreviatura de encyclopedia), pretende construir manual­
mente una vasta base de conocimientos que abarque una parte importante
del conocimiento general que tiene a su disposición un ser humano adulto.
Iniciado en 1984, el proyecto CYC se propuso llegar a codificar cerca de un
millón de unidades de conocimiento hacia 1994. Para introducir los datos de
este proyecto, una sola persona tardaría dos siglos. Se esperaba que al final
de este proceso CYC daría «el gran salto»: llegaría a un punto en el que po­
dría leer y asimilar directamente textos escritos y, a partir de ahí, «autopro-
graman> el resto de su base de conocimientos.
Desde mi punto de vista, el aspecto más notable del proyecto CYC es su
fe extrema en el poder de la representación simbólica explícita: su fe en la in­
teriorización de estructuras construidas a imagen de las cadenas de palabras
de un lenguaje público. El lenguaje de representación del proyecto CYC co­
difica la información en unidades (marcos) como la siguiente:

Missouri
Capital: (Jefferson City)
Residentes: (Andy, Pepa, Beth)
Estado de: (Estados Unidos de América)

Aunque este ejemplo está simplificado, la estructura básica siempre es la


misma. La unidad tiene «descripciones» «ranuras» (los tres subtítulos de
arriba) y cada ranura tiene como valor una lista de entidades. Las ranuras
pueden hacer referencia a otras unidades (por ejemplo, la ranura «Residen­
tes» puede actuar como un puntero hacia otra unidad que contenga más in­
formación y así sucesivamente). Este sistema de unidades y ranuras está au­
mentado por un lenguaje más potente (el lenguaje de restricción CycL,
[CYC Constraint langtiage]) que permite la expresión de relaciones lógicas
más complejas como «Para, todo elemento, si un elemento es X entonces tie­
ne la propiedad Y». El razonamiento de CYC también puede explotar varios
tipos simples de inferencia. Sin embargo, la idea básica es dejar que el cono­
cimiento codificado haga casi todo el trabajo y mantener la estructura de in­
Introducción: un automóvil con cerebro de cucaracha I 41

ferencia y control simple y dentro de los límites de la tecnología actual. Los


creadores de CYC, Douglas Lenat y Edward Feigenbaum (1992, pág. 192),
argumentan que el embudo para la inteligencia adaptativa es el conocimien­
to, no la inferencia o el control.
La base de conocimientos de CYC intenta hacer explícito todo lo que sa­
bemos de nuestro mundo pero que normalmente no nos molestamos en decir.
Por tanto, CYC se propone codificar unidades de conocimiento que todos te­
nemos pero que rara vez enumeramos, como las siguientes (ibíd., pág. 197):

La mayoría de los automóviles de hoy circulan sobre cuatro ruedas.


Si nos dormimos mientras conducimos, nuestro automóvil no tardará mucho
en salirse de la calzada.
Si hay algo grande entre nosotros y lo que queremos, probablemente debe­
remos rodearlo.

La idea es que, después de haber codificado explícitamente una gran


parte de este «conocimiento consensuado de la realidad», CYC llegará a un
nivel de comprensión que le permitirá responder con una inteligencia ge-
nuina. Incluso se espera que CYC emplee el razonamiento analógico para
abordar con buen criterio situaciones novedosas, encontrando paralelismos
parciales en otras partes de su inmensa base de conocimientos.
CYC es un proyecto ambicioso e importante. Sin duda, la base de datos
de sentido común que ahora codifica será de gran utilidad práctica como re­
curso para el desarrollo de mejores sistemas expertos. Pero deberíamos dis­
tinguir dos objetivos posibles para CYC. Uno sería ofrecer el mejor simulacro
posible del sentido común mediante un sistema informático fundamental­
mente no pensante. El otro sería crear, a partir del fondo de conocimientos
de CYC, el primer ejemplo de una mente artificial genuina.
Hasta la fecha, en el rendimiento de CYC no hay nada que indique que
el segundo objetivo esté al caer. CYC parece destinado a convertirse en un
«sistema experto» más grande y más elaborado, pero todavía esencialmen­
te frágil y falto de entendimiento. Y el hecho de añadir más y más conoci­
mientos a CYC no será una solución. La razón es que CYC carece de los ti­
pos más básicos de respuestas de adaptación al entorno. Esta deficiencia no
tiene nada que ver con la relativa escasez de los conocimientos que el siste­
ma codifica explícitamente. Más bien es atribuible a la falta de un acopla­
miento fluido entre el sistema y un entorno real que plantee problemas rea­
les de acción y sensación. Como veremos, incluso la humilde cucaracha
manifiesta este tipo de acoplamiento fluido: una versión del tipo de inteli­
gencia práctica, sólida y flexible de la que carecen casi todos los sistemas in­
formáticos. ¡Pero un ser tan sencillo mal puede ser acusado de contar con
42 I Estar ahí

un gran almacén de conocimientos representados explícitamente! Por tan­


to, el proyecto CYC, entendido como un intento de crear una comprensión
y una inteligencia genuinas en una máquina, falla por su base de una mane­
ra rotunda y total. Las raíces de la inteligencia y la comprensión no se en­
cuentran en la presencia y la manipulación de estructuras de datos explíci­
tas y de tipo lingüístico, sino en algo más terrenal: el ajuste de respuestas
básicas a un mundo real que permite a un organismo corpóreo sentir, actuar
y sobrevivir.
Este diagnóstico no es nuevo. Importantes críticos filosóficos de la inte­
ligencia artificial han puesto en duda durante mucho tiempo el intento de in
ducir la inteligencia por medio de la manipulación incorpórea de símbolos y
también han insistido en la importancia de! razonamiento situado (es decir,
del razonamiento llevado a cabo por seres corpóreos que actúan en un en­
torno físico real). Pero ha sido demasiado fácil atribuir estas incertidumbres
a algún tipo de misticismo residual, a una fe carente de rigor científico en
una esencia mental parecida al alma, o a un rechazo testarudo a permitir que
la ciencia entre sin autorización en el terreno favorito de los filósofos. Pero
ahora, cada vez es más evidente que la alternativa a la visión centrada en la
«manipulación incorpórea de datos explícitos» de la inteligencia artificial no
es apartarse de la ciencia pura y dura; es profundizar en una ciencia más
dura todavía. Es colocar la inteligencia en el lugar que le corresponde: en el
acoplamiento entre los organismos y el mundo que se encuentra en la raíz de
la acción fluida cotidiana. Del CYC al ciclismo: así es el giro radical que ca­
racteriza a las nuevas ciencias de la mente corpórea.
Consideremos, por ejemplo, a la humilde cucaracha. La cucaracha es de­
positaría de un considerable corpas de conocimientos sobre el sentido co­
mún de las cucarachas. ¡Por lo menos, así es como debe aparecer ante cual­
quier teórico que piense que el conocimiento explícito es la clave para un
comportamiento sensato en el mundo real! Porque la cucaracha es una for­
midable artista del escapismo, capaz de emprender una acción de huida for­
jada por una multitud de factores externos e internos. He aquí una breve lis­
ta, extraída del detallado estudio de Ritzmann (1993) sobre las habilidades
de evasión de la cucaracha americana, Periplaneta americana:

La cucaracha siente las corrientes de aire provocadas por el movimiento de


un depredador que ataca.
Distingue las corrientes producidas por los depredadores de las corrientes y
brisas normales.
No evita el contacto con otras cucarachas.
Cuando inicia un movimiento de huida, no corre simplemente al azar. En
cambio, tiene en cuenta su propia orientación inicial, la presencia de obstáculos
(como paredes y rincones), el grado de iluminación y la dirección del aire.
Introducción: un automóvil con cerebro de cucaracha I 43

jClaro que siempre se escabulle! Como indica Ritzmann, esta malla de


consideraciones contextúales conduce a una respuesta mucho más inteligen­
te que el simple reflejo de «detectar al depredador y echar a correr al azar»
que los expertos en cucarachas {que los hay) creyeron otrora que todo lo ex­
plicaba. La complejidad adicional se capta con precisión en las descripcio
nes que hace Ritzmann de un automóvil con una «inteligencia» comparable.
Este automóvil percibiría a los vehículos que se aproximan, pero ignoraría a
los que se movieran de una manera normal. Si detectara una colisión inmi­
nente, iniciaría automáticamente un giro que tuviera en cuenta su propio es­
tado actual (diversos parámetros de la aceleración y del motor) y la orienta­
ción y la superficie de la carretera, evitando meterse en más peligros. Parece
claro que un automóvil con la inteligencia de una cucaracha estaría muy por
delante de la industria automovilística más puntera de hoy en día. Sin em­
bargo, a primera vista no es probable que la frase «Compre usted el automó­
vil con cerebro de cucaracha» tuviera mucho éxito como eslogan publicita­
rio. Nuestros prejuicios contra las formas básicas de inteligencia biológica y
a favor de las «máquinas lógicas-archivadoras» más grandes y elaboradas son
demasiado profundos.
¿Cómo consigue la cucaracha controlar sus huidas? Ahora empezamos a
entender los mecanismos neuronales. Las corrientes de aire son detectadas por
dos cercas (estructuras parecidas a antenas situadas en la parte posterior del
abdomen) cubiertos con pelos sensibles a la velocidad y la dirección del aire.
Los movimientos de escape sólo se activan si la aceleración del aire es igual o
superior a 0,6 m/s2: así es como la cucuaracha distingue una brisa ordinaria de
la embestida de un atacante. El intervalo entre la sensación y la respuesta es
muy breve: 58 milisegundos para una cucaracha quieta y 14 milisegundos para
una cucaracha en movimiento. La respuesta inicial es un giro que tarda entre
20 y 30 milisegundos (Ritzmann, 1993, págs. 113-116). El circuito neuronal
básico que subyace a este giro está formado por poblaciones de neuronas cu­
yas posiciones y conexiones se conocen hoy bastante bien. En este circuito in­
tervienen más de cien intemeuronas que actúan para modular las diversas ór­
denes de giro en función de la información contextual sobre la posición actual
de la cucaracha y el estado del entorno local. La información básica sobre el
aire es transmitida por una población de interneuronas ventrales gigantes,
pero la actividad final se basa en los resultados de la modulación de muchas
otras poblaciones neuronales sensibles a esos aspectos contextúales.
Ante la impresionante exhibición de rutinas de escape de la cucaracha,
un teórico podría postular erróneamente que almacena de alguna clase de
base de datos cuasi lingüística. De acuerdo con el espíritu de CYC, podría­
mos imaginar que la cucaracha accede a marcos de conocimiento que inclu­
yen elementos como éstos:
44 I Estar ahí

Si me atacan, no me estrellaré directamente contra una pared.


Si algo grande se interpone entre la comida y yo, intentaré rodearlo.
Las brisas suaves no son peligrosas.

Como el filósofo Hubert Dreyfus (1991) y otros han señalado, el proble­


ma es que los cerebros verdaderos no parecen emplear estos recursos lin-
guaformes, parecidos a textos, para codificar respuestas hábiles ante el mundo.
Y mejor que sea así, ya que como estas estrategias exigirían el almacena­
miento de enormes cantidades de datos explícitos y la búsqueda consiguien­
te, no podrían producir las rápidas respuestas que requiere la acción real. De
hecho, tras una breve reflexión vemos claramente que la tarea de anotar los
conocimientos «de sentido común» necesarios para capturar todo lo que
sabe un adulto humano no tendría fin. j Es probable que incluso para captu­
rar de manera detallada el conocimiento corpóreo de una cucaracha hicieran
falta varios volúmenes!
Pero, ¿de qué otra manera podría avanzar la inteligencia artificial? Un
enfoque prometedor se basa en lo que se ha dado en llamar teoría de agenten
autónomos. Un agente autónomo es un ente capaz de sobrevivir, actuar y
moverse en tiempo real y en el seno de un entorno complejo y un tanto rea­
lista. Muchos agentes autónomos artificiales existentes son verdaderos ro­
bots capaces de caminar como insectos y de evitar obstáculos. Otros son si­
mulaciones por ordenador de robots de ese tipo que, en consecuencia, sólo
se pueden mover y actuar en entornos simulados hechos por ordenador.
Existen polémicas entre los investigadores que sólo son partidarios de las si­
tuaciones y de los robots reales, y los que se contentan con explotar «meras»
simulaciones, aunque los dos bandos coinciden en destacar la necesidad de
modelar conductas realistas y básicas y de desconfiar de las soluciones exce­
sivamente intelectualizadas al estilo de las del «razonamiento explícito in­
corpóreo».
Teniendo presente esta imagen general de la investigación sobre los agen­
tes autónomos, volvamos muy brevemente a nuestra protagonista, la cucara­
cha. Randall Beer y Hillel Chiel han creado simulaciones informáticas y ro-
bóticas plausibles de la locomoción y la huida de la cucaracha. Para modelar
la respuesta de escape, Beer y Chiel intentaron desarrollar un modelo de
agente autónomo muy constreñido por datos etológicos y neurocientíficos.
El objetivo era acercarse lo más posible hoy en día a los datos biológicos rea­
les. Para ello, combinaron la metodología de los agentes autónomos con
modelos al estilo de las redes neuronales. También impusieron a este mode­
lo computacíonal unas restricciones coherentes con lo que se sabe de la ver­
dadera organización neuronal de (en este caso) la cucaracha. Utilizaron una
red neuronal para controlar el cuerpo de un insecto simulado (Beer y Chiel
Introducción: un automóvil con cerebro de cucaracha I 45

1993). Los circuitos de esta red estaban limitados por los datos conocidos
sobre las poblaciones y las conexiones neuronales que subyacen a la res­
puesta de escape de las cucarachas reales. Después de un entrenamiento, el
controlador de la red neuroñal fue capaz de reproducir en el cuerpo del in­
secto simulado todas las características fundamentales de la respuesta de es­
cape mencionada anteriormente. En los capítulos que siguen trataremos de
comprender, en parte, cómo se logran estos éxitos. Veremos con detalle
cómo se combinan los tipos de investigación acabados de esbozar con ideas
evolutivas, neurocientíficas y psicológicas para poder esclarecer una amplia
gama de conductas, tanto simples como complejas. Y también exploraremos
la sorprendente variedad de estrategias adaptativas de que disponen los
agentes corpóreos y embebidos en un medio: los seres que se mueven por su
mundo y actúan sobre él.
Estos comentarios introductorios pretenden destacar un contraste fun­
damental entre la visión incorpórea, intemporal e intelectualista de la men­
te, y la imagen de la mente como controladora de la acción corpórea. Esta
imagen de la mente como controladora nos obliga a tomarnos en serio las
cuestiones del tiempo, el mundo y el cuerpo. Un dispositivo controlador
debe generar con rapidez acciones apropiadas en función de la interacción
en curso entre el cuerpo y su entorno cambiante. El sistema de planificación
de la inteligencia artificial clásica suele ponerse cómodo y tomárselo con cal­
ma para, al final, producir una descripción expresada simbólicamente de un
curso de acción plausible. El agente planificador corpóreo debe entrar en ac­
ción con rapidez, antes de que la acción de otro agente le quite la vida. Aún
no está claro si las codificaciones simbólicas similares al texto tienen algún
papel que desempeñar en estas decisiones de vida o muerte, pero hoy sí pa­
rece claro que no es un papel estelar.
El camino que conduce a una comprensión computadonal completa de
la mente está bloqueado -parafraseando a Lenat y Feigenbaum- por un col­
chón. Durante muchos años, los investigadores se han desviado para ro­
dearlo, han tratado de ignorarlo, han hecho de todo excepto ponerse a tra­
bajar para quitarlo de ahí. Lenat y Feigenbaum piensan que este colchón es
el conocimiento y que los enigmas de la mente se disiparán en cuanto se haya
construido una gran base de conocimientos repleto de fórmulas explícitas de
sabiduría de sentido común. Las lecciones de la cognición natural nos ense­
ñan otra cosa. El colchón no es conocimiento sino capacidad de respuesta
básica, en tiempo real y en el mundo real. La cucaracha tiene un tipo de sen­
tido común del que carecen los mejores sistemas artificiales de hoy, y segu­
ramente no es gracias a las codificaciones explícitas ni a las deducciones ló­
gicas que nos pueden servir en algunos ámbitos de cariz más abstracto. En
su raíz, nuestras mentes también son órganos para iniciar con rapidez el pro
46 I Estar ahí

ximo movimiento en situaciones reales. Son unos órganos exquisitamente


preparados para la producción de acciones que se despliegan en el espacio
local y en tiempo real. Cuando la mente se formula como un dispositivo con­
trolador de la acción corporal, el conocimiento otrora recibido se desvanece
capa tras capa. La distinción entre percepción y cognición, la noción de unos
centros de control ejecutivo en el cerebro y una visión muy extendida de la
racionalidad misma, son puestas en duda. También peligra el aparato meto­
dológico que estudia la mente y el cerebro con muy escasa consideración ha­
cia las propiedades del entorno local o las oportunidades proporcionadas
por la acción y el movimiento corporal. La forma fundamental de las ciencias
de la mente cambia continuamente. En los capítulos que siguen, deambula­
remos por el paisaje de la mente bajo este cambio de iluminación.
Primera parte

DE EXCURSIÓN POR LA MENTE

Bueno, ¿y con qué crees que comprendes? ¿Con la cabeza? ¡Bah!


Nlk'OS K a z a n t ZAKIS, Zorba el griego

El noventa por ciento de la vida consiste, simplemente, en estar ahí.


WOODY A l l e n
1 Agentes autónomos:
un paseo por la luna

1.1 Bajo el volcán1

En el verano de 1994, un robot explorador de ocho patas y 770 kg de peso lla­


mado Dame II descendió por una pared muy empinada hacia el fondo del cráter
de un volcán activo cerca de Anchorage, Alasita. En el transcurso de una misión
de seis días, Dante II exploró las paredes y el fondo del cráter empleando una
mezcla de control autónomo (autodirigido) y externo. Dante II es producto de
un proyecto financiado por la NASA, con base en la Universidad de Camegie
Mellon y en otros lugares, cuya meta final consiste en desarrollar robots verdade­
ramente autónomos con el fin de recoger y transmitir información detallada so­
bre las condiciones ambientales locales de otros planetas. Se espera enviar a Mar­
te otro robot mucho más pequeño y en gran parte autónomo en 1996, y el
explorador lunar LunaCorp, que está basado en el software de Dante II, tiene una
plaza reservada en el primer lanzamiento comercial a la luna, previsto para 1997.
Los problemas a los que se enfrentan estos proyectos son muy instruc­
tivos. Los robots diseñados para explorar mundos lejanos no pueden de­
pender de una comunicación constante con científicos situados en la tie­
rra: los desfases de tiempo pronto conducirían a un desastre. Estos robots
se deben programar para que busquen unas metas generales explorando y
transmitiendo información. Para misiones largas deberán reabastecerse de
energía, quizá explotando la energía solar. Deberán ser capaces de fun­
cionar ante dificultades inesperadas y resistir varias clases de daños. En
resumen, deberán satisfacer muchas de las exigencias {aunque, desde lue-

t. Ei material acerca de Dante II se basa en un informe realizado por Peter Monaghcn


(Chronicle o f Higber Educatton, 10 de agosto de 1994, págs. A6-A8).
50 I De excursión por la mente

go, no tocias) que la naturaleza ha planteado a los organismos móviles en


evolución.
El intento de construir robots móviles robustos conduce con sorpren­
dente rapidez a un replantcamiento radical de muchas de nuestras cómodas
y viejas ¡deas sobre la naturaleza de la inteligencia adaptativa.

1.2 Desfile de robots

Elmer y Elsie
Los antepasados históricos de los sofisticados robots de hoy con aspecto
animal (a veces llamados «animatas») fueron un par de «tortugas» cibernéti­
cas construidas en 1950 por el biólogo W. Grey Walter. Estas «tortugas»
-llamadas Elmer y Elsie23- empleaban unos sencillos sensores de luz y de tac­
to y unos circuitos electrónicos para buscar luz, aunque evitando la luz in­
tensa. Además, cada tortuga llevaba unos pilotos luminosos que se encen­
dían cuando los motores estaban en marcha. Incluso un equipo incorporado
tan simple como éste condujo a unas intrigantes muestras de conducta, es­
pecialmente cuando Elmer y Elsie interaccionaban entre sí (al ser atraídos
por la luz de los pilotos) y con el entorno local (que incluía algunas fuentes
de luz por cuya proximidad competían y un espejo que condujo a un diver­
tido «baile» de autoseguimiento). Lo extraño es que, a ojos de un observa­
dor casual, sería más fácil ver vida y propósito en la conducta de estas crea­
ciones tan simples que en los diagnósticos incorpóreos hechos por sistemas
expertos tradicionales y de campanillas como M VCIN.3

2, Veanse, por e|cmplo, W. Grey Walter, «An imitation of life», Scientific American, 182
(1959), rT 5, págs. 42-45; Steven Lcvy, Artificial Ltfe The Qnesi for a New Creatton (Pantheon,
1992), págs. 285 284.
3, El trabajo inicial en inteligencia artificial, como el trabajo de Newell y Simón (1972) so­
bre el «Solucionador general de problemas» (General Problem Solver), tendían a acentuar el
razonamiento y la resolución de problemas de utilidad general. Sin embargo, pronto se hizo
evidente que, para muchos propósitos, una base de conocimientos detallados y ricos adaptado
a un domipio de actividad especifico era un determinante crucial para el éxito. Este descubrí
miento condujo a una explosión de trabajos con los denominados «sistemas expertos» a los
que se proporcionaban datos específicos de ciertas tareas obtenidos de expertos humanos y
que, en consecuencia, eran capaces de alcanzar niveles bastante elevados de competencia en
dominios restringidos como el diagnostico medico. El programa MYCIN (Shortlíffe, 1976) se
basaba en un conjunto de reglas y directrices explícitamente formuladas, como la siguiente re­
gla para extracciones de sangre: «Si 1) el lugar de cultivo es sangre, 2) el organismo es gram
negativo, 3) el organismo tiene forma de varilla y 4) el paciente es un receptor en peligro, en­
tonces hay indicios de que la identidad del organismo sea pseudomonas aernginose»
Agentes autónomos: un paseo por la luna I 51

Herbert

Uno de los precursores de las recientes investigaciones sobre los agentes


autónomos es Rodney Brooks, del MÍT Mobile Robot Laboratory, Los ro­
bots móviles (mobile robots o «mobots») de Brooks son robots reales capa­
ces de funcionar en entornos reales, desordenados e imprevisibles como una
oficina abarrotada. Dos características importantes de la investigación de
Brooks son la utilización de micromundos horizontales y el empleo de des­
composiciones basadas en la actividad dentro de cada sección horizontal.
El contraste entre micromundos horizontales y verticales se establece en
Clark, 1989 y, en términos diferentes, en Dennett, 1978b. La idea es sencilla.
Un micromundo es un ámbito de estudio restringido: no podemos resolver a
la vez todos los enigmas de la inteligencia. Un micromundo vertical aísla como
objeto de estudio una pequeña parte de la competencia cognitiva de nivel hu­
mano. Como ejemplos cabe citar jugar a ajedrez, generar las formas pretéritas
de verbos ingleses y planificar un picnic, todas ellas actividades que han sido
objeto de anteriores programas de inteligencia artificial. El problema evidente
es que cuando nosotros, los seres humanos, resolvemos estos problemas avan
zados, podemos echar mano de recursos computación ales forjados por otras
necesidades más básicas para las que la evolución equipó a nuestros anteceso­
res. Por tanto, las soluciones ingeniosas y orientadas al diseños para estos pro­
blemas tan recientes pueden ser muy diferentes de las soluciones naturales dic
tadas por la necesidad de explotar la maquinaria y las soluciones ya existentes.
Podemos ser maestros de ajedrez gracias a nuestra capacidad para reconocer
patrones, seleccionada para que pudiéramos reconocer parejas, alimentos y
depredadores. En contraste con lo anterior, un micromundo horizontal es la

(Feigenbaum, 1977, pág. 1.016). Estos sistemas demostraron ser frágiles y limitados. Degene­
ran rápidamente en una estupidez automatizada si el usuario traspasa una fina línea divisoria
gramatical o de expresión, o si emplea términos que tienen abundantes significados del mun­
do real que no se reflejan explícitamente en la base de datos específica de la tarea (por ejem­
plo, el automóvil oxidado al que se le diagnosticó sarampión; véase Lcnat y Feigenbaum, 1992,
pág. 197). ¿Cómo se puede evitar este deslizamiento hacia la estupidez? Una posibilidad es
que basta con «turboalimenar» los tipos de enfoques tradicionales antes mencionados. SOAR
(Laird y otros, 1987) es un intento de crear una versión más poderosa del Solucionador gene­
ral de problemas. CYC (véanse la introducción a este volumen, y Lenat y Feigenbaum, 1992)
es un intento de crear esta base de conocimientos más grande y más rica. SOAR y CYC com­
parten el compromiso con el empleo abundante de formas simbólicas tradicionales e inspira­
das en el texto para la codificación de conocimientos y metas. Pero puede que el problema
fundamental resida en el enfoque tradicional mismo: que el modelo de la inteligencia como
manipulación incorpórea de cadenas de símbolos dentro de la cabeza o del ordenador sea
erróneo en sí mismo. La presente obra explora algunas de las alternativas.
52 I De excursión por la mente

capacidad conductual completa de un ser (verdadero o imaginario) completo


pero relativamente simple. Al estudiar estos seres, simplificamos los problemas
de la inteligencia de nivel humano sin perder de vista elementos biológicos bá­
sicos como las respuestas en tiempo real, la integración de diversas funciones
motrices y sensoriales y la necesidad de hacer frente a los daños.
Brooks (1991, pág. 143) establece cuatro requisitos para sus seres artifi­
ciales:

Deben hacer frente de una manera adecuada y oportuna a los cambios de su


entorno dinámico.
Deben ser robustos en relación con su entorno...
Deben poder mantener múltiples metas...
Deben hacer algo en el mundo; su existencia debe tener algún propósito.

Los «seres» de Brooks se componen de varios subsistemas o «capas»


productoras de actividad. Estas capas no crean ni pasan codificaciones o re-
codificaciones de entradas (inputs) explícitas y simbólicas. En cambio, cada
capa es, en sí misma, una ruta completa que va de la entrada a la acción. La
«comunicación» entre capas distintas se limita a pasar alguna señal simple.
Una capa puede estimular, interrumpir o anular la actividad de otra. La or­
ganización resultante es lo que Brooks denomina una «arquitectura de sub-
sunción» (porque las capas pueden subsumir mutuamente su actividad pero
no pueden comunicarse de una manera más detallada).
Por tanto, un ser se podría componer de tres capas (Brooks 1991, pág. 156):

Capa 1: evitar objetos mediante un anillo de sensores de sonar ultrasónico. Es­


tos sensores hacen que el mobot se detenga si se encuentra con un objeto directa
mente frente a él y le permiten reorientarse hacia una dirección desbloqueada.
Capa 2: cuando la capa de evitar objetos está inactiva, un dispositivo incorpo­
rado puede generar rutas aleatorias para que el mobot «deambule» sin rumbo fijo.
Capa 3: esta capa puede anular la capa de deambulación y establecer una
meta distante que lleve al mobot a un escenario totalmente nuevo.

Una característica esencial de esta metodología es que se pueden añadir


capas progresivamente y que cada incremento produce un ser completo y
funcional. Obsérvese que estos seres no dependen de un depósito central de
datos o de un dispositivo planificador o razonador central. En cambio, ve­
mos en ellos una «colección de conductas que compiten entre si» orquesta­
da por las entradas del entorno. No existe una línea divisoria clara entre la
percepción y la cognición, ningún punto donde las entradas perceptivas se
traduzcan a un código central compartido por varios dispositivos de razona­
miento incorporados. Esta imagen de múltiples dispositivos especializados
Agentes autónomos: un paseo por la luna I 53

de resolución de problemas, orquestados por entradas del entorno y por ti­


pos relativamente simples de señalización interna es, como argumentaré en
un capítulo posterior, un modelo neurocientíficamente plausible incluso
para los cerebros más avanzados.
Herbert,4 construido en el MIT Mobot Lab durante los años ochenta, ex­
plotaba el tipo de arquitectura de subsunción acabada de describir. La mi­
sión de Herbert era recoger latas de refresco vacías esparcidas por el labora­
torio. No era una tarea trivial; el robot tenía que desenvolverse en un entorno
abarrotado y cambiante, evitar tirar cosas, evitar tropezar con la gente, e
identificar y recoger las latas. Nos podemos imaginar un dispositivo planifi­
cador clásico tratando de resolver este complejo problema real empleando
abundantes datos visuales para generar un mapa interno detallado del en­
torno actual, distinguir las latas y planificar una ruta. Pero esta solución es a
la vez costosa y frágil: el entorno puede cambiar rápidamente (como cuando
entra alguien en la sala) y e! procesamiento visual intensivo (por ejemplo, el
reconocimiento de escenas y objetos al nivel humano) se encuentra hoy en
día más allá del alcance de cualquier sistema programado.
Como hemos visto, las arquitecturas de subsunción adoptan un enfoque
muy diferente. La meta es conseguir la conducta compleja, robusta y en tiem­
po real que emerge como resultado de interacciones simples entre subsiste­
mas productores de conductas relativamente independientes. A su vez, estos
subsistemas están controlados de una manera bastante directa por las pro­
piedades del entorno encontrado.5 No existe un control central o un plan glo­
bal. En cambio, el entorno mismo orienta al ser hacia el éxito gracias a algu­
nas respuestas conductuales básicas. En el caso de Herbert, estas conductas
simples incluían rutinas de evitación de obstáculos (detenerse, reorientarse,
etc.) y de locomoción. Estas rutinas se interrumpían cuando su sencillo siste­
ma visual detectaba un contorno parecido al de una mesa. Cuando Herbert
se encontraba al lado de una mesa, las rutinas de locomoción y evitación de
obstáculos cedían el control a otros subsistemas que barrían la mesa con un
láser y una cámara de vídeo. Cuando detectaba el perfil básico de una lata, el
robot giraba hasta situar el objeto con aspecto de lata en el centro de su cam­
po de visión. En este momento las ruedas se paraban y se activaba un brazo

4. Véase información sobre Herbert en Connell, 1989.


5. Ron McCIamrock 0995) comunica un caso procedente de Marr en el que un bucle de
control sale de la cabeza y se extiende al entorno local. En palabras de McCIamrock (pág. 85):
«Resulta que las moscas no saben del todo que, para volar, deben agitar las alas. No empren­
den el vuelo enviando una señal del cerebro a las alas. En cambio, existe un enlace de control
directo entre las patas y las alas de modo que cuando las patas dejan de estar en contacto con
una superficie, las alas de la mosca empiezan a agitarse. Para despegar, la mosca simplemente
da un salto y deja que la señal procedente de las patas active las alas».
54 I De excursión por la mente

mecánico que, equipado con unos sencillos sensores, exploraba cuidadosa­


mente la superficie de la mesa que tenia delante. Cuando Herbert encontra­
ba la forma característica de una lata se activaba la conducta de agarrar y, una
vez recogida la lata, Herbert continuaba su búsqueda.
Por tanto, Herbert es un «ser» sencillo que no tiene almacenado ni un
plan a largo plazo ni un modelo de su entorno. Sin embargo, considerado
como un animal artificial que busca latas en el nicho «alimenticio» propor­
cionado por el ecosistema del Mobot Lab, Herbert manifiesta una especie de
inteligencia adaptativa simple donde la cooperación mutua entre sensores,
circuitos incorporados y el entorno externo conduce al éxito.

Añila

Rodney Brooks cree que unos robots más pequeños y flexibles que el tor­
pe y pesado Dame serian más adecuados para las necesidades de la explora­
ción espacial. Atóla6 pesa poco más de kilo y medio y usa múltiples «minice­
rebros» («máquinas de estado finito») especializados para controlar un
conjunto de conductas locales que, unidas, hacen que se desplace con gran
habilidad moviendo cada pata por separado, detectando las fuerzas ejercidas
por el terreno para compensar las pendientes, etc. Attila también emplea
sensores infrarrojos para detectar objetos cercanos. Es capaz de desplazarse
por terrenos abruptos y hasta puede volver a ponerse de pie cuando se cae
de espaldas. Según Rodney Brooks, Attila ya encarna algo parecido a la inte­
ligencia de un insecto.

Periplaneta Computatrix

Esta es la cucaracha simulada mencionada anteriormente. Beer y Chiel


(1993) describen un controlador de red neuronal para la locomoción hexá-
poda. Cada pata tiene un minicontrolador que explota una unidad «marca-
pasos»: un modelo idealizado de neurona cuya señal de salida oscila rítmica­
mente. Esta unidad se activa a intervalos determinados por el nivel tónico de
excitación de una neurona dominante y de cualquier entrada adicional que
reciba. La idea, sacada de un modelo biológico desarrollado por K. G. Pear-
son (1976), consiste en dar a cada pata su propio generador de patrones rít­
micos, teniendo en cuenta las influencias moduladoras locales asociadas a las
diferentes retroalimentaciones sensoriales de cada pata, a medida que el in­

6. Attila, descrito en las págs. 300-501 de Artificial Life, de Levy, fue diseñado por Colin
Angle y Rodney Brooks. Un predecesor, Genghis, se describe en Brooks, 1993.
Agentes autónomos: un paseo por la luna I 55

secto avanza por un terreno desigual. La coordinación entre las patas se con­
sigue mediante enlaces inhibidores entre generadores de patrones adyacen­
tes. Cada pata tiene tres neuronas motrices: la primera controla la oscilación
hacia adelante, la segunda controla la oscilación hacia atrás y la tercera hace
que la pata se levante. Como antes, el circuito de control global está total­
mente distribuido. No existe un procesador central que deba orquestar una
respuesta teniendo en cuenta todas las entradas sensoriales. En cambio, cada
pata tiene una «inteligencia» individual y los simples enlaces inhibidores ga­
rantizan una conducta global coherente. Aparecen diferentes maneras de an­
dar a partir de las interacciones entre los distintos niveles de excitación tó­
nica procedentes de las unidades marcapasos (los generadores de patrones)
y la retroalimentación sensorial local. El robot adoptará una marcha trípeda
cuando las frecuencias de excitación sean elevadas y pasará a una marcha
metacrómca cuando sean más bajas. En la marcha trípeda, las patas anterior
y posterior de un lado se mueven en sincronía con la pata central del otro; en
la marcha metacrónica, cada pata empieza a moverse justo después de la
pata que tiene detrás, en una especie de movimiento ondulatorio.
Aunque diseñado y puesto a prueba como una pura simulación por or­
denador, este circuito de locomoción se ha utilizado en el cuerpo de un ro­
bot real y ha demostrado su robustez en el mundo real de los rozamientos, la
inercia, el ruido, los retrasos, etc. En la figura 1.1 se muestra el primer robot
hexápodo, que se analiza con más detalle en Beer y Chiel, 1993, y en Quinn
y Espenschied, 1993. El circuito de locomoción empleado también es capaz
(al estar tan distribuido) de conservar la mayor parte de su funcionalidad
cuando se dañan neuronas o conexiones individuales (Beer y otros, 1992). A
pesar de la complejidad de la conducta que produce, el circuito de locomo­
ción en sí es bastante modesto: sólo consta de 37 «neuronas» estratégica­
mente situadas e interconectadas. Sin embargo, los vídeos del robot hexá­
podo y de sus sucesores constituyen un espectáculo fascinante. En una
secuencia aparece un robot posterior, algo más complejo (figura 1.2), avan­
zando cautelosamente por un terreno desigual formado por trozos de po-
liestireno expandido. Una pata se alza y empieza a descender suavemente.
Como no «hace pie» (a causa del terreno local), se levanta otra vez y vuelve
a posarse en un punto ligeramente diferente. AI final, cuando encuentra un
punto de apoyo adecuado, el robot prosigue su marcha. Esta conducta ex­
ploratoria y tanteadora tiene todo el sabor de la inteligencia biológica real.

Robot braquiador

La braquiación (figura 1.3) es el movimiento pendular que emplean al­


gunos primates superiores para desplazarse de rama en rama por zonas den-
56 I De excursión por la mente

FIGURA 1.1 El primer robot hexápodo, construido por Ken Espenschied en la Case
Western Reserve University bajo la supervisión de Roger Quinn. Fuente: Quinn y
Espenschied, 1993. Reproducido con la autorización de K. Espenschied, R. Quinn y
Academic Press.

FIGURA 1.2 El segundo robot hexápodo, construido por Ken Espenschied en la


Case Western Reserve University bajo la supervisión de Roger Quinn. Fotografía ce­
dida gentilmente por Randall Becr.
Agentes autónomos: un paseo por la luna 1 57

FIGURA 1.3 Braquiacion de un gibóti. Fuente: Saito y Fukuda, 1994. Reproducido


con la autorización de F. Saito, T. Fukuda y MIT Press.

sámente arboladas. Saito y Fukuda (1994) describen un dispositivo robótico


que aprende a braquiar empleando un controlador de red neuronal. Esta ta­
rea es especialmente interesante puesto que incorpora una dimensión de
aprendizaje y aborda una conducta para la que el tiempo tiene una impor­
tancia fundamental.
Este robot utiliza un tipo de aprendizaje basado en redes neuronales
denominado Q-aprendizaje conexionista (connectionist Q-learning).1 El Q-
aprendizaje implica intentar aprender el valor de distintas acciones en situa­
ciones diferentes. Un sistema de Q-aprendizaje debe tener un conjunto deli­
mitado de acciones y situaciones posibles y se le debe dar una señal de
recompensa para comunicarle el valor (positivo) de una acción elegida en la
situación que se le plantea. El objetivo consiste en aprender un conjunto de
emparejamientos situación-acción que maximicen el éxito en relación con
una señal de recompensa. Saito y Fukuda demuestran que estas técnicas per­
miten que una red neuronal artificial aprenda a controlar un robot braquia-
dor real de dos brazos (figura 1.4). Un robot braquiador totalmente entre­
nado puede balancearse con éxito de una «ram a» a otra y, si no encuentra
asidero, puede aprovechar el impulso inicial para balancearse hacia atrás y
volverlo a intentar.7

7. Véase información sobre el conexiomsmo en c! capítulo 4 de este mismo libro. El Q


aprendizaje es una forma de aprendizaje por refuerzo (véanse Kaelbling, 1995 y Sutton, 1991)
desarrollado por Watkíns (1989). El empleo de redes neuronales en escenarios de Q-aprendi­
zaje se discute en Lin, 1993.
58 I De excursión por la mente

F igura 1.4 Robot braquiador de dos brazos. Fuente: Saito y Fukuda, 1994. Repro­
ducido con la autorización de F. Saito, T. Fukuda y MIT Press.

COG

Seguramente, CO G (Brooks, 1994; Brooks y Stein, 1993) es el más am­


bicioso de todos los proyectos de la «nueva robótica» emprendidos hasta
ahora. Este proyecto, éncabezado por Rodney Brooks, se propone crear un
robot humanoide con un funcionamiento extremadamente complejo. Este ro­
bot, del tamaño de una persona (figura 1.5) no tiene capacidad de ambula­
ción; sin embargo puede mover las manos, los brazos, la cabeza y los ojos.
Agentes autónomos: un paseo por la luna I 59

F ig ura 1.5 Tres vistas del robot C O G . Fotografías cedidas por Rodney Brooks.
60 I De excursión por la mente

Aunque su base está firmemente sujeta a un tablero, puede girar a la altu­


ra de las caderas. Esta libertad de movimientos se obtiene a partir de 24
motores separados, dotados cada uno de un procesador exclusivamente
dedicado a supervisar su funcionamiento (de acuerdo con el «espíritu»
general de los mobots de evitar un control centralizado). Los brazos dis­
ponen de muelles que amortiguan los movimientos mecánicos. La mayor
parte de los motores (salvo los de los ojos) disponen de sensores de calor
que permiten a CO G reunir información sobre su propio funcionamiento
en cada momento y conocer el nivel de trabajo de cada motor: una espe­
cie de versión robótica del sentido cinestésico que nos dice cómo se orien
tan en el espacio las partes de nuestro cuerpo. Cada ojo consta de dos cá­
maras; una tiene un campo de visión amplio con una resolución baja y el
otro tiene un campo de visión reducido con una resolución alta. Estas cá­
maras se pueden mover para inspeccionar una escena visual y las que tie­
nen el campo reducido realizan una función parecida a la de la fóvea de
los mamíferos. CO G también recibe información de audio por medio de
cuatro micrófonos. Toda esta abundancia de datos de entrada es procesa­
da por un «cerebro» compuesto por múltiples submáquinas (o «nodos»,
cada uno con un megabyte de ROM y de RAM y un sistema operativo d e­
dicado), que son capaces de comunicarse entre sí de maneras restringidas.
Por tanto, el cerebro mismo de CO G es un sistema multiprocesador y su
sistema nervioso también incluye otros dispositivos «inteligentes» (como
los procesadores dedicados de los motores). Así pues, aunque la organi
zación global de CO G refleja gran parte de la filosofía que guía el trabajo
de Brooks con insectos robot, es lo suficientemente compleja como para
traer a un primer plano problemas nuevos y acuciantes. Entre sus carac
terísticas familiares se incluyen la ausencia de una memoria central com­
partida por todos los procesadores, la carencia de controles ejecutivos
centrales, una comunicación restringida entre los diversos subdispositivos
y el énfasis en la resolución de problemas en tiempo real que supone sen­
tir y actuar. Todos los problemas nuevos se centran en torno a la necesi­
dad de obtener conductas coherentes de un sistema complejo como éste
sin volver a los métodos antiguos y poco prácticos de la planificación se­
rial y el control central. Los ingeniosos trucos y estrategias que permiten
a los sistemas corpóreos mantener una coherencia mientras explotan múl­
tiples rutinas de resolución de problemas especializadas y cuasi inde­
pendientes (que se abordarán en capítulos posteriores), aportan luz so­
bre los papeles del Jenguaje, la cultura y las instituciones en la
potenciación de la cognición humana. De momento, sin embargo, retro
cederemos un poco e intentaremos extraer algunas conclusiones generales
de este desfile de critters artificiales.
Agentes autónomos: un paseo por la luna I 61

1.3 Mentes sin modelos

La revolución de la «nueva robótica» rechaza una parte fundamental de


la imagen clásica de la mente. Rechaza la imagen de un planificador central
que tenga conocimiento exclusivo de toda la información disponible en cual­
quier parte del sistema y que se dedique a descubrir posibles secuencias con-
ductuales que satisfagan unas metas concretas. El problema del planificador
central es que, en esencia, es muy poco práctico. Introduce lo que Rodney
Brooks denominó acertadamente un «embotellamiento representacional»
que bloquea cualquier respuesta rápida en tiempo real. La razón es que la in­
formación sensorial entrante debe ser traducida a un código simbólico único
para que el mencionado planificador pueda encargarse de ella. Y la salida que
produzca el planificador también se deberá traducir desde su propio código
interno a los diversos formatos necesarios para controlar varios tipos de res­
puesta motriz. Estas fases de traducción consumen mucho tiempo y energía.
Critters artificiales como Herbert y Attila destacan por su falta de plani­
ficación central. En su lugar, la arquitectura de subsunción sitúa múltiples
dispositivos cuasi independientes, cada uno de los cuales constituye una vía
autosuficiente que enlaza la entrada sensorial con la acción. En consecuen­
cia, las conductas de estos sistemas no están mediatizadas por ninguna base
integrada de conocimientos que represente el estado actual del entorno glo­
bal. A estas bases de conocimientos se les suele llamar «modelos detallados
del mundo» y un tema recurrente de los nuevos enfoques es que logran al­
canzar un éxito adaptativo sin emplear estos modelos.
Sin embargo, sería fácil exagerar esta diferencia. Uno de los mayores pe­
ligros que acechan a toda propuesta revolucionaria en la ciencia es que se
puede descartar una parte demasiado grande de la «visión antigua»: es decir,
se puede tirar mucha fruta fresca junto con la pocha. Este mismo peligro
existe, creo yo, en el rechazo de la nueva robótica frente a las representacio­
nes, los modelos y los mapas internos. Si sólo se interpreta como un aviso
para prestar atención a los costes de los modelos centralizados, integrados y
simbólicos, la crítica es oportuna e importante. Pero si se interpreta como un
rechazo sistemático a las economías internas cuyas complejidades incluyen
múltiples representaciones centradas en la acción y múltiples modelos par­
ciales del mundo, esto sería un error al menos por dos razones.
En primer lugar es indudable que, en ocasiones, el cerebro humano inte­
gra múltiples fuentes de información. El área que rige los movimientos sacá-
dicos (los movimientos rápidos de la fóvea de alta resolución hacia un nuevo
objetivo) es capaz de responder a múltiples entradas sensoriales: podemos
realizar un movimiento sacádico hacia el lugar donde hemos detectado un
movimiento periférico, hacia el origen de un sonido o para examinar un ob-
62 I De excursión por la mente

jeto detectado solo por el tacto. Además, con frecuencia combinamos mo­
dalidades utilizando el tacto, la vista y el sonido en complejos bucles inter­
dependientes donde la información recibida en cada modalidad ayuda a sin­
tonizar y eliminar la ambigüedad del resto (como cuando nos encontramos
con un objeto familiar en un rincón oscuro del armario).
En segundo lugar, la presencia de modelos internos que intervienen en­
tre la entrada y la salida no siempre constituye un embudo costoso en cuan­
to a tiempo. La emulación motriz ofrece un ejemplo claro y convincente.
Consideremos la tarea de alcanzar una taza. Una «solución» para estos pro­
blemas es el alcance balístico. Como indica su nombre, esta manera de asir
depende de una trayectoria prefijada y no corrige errores a lo largo de la mis­
ma. Una manera de asir más hábil se basa en la retroalimentación sensorial
para realizar correcciones sutiles y guiar el asimiento sobre la marcha. Una
fuente de esta retroalimentación es la propiocepción, el sentido interno que
nos dice cómo se sitúa nuestro cuerpo (en este caso, el brazo) en el espacio.
Pero las señales propioceptivas deben hacer el viaje de vuelta desde las peri­
ferias corporales hasta el cerebro y esto requiere tiempo; de hecho, requiere
demasiado tiempo para que las señales se puedan emplear en la generación
de movimientos fluidos de asimiento. Para resolver este problema, el cere­
bro puede emplear un truco (muy empleado en los sistemas industriales de
control) denominado emulación motriz. Un emulador es un circuito incor­
porado que duplica ciertos aspectos de la dinámica temporal del sistema más
amplio. Toma como entrada una copia de una orden motriz y produce como
salida una señal cuya forma es idéntica a la de una señal que vuelva de las pe­
riferias sensoriales. Es decir, predice cómo debe ser la retroalimentación
propioceptiva. Si el dispositivo es fiable, se pueden utilizar estas prediccio­
nes en lugar de las señales sensoriales reales para generar una actividad de
corrección de errores más rápida. Estos emuladores son el tema de numero­
sos tratamientos teóricos detallados (por ejemplo, Kawato y otros, 1987;
Dean y otros, 1994) que muestran que el aprendizaje de redes neuronales
simples puede producir emuladores fiables y en los que se especula sobre la
manera de desarrollar estos emuladores en circuitos neuronales reales.
Estos emuladores motrices no son embudos que obstaculicen el éxito en
tiempo real. Al contrario, facilitan el éxito en tiempo real al ofrecer un tipo
de «retroalimentación virtual» que supera la retroalimentación procedente
de las periferias sensoriales reales, proporcionándonos una especie de «hi-
pcragudeza» motriz que nos permite generar unas trayectorias de asimiento
más fluidas y precisas de lo que sería posible, dadas las distancias y la velo­
cidad de conducción que gobiernan el regreso de las señales sensoriales des­
de las periferias corporales. Pero también es indudable que un emulador es
una especie de modelo interno. Consturir modelos de aspectos destacados
Agentes autónomos: un paseo por la luna I 63

de la dinámica corporal de los agentes y se puede desplegar incluso en


ausencia de las entradas sensoriales usuales. Con todo, es un modelo parcial
dedicado a una clase específica de tareas y, en consecuencia, es compatible
con el escepticismo de la nueva robótica acerca de los modelos del mundo
detallados y centralizados y con su insistencia en el éxito conductual en tiem­
po real. También destaca la importancia intrínseca de los aspectos tempora­
les de la cognición biológica. El papel adaptativo del emulador depende tanto
de su velocidad de operación (su capacidad de superar la retroalimentadón
sensorial real) como de la información que codifica.
Así pues, es evidente que el primer mensaje de la cognición corpórea es
que se debe evitar un modelado excesivo del mundo y que los modelos se
deben adaptar a las exigencias de los sistemas productores de conducta en
tiempo real.

1.4 Nichos

El segundo mensaje está muy relacionado con el primero. Se refiere a la


necesidad de encontrar ajustes muy precisos entre las necesidades y los esti­
los de vida de sistemas específicos (sean animales, robots o humanos) por un
lado, y los tipos de estructuras ambientales portadoras de información a las
que responden estos sistemas por otro. La idea es reducir la carga de proce
samiento de información, sensibilizando el sistema a determinados aspectos
del mundo que tengan una trascendencia especial para él a causa del nicho
ambiental en el que habita.
Vimos algo de esto en el caso de Herbert, cuyo «nicho» es el entorno lle­
no de latas de Coca-Cola del MIT Mobile Robot Laboratory. Un hecho bas­
tante seguro de ese nicho es que las latas tienden a acumularse encima de las
mesas. Otro es que las latas, por sí solas, no se mueven ni intentan escapar. A
la vista de estos hechos, la carga computacional de Herbert se puede reducir
considerablemente. En primer lugar, puede utilizar señales de baja resolu­
ción para detectar las mesas y acercarse a ellas. Cuando se encuentra junto a
una mesa, puede iniciar una rutina especial dedicada a buscar latas. Para
buscar las latas, Herbert no necesita (y de hecho, no puede) formar repre­
sentaciones internas de los otros objetos que hay en la mesa. El «mundo» de
Herbert sólo está poblado de obstáculos, superficies de mesas y latas. Cuan
do ha localizado una lata, Herbert lleva a cabo unos movimientos físicos de
orientación con el fin de simplificar la tarea de cogerla. Todo lo que hace
Herbert (emplear movimientos, basarse en señales fácilmente detectables y
evitar modelos del mundo detallados y centralizados), constituye un ejemplo
de sensación dependiente del nicho.
64 i Pe excursión por la mente

La nocion de sensación dependiente del nicho no es nueva. En 1934, Ja-


kob Von Uexkull publicó una maravillosa monografía cuyo título se traduce
por Un paseo por los mundos de animales y hombres: libro ilustrado de mun­
dos invisibles. En esta obra, con una elocuencia y una claridad parecidas a las
de un cuento, Von Uexkull introduce la idea del Umwelt, definido como el
conjunto de aspectos ambientales a los que está sensibilizado un tipo deter
minado de animal. Describe el Umwelt de una garrapata, que es sensible al
ácido butírico que se encuentra en la piel de los mamíferos. El ácido butíri­
co, cuando es detectado por la garrapata, induce a ésta a soltarse de la rama
donde se encuentra para caer sobre el animal. El contacto táctil extingue la
respuesta olfativa e inicia un procedimiento de corretear hasta que se detec­
ta calor. La detección del calor inicia la actividad de perforar y cavar. Es im
posible resistirse a citar a Von Uexkull con cierta extensión:

La garrapata cuelga inmóvil de la punta de una rama en el claro de un bos­


que. Su posición le da la oportunidad de dejarse caer sobre un mamífero que
pase. De todo el entorno entero, no le afecta ningún estimulo hasta que se acer­
ca un mamífero, cuya sangre necesita para poderse reproducir.
Y ahora sucede algo totalmente fantástico. De todos los efluvios que emanan
del cuerpo del mamífero, sólo tres se convierten en estímulos y además en un or
den definido. Del vasto mundo que rodea a la garrapata, tres aspectos refulgen
como faros en la oscuridad y actúan como guias que conducen de una manera ¡n
falible a la meta. Además de su cuerpo con sus receptores y efectores, la garra­
pata tiene la facultad de detectar tres señales que actúan como estímulos. Y es­
tas señales perceptivas prescriben el curso de sus acciones con tanta rigidez que
sólo puede producir los impulsos efectores correspondientes.
El mundo entero y rico que rodea a la garrapata se encoge para convertirse
en un marco austero que consta, en esencia, de tres señales de recepción y tres
señales efectoras: su Umwelt. Pero la pobreza misma de este mundo garantiza la
indefectible certeza de sus acciones: la seguridad es más importante que la ri
queza (ibíd., págs. 11-12).

Así pues, para Von Uexkull, cada especie animal habita en un entorno
efectivo distinto. Este entorno efectivo está definido por los parámetros que
tienen importancia para un animal y su estilo de vida concreto, y el entorno
general es el mundo físico en todo su esplendor y complejidad.
La monografía de Von Uexkull está repleta de imágenes maravillosas del
aspecto que podría tener el mundo si se viera a través del cristal de la sensa
ción dependiente del U m vell (figuras 1.6 a 1.8). Aunque las ilustraciones
son muy caprichosas, sus ideas son profundas e importantes. La cognición
biológica es muy selectiva y puede sensibilizar a un organismo a cualquier
parámetro (con frecuencia simples) que especifique con fiabilidad las condi-
Agentes autónomos: un paseo por la luna I 65

dones que condernen a esa forma de vida concreta. La similitud entre los
mundos operacionales de Herbert y de la garrapata es sorprendente: ambos
se basan en señales simples que son específicas de sus necesidades y ambos
salen ganando al no molestarse en representar otros tipos de detalles. Una
extensión natural de esta idea, y que da bastante que pensar, es preguntarse
si el ser humano también percibe el mundo de una manera sesgada y res­
tringida. Nuestro tercer mensaje afirma que así es, y de una forma mucho
más espectacular de lo que pueda sugerir la experiencia cotidiana.

1.5 ¿Sensibilidad para los detalles?

Sin duda, muchos lectores estarán de acuerdo en que incluso la avanza­


da percepción humana está sesgada hacia los aspectos del mundo que tienen
importancia para los intereses y las necesidades del hombre. Según el último
y más especulativo mensaje de nuestra breve lista, este sesgo es mucho más
fuerte de lo que hayamos podido imaginar. Concretamente sugiere que nues­
tras experiencias cotidianas de percepción nos pueden inducir a error indi­
cando la presencia de unos modelos del mundo más duraderos y detallados
que los que nuestros cerebros construyen en realidad. Esta idea, en cierto
modo paradójica, exige una cuidadosa introducción.®
Consideremos el acto de correr para atrapar una bola. Se trata de una
habilidad que exhiben rutinariamente los jugadores de criquet y de béis­
bol. ¿Cómo se lleva a cabo? La experiencia común sugiere que vemos la
pelota en movimiento, prevemos la continuación de su trayectoria y co­
rremos para estar en la posición adecuada para interceptarla. En cierto
sentido esto es correcto. Pero la experiencia (la «fenomenología») puede
ser engañosa si creemos que computamos activamente estas trayectorias.
Investigaciones recientes’ indican que una estrategia más eficiente en cuan­
to a computación consiste, simplemente, en correr de manera que la acele­
ración de la tangente de elevación de la mirada del jugador hacia la bola se
mantenga a cero. Si hacemos esto, siempreinterceptaremos la bola antes de
que llegue al suelo. La observación de secuencias grabadas en vídeo de in­
terceptaciones reales indican que, en efecto, los seres humanos utilizan
-inconscientemente- esta estrategia. Una estrategia como ésta evita mu­
chos costes de computación porque aísla los parámetros mínimos y más fá-89

8. Esto se expone con precisión en Churchland y otros, 1994 y está presente en gran par­
te de Dennett, 1991.
9. Estas investigaciones fueron llevadas a cabo por Zolten Dienes en la Universidad de
Sussex (comunicación personal).
66 i De excursión por la mente

F ig u r a 1.6 Entorno y Umwcll de una vieira. Ilustración basada en la figura 19 de


Von Ucxkull, 193-1; adaptada por Christinc Clark, con autorización de International
Universities Press.
Agentes autónomos: un paseo por la luna I 67

FlGL'RA 1.7 Umwelt de un astrónomo. Ilustración basada en la figura 21 de Von


Uexkull, 1934: adaptada por Christine Clark, con autorización de International Uni
versities Press.

cilmente perceptibles que pueden apoyar la acción específica de la inter­


ceptación.
Siguiendo una línea similar, un importante corpus de investigaciones co­
nocido como visión anim ada (Ballard, 1991; véase también P, S. Churchland
y otros, 1994) indica que la resolución cotidiana de problemas guiada por la
visión puede explotar una gran cantidad de estas estratagemas y rutinas es­
pecializadas. En vez de considerar la visión como la transformación de unas
señales luminosas entrantes en un modelo detallado de un mundo externo
tridimensional, la investigación de la visión animada estudia cómo se pueden
apoyar respuestas adaptativas rápidas y fluidas mediante rutinas que requie­
ran menos intensidad computacional: rutinas que entrelacen la sensación
con la acción y con el movimiento en el mundo. Com o ejemplos podemos ci­
tar el uso de movimientos sacádicos rápidos y repetidos para inspeccionar
63 I De excursión por la mente

F igura 1.8 Entorno y Umwell de una abeja. Ilustración basada en la figura 53 de


Von Uexkull, 1934; adaptada por Christine Clark, con autorización de International
Universities Press.
Agentes autónomos: un paseo por la luna I 69

una escena visual y extraer información detallada únicamente en posiciones


foveales seleccionadas, y la explotación de señales más burdas (como el co­
lor) que se pueden detectar en las periferias de baja resolución.
El caso de la exploración visual rápida es especialmente instructivo. Los
ojos humanos utilizan una pequeña área (menos del 0,01 % del campo visual
total) de resolución muy elevada. Los movimientos sacádicos desplazan esta
ventana de alta resolución de un punto a otro en una escena visual. Yarbus
(1967) mostró que estos movimientos pueden ser inteligentes en el sentido
de que un sujeto humano situado frente a una escena idéntica realiza explo­
raciones sacádicas muy diferentes para llevar a cabo tareas distintas. Estos
movimientos son muy rápidos (unos tres por segundo) y suelen incidir una y
otra vez sobre la misma posición. En uno de los estudios de Yarbus, a los su­
jetos se les mostraba la imagen de una habitación con algunas personas en
ella y se Ies pedía que dijeran las edades de estas personas, que adivinaran
qué actividad habían realizado anteriormente o que recordaran las posicio­
nes de personas y objetos. Se identificaron pautas muy diferentes de movi­
mientos sacádicos en función de la tarea especificada.
Según los investigadores de la visión animada, los movimientos sacádicos
frecuentes nos permiten sortear la necesidad de construir modelos detallados y
duraderos de nuestro entorno visual. Según Rodney Brooks, podemos utilizar el
mundo como si fuera el mejor modelo de sí mismo e inspeccionar una y otra vez
la escena real, tomando muestras detalladas en las posiciones concretas requeri­
das. Así se evita la costosa actividad de mantener y actualizar un modelo interno
completo de una escena tridimensional. Además, podemos tomar muestras de la
escena de maneras adecuadas a las necesidades concretas de cada momento.
Aun así, realmente nos parece que, en general, disponemos de una ima­
gen tridimensional completa y detallada del mundo que nos rodea. Sin em­
bargo, como han destacado varios autores recientemente,10 esto puede ser
una ilusión subjetiva que se apoya en nuestra capacidad para incidir rápida­
mente sobre cualquier parte de una escena y recuperar una información de­
tallada (aunque no duradera) de la región de la fóvea. Ballard (1991, pág. 59)
comenta que «el sistema visual produce la ilusión de estabilidad tridimen­
sional por su capacidad de realizar conductas rápidas».
El sentido del tacto nos ofrece una útil analogía." En los años sesenta,
Mackay planteó la siguiente pregunta: imaginemos que estamos tocando
una botella con los ojos cerrados y las yemas de los dedos separadas. Sólo
recibimos sensaciones táctiles de unos cuantos puntos separados. ¿Por qué

!0. Especialmente Dennett, 1991; Ballard, 1991 y Cliurchland y otros, 1994.


11. Véanse Mackay, 1967 y Mackay, 197). Encontré este ejemplo por primera vez en
O'Regan, 1992, págs. 471-476.
70 I De excursión por ta mente

no tenemos la sensación de palpar un objeto con agujeros que correspon­


derían a los espacios que hay entre los dedos? La razón es, en cierto senti­
do, obvia. Utilizamos el tacto para explorar superficies y estamos acostum­
brados a desplazar las yemas de los dedos para encontrar más superficie,
sobre todo cuando sabemos que lo que sostenemos es una botella. No tra­
tamos los espacios entre las entradas sensoriales como si fueran espacios en
el mundo, porque estamos acostumbrados a utilizar los sentidos como ins­
trumentos exploratorios que pasan de un punto a otro. Tras reflexionar so­
bre este caso, un investigador propuso que lo que con frecuencia pensamos
que es el acto sensorial pasivo de «sentir la botella», se entiende mejor si se
concibe como un ciclo basado en la acción donde unas percepciones frag­
mentarias provocan nuevas exploraciones, y que este ciclo de acción es la
base de la experiencia de percibir una botella completa.1- Este punto de vis­
ta radical, donde el tacto se formula como un instrumento exploratorio que
se lanza de acá para allá para explorar una y otra vez el entorno local, se ex­
tiende de una manera completamente natural a la visión y a la percepción
en general.
La sospecha de que la visión no es todo lo que parece se expresa a la per­
fección en el artículo publicado en 1994 por Patricia Churchland, V. S. Ra-
machandran y Terrence Sejnowski con el título «A critique of puré visión»
(Critica Je la visión paral. También ellos proponen que en lugar de una re­
presentación interna formada por «imágenes perfectas» sólo extraemos una
sucesión de representaciones parciales, conjetura que caracterizan como la
hipótesis de los «semimundos visuales» o de las «representaciones parciales
por ojeada». Según ellos, esta hipótesis no sólo está apoyada por considera­
ciones computacionales generales relacionadas con la utilización de movi­
mientos sacádicos frecuentes, etc., sino también por algunos experimentos
psicológicos sorprendentes.”
Estos experimentos se basaban en mostrar imágenes en la pantalla de un
ordenador y «engañar» a los sujetos alterando la imagen mostrada durante
los movimientos sacádicos de los ojos. Resultó que los cambios efectuados
durante los movimientos sacádicos rara vez se detectaban. En estos momen­
tos críticos se pueden cambiar de lugar objetos enteros, se pueden añadir
otros objetos y se pueden modificar los colores, todo esto mientras el sujeto
permanece (normalmente) en la más bendita ignorancia. Quizá sea aún más

12. «El “pcrcepto” dc(la botella es una acción: concretamente, la exploración visual o
mental de la botella. ¡Vo es una simple sensación pasiva que obtenemos de la reúna o algún de­
rivado icónico de la información que hay en ella» (O'Regan, 1992, pág. 472).
13 Véanse McConkie y Rayner, 1976; McConkie, 1979; McConkie, 1990; O'Regan, 1990
y Rdvncr y otros, 1980
Agentes autónomos: un paseo por la luna I 71

sorprendente una investigación relacionada con la anterior, en la que se le


pide a un sujeto que lea un texto presentado en una pantalla de ordenador.
El texto en cuestión nunca está totalmente presente en la pantalla al mismo
tiempo y se limita a una zona que abarca (para sujetos típicos) 17 o 18 ca­
racteres. Este texto está rodeado por caracteres aleatorios que no forman pa­
labras verdaderas. Pero (y aquí está el truco) la ventana de texto real se des­
plaza a lo largo de la pantalla de izquierda a derecha acompañando la mirada
del sujeto. El texto no es repetitivo porque el programa que se ejecuta en el
ordenador garantiza que el texto adecuado vaya apareciendo sistemática­
mente en lugar del texto aleatorio (aunque, como se trata de una ventana
móvil, van apareciendo nuevos caracteres aleatorios donde antes había tex­
to real). Cuando este sistema está bien calibrado para un sujeto concreto,
¡éste no se da cuenta de la presencia de los caracteres extraños! Además, la
impresión subjetiva es, con toda claridad, la de encontrarse frente a una pá­
gina llena de texto verdadero que abarca toda la periferia visual, de izquier­
da a derecha. En estos casos por lo menos podemos decir con seguridad que
la naturaleza experimentada de la escena visual es una especie de ilusión
subjetiva provocada por el empleo de una exploración rápida y una ventana
pequeña de resolución y atención.

1.6 El robot refinado

Hubo un tiempo en que el Mobile Robot Laboratory de Rodney Brooks


tenía un lema: «Rápido, barato y fuera de control». Este es, de hecho, el
mensaje inmediato de la visión de la nueva robótica. Sin una planificación
central o incluso sin el empleo de un código simbólico central, estos sistemas
artificiales navegan de una manera fluida y robusta por el mundo real. Y lo
hacen gracias a unos acoplamientos cuidadosamente orquestados entre unos
dispositivos incorporados relativamente independientes y unos aspectos se­
leccionados del entorno (el Urnwelt del robot, por así decir). A pesar de las
apariencias, ahora parece imaginable que gran parte de la inteligencia hu­
mana se base en estrategias y ardides similares específicos del entorno, y que
también nosotros podamos carecer de un modelo del mundo central e inte­
grado al estilo tradicional. Por tanto, en la medida en que nos tomemos en
serio los mensajes generales de la nueva robótica, nos enfrentaremos a dos
problemas inmediatos y acuciantes.
El primero es un problema de descubrimiento. Si evitamos la imagen fá­
cil del planificador central que cavila sobre estructuras de datos similares a
textos, y si no nos fiamos de nuestras intuiciones sobre la información que
extraemos de los datos sensoriales, ¿qué debemos hacer? ¿Cómo podemos
72 [ De excursión por la mente

siquiera formular hipótesis acerca del posible funcionamiento y la estructu


ra de estas mentes fragmentarias y que desafían nuestra intuición? Brooks y
otros confían en desarrollar un nuevo conjunto de intuiciones basadas en la
atención a conductas específicas y organizadas en torno a la idea general de
una arquitectura de subsunción. Sin embargo, cuando tratemos de abordar
casos cada vez más complejos, es dudoso que este enfoque «artesanal» pue­
da triunfar. En capítulos posteriores investigaremos algunas maneras de
avanzar que parecen estar menos sujetas a las intuiciones humanas: trabajar
con datos neurocientíficos y evolutivos reales, procurar que los sistemas ro-
bóticos aprendan por su cuenta e incluso intentar imitar el cambio genético
para hacer evolucionar generaciones de robots cada vez más refinados. {O b­
servemos la naturaleza y dejemos que la naturaleza simulada siga su curso!
El segundo problema es de coherencia. Tanto el poder como el misterio
de la investigación de la nueva robótica residen en el empleo de múltiples
subsistemas cuasi independientes de los que, en condiciones ecológicas ñor
males, emerge con delicadeza una conducta orientada a metas. El poder es­
triba en la capacidad de respuesta robusta y en tiempo real de estos sistemas.
El misterio es cómo mantener unas pautas de conducta coherentes cuando
los sistemas se hacen más y más complejos y se les exige que muestren una
variedad de conductas cada vez más amplia. Naturalmente, una respuesta a
este problema es renunciar a la imagen básica e insistir en que las conductas
complejas y avanzadas deben basarse en algo parecido a un sistema planifi­
cador simbólico central. Sin embargo, no deberíamos rendirnos antes de
tiempo. En los capítulos que siguen, sacaremos a la luz una cantidad sor­
prendente de estrategias y ardides adicionales que pueden inducir una co­
herencia global. La mayoría de estas estrategias suponen el empleo de algún
tipo de estructura externa o «andamiaje» para moldear y orquestar la con­
ducta. Entre los candidatos más evidentes se encuentran el entorno físico
inmediato (recordemos a Herbert) y nuestra capacidad para reestructurar
activamente ese entorno con el fin de apoyar y extender mejor nuestras ca­
pacidades naturales para la resolución de problemas. Estas estrategias son
especialmente manifiestas en el desarrollo infantil. Entre otros factores menos
evidentes pero que tienen una importancia crucial, se encuentran la presen­
cia restrictiva del lenguaje, la cultura y las instituciones públicas, la economía
interna de las respuestas emocionales y diversos fenómenos relacionados con
la inteligencia grupal o colectiva. En particular, el lenguaje y la cultura apa­
recen como unas especies avanzadas de andamiaje externo, «diseñadas» para
extraer la máxima coherencia y utilidad de unas mentes fundamentalmente
cortas de vista, especializadas e internamente fragmentadas. Por tamo, des­
de sus inicios en la simple robótica, nuestro viaje llegará a tocar -y en oca­
siones a poner en entredicho- algunos de los elementos más arraigados de la
Agentes autónomos: un paseo por la luna I 73

imagen intelectual que tenemos de nosotros mismos. El «deliberador racio­


nal» resulta ser un «respondedor adaptativo» bien camuflado. Cerebro,
cuerpo, mundo y artefacto están estrechamente vinculados entre sí, forman­
do la más compleja de las conspiraciones. Y mente y acción se manifiestan
en un íntimo abrazo.
2 El niño situado

2.1 Yo, robot

Robots que recogen latas de refrescos, exploradores lunares, cucarachas:


si todo esto nos suena extraño, pensémoslo mejor. La incipiente perspectiva
sobre la cognición corpórea también nos puede ofrecer la mejor esperanza
hasta el momento de comprender las características fundamentales del pen­
samiento y el desarrollo humanos. Un campo especialmente prometedor es
el estudio de la infancia. La imagen que tiene la nueva robótica de «pensar
con los pies» encuentra un complemento natural en nuestra comprensión
creciente del desarrollo del pensamiento y la acción en los niños, porque el
especialista en robótica y un número cada vez mayor de psicólogos del desa­
rrollo coinciden en destacar la delicada interacción entre cerebro, cuerpo y
entorno local para determinar el éxito cognitivo inicial.
De hecho (y para ser históricamente justos), es probable que los psicólo­
gos del desarrollo fueran de los primeros en destacar la verdadera relación
entre los factores internos y externos para determinar el cambio y el éxito
cognitivo. En este sentido, teóricos como Jean Piaget, James Gibson, Lev
Vygotsky y Jeromc Bruner, aunque partiendo de enfoques muy diferentes,
previeron muchas de las ideas de cariz más radical a las que ahora se dedica
la robótica situada.’ Con todo, continúan existiendo abundantes posibilida­
des para un mutuo esclarecimiento, pues cada uno de los dos campos dispo­
ne de un conjunto distinto de instrumentos conceptuales y experimentales y
de Corpus de datos diferentes. Por tanto, la alianza intelectual entre la psico­
logía del desarrollo y las otras ciencias de la mente corpórea puede acabar

1. Véanse, por ejemplo, Fiagei, 1952, 1976; Gibson, 1979; Bruner, 1968; Vygotsky, 1986.
76 I De excursión por la mente

siendo una de las empresas interdisciplinarias más apasionantes de la próxi­


ma década.
En este capítulo se exploran cinco hitos de fundamental importancia que se
encuentran a lo largo de esta frontera interdisciplinaria: la idea de bucles de ac­
ción que entrecruzan el organismo y su entorno (apartado 2.2); una visión muy
interactiva del proceso de desarrollo según la cual mente, cuerpo y mundo ac
túan en pie de igualdad (apartado 2.3); una imagen de la cognición biológica en
la que emergen soluciones a problemas sin un control ejecutivo central (apar
tado 2.4); el reconocimiento del papel fundamental desempeñado por apoyos y
estructuras externas para posibilitar el éxito adaptativo y proporcionar la en
voltura para el aprendizaje individual (apartado 2.5); y un escepticismo cre­
ciente, enraizado en todas las consideraciones anteriores, acerca del verdadero
valor de las divisiones intuitivas entre percepción, acción y cognición (apartado
2.6). La conclusión a la que se llega es que el desarrollo cognitivo no se puede
tratar con eficacia aislándolo del hecho de que el niño está embebido en el
mundo e interacciona con él. En una imagen más adecuada de la cognición in­
fantil (y, de hecho, de toda cognición), percepción, acción y pensamiento se vin­
culan entre sí en una variedad de formas complejas e interpenetradas.

2.2 Bucles de acción

Consideremos un puzzle. Una manera (improbable) de tratar de resolverlo


consiste en mirar muy fijamente una pieza y tratar de determinar, sólo con la ra­
zón, si encaja en una posición determinada. Sin embargo, en la práctica real em­
pleamos una estrategia mixta en la que hacemos una determinación mental
aproximada y luego probamos físicamente si la pieza encaja o no. En general,
no nos representamos la forma detallada de una pieza lo suficientemente bien
como para saber con certeza si encajará antes de realizar esta manipulación fí­
sica. Además, podemos hacer girar físicamente las piezas candidatas antes de
probar si encajan para simplificar la tarea más «mental» de evaluar aproxima­
damente su ajuste potencial (recordemos el empleo por parte de Herbert de un
procedimiento similar, girando sobre sí mismo para fijar una lata en una posi­
ción central canónica de su campo visual). Por tanto, acabar un puzzle supone
una danza intrincada y repetida donde el «pensamiento puro» conduce a ac­
ciones que, a su vez, cambian o simplifican los problemas a los que se enfrenta
este pensamiento. Probablemente, éste es uno de los ejemplos más sencillos de
los fenómenos conocidos como bucles de acción.2

2. Véanse exposiciones de fenómenos de bucles de acción en Colé y otros, 1978; Rut-


kowska, 1986, 1993; Theíen y Smith, 1994.
El niño situado í 77

Recientes investigaciones sobre el desarrollo realizadas por Esther The-


len y Linda Smith, indican que estas interacciones entre pensamiento y ac­
ción puede ser tan omnipresentes y fundamentales, que estas investigado­
ras sospechan que todo nuestro conocimiento inicial se construye
«mediante interacciones trabadas en el tiempo entre percepción y acción
en contextos particulares» {Thelen y Smith, 1994, pág. 217). Para ver lo
que esto significa, consideremos la conducta de los niños pequeños ante
precipicios visuales (un precipicio visual es una caída vertical cubierta con
una superficie fuerte, rígida y transparente de plexiglás u otro material si­
milar). Se ha demostrado que los niños que aún no pueden gatear son ca­
paces de distinguir los lados poco profundos del precipicio de la zona que
se encuentra más allá de la caída. Muestran una atención y un interés ere
cientes y, sorprendentemente, lloran menos cuando se encuentran encima
del precipicio que cuando están sobre los lados menos profundos. Los ni­
ños de más edad y con mayor movilidad responden al precipicio con res­
puestas asociadas al miedo (Campos y otros, 1978).' Claramente, los dos
grupos de niños pueden percibir la información visual que especifica la
profundidad. La diferencia crucial parece residir en cómo se emplea esta
información, es decir, en cómo interviene en la interacción entre percep
ción y acción.
Un trabajo reciente sobre las respuestas de los niños a las pendientes nos
ofrece más información sobre esta interacción. En esta investigación, se co­
locaron niños pequeños con diferentes tipos de movilidad (niños que gatea­
ban y niños que caminaban) sobre pendientes con distintos grados de incli­
nación. Los que caminaban (14 meses) recelaban de las pendientes con 20°
o más de inclinación y, o bien se negaban a descender, o bien bajaban desli­
zándose. Los niños que gateaban abordaban con intrepidez inclinaciones de
20° o más y, normalmente, acababan cayendo (aunque siempre se Ies cogía a
tiempo).
Sin embargo, tras un examen detallado apareció una pauta fascinante. A
medida que los niños que gateaban iban aumentado su experiencia, apren­
dían a evitar las pendientes más inclinadas. Pero en el momento de transi­
ción en el que los niños empezaban a caminar, este conocimiento obtenido
con tanto esfuerzo parecía desaparecer. Los niños que empezaban a caminar
tuvieron que aprender sobre las pendientes desde el principio. En una prue­
ba, dos terceras partes de estos niños «se lanzaban sin vacilación por todas
las pendientes, igual que hicieron al encontrarse con ellas por primera vez,
cuando sólo gateaban» (Thelen y Smith, 1994, pág. 220)/’34

3. Véase también Rutkowska, 1993, pág. 60.


4. El trabajo comunicado fue llevado a cabo por Adolph y otros (1993).
78 I De excursión por la mente

Estas pruebas no sólo sugieren que los niños aprenden sobre el mundo
realizando acciones, sino también que el conocimiento mismo que adquieren
suele ser específico de la acción. Los niños pequeños no emplean su expe­
riencia de gatear para adquirir conocimientos sobre las pendientes en gene­
ral. En cambio, adquieren conocimientos sobre el papel de las pendientes en
contextos específicos que implican una acción. O tros resultados relaciona­
dos con la especificidad del conocimiento de los niños pequeños apuntan en
la misma dirección general/
Este fenómeno no se limita a la infancia. Investigaciones recientes sobre los
mecanismos de compensación perceptiva de los adultos revelan un perfil espe­
cífico de la acción de carácter similar. Thach y otros (1992) presentan un ejem­
plo centrado en la adaptación perceptiva en condiciones inusuales." Thach y sus
colegas estudiaron la adaptación humana a unas lentes especiales que despla­
zaban la imagen hacia la derecha o la izquierda. Es bien sabido que el sistema
de percepción humano puede aprender a adaptarse a esta clase de distorsiones.
De hecho, varios experimentos demuestran que los sujetos pueden adaptarse
incluso a lentes que invierten por completo la escena visual haciendo que el
mundo se vea cabeza abajo. Después de llevar estas lentes de inversión unos
cuantos días, los sujetos comunican unos cambios súbitos donde los aspectos
del mundo se reorientan correctamente. Naturalmente, cuando se ha produci­
do esta adaptación, los sujetos dependen de las lentes: si se las quitan, el mun­
do vuelve a aparecer invertido hasta que se produce una nueva adaptación.
Lo que mostró el grupo de Thach es que, en el caso de las lentes de des­
plazamiento lateral, la adaptación parece ser específica de ciertos bucles mo­
tores. Se pidió a los sujetos que lanzaran dardos a una diana. Al principio fa­
llaban como resultado del desplazamiento lateral producido por las lentes.
Sin embargo, con el tiempo se produjo una adaptación y fueron capaces de
apuntar tan bien como antes (a diferencia de lo que ocurría en los experi­
mentos con lentes de inversión, esta adaptación no tuvo ninguna conse­
cuencia en la experiencia: los sujetos no comunicaron ningún «rebote» de la
imagen visual consciente). Pero, en la mayoría de los casos, esta adaptación
era específica del bucle motor. Al pedírseles que lanzaran los dardos sin le­
vantar el brazo por encima del hombro -en vez de tirarlos por encima de la
cabeza- o que emplearan su brazo no dominante, los sujetos no mostraron
una mejora comparable. La adaptación para los lanzamientos por alto y con
el brazo dominante no se extendieron en absoluto a los otros casos. Lo que
parece haber ocurrido es un adaptación restringida a la combinación especí­
fica del ángulo de visióh y el ángulo de tiro empleados en un lanzamiento

5. Véanse Shields y Rovee-Collier, 1992; Rovee-Collier, 1990.


6. Véase un estudio general de experimentos con lentes deformadoras en Welch, 1978
E! niño situado I 79

normal. Lo que no se produjo fue una adaptación perceptiva general que


ofreciera «datos de entrada corregidos» para que fueran utilizados por cual
quier subsistema cognitivo o motor.
Thach y otros han relacionado sus resultados con algunas hipótesis muy
específicas y fascinantes sobre el papel de una estructura nerviosa concreta
-el cerebelo- en el aprendizaje de respuestas pautadas a estímulos encontra
dos con frecuencia. Estas conjeturas encajan bien con la imagen que nos va­
mos forjando, puesto que indican que la antigua imagen que consideraba al
cerebelo puramente implicado en tareas motrices es errónea y que las fun­
ciones motrices y algunas funciones cognítivas «superiores» pueden estar ín­
timamente relacionadas en el cerebro. Por ahora, sin embargo, sólo es nece­
sario destacar que puede hacer falta algún replanteamiento de la imagen
«pasiva» de nuestro contacto perceptivo con el mundo. Al parecer, en mu­
chos casos la percepción no se debería contemplar como un proceso en el
que se recopilan pasivamente datos del entorno. En cambio, la percepción
puede estar orientada desde el principio hacia rutinas de acción específicas.
Asi pues, el reto estriba en desarrollar «una estructura teórica que sea, por
asi decir, más “motorcéntrica” que “visuocéntrica"» (P. S. Churchland y otros,
1994, pág. 60). Los estudios detallados de microdesarrollos, como el trabajo
sobre el modo de superar pendientes, parecen ofrecer una prometedora base
experimental sobre la que fundamentar una reorientación tan radical.

2.3 Desarrollo sin diseños

Aquí entenderemos por diseño un plan o una especificación muy deta­


llados de -po r ejemplo- un automóvil o un edificio. Las explicaciones más
sencillas (pero normalmente menos satisfactorias y admisibles) del desarro­
llo, describen la alteración y el crecimiento de las capacidades cognitivas de
un niño como el despliegue gradual de un «diseño» para el cambio cogniti­
vo determinado genéticamente. Según la ingeniosa descripción de Thelen
y Smith (1994, pág. 6), estas explicaciones, que predominaron durante los
años treinta y cuarenta,78 conciben el desarrollo como «una progresión lineal
y por etapas a través de una secuencia de conductas cada vez más funciona­
les que es dirigida hacia unas formas adultas por un plan global (que está
programado por un cronometrador global)». Estas concepciones aún siguen
con nosotros, pero con unas formas cada vez más sofisticadas. Por ejemplo,
el desarrollo gradual de la capacidad para caminar se explica como el efecto

7. Recuérdense los ejemplos de visión animada descritos en el capítulo 1.


8. Véase, por ejemplo, Gesell 1939; McGraw, 1945, y e! capítulo 1 de Thelen y Smith, 1994.
80 I De excursión por la mente

de unos aumentos de la velocidad de procesamiento del cerebro que están


determinados por la maduración y que permiten un control y una integra*
ción motrices de carácter complejo (Zelazo, 1984).
Sin embargo, desde la perspectiva altamente interactiva que hemos esta*
do desarrollando, estos enfoques suelen incurrir en un error muy común.
Toman un fenómeno complejo (por ejemplo, el desarrollo de la capacidad
del niño para caminar) y buscan un solo factor determinante. Este error es lo
que Mitchel Resnick, del MIT Media Lab, denomina «pensamiento centra­
lizado»:

...la gente tiende a buscar la causa, la razón, la fuerza impulsora, el factor decisi­
vo. Cuando la gente observa pautas y estructuras en el mundo (por ejemplo, las
pautas de las bandadas de aves o las pautas de búsqueda de alimento de las hor­
migas), suele suponer unas causas centralizadas que en realidad no existen. Y
cuando la gente intenta crear pautas o estructuras en el mundo (por ejemplo,
nuevas organizaciones o máquinas), suele imponer un control centralizado que,
en realidad, no es necesario (Resnick, 1994, pág. 120).

He citado este pasaje completo porque capta perfectamente un mensaje


fundamental de nuestras investigaciones que aparecerá una y otra vez en este
libro: los fenómenos complejos presentan una gran autoorganización. De he­
cho, las aves que vuelan en bandada no siguen a un líder. En cambio, cada ave
sigue unas cuantas reglas sencillas que hacen que su conducta dependa de la
conducta de las aves que tiene más cerca. La pauta de la bandada surge de
la masa de estas interacciones locales: no está orquestada por un líder o por
un plan general representado en la mente de cada ave. De manera similar,
ciertos tipos de hormigas buscan alimento mediante un proceso de «recluta­
miento en masa». Cuando una hormiga encuentra alimento, vuelve al nido y,
durante el recorrido, va soltando un marcador químico (una feromona).
Cuando otra hormiga detecta este rastro, lo sigue hasta llegar a la fuente de
alimento. Esto hace que, a su vez, esta hormiga refuerce el rastro químico.
Este rastro más fuerte tiene más probabilidades de atraer a otra hormiga que,
cuando encuentre el alimento, reforzará aún más la señal química aumentan­
do su potencia. Por tanto, lo que nos encontramos aquí es un proceso exten­
dido de retroalimentación positiva que pronto conduce a una concentración
masiva de actividad, con centenares de hormigas recorriendo el camino arri­
ba y abajo. La cuestión es que esta organización se consigue mediante unas
cuantas «reglas» locales sencillas que, en presencia de la fuente de alimento y
de otras hormigas, dan origen a esta conducta aparentemente organizada.9

9, Véase una simulación por ordenador de este y otros fenómenos emergentes en Resnick,
1994, págs. 60^67.
El niño situado | 61

Algunos estudios recientes proponen que el desarrollo infantil también


se puede comprender mejor desde el punto de vista de las interacciones de
múltiples factores locales que incluyen, en pie de igualdad, el crecimiento
corporal, los factores ambientales, la maduración del cerebro y el aprendiza­
je. No existe un «diseño» para la conducta ni en el cerebro ni en los genes,
igual que no existe un diseño de la bandada en la cabeza de las aves.
Para captar el sabor de esta propuesta, consideremos el caso de aprender
a caminar. Los datos brutos son los siguientes: cuando un recién nacido es
suspendido por encima del suelo, realiza unos movimientos de pisar bien co­
ordinados; hacia los dos meses de edad estos movimientos de pisar se pierden;
los movimientos reaparecen entre los ocho y los diez meses de edad, cuando
el niño empieza a apoyar su peso sobre los pies; hacia los doce meses, apare­
ce el andar independiente. Según el punto de vista «del plan global y el fac­
tor único», sería de esperar que estas transiciones fueran expresiones de la
maduración o el desarrollo de una fuente central (por ejemplo, la apropia­
ción gradual de unos procesos similares a reflejos por parte de un centro
cognítivo superior; véase Zelazo, 1984). Sin embargo, los estudios del mi-
crodesarrollo indican que estas transiciones no están orquestadas por una
entidad central y que, al parecer, se deben a la interacción de múltiples fac­
tores en condiciones esenciales de igualdad.
Por ejemplo, aunque es cierto que el reflejo de pisar desaparece hacia los
dos meses de edad, todavía se producen unos movimientos cinemáticos casi
idénticos cuando el niño está tendido sobre la espalda. Este «pataleo en de­
cúbito supino» persiste durante todo el primer año de vida. Ahora parece
que el parámetro crucial que subyace a la desaparición del pisar a los dos
meses es, simplemente, ¡la masa de las piernas! En la postura erguida, la re­
sistencia ejercida por la masa de las piernas hacia los dos meses de edad su­
pera la acción elástica de los músculos. Esta hipótesis está apoyada por unos
experimentos (figura 2.1) donde el pisar desaparece cuando se añade peso a
las piernas de un niño que pisa y por otros donde el pisar reaparece cuando
niños de tres meses de edad que no pisan se sostienen erguidos dentro del
agua para reducir la masa efectiva de las piernas.10
Las manipulaciones del entorno son igualmente eficaces para estudiar la
segunda fase: la reaparición del pisar entre los ocho y los diez meses de edad.
Cuando colocamos a niños más pequeños que no pisan en una rueda de an­
dar, pisan de una manera coordinada; incluso son capaces de ajustar el ritmo
de su paso a la velocidad de la rueda y de adaptarse a restricciones asimétri­
cas cuando se les coloca sobre una rueda de andar con dos cintas indepen-

10. Véase Thelen y Smith, 1994, págs. 11-12. Véanse también Thelen y otros, 1982 y Thc-
Icn y otros, 1984.
82 i De excursión por la mente

FIGURA 2.1 Este niño de tres meses de edad fue sometido a prueba para ver si pisa­
ba erguido, primero sobre una mesa y después sumergido en agua tibia. Fuente:
Thelen y Smith, 1994. Por gentileza de E. Thelen, L. Smith y MIT Press.

clientes que van a velocidades distintas. Se encontró que la conducta de pi*


sar en ruedas de andar se daba en niños de edades comprendidas entre uno
y siete meses de edad (Thelen y Smith, 1994, págs. 11-17).11
Estos últimos resultados indican que la pauta mecánica ocasionada por
la extensión de las piernas hacia atrás, que a su vez está provocada por la
rueda, tiene un papel fundamental. Este componente de pisar es indepen­
diente de las transiciones conductuales generales normales que reflejan la in­
fluencia de múltiples factores adicionales como la masa de las piernas. La
pauta evolutiva no es la expresión de un diseño interno. Más bien refleja la
compleja interacción de múltiples fuerzas, algunas corporales (como la masa
de las piernas), otras mecánicas (la extensión de las piernas y las acciones
elásticas), algunas totalmente externas (la presencia de ruedas de andar,
agua, etc.) y otras más cognitivas e internas (la transición hacia un movi-

II. Véanse también Thelen, 1986; Thelen y otros, 1987 y Thelen y Ulrich, 1991.
El niño situado I 83

miento volitivo, es decir, deliberado). Centrarse exclusivamente en uno de


estos parámetros equivale a pasar por alto la verdadera explicación del cam­
bio evolutivo, que se basa en comprender la interacción de diversas fuerzas
y eliminar la necesidad de postular un solo factor controlador.

2.4 «Montaje blando» y soluciones descentralizadas

Una perspectiva multifactorial conduce, de una manera bastante natural,


a un respeto y un interés teórico crecientes hacia lo que podría denominarse
«idiosincrasias históricas del desarrollo individual». Pero esto exige explicar
el delicado equilibrio existente entre la variación individual y los logros evo­
lutivamente sólidos. Una noción fundamental para comprender esta acción
de equilibrio es la de montaje blando.
Un brazo robódco tradicional, gobernado por un programa clásico, pro­
porciona un ejemplo de «montaje duro». Dispone de un repertorio de movi­
mientos y su éxito depende de la precisión de la colocación, la orientación, el
tamaño y otras características de los componentes que debe manipular. En
cambio, el andar humano es de montaje blando en el sentido de que compensa
de una manera natural cambios bastante importantes en el espacio del proble­
ma. Como indican Thelen y Smith, las aceras heladas, las ampollas en los pies y
los zapatos de tacón «reclutan» diferentes pautas de marcha, control muscular,
etc., mientras se mantiene el objetivo general de la locomoción. En general, el
control centralizado con modelos internos o especificaciones de carácter deta­
llado parece ser desfavorable para esta adaptación fluida y contextual (recor­
demos las lecciones de la robótica situada en el capítulo 1). En cambio, los en­
foques multifactoriales y descentralizados suelen producir esta adaptación
sólida y contextual como una consecuencia indirecta y sin coste alguno. La ra­
zón de esto es que, como vimos antes, estos sistemas crean acciones basándose
en «asociaciones en pie de igualdad» donde el entorno local desempeña un pa­
pel fundamental en la selección de conductas. En situaciones donde una solu­
ción más clásica, dirigida por un modelo interno, fracasa como resultado de la
incapacidad del modelo para reflejar cambios novedosos en el entorno, las so­
luciones basadas en «asociaciones en pie de igualdad» suelen ser capaces de
funcionar porque el entorno mismo ayuda a orquestar la conducta.
Siguiendo esta misma línea, Pattie Maes del MIT Media Laboratory des­
cribe un sistema de planificación cuyo objetivo consiste en emparejar proce­
sos (tareas o partes de tareas) con procesadores (máquinas).12 Se trata de una

12. Este ejemplo procede de Maes, 1994 (págs. 145-146), Los agentes de planificación
clásicos se describen en Kleinrock y Nilsson, 1981
84 I De excursión por la mente

empresa compleja puesto que siempre se están creando tareas nuevas y el vo­
lumen de trabajo de cada máquina varía continuamente. Un solución tradi­
cional de montaje duro adoptaría un enfoque centralizado donde un sistema
contendría un Corpus de conocimientos sobre las configuraciones de las di­
ferentes máquinas, las tareas típicas, etc. Este sistema también reuniría con
cierta frecuencia datos procedentes de todas las máquinas acerca de su volu­
men de trabajo actual, los trabajos que hay en espera, etc. A continuación, y
utilizando toda esta información y algunas reglas o heurísticos, el sistema tra­
taría de elaborar una programación (una asignación eficiente de tareas a má­
quinas). Ésta es la solución ofrecida por la «cognición centralizada pura».
Ahora consideremos, en cambio, la solución descentralizada favorecida por
Maes.!* Aquí, cada máquina controla su propio volumen de trabajo. Si una
máquina A crea una tarea, envía una «solicitud de ofertas» a todas las má­
quinas restantes. Las otras máquinas responden a esta petición enviando un
cálculo aproximado del tiempo que tardarían en realizar la tarea (las máqui­
nas que se utilicen poco o que ya tengan cargado un programa adecuado
«pujarán» más que las máquinas muy utilizadas o mal preparadas). Enton­
ces, simplemente, la máquina original envía el trabajo a la máquina que más
haya «pujado». Esta solución es a la vez sólida y de montaje blando. Si en
una máquina se produce un fallo, el sistema lo compensa automáticamente.
Y no hay una sola máquina que sea crucial: la planificación es más bien una
propiedad emergente de las interacciones simples de «anunciar» y «pujar»
entre las máquinas que estén activas en cada momento. Como no existe un
modelo central de la configuración del sistema en ningún lugar, no se plan­
tean los problemas asociados con la actualización y la utilización de seme­
jante modelo.
Los montajes blandos formados por múltiples componentes básicamen­
te independientes producen una mezcla característica de solidez y flexibili­
dad. Las soluciones que emergen se adaptan a las particularidades del con­
texto y al mismo tiempo satisfacen un objetivo general. Esta mezcla, que
impregna todo el desarrollo, persiste en la resolución de problemas y la ac­
ción durante la madurez. Por tanto, la variabilidad individual no se debería
desestimar como si fuera «mala información» o «ruido» que oscureciera, de
alguna manera, unas pautas de desarrollo esenciales. En cambio, como in­
sisten Thelen y Smith, es una buena pista hacia la naturaleza de los procesos
de montaje blando subyacentes.1314
Para ilustrar esto, Thelen y Smith describen el desarrollo de la conducta
de alcanzar en varios niños pequeños. A pesar del carácter común de la con-

13. Se basa en Malone y otros, 1988.


14. Por tamo, la %'ariabilidad es un dato, no ruido; véase Smith y Thelen, 1994, págs. 86-88.
El niño situado I 85

ducta global final (la capacidad para alcanzar objetos), encontraron fuertes
diferencias individuales. En cada caso concreto, la conducta de alcanzar re­
sultó ser el resultado del montaje blando de unos componentes un tanto di­
ferentes, que reflejaban diferencias en la dinámica intrínseca de los ni­
ños y en su experiencia histórica. Aunque la descripción que ofrecen Thelen
y Smith es muy detallada, aquí nos limitaremos a examinar algunos aspectos
destacados.
Uno de los niños, Gabriel, era muy activo por naturaleza y agitaba los
brazos con mucha rapidez. Para él, la tarea consistió en convertir estos mo­
vimientos en una conducta de alcance dirigido. Para conseguirlo, necesitó
aprender a contraer los músculos cuando el brazo estaba cerca de un objeto
con el fin de moderar los movimientos y establecer un contacto adecuado.
En cambio, Hannah era más bien inactiva en el aspecto motor. Movía las
manos con muy poca velocidad y escasa fuerza. Su problema no era moderar
los movimientos, sino producir el impulso suficiente para vencer la gravedad.
Otros niños presentaban distintas mezclas de dinámica intrínseca, pero
en todos los casos el problema básico consistía en aprender a controlar esta
dinámica intrínseca (cuya naturaleza, como hemos visto, puede variar consi­
derablemente) para alcanzar un objetivo. Para hacerlo, el sistema nervioso
central (SNC) debe encontrar una solución que tenga en cuenta una amplia
variedad de factores que incluyen la energía, el temperamento y el tono mus­
cular. Una propuesta prometedora15 es que, cuando hace esto, el SNC trata
el sistema total como si fuera un conjunto de muelles y masas. Por tanto, no
se ocupa de generar modelos internos de trayectorias de alcance, etc., sino
de aprender a modular factores como la rigidez de las extremidades para que
la energía transmitida se combine con una dinámica intrínseca parecida a la
de los muelles y produzca una oscilación cuyo punto de reposo sea el objeto
deseado. Es decir, el SNC se trata como un sistema de control para un cuer­
po cuya dinámica intrínseca desempeña un papel crucial en la determinación
de la conducta.
Por tanto, los problemas evolutivos a los que se enfrenta cada niño son
diferentes, puesto que la dinámica intrínseca de cada niño es distinta. Lo que
tienen en común es el problema de nivel superior de dominar esta dinámica
individual para lograr alguna meta como la conducta de alcanzar. A lo largo
del desarrollo, el trabajo del SNC no es «meter en vereda» cada vez más al
cuerpo para que pueda llevar a cabo unas órdenes detalladas y representadas
internamente que especifican, por ejemplo, las trayectorias que deben seguir
los brazos. En cambio, su tarea consiste en aprender a modular parámetros
(como la rigidez) que después interaccionarán con restricciones intrínsecas

15. PolityBizzi, 1978; Hogan y otros, 1987; Jordán y otros, 1994; Thelen y Smith, 1994.
86 I De excursión por la mente

corporales y ambientales para producir los resultados deseados. En resu­


men, la tarea consiste en aprender a armar conductas adaptativas mediante
montajes blandos que respondan al contexto local y exploten la dinámica in­
trínseca. Así pues, mente, cuerpo y mundo intervienen en pie de igualdad en
la construcción de conductas sólidas y flexibles.

2.5 Mentes con andamiajes

Hay una propiedad final de las soluciones basadas en los montajes blan­
dos que se debe mencionar explícitamente porque ocupará un lugar desta­
cado en varios capítulos posteriores. Se refiere a la afinidad natural existen­
te entre el montaje blando y el empleo de andamiajes externos. Como ya se
ha apuntado antes, cuando el sistema nervioso central aprende a modular
parámetros como la rigidez, lo que hace en realidad es resolver un problema
«suponiendo» un telón de fondo formado por una dinámica corporal intrín­
seca concreta (las propiedades elásticas de los músculos). Estos telones de
fondo no tienen por qué limitarse al cuerpo del agente: con frecuencia po­
demos resolver problemas «a horcajadas» sobre ciertas propiedades fiables
del entorno. Lo que quiero denotar con el término andamiaje es esta explo­
tación de la estructura externa.
La noción de andamiaje tiene sus raíces en el trabajo del psicólogo sovié­
tico Lev Vygotsky.16 Vygotsky destacó que la experiencia con estructuras ex­
ternas (incluyendo las lingüísticas, como palabras y frases, véase el capítulo
10) puede alterar y dar contenido a los modos de procesamiento y compren­
sión intrínsecos de un individuo. La tradición que siguió incluía la noción de
una zona de desarrollo proximal:17 la idea de que la ayuda de los adultos en
momentos cruciales del desarrollo del niño, daría a éste la experiencia de
una acción con éxito que el niño, por sí solo, no podría conseguir. Ofrecer
apoyo durante los primeros pasos vacilantes de un niño que empieza a cami­
nar y sostener a un bebé en el agua para que pueda realizar movimientos de
natación son dos buenos ejemplos.
Sin embargo, la noción intuitiva de andamiaje es más amplia porque pue­
de abarcar toda clase de apoyos y ayudas externas, tanto si proceden de
adultos como del entorno inanimado.18 Como ejemplos tenemos la utiliza­
ción de la estructura física del entorno de la cocina como ayuda externa para
la memoria (agrupando las especias, los cacharros, etc.; Colé y otros, 1978) y

16. Véase, por ejemplo, Vygotsky, 1986.


17. Véanse, por ejemplo. Valsiner, 1987 y Wcrtsch, 1981.
18. Vcase esta utilización, por ejemplo, en Rutkowska, 1993, págs. 79-80
El niño situado I 87

el empleo de utensilios especiales para comer que reducen la libertad del


niño para derramar y pinchar cosas, al tiempo que ofrecen un tosco simula­
cro del entorno de un adulto cuando come (Valsiner, 1987).19Para nuestros
propósitos actuales, la cuestión es que las estructuras del entorno, como la
elasticidad de los músculos, forman un telón de fondo en relación al cual se
configuran los problemas computacionales individuales a los que se enfren­
ta cada niño.
Este andamiaje es muy común en casos no cognitivos. La simple esponja,
que se alimenta filtrando agua, explota la estructura de su entorno físico na­
tural para reducir la cantidad de bombeo que debe realizar: cambia de orien­
tación y aprovecha las corrientes del entorno para alimentarse.20 Aunque se
trata de una estrategia manifiesta, los biólogos no la han reconocido hasta
hace muy poco. La razón de esta tardanza es reveladora: los biólogos han
tendido a centrarse únicamente en el organismo individual como sede de la
estructura adaptativa. Han tratado el organismo como si se pudiera entender
independientemente de su mundo físico. En este sentido, los biólogos se han
parecido mucho a los científicos cognitivos que sólo han buscado explica­
ciones internas para los fenómenos cognitivos. En respuesta a estas tenden­
cias, el biólogo Vogel (1981, pág. 182) ha recalcado la necesidad de un prin­
cipio de parsimonia: «N o desarrollar explicaciones que requieran un gasto
de energía metabólica (por ejemplo, la hipótesis de bombeo total para la es­
ponja) hasta que se puedan descartar los efectos físicos simples (por ejemplo,
la utilización de las corrientes del entorno)». La extensión de la máxima de
Vogel al ámbito cognitivo es simple. Es lo que una vez denominé «principio
007»:

En general, los seres evolucionados no almacenarán ni procesarán informa­


ción de maneras costosas si pueden emplear la estructura del entorno y sus ope­
raciones sobre él como sustitutos convenientes de las operaciones implicadas en
el procesamiento de la información. Es decir, no hace falta saber más de lo nece­
sario para cumplir una misión (Clark 1989, pág. 64).

Este principio se refleja en el lema de la mobótica: «El mundo es la me­


jor representación de sí mismo». También es un compañero natural de las
nociones de montaje blando y de resolución de problemas descentralizada.
En lugar de un dispositivo intelectual que cavila inmerso en un reino de mo­
delos internos detallados, nos enfrentamos a un agente corpóreo y embebi­
do que interviene, en pie de igualdad, en respuestas adaptativas que hacen

19. Véanse también el capítulo 4 de Clark, 1989 y el capítulo 3 de Rutkowska, 1993.


20. Véanse Vogel, 1981 y el capítulo 4 de Clark, 1989.
88 i De excursión por la mente

uso de recursos de la mente, el cuerpo y el mundo. Hasta ahora hemos visto


unos cuantos ejemplos preliminares basados en la dinámica corporal y en el
empleo de ciertos tipos sencillos de almacenamiento externo de memoria.
En capítulos posteriores aplicaremos estas ideas a las esferas especiales de las
estructuras externas puestas a nuestra disposición por el lenguaje, la cultura
y las instituciones.

2.6 La mente como espejo frente a la mente como controladora

Acabamos de ver que la cognición puede explotar de varias maneras la


acción real para reducir la carga computacional. La perspectiva desarrollada
en los apartados precedentes nos lleva un paso más allá, porque indica algu­
nas de las maneras en que las conductas sólidas y flexibles pueden depender
de procesos descentralizados de montaje blando donde mente, cuerpo y
mundo actúan en pie de igualdad en la determinación de la conducta adap-
tativa. Esta perspectiva conduce a un profundo cambio en nuestra concep­
ción de la mente y de la cognición, un cambio que yo caracterizo como la
transición desde los modelos de la representación como reflejo o codifica­
ción, hasta los modelos de la representación como control (Clark, 1995). La
idea es que el cerebro no se debería contemplar como la sede de unas des­
cripciones internas de situaciones externas; más bien se debería considerar la
sede de unas estructuras internas que operan en el mundo mediante su papel
en la determinación de acciones.
Podemos encontrar un excelente ejemplo del empleo de estas represen­
taciones centradas en la acción en el trabajo de Maja Mataric, del MIT Arti­
ficial Intelligence Laboratory. Mataric ha desarrollado un modelo inspirado
en la neurobiología de cómo se orientan las ratas en su entorno. Este mode­
lo se ha implementado en un robot móvil. La rata robot, que dispone de sen­
sores de sonar y de una brújula, consigue el éxito en tiempo real empleando
la arquitectura de subsunción que se describe en el capítulo 1: utiliza un con­
junto de «capas» cuasi independientes, cada una de las cuales constituye una
ruta de procesamiento completa desde la entrada hasta la salida, y que sólo
se comunican pasándose unas señales muy simples. Una de estas capas ge­
nera el trazado de los contornos: el robot sigue las paredes al tiempo que evi­
ta los obstáculos. Otra capa detecta referencias físicas o «hitos» del entorno,
que se registran como una combinación del movimiento del robot y de su
entrada sensorial (así, un'corredor se recuerda como la combinación de un
movimiento hacia delante y unas lecturas de distancias laterales cortas en los
sensores de sonar). Otra capa emplea esta información para construir un
mapa del entorno (figura 2.2). Este mapa consiste en una red de hitos que,
El niño situado I 89

FIGURA 2.2 Ejemplo de la conducta de orientación refleja de un robot en un entor


no de oficina abarrotado. Las etiquetas incluyen ei tipo de referencia física y la orien­
tación según la brújula (PI8 = pared izquierda hacia el sur; 0 2 0 = corredor hacia e!
norte; J = límite extenso irregular). Fuente: Mataric, 1991. Reproducido con la au­
torización de M. Mataric y MIT Press.

como hemos visto, son una combinación de lecturas motrices y sensoriales.


Todos los nodos del mapa procesan información en paralelo y se comunican
entre sí propagando estados de activación. La posición actual del robot es
indicada por un nodo activo. El mapa construido representa la proximidad
espacial de las referencias físicas mediante conexiones topológicas {a unas
referencias adyacentes les corresponden unos nodos contiguos; véase la fi­
gura 2.3). Un nodo activo excita a sus vecinos en la dirección del recorrido,
generando así unas «expectativas» sobre los próximos hitos que se van a en­
contrar. Supongamos ahora que el robot quiere encontrar el camino hacia
una posición recordada. La actividad del nodo para esa posición aumenta.
El nodo de la situación actual también está activo. A continuación, el proce­
so de propagación de la activación difunde una señal por el mapa cognitivo
y se computa la trayectoria más corta hasta la meta (figura 2.4). Como los
propios nodos del mapa combinan información sobre el movimiento del ro-
90 I De excursión por la mente

F igura 2 3 Mapa construido por un robot en el entorno mostrado en la figura 2.2.


Las conexiones topológicas entre los hitos indican adyacencias espaciales. Fuente:
Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.

FtGURA 2.4 El mapa lleva a cabo activamente la búsqueda de trayectorias. El nodo


sombreado es el nodo meta. Las flechas indican la propagación de la activación a
partir del nodo meta. Fuente: Mataric, 1991. Reproducido con la autorización de M.
Mataric y MIT Press.

bot y la correspondiente entrada perceptiva, el propio mapa puede actuar


como controlador. Resulta que utilizar el mapa y generar el plan para los mo­
vimientos reales es, exactamente, la misma actividad.
Esta característica -la capacidad del propio mapa para actuar como con­
trolador- es la que tiene más interés para nosotros. Un enfoque más clásico
postularía la presencia simultánea de un mapa almacenado y de un módulo
de control central que accede a ese mapa y lo emplea para planificar los mo­
vimientos. En cambio, el robot de Mataric no emplea ningún dispositivo de
razonamiento fuera del mapa mismo. El mapa es su propio usuario y su co­
nocimiento es al mismo tiempo descriptivo (de posiciones) y prescriptivo
(representa la relación entre dos posiciones como la secuencia de movimien­
tos que permiten al robot desplazarse de una posición a la otra). Por tanto,
este robot es un ejemplo perfecto de la noción de representaciones orientadas
a la acción: representaciones que describen aspectos .del mundo y al mismo
tiempo prescriben acciones posibles, y que se encuentran entre las puras es­
tructuras de control y las representaciones pasivas de la realidad externa.
El psicólogo Jam es Gibson (1950, 1968, 1979) promovió una imagen
de las representaciones internas relacionada con la anterior. Sin embargo
este trabajo incurrió en el error de parecer atacar lout court la noción de
unos estados internos mediadores complejos. A pesar de este desliz retóri­
co, los enfoques de Gibson tienen mucho más interés cuando sólo se ven
El niño situado | 91

en cuanto se oponen a la imagen de la representación interna como codifi­


cación o reflejo.
La afirmación de Gibson, expresada de esta manera aséptica, era que la
percepción, en general, no está mediada por unos modelos del mundo inter­
nos, detallados y neutrales respecto a la acción. No está mediada por estados
internos que requieran más inspecciones o cómputos (por parte de otro
agente interno) para producir acciones adecuadas. Por tanto, esto no signi­
fica negar totalmente la existencia y la importancia de unos estados media­
dores internos. Significa, más bien, insistir en que los estados internos están
«centrados en la acción», tema en el que Gibson profundiza describiendo a
los organismos como entes adaptados para detectar «facilitaciones (affor-
dances)» en el entorno distal. Estas oportunidades no son nada más que las
posibilidades de uso, intervención y acción que ofrece el entorno local a un
tipo concreto de agente corpóreo. Por ejemplo, un ser humano percibe una
silla como algo que «facilita un asiento», pero las facilitaciones ofrecidas por
esa silla a un hámster serían totalmente diferentes.
Interpretada de esta manera, la percepción está orientada desde el prin
cipio a investigar posibilidades para la acción. En lugar de una re-prescnta-
ción pasiva seguida de una inferencia, Gibson postula la «percepción direc­
ta» de un complejo de oportunidades para la acción. Al representar (como
diría yo, que no Gibson) el entorno como un complejo de posibilidades,
creamos unos estados internos que describen aspectos parciales del mundo
y que, al mismo tiempo, prescriben intervenciones y acciones posibles. Estos
estados han sido bautizados acertadamente con el nombre de representacio­
nes «pushmi-pullyu» (animal imaginario de los relatos del doctor Dolittle,
obra del escritor Hugh Lofting [n. del ed.]) por la filósofa Ruth Millikan.21
Al igual que esta quimérica fiera, estas representaciones miran en los dos
sentidos a la vez: dicen cómo es el mundo y además prescriben un espacio de
respuestas adaptativas.
El tema común de estas diversas líneas de investigación es el rechazo a
cualquier imagen global de la percepción como recepción pasiva de infor­
mación. Como vimos, las percepciones que tienen los niños de las pendientes
parecen estar vinculadas profundamente con los hábitos motores específicos
mediante los cuales se enfrentan activamente a ellas. En los experimentos
con lentes distorsionadoras, parece que la habilidad de los adultos con los
dardos implica la intervención de sistemas de percepción/acción a gran es­
cala, y no una percepción pasiva que actúe como fuente de datos que luego

21. Véanse Millikan, 1995 y Clark, 1995. También se puede encontrar una versión cíe tipo
computacional de estas ideas en el empleo de Rutkowska (1995, págs. 67-78) de los «progra­
mas de acción» como constructo fundacional de las teorías del desarrollo
92 I De excursión por la mente

serán explotados por unos sistemas de acción independientes. Estos casos


indican que los productos inmediatos de gran parte de la percepción no son
tanto descripciones neutrales del mundo como especificaciones ligadas a la
actividad de modos potenciales de acción e intervención. Tampoco estas es­
pecificaciones son neutrales en relación con el sistema. En cambio, como in­
dica la discusión sobre la acción de alcanzar, es probable que se adapten de
maneras que simplemente supongan, como telón de fondo no representado,
la dinámica corporal intrínseca de unos agentes específicos. Vale la pena ha­
cer una pausa para apreciar cuánta distancia separa esta visión de la clásica
imagen «incorpórea».
La percepción se suele formular como un proceso mediante el cual reci­
bimos información procedente del mundo. Por tanto, la cognición com
prende unos procesos inteligentes definidos en tomo a alguna versión inter­
na de esa información. La acción intencional se interpreta como la ejecución
de órdenes que constituyen la salida de un sistema «pensador» central. Pero
el éxito en el mundo en tiempo real no respeta esta pulcra división tripartita
del trabajo. En cambio, la misma percepción está enmarañada con unas po­
sibilidades específicas de acción: de hecho, está tan enmarañada que la tarea de
la cognición central con frecuencia deja de existir. Por tanto, las representa­
ciones internas que emplea la mente para orientar las acciones se pueden en­
tender mejor como estructuras de control específicas de la acción y del con­
texto, en vez de como recapitulaciones pasivas de la realidad externa. Los
modelos internos detallados y neutrales respecto a la acción que tenían que
proporcionar el ámbito para un pensamiento incorpóreo y centralizado, apa­
recen ahora como un lujo lento, costoso y difícil de mantener que la natura­
leza preocupada por los costes generalmente se esforzará en evitar.
3 Mente y mundo:
la frontera plástica

3.1 La mente escurridiza

La mente es un órgano escurridizo, que se escapa constantemente de sus


confines «naturales» y se mezcla descaradamente con el cuerpo y el mundo.
¿Qué tipo de cerebro necesita semejante apoyo externo y cómo deberíamos
caracterizar sus interacciones con el entorno? Como veremos, emergerá una
imagen del cerebro como una especie de motor asociativo cuyas interaccio­
nes con el entorno constituyen una serie repetida de cómputos sencillos
orientados a completar patrones.
A primera vista, esta imagen puede parecer profundamente inadecuada.
¿Cómo puede explicar la auténtica escala y dimensión del éxito cognitivo hu­
mano? Parte (pero sólo parte) de la respuesta es que, con frecuencia, núes
tra conducta está esculpida y secuenciada por una clase especial de estruc­
turas externas complejas: los artefactos culturales y lingüísticos que
estructuran la vida moderna, incluyendo mapas, textos y planes escritos. La
comprensión de la compleja interacción entre nuestros recursos neuronales
incorporados y en línea por un lado, y estos puntales y soportes externos por
otro, es una tarea fundamental para las ciencias del pensamiento corpóreo.
Empezaré poco a poco, presentando un protagonista destacado de nues­
tro incipiente escenario: la red neuronal artificial.

3.2 Las redes neuronales: una revolución inconclusa

CYC, la enciclopedia electrónica descrita en la introducción, era un


ejemplo extremo de inteligencia artificial basada en reglas y símbolos. No to­
dos los proyectos de la inteligencia artificial tradicional eran tan fanáticos
94 I De excursión por la mente

acerca del poder de las grandes bases de conocimientos y las codificaciones


explícitas, pero persistía un sabor común subyacente a todos ellos: la ima­
gen general de la inteligencia como manipulación de símbolos siguiendo
unas reglas. Por ejemplo, los programas de «física ingenua» pretendían es­
pecificar en forma lógica nuestro conocimiento cotidiano sobre cómo se de­
rraman los líquidos, cómo se amontonan los libros, etc. (Hayes, 1979). Pro­
gramas como STRIPS aplicaban técnicas de demostración de teoremas a la
resolución de problemas ordinarios (Fikes y Nilsson, 1971), y sistemas gran­
des como SOAR incorporaban una amplia variedad de métodos y represen­
taciones de este tipo en una sola arquitectura computacional. Sin embargo,
hasta la aparición (o la reaparición1) de los denominados modelos de redes
neuronales de la mente, no se puso sobre la mesa una propuesta fundamen­
talmente diferente.
Como indica su nombre, los modelos de redes neuronales están inspira­
dos, por lo menos vagamente, en una reflexión sobre la arquitectura del ce­
rebro. El cerebro se compone de muchas unidades simples de procesamiento
(las neuronas) enlazadas en paralelo por una gran masa de cables y empal­
mes (axones y sinapsis). En general, las unidades individuales (las neuronas)
sólo son sensibles a informaciones locales: cada neurona «escucha» lo que
sus vecinas le cuentan. Pero a partir de esta masa de conexiones en paralelo,
procesadores simples e interacciones locales, surge la asombrosa habilidad
computacional y de resolución de problemas del cerebro humano.
Durante los años ochenta, el campo de la inteligencia artificial fue trans­
formado por una explosión de interés en una clase de modelos computado-
nales que compartían esta tosca descripción de la funcionalidad del cerebro.
Eran los modelos «conexionistas» (o «de redes neuronales» o «de procesa­
miento distribuido en paralelo») de la inteligencia y la cognición. El grado
de similitud entre estos modelos iniciales y el cerebro no se debería exage­
rar/ Las diferencias seguían siendo enormes: la multiplicidad de tipos de

1. Algunas de las ideas originales fueron formuladas hace ya muchos años (desde la pers­
pectiva de la inteligencia artificial), en 1943; véanse McCulloch y Pitts, 1943; Hebb, 1949 y Ro-
senblatt, 1962.
2'. Consideremos el modelo de Mataric, descrito en el apartado 2.6 anterior. El tipo de
mapa que detalla Mataric tiene fuertes afinidades con modelos recientes sobre la codifica­
ción de información espacial por parte del hipocampo (McNaughton, 1989). Sin embargo,
hay una diferencia relacionada con el empleo en el modelo de Mataric de nodos únicos como
codificadores de informaéión sobre «hitos». Es probable que el hipocampo emplee una for­
ma de representación mucho más distribuida, con muchas neuronas involucradas en la re­
presentación de cada «hito». Existen modelos más detallados de la función del hipocampo
basados en redes neuronales artificiales que realmente reconocen el papel de esta distribución
(veanse, por ejemplo O ’Keefe, 1989 y McNaughton y Nadel, 1990). Estos modelos sugieren
Mente y mundo: la frontera plástica I 95

neuronas y sinapsis y el empleo de propiedades temporales (como las fre­


cuencias de los picos) no entraban en los modelos, la conectividad no estaba
restringida de la misma manera que en los sistemas nerviosos reales, etc. A
pesar de todo esto, el sabor de los modelos era ciertamente diferente y, en un
sentido muy real, biológicamente más atractivo. Para los investigadores de la
inteligencia artificial que trabajaban en el nuevo paradigma, llegó a ser mu­
cho más fácil entrar en contacto con los resultados y las hipótesis de la neu-
rociencia real. Por fin, los vocabularios de las diversas ciencias de la mente
parecían acercarse entre sí.
El estilo básico de este nuevo enfoque se transmite mejor mediante ejem­
plos. Consideremos la tarea de pronunciar textos escritos en inglés convir­
tiendo la entrada escrita (palabras) en salida fonética (habla). Este problema
se resuelve mediante sistemas que codifiquen reglas para convertir textos a
fonemas y listas de excepciones, todas ellas cuidadosamente codificadas a
mano por programadores humanos. Por ejemplo, DECtallc es un programa
comercial que realiza esta tarea y cuya salida puede gobernar un sintetizador
de voz digital. Por tanto, DECtalk se basa en una base de conocimientos bas­
tante grande, formulada explícitamente y hecho a mano. En cambio, NET-
talk aprende a resolver el problema usando una red neuronal artificial. A
esta red no se le ha proporcionado ningún conjunto de reglas codificadas a
mano para resolver el problema, y aprende a resolverlo mediante la exposi­
ción a un gran conjunto de ejemplos de parejas texto-fonemas y empleando
una rutina de aprendizaje (que se detalla más adelante). La arquitectura de
NETtalk es una red de unidades interconectadas que comparten toscamen­
te algunas de las propiedades de las redes neuronales reales. Y la conducta

que la estructura del hipocampo es una muy buena candidata para un sistema nervioso real
que opere, en líneas generales, de manera similar a las redes neuronales artificiales descritas
en el apartado 3.2. Sin embargo, es igual de evidente que harán falta unos modelos neuro-
biológicamente más realistas que incorporen muchas características no encontradas en la ma­
yoría de las redes artificiales. Por ejemplo, el tipo de retroalimentación correctora de errores
muy detallada utilizada por los dispositivos de aprendizaje por retropropagación, probable
mente no se encuentra en el cerebro aunque seguramente tiene lugar algún tipo de adapta­
ción dirigida por el error. Tampoco los circuitos neuronales reales exhiben la conectividad si
métrica mostrada en la mayoría de las redes artificiales y, en cambio, nos solemos encontrar
con una conectividad asimétrica y especializada. A pesar de estas diferencias (y hay muchas
más; véanse McNaughton, 1989 y Churchland y Sejnowski, 1992), los modelos computacio
nales de las estructuras neuronales reales siguen debiendo mucho más a los marcos de refe­
rencia de las redes neuronales artificiales que a los de la inteligencia artificia! clásica. Y la ca
pacidad básica responsable de esto es la dependencia de sistemas de memoria asociativa, que
sustituyen el razonamiento basado en reglas y símbolos por procesos ricos y potentes de com-
pleción de patrones.
3 Digital Equipment Corporation DTC 01-AA.
96 I De excursión por (a mente

de esta red artificial es verdaderamente impresionante. Como las unidades


de salida están conectadas a un sintetizador de voz, se puede escuchar al sis­
tema mientras aprende lentamente a hablar, pasando de un balbuceo entre­
cortado a palabras medio formadas y, por último, a una buena simulación de
una pronunciación normal.
NETtalk (al igual que DECtalk) no entiende nada. No se le ha dicho
nada sobre el significado de las palabras y no puede emplear el lenguaje para
lograr una meta mundo real. Pero, con todo, es una demostración de refe­
rencia de la capacidad de las redes neuronales artificíales para resolver pro­
blemas complejos y realistas. ¿Cómo funciona?
Los elementos de este sistema informático son unas neuronas idealizadas
o «unidades». Cada unidad es un dispositivo procesador simple que recibe
señales de entrada de otras unidades mediante una red de conexiones en pa­
ralelo. Cada unidad combina sus entradas y produce una salida basándose
en una simple función matemática.4 Por tanto, la unidad se activa en la me­
dida dictada por los datos de entrada y pasa una señal a las unidades vecinas.
La señal que llega a estas unidades vecinas está determinada tanto por el ni­
vel de activación de la unidad «remitente» como por la naturaleza de la co
nexión implicada. Cada conexión tiene un peso que modula la señal. Este
peso puede ser positivo (excitador) o negativo (inhibidor). La señal que se
recibe está determinada por el producto del peso numérico y la fuerza de la
señal de la unidad «remitente».
Una red conexionista típica como NETtalk consta de tres capas de uni­
dades: las «unidades de entrada» (que codifican los datos que se deben pro­
cesar), las «unidades ocultas» (que intervienen en el procesamiento}5 y las
«unidades de salida» (que especifican la respuesta del sistema a los datos en
forma de un vector de valores numéricos de activación). El conocimiento del
sistema se codifica en los pesos de las conexiones entre las unidades, y estos
pesos se adaptan durante el aprendizaje. El procesamiento supone la dise­
minación de la activación por toda la red, tras la presentación de un conjun­
to específico de valores de activación en las unidades de entrada. En el caso
de NETtalk hay siete grupos de unidades de entrada con 29 unidades cada
uno. Cada grupo representa una letra y la entrada consta de siete letras de las
que la cuarta es el objetivo cuya contribución fonémica se debe determinar
en cada momento (dentro del contexto proporcionado por las seis letras res­

4. Estas fundones no,suelen ser lineales; es decir, la fuerza de la salida no es directamen­


te proporcional a la suma de las entradas. En cambio, puede ser proporcional cuando (por
ejemplo) las señales entrantes son de intensidad media pero allanarse cuando son muy fuertes
o muy débiles.
5. Las características de respuesta de las unidades ocultas se han descrito más arriba.
Mente y mundo: la frontera plástica 97

tantes). Las entradas se conectan a una capa de 80 unidades ocultas, que a su


vez se conectan a 26 unidades de salida que codifican fonemas. En total, la
red consta de 18.829 conexiones con sus correspondientes pesos.
¿Cómo aprende un sistema como éste? Aprende ajustando los pesos en
tre las unidades según un algoritmo o procedimiento sistemático. Uno de es­
tos procedimientos es el «algoritmo de retropropagación» (backpropaga-
don), que funciona de la manera siguiente: el sistema se inicializa con una
serie de pesos aleatorios (dentro de ciertos limites numéricos). Como los pe­
sos son aleatorios, el sistema no solucionará el problema planteado. Enton­
ces es cuando se entrena a la red. Se le da un conjunto de entradas y para
cada entrada producirá (gracias a los pesos aleatorios iniciales) una salida,
casi siempre incorrecta. Sin embargo, hay un sistema supervisor que consul­
ta la salida correcta para cada entrada (como un profesor que sabe las res­
puestas de antemano). El sistema supervisor compara automáticamente la
salida real (un conjunto de valores numéricos de activación) con la salida co­
rrecta. Por ejemplo, un sistema de reconocimiento de rostros puede tomar
como entrada la especificación de una imagen visual y se le puede exigir que
dé como salida unos códigos artificiales que correspondan a unos individuos
nombrados. En este caso, la salida correcta para una entrada visual dada po­
dría ser la sucesión numérica (1010) si hubiera sido designada de antemano
como un código arbitrario para «Esther Russeíl». A causa de los pesos alea­
torios, el sistema quizás no acierte y dé, por ejemplo (0,7,0,4,0,2,0,2) como
salida inicial. En este punto, el sistema supervisor compara la salida real con
la deseada para cada unidad de salida y calcula el error correspondiente. Los
errores se elevan al cuadrado (por razones que no hace falta especificar aquí)
y se calcula su media, obteniéndose un error cuadrárico medio (ECM). Lue­
go el sistema se centra en el peso de una conexión y comprueba (mantenien­
do invariables los otros pesos) si aumentando o disminuyendo ligeramente el
peso se reduce el ECM. Si es así, el peso se corrige en consecuencia. Este pro­
cedimiento se repite para cada peso y el ciclo total de entrada/salida/ajuste de
peso se repite una y otra vez hasta que se alcanza un ECM bajo. En este mo­
mento la red funcionará bien (en nuestro caso, asignando el nombre correcto
a cada imagen visual). Ahora es cuando cesa el entrenamiento y los pesos se
conservan: la red ha aprendido a resolver el problema.6
Este tipo de aprendizaje se puede concebir como un descenso por un gra­
diente. Imaginemos que nos encontramos en algún punto de la pendiente in­
terior de un cráter en forma de cuenco gigante. Nuestra tarea es encontrar el
fondo, es decir, la solución correcta o el error más bajo. Como tenemos los

6. Véase una explicación especialmente clara y accesible de estos enfoques en Church*


land, 1995. Véanse también Clark, 1989 y Churchland, 1989.
98 I De excursión por la mente

ojos vendados, no podemos ver dónde está el fondo. Sin embargo, cada vez
que damos un paso pequeño podemos determinar si nos movemos hacia
arriba (es decir, en la dirección de más error) o hacia abajo (en la dirección
de menos error). Simplemente utilizando esta retroalimentación local y avan­
zando paso a paso, nos acercaremos inexorablemente al fondo de la cuenca,
que es donde nos detendremos. Los métodos de aprendizaje de descenso
por un gradiente (de los que la retropropagación es un ejemplo) actúan esen­
cialmente de la misma manera: el sistema es empujado cuesta abajo por la
pendiente del error decreciente hasta que no puede bajar más. En este pun
to (en paisajes con forma de cuenco) se alcanza la solución y el problema se
resuelve.
Obsérvese que los pesos no se codifican a mano en ninguna etapa de este
proceso. Para cualquier problema complejo, encontrar un conjunto funcio
nal de pesos de conexión mediante un análisis reflexivo está mucho más allá
de nuestras capacidades actuales. Lo que se nos ofrece es una arquitectura
inicial con una cantidad dada de unidades y un tipo determinado de conec-
tividad, y un conjunto de casos de entrenamiento (pares entrada-salida). O b­
sérvese también que, en general, el resultado final del aprendizaje no es que
el sistema memorice como un papagayo los datos de entrenamiento. En el
caso de NETtalk, por ejemplo, el sistema aprende aspectos generales de la
relación entre el inglés escrito y hablado. Después del entrenamiento, la red
puede enfrentarse con éxito a palabras nuevas que no estaban en el conjun­
to de entrenamiento inicial.
Lo más importante es que el conocimiento de las transiciones de texto a
fonemas de NETtalk no adopta la forma de codificaciones explícitas de re
glas o principios mediante cadenas de símbolos. Este conocimiento se alma­
cena de una manera adecuada para su empleo directo medíante un sistema
parecido al del cerebro: como pesos o conexiones entre unidades o «neuro­
nas» idealizadas. En cambio, las formas de tipo textual favorecidas por CYC
y SOAR son adecuadas para que unos agentes avanzados como los seres hu­
manos las utilicen como estructuras de conocimiento externas y pasivas. Si
miramos hacia atrás, sin duda consideraremos muy poco verosímil que nues­
tros propios cerebros (que no son tan diferentes de los de algunos seres que
carecen de lenguaje) emplearan un formato similar al elegido por las débiles
proyecciones de nuestros pensamientos en medios públicos como el papel y
las moléculas de aire. Los códigos cerebrales deben ser activos en un sentido
en el que el almacenamiento de textos no lo es. Por tanto, creo que la princi­
pal lección de la investigación de las redes neuronales ha sido expandir nues­
tra visión de las maneras en que un sistema físico como el cerebro puede co­
dificar y explotar informaciones y conocimientos. En este sentido, la
revolución de las redes neuronales ha sido un éxito indudable.
Mente y mundo: la frontera plástica 99

Además, parece que la tecnología de las redes neuronaíes va a permane­


cer entre nosotros. Técnicas como las que acabamos de describir se han apli­
cado con éxito en una increíble variedad de campos, incluyendo el recono­
cimiento de códigos postales escritos a mano, tareas de procesamiento
visual, el reconocimiento de rostros, el reconocimiento de firmas, el control
robótico e incluso la planificación y la demostración automatizada de teore­
mas. La potencia y la utilidad de esta tecnología son indudables. Sin embar­
go, su capacidad para dilucidar la cognición biológica no depende simplemen­
te de utilizar un estilo de procesamiento que recuerda aproximadamente al
de los sistemas nerviosos reales, aunque sea de una manera aproximada, sino
también del despliegue de estos recursos de una manera biológicamente re­
alista. Creo que la elección de representaciones de entrada y salida muy arti­
ficiales y de ámbitos de problemas muy pobres ha privado a la revolución de
las redes neuronaíes de parte de su impulso inicial. Esta inquietud está di­
rectamente relacionada con el énfasis creciente en la acción real y, en conse
cuencia, merece una explicación más detallada.
El problema es, en esencia, que gran parte de la investigación sobre las
redes neuronaíes artificiales se ha apoyado demasiado en una concepción
más bien clásica de la naturaleza de los problemas. Muchas redes se han de­
dicado a investigar lo que una vez denominé «mícromundos verticales»
(Clark, 1989, capítulo 4; véase también el apartado 1.2 anterior): pequeñas
piezas de cognición de nivel humano como producir el pretérito de verbos
ingleses7 o aprender gramáticas simples.89Incluso en tareas aparentemente
más básicas (por ejemplo, equilibrar bloques de construcción en una barra
que se apoya sobre un fulcro móvil’), la elección de las representaciones de
entrada y de salida solían ser muy artificiales. Por ejemplo, la salida de ios
programas para equilibrar bloques no era un conjunto de acciones motrices
reales de brazos robóticos o, por lo menos, una codificación de estas accio­
nes; era simplemente la actividad relativa de dos unidades de salida, inter­
pretada de modo que una actividad igual en las dos unidades indicaba la
expectativa de un estado de equilibrio y una actividad excesiva en cualquier
unidad indicaba la expectativa de un desequilibrio en la dirección corres­
pondiente. Las entradas proporcionadas al sistema también eran artificiales:
una codificación arbitraria para el peso en un canal de entrada y otra para la
distancia desde el fulcro en el otro canal. Es bastante razonable suponer que
esta manera de establecer el espacio del problema puede conducir a solucio­

7. Véanse Rumelhart y McClelland, 1986 y las evaluaciones críticas en Clark, 1989 y


Clark, 1993.
8. Véase Elman, 1991.
9. McClelland, 1989; Plunkctt y Sinha, 1991.
100 I De excursión por la mente

nes artificiales e irreales. Seguramente una estrategia alternativa y quizá me­


jor sería darle al sistema datos de entrada realistas (por ejemplo, proceden­
tes de cámaras) y hacer que produjera como salida acciones reales (desplazar
bloques reales hasta el punto de equilibrio). Naturalmente, un sistema como
éste requiere la solución de muchos problemas adicionales y la ciencia siem­
pre debe simplificar los experimentos cuando sea posible. Sin embargo, cabe
la sospecha de que la ciencia cognitiva ya no puede permitirse más simplifi­
caciones que excluyan del bucle al mundo real y al organismo que actúa: es­
tas simplificaciones pueden oscurecer las soluciones a los problemas ecoló­
gicamente realistas que caracterizan a agentes corpóreos activos como los
seres humanos. La aspiración de la ciencia cognitiva -dilucidar la cognición
biológica real- no puede ser compatible con una estrategia basada en la
abstracción continua de los anclajes de la percepción y de la acción en el
mundo real. Creo que esta sospecha está totalmente confirmada por los im­
portantes Corpus de investigación descritos en este libro. Un tema funda­
mental, que ya ha aparecido anteriormente, es que abstraer los polos reales
de la sensación y de la acción priva a nuestros sistemas artificiales de la opor­
tunidad de simplificar, o de transformar de otras maneras, sus tarcas de pro­
cesamiento de información mediante la explotación directa de la estructura
de la realidad. Sin embargo, y como veremos a continuación, esta explota­
ción puede ser especialmente esencial si pretendemos abordar la resolución
de problemas sofisticados utilizando los tipos de recursos biológicamente
plausibles de compleción de patrones que nos ofrecen las redes neuronales
artificiales.

3.3 Apoyarse en el entorno

Las redes neuronales artificiales de tipo general descritas anteriormen­


te10 presentan una interesante combinación de ventajas e inconvenientes.
Son capaces de tolerar datos «ruidosos», imperfectos o incompletos. Son
resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen
la integración simultánea de muchas pequeñas señales o elementos de infor­
mación, una capacidad que es esencial para el reconocimiento perceptivo y
el control motor en tiempo real. Estas ventajas se derivan del hecho de que
estos sistemas se dedican a completar patrones con un procesamiento en pa­
ralelo masivo. La tolerancia a datos «ruidosos», incompletos o imperfectos
equivale a la capacidad de recrear patrones completos a partir de señales
parciales. La resistencia a los daños locales se debe al empleo de múltiples

10. Vease una descripción mucho más cuidadosa de esta clase de modelos en Clark, 1993.
Mente y mundo: la frontera plástica I 101

recursos, a nivel de unidad, para codificar cada pauta. La velocidad se debe


al funcionamiento en paralelo, igual que la capacidad para tener en cuenta
simultáneamente múltiples señales pequeñas." Incluso algunos fallos de es­
tos sistemas son atrayentes en el plano psicológico. Pueden sufrir «interfe­
rencias» cuando unas codificaciones similares se obstaculizan mutuamente
(de manera similar a cuando aprendemos un número de teléfono que se pa­
rece a otro que ya sabemos y enseguida los confundimos, olvidándonos de
los dos). Y no son intrínsecamente adecuados para la resolución de proble­
mas secuencial y gradual típica de la lógica y la planificación {Norman, 1988;
Clark, 1989, capítulo 6). Estos sistemas se podrían caracterizar en pocas pa­
labras diciendo que son «buenos al fútbol pero malos en lógica», un perfil
más que familiar. Los sistemas clásicos, con sus direcciones de memoria or­
denadas y bien definidas, son inmunes a estas interferencias y ofrecen un ren­
dimiento excelente en la resolución de problemas lógicos y secuenciales, pero
rinden mucho peor en tareas de control en tiempo real.
Por tanto, las redes neuronales artificiales son sistemas rápidos pero li
mitados que, de hecho, sustituyen el razonamiento clásico por el reconoci­
miento de patrones. Como era de esperar, esto es a la vez una ventaja y un in­
conveniente. Es una ventaja en el sentido de que ofrecen, precisamente, los
recursos necesarios para las tareas que los seres humanos realizan mejor y con
más fluidez: control motor, reconocimiento de rostros, lectura de códigos
postales escritos a mano, etc. (Jordán y otros, 1994; Cottrell, 1991; LeCun y
otros, 1989). Pero es una desventaja cuando nos enfrentamos a tareas como
razonar de manera secuencial o planificar a largo plazo. Esto no es necesaria­
mente malo. Si nuestro objetivo es modelar la cognición humana, se deben fa­
vorecer aquellos fundamentos computacionales que produzcan una pauta de
puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al
fútbol que en lógica. De todos modos, también somos capaces, por lo menos
en ocasiones, de planificar a largo plazo y de llevar a cabo razonamientos se­
cuenciales. Si en el fondo somos dispositivos asociativos reconocedores de
patrones,IJ ¿cómo es esto posible? Creo que nuestra capacidad para elevarnos12

11. Véanse los detalles completos en el capítulo 5 de Clark, 1989.


12. Naturalmente, esto sigue siendo objeto de debate. Pero cada vez parece más claro
que, sean como sean realmente los cerebros, están más cerca del perfil de procesamiento de in­
formación de las redes neuronales artificiales que del perfil de los dispositivos clásicos. De he­
cho, parece probable (véase el apartado 3.4 más adelante) que los cerebros biológicos explo­
ten más mecanismos especializados que las redes neuronales artificiales típicas pero que el
«tilo de representación y de procesamiento siga siendo similar a lo largo de varias dimensio­
nes importantes (como el empleo de codificaciones distribuidas en paralelo y de transforma­
ciones vector a vector; véanse, por ejemplo Churchland, 1989; Churchland y Sejnowski, 1992
yChurchland, 1995).
102 i De excursión por la mente

por encima de nuestras raíces computacionales es el resultado com b in ad o de


varios factores. Algunos de ellos aparecerán en capítulos p o ste rio re s.” Sin
embargo, hay uno que merece nuestra inmediata atención. E s el em p leo de
nuestro viejo amigo, el andamiaje externo.
Las mentes conexionistas son las candidatas ideales para utilizar un abun ­
dante andamiaje externo. Un ejem plo sencillo, detallado en P a ra lle l D istri­
buí ed Processing (la «b ib lia» en dos volúmenes de la investigación so b re las
redes neuronales1314), es el caso de las multiplicaciones largas. E l argu m en to es
que la mayoría de nosotros podem os aprender a reconocer d e un vistazo la
respuesta a multiplicaciones sim ples como 7 x 7 = 49. E ste con ocim ien to se
puede apoyar fácilmente en un dispositivo incorporado b ásico p a ra el reco­
nocimiento de patrones. Sin em bargo, las m ultiplicaciones m ás larg as plan­
tean un problema diferente. Si se nos pide que m ultipliquem os 7.222 x 9.422,
la mayoría de nosotros echará mano de lápiz y papel (o de una calcu lad ora).
Con el empleo de lápiz y papel, lo que conseguim os es redu cir un problem a
complejo a una sucesión de problem as más sim ples que em p ieza con 2 x 2 .
Utilizamos el m edio externo (un papel) para almacenar los resu ltad o s de es­
tos problemas simples y al final llegamos a una solución m edian te una serie
interrelacionada de com pieciones de patrones sim ples y alm acenam ientos
externos. Rumelhart y otros (1986, pág. 46), comentan: « L o qu e aq u í vemos
es un verdadero procesamiento de sím bolos, y em pezam os a p en sar q u e es el
principal procesamiento de sím bolos que som os capaces de realizar. D e he­
cho, desde este punto de vista, el entorno exterior se con vierte en una ex ­
tensión fundamental de nuestra mente».
Naturalmente, algunas personas aprenden a hacer estos c álcu lo s m ental­
mente. En estos casos el truco parece consistir en apren der a m an ipu lar un
modelo mental de la misma manera que antes m an ipu láb am os el m undo
real. Este tipo de manipulación interna de sím bolos es fun dam en talm en te
distinta de la concepción clásica de los sím bolos internos, p o rq u e no dice
nada del sustrato com putacional de estas imágenes. L a cu estión es, pura y
simplemente, que podem os sim ular mentalmente el entorno ex terio r y que,
en consecuencia, a veces interiorizamos com petencias cognitivas q u e no por
ello dejan de estar enraizadas en manipulaciones del m undo exterior. Dicho
de otra manera: la ciencia cognitiva se encuentra con la p sicología soviética.”
f

13- Véanse especialmente las exposiciones sobre la actividad colectiva (capítu lo 4) y so­
bre el papel mas amplio del lenguaje y la cultura (capítulos 9 y 10).
14. Parallel DistributedProcessing- Explorations tu the Microstructure o f Cogm tion, volu­
men 1. Poundations y volumen 2: Psycbologtcal and Btological Models (M IT P ress, Í986). El
trabaio descrito (Rumelhart y otros, 1986) se encuentra en el capítulo 14.
15. Véase, por ejemplo, Vygatsky, 1962. Véanse también los ca p ítu lo s 9 y 10 d e este
libro.
Mente y mundo: la frontera plástica I 103

Por tanto, podríamos decir que la combinación de unas capacidades bá­


sicas para la compleción de patrones con unos entornos complejos y bien es­
tructurados nos permite alzarnos del suelo tirando de nuestras propias orejas
computacionales. Quizás la visión original de la inteligencia artificial clásica
equivalía, en realidad, a considerar que las capacidades básicas de comple­
ción de patrones de los organismos estaban embebidas en un entorno per­
fectamente estructurado; una visión erróneamente proyectada en los recur­
sos de procesamiento básicos incorporados en el organismo. Dicho en otros
términos, la inteligencia artificial clásica basada en reglas y símbolos puede
haber comeddo un error fundamental, confundiendo el perfil cognitivo del
agente más el entorno, con el perfil cognitivo del cerebro aislado (Clark,
1989, pág. 135; Hutchins, 1995, capítulo 9). La clásica separación limpia y
tajante entre datos y procesos, entre estructuras de símbolos y procesadores
centrales, quizás no haya reflejado nada más que la separación entre el agen­
te y un andamiaje externo de ideas que persisten sobre papel, en archivado­
res o en soportes electrónicos.
Los atractivos de esta visión no deberían disimular sus defectos. El en­
torno externo humano está perfectamente estructurado en virtud de nues­
tro empleo de formalismos lingüísticos, lógicos y geométricos y de los múl­
tiples sistemas de memoria externa de la cultura y el aprendizaje. No todos
los animales son capaces de crear estos sistemas ni se pueden beneficiar de
ellos una vez establecidos. Por tanto, la insistencia en el andamiaje externo
no puede soslayar el hecho evidente de que los cerebros humanos son espe­
ciales. Pero la diferencia computacional puede ser menor y menos radical
de lo que en ocasiones creemos. Quizás el origen y la explotación de instru­
mentos lingüísticos y culturales simples se deba a una pequeña serie de di­
ferencias neurocognitivas. A partir de aquí se puede poner en marcha un
efecto tipo bola de nieve (un bucle de retroalimentación positiva). Unos
simples apoyos externos nos permiten pensar mejor y crear nuevos apoyos
y prácticas de carácter más complejo que, a su vez, «turboalimentarán»
nuestro pensamiento un poco más, lo que conduce al desarrollo de apoyos
aun mejores... ¡Es como si la longitud de nuestra orejas creciera al tirar de
ellas para alzarnos!
De nuevo con los pies en el suelo, podemos profundizar en la idea de un
razonamiento completador de patrones en algunos ámbitos más sencillos.
Consideremos el estudio de David Kirsh (1995) sobre el empleo inteligente
del espacio físico. Kirsh, que trabaja en el Departamento de Ciencias Cogni-
tivas de la Universidad de California en San Diego, observa que los estudios
típicos de inteligencia artificial tratan la planificación como un fenómeno
muy incorpóreo: sobre todo, desatienden nuestra manera de utilizar las pro­
piedades espaciales reales del ámbito de trabajo para simplificar el cómputo
104 I De excursión por la mente

interno. Naturalmente, una vez expresada esta idea los ejemplos abundan.
Veamos algunos de los ejemplos favoritos de Kirsh:

• Si al seguir una dieta queremos consumir las 3/4 partes de la ración de


requesón de un día (digamos 2/3 de taza) durante una comida, daremos una
forma redonda a la ración de queso, la dividiremos en 4 porciones y nos ser­
viremos 3. De esta manera es fácil ver la cantidad requerida, pero calcular
3/4 de 2/3 ya no es tan fácil. (De la Rocha, 1985, citado en Kirsh, 1995).
• Cuando reparamos un alternador, al desmontarlo colocaremos las pie­
zas en línea o formando grupos para que la tarea de volverlo a montar sea
más fácil.
• Para colocar comestibles en bolsas, crearemos lotes de artículos simila­
res encima del mostrador. Si agrupamos los artículos resistentes, los frágiles
y los intermedios, simplificaremos el proceso de selección visual y el tamaño
relativo de cada montón nos alertará sobre las necesidades de acomodación
más urgentes.
• Cuando resolvamos un puzzle, agruparemos las piezas similares y asi
podremos comparar visualmente y de una manera detallada todas las piezas
verdes (por ejemplo) que tengan un borde recto.

El mensaje es claro: controlamos nuestro entorno físico y espacial de ma­


neras que alteran fundamentalmente las tareas de procesamiento de infor­
mación a las que se enfrenta nuestro cerebro (recordemos el «principio 007»
del capítulo 2).
Sí este enfoque cooperador es valioso se debe a la diferencia entre la na­
turaleza de los cómputos que surgen de una manera natural en el cerebro en
sí y la naturaleza de los cómputos que se pueden realizar parasitando recur­
sos del entorno. Pero, como veremos, este parasitismo pone en duda los mis­
mos límites tradicionales que existen entre mente y mundo.

3.4 Planificación y resolución de problemas

Existe una visión incorpórea clásica de la planificación que Phil Agre y


David'Chapman (1990) han denominado «los planes como programas». Se
trata de la idea (que ya encontramos en el capítulo 2) de que un plan especi­
fica una sucesión completa de acciones que basta realizar con éxito para lo­
grar una meta. Una lista de instrucciones para cocinar un huevo pasado por
agua o para desmontar un alternador viene a ser una de estas especificacio­
nes. De hecho, gran parte del trabajo sobre la planificación «clásica» imagi­
na que las secuencias complejas de acciones están determinadas por una ver­
Mente y mundo: la frontera plástica I 105

sión interiorizada de uno de estos conjuntos de instrucciones (véanse, por


ejemplo, Tate, 1985, y Fikes y Nilsson, 1971).
Sin embargo, en cuanto observamos detenidamente las conductas de pla­
nificación de agentes reales, es evidente que existe una interacción bastante
compleja entre el plan y el entorno de apoyo. Esta interacción va mucho más
allá del hecho evidente de que unas acciones específicas, una vez realizadas,
tal vez no tengan el efecto deseado y, en consecuencia, exijan replantear so­
bre la marcha la consecución de algunos subobjetivos concretos. En estos ca­
sos el plan interiorizado original sigue siendo una especificación completa,
aunque falible, de un camino hacia el éxito. Sin embargo, en muchos casos
el plan resulta ser mucho más parcial y dependiente de las propiedades del
entorno local.
El caso anterior del puzzle es un buen ejemplo. Aquí, un agente puede
explotar una estrategia que incorpore la actividad física de una manera fun­
damental. Tomar piezas, hacerlas girar para buscar potenciales coincidencias
espaciales y después probarlas son partes de la actividad de resolución de pro­
blem as. Imaginemos, en cambio, un sistema que primero resuelva el puzzle
entero por puro pensamiento y que después emplee el mundo meramente
como el campo donde la solución ya alcanzada se va a representar. Incluso
un sistema que luego reconociera los fallos de ajuste físico y los empleara
como señales para volver a planificar (una versión menos caricaturizada de
la planificación clásica) seguiría utilizando el entorno mínimamente en com­
paración con las ricas interacciones (rotaciones, evaluaciones de piezas can-
didatas, etc.) que caracterizan la solución humana.
Esta diferencia crucial es descrita con precisión por David Kirsh y Paul
Maglio (1994) mediante la distinción entre acción pragm ática y acción episté -
mica. Una acción pragmática es una acción llevada a cabo por la necesidad
de alterar el mundo con el fin de lograr alguna meta física (por ejemplo, hay
que pelar las patatas antes de hervirlas). En cambio, una acción epistémica
es una acción cuyo propósito principal es alterar la naturaleza de nuestras
propias tareas mentales. En estos casos seguimos actuando sobre el mundo,
pero los cambios que imponemos están impulsados por nuestras propias ne­
cesidades computacionales y de procesamiento de información.
Ya hemos visto varios ejemplos de acción epistémica: recuérdese el em­
pleo de movimientos corporales y oculares en la visión animada para recu­
perar tipos específicos de información como y cuando sea necesario. Lo que
Kirsh y Maglio añaden a este marco de referencia es la idea de que la clase de
las acciones epistémicas es mucha más amplia de lo que muestran los ejem­
plos de visión animada. Incluye todo tipo de acciones e intervenciones cuyo
papel adaptativo sea simplificar o alterar los problemas a los que se enfren­
tan los cerebros biológicos.
106 I De excursión por la mente

Un ejemplo sencillo, de nuevo procedente de Kirsh {1995, pág. 32), se re­


fiere al empleo de las fichas del juego Scrabble o Intelect. Mientras jugamos,
ordenamos y reordenamos físicamente las fichas como método para estimu­
lar nuestros propios recursos neuronales en línea. Si relacionamos esto con
la investigación sobre redes neuronales artificiales descrita en el apartado 3.2
anterior, podemos imaginar este recurso neuronal en línea como una especie
de memoria asociativa completadora de patrones. Una estrategia para jugar
al Scrabble es emplear una clase especial de manipulaciones externas para
crear una variedad de entradas fragmentarias (nuevas cadenas de letras) ca­
paces de estimular al ingenio completador de patrones para que recuerde
palabras enteras. El hecho de que encontremos tan útiles estas manipulacio­
nes externas indica claramente que nuestros ingenios computación ales in­
corporados (en el cerebro) no se prestan muy bien a estas manipulaciones
(mientras que un programa clásico de inteligencia artificial encontraría tri­
viales estas operaciones internas). Este simple hecho habla en favor de un
modelo de los recursos internos distinto al clásico. Es como si la imagen clá­
sica incluyera dentro de la máquina un conjunto de capacidades operativas
que en la vida real sólo emergen a partir de las interacciones entre esa má­
quina (el cerebro) y el mundo.
Una conclusión de estas observaciones es que las estructuras externas
(incluyendo símbolos externos como las palabras y las letras) son especiales
en la medida en que permiten realizar tipos de operaciones que difícilmente
(o nunca) se pueden realizar en el ámbito interno.11'
Un ejemplo más complejo, que conduce esencialmente a la misma con­
clusión, procede de los estudios detallados de Kirsh y Maglio (1994) sobre
el rendimiento en el juego de ordenador Tetris. En este juego, el jugador
debe colocar unas piezas geométricas multicolores (denominadas «zoides»)
formando hileras compactas (figura 3.1). Cuando se completa una hilera, ésta
desaparece de la pantalla dejando espacio para nuevos zoides. Los zoides
aparecen por la parte superior de la pantalla y caen a un ritmo que aumenta a
medida que avanza la partida. Mientras un zoide cae, el jugador puede ha­
cerlo girar, desplazarlo hacia la derecha o la izquierda, o hacerlo caer directa­
mente al fondo. Por tanto, el objetivo es hacer encajar unas formas con unas
oportunidades geográficas dentro de unas fuertes restricciones en tiempo
real, Un resultado sorprendente de las investigaciones de Kirsh y Maglio fue16

16. En Clark, 1986 y Clark, 1988a examino resultados del ámbito del dibujo que ofrecen
más apoyo a esta conjetura. En estos artículos también examino el trabajo de Chambers y Reis-
berg (1985) sobre las propiedades especiales de los dibujos reales en comparación con las imá­
genes mentales de dibujos. Esta investigación se cita también en Kirsh, 1995 y en Zhang y Nor­
man, 199*1.
Mente y mundo: la frontera plástica I 107

*
r
Girar

m “__ 1
--
Desplazar

Soltar

____ r
■ ■r j — La hilera
Ü
5E
1!i1 m rompida
desaparece

H a
FIGURA 3.1 El juego Tetris se caracteriza por unas piezas llamadas «zoides» que caen
de una en una desde la parte superior de la pantalla y acaban depositándose directa­
mente en el fondo o sobre otras piezas que hayan caído antes. Mientas cae una pieza,
el jugador puede hacerla girar, desplazarla hacia la derecha o hacia la izquierda, o ha­
cerla bajar de inmediato. Cuando se consigue que una hilera de cuadrados llene hori­
zontalmente toda la pantalla, la hilera en cuestión desaparece y las que se encuentran
por encima de ella bajan un nivel. Fuente: Kirsh y Maglio, 1994. Reproducido con la
autorización de D. Kirsh, R. Maglio y Ablex Publishing Corporation.

que los jugadores expertos realizaban una amplia variedad de acciones epis-
témícas: acciones cuyo propósito era reducir la cantidad de computación in­
terna en lugar de ganar terreno físico. Por ejemplo, un jugador puede hacer
girar físicamente un zoide para determinar mejor su forma o para comprobar
su coincidencia potencial con alguna oportunidad geográfica. Estas opera­
ciones externas parecen más rápidas y fiables que sus equivalentes internas
(como imaginar la rotación del zoide). Es especialmente interesante destacar
(como hacen Kirsh y Maglio) que, en el caso del Tetris, las operaciones inter­
nas y externas deben estar tan coordinadas en el tiempo que los sistemas in­
ternos y externos (el cerebro/SNC y las operaciones en pantalla) parecen fun
cionar conjuntamente como una sola unidad computacional integrada.
108 i De excursión por la mente

Por tanto, el mundo puede funcionar de maneras que van mucho más
allá de la simple memoria externa. Puede ofrecer un campo donde unas cla­
ses especiales de operaciones externas transformen sistemáticamente los
problemas que se plantean a un cerebro.1 De la misma manera que Einstein
sustituyó las nociones independientes del tiempo y el espacio por un cons-
tructo unificado (el espacio tiempo), Kirsh y Maglío proponen que para la
ciencia cognitiva puede ser conveniente sustituir los constructos indepen­
dientes del espacio físico y el espacio del procesamiento de la información
por un espacio «físico-informacional» unificado."*
Como comentario final sobre la interacción entre la mente y la estructu­
ra del entorno, consideremos el caso de pacientes con la enfermedad de
Alzheimer en estado avanzado. Muchos de estos pacientes llevan una vida
sorprendentemente normal en la comunidad, a pesar de que las evaluacio­
nes estándar de sus capacidades indican que muchos de ellos deberían ser
incapaces de sobrevivir fuera de instituciones especializadas. Al parecer, la
clave de estos éxitos sorprendentes reside en la medida en que estas perso­
nas se basan en entornos muy estructurados que primero crean y después
habitan. Estos entornos pueden incorporar múltiples letreros recordatorios
colocados por toda la casa y el seguimiento estricto de unos hábitos con­
cretos. Una paciente vive, virtualmente, en un sofá que se encuentra en el
centro de su apartamento, ya que esto le brinda una posición estratégica
desde la cual puede acceder visualmente a la situación de cualquier cosa
que necesite: este s í es, realmente, un caso de empleo del mundo como me­
moria externa.
¿Cómo encaja en todo esto la noción de planificación? Al parecer, la re­
solución sistemática de problemas de los cerebros biológicos no sigue real­
mente el modelo del plan como programa. En cambio, los agentes desplie­
gan unas estrategias generales que incorporan ciertas operaciones sobre el
mundo como parte intrínseca de la actividad de resolución de problemas. Es
evidente que esta actividad puede suponer unos planes formulados de una
manera explícita (quizá por escrito). Pero incluso en estos casos, el plan ac­
túa más como una limitación externa sobre la conducta que como una rece­
ta completa para el éxito.1718920 En cierto sentido, somos como mobots muy inte­
ligentes dotados de archivadores. Nuestra inteligencia se demuestra en la
t

17. Este tema se explora a fondo en el capítulo 10 posterior.


18. Véanse los comentarios de Kirsh y Maglio (1994, pág. 515) acerca de la necesidad de
redefinir el espacio de estados donde tiene lugar la planificación.
19. Agradezco a Caroline Baum, directora de la Occupational Therapy Unit de la Was­
hington University School of Medicine, por comunicarme estos casos. Véanse Baum, 1993 y
Edwards y otros, 1994.
20. Véanse, por ejemplo, Suchman, 1987 y Bratman y otros, 1991.
Mente y mundo: la frontera plástica I 109

capacidad de estructurar nuestro entorno y de operar activamente sobre él


para simplificar nuestras tareas de resolución de problemas. Esta estructu­
ración y explotación activa va desde la simple utilización de distribuciones
espaciales, pasando por el empleo de transformaciones específicas (mezclar
las fichas de Scrabbíe, hacer girar los zoides del Tetris), hasta la producción
de planes escritos explícitos que permiten reorganizar y cambiar el foco de
atención con facilidad. Estos últimos casos comportan el empleo de la clase
especial de estructuras externas formada por mapas, códigos, lenguajes y
símbolos, estructuras que examinaremos con detalle en el capítulo 10.

3.5 Después del archivador

Como hemos visto, las redes neuronales artificiales proporcionan un mo­


delo útil (aunque claramente parcial) de algunas de las estrategias computa-
cionales que los cerebros reales parecen desplegar. Estas estrategias hacen
hincapié en la compleción de patrones y en la memoria asociativa a costa de
las manipulaciones lógicas y simbólicas más familiares. Por tanto, el trabajo
con las redes neuronales artificiales proporciona un valioso antídoto contra
lo que se ha denominado «imagen de archivador» de la mente: la imagen de
la mente como un almacén de símbolos pasivos, parecidos al lenguaje, que
esperan ser recuperados y manipulados por una especie de unidad central de
procesamiento neuronal. Con todo, quedan por eliminar algunos aspectos
residuales de esta «imagen de archivador. Al igual que un archivador, la
mente ha sido tratada con demasiada frecuencia como un recurso pasivo:
como un órgano para clasificar y transformar datos de entrada pero que no
está intrínsecamente orientado a actuar en el mundo. Esta falta de atención
a los problemas y las posibilidades que acompañan a las acciones en el mun­
do real y en tiempo real se manifiesta de varias maneras. La elección de ám­
bitos de tareas muy abstractos (como generar las formas pretéritas de verbos
ingleses) y el empleo de formas de codificación de entrada y salida muy arti­
ficiales, son síntomas de una imagen de la mente que, en esencia, la conside­
ra el órgano de una razón intemporal e incorpórea. Naturalmente, nadie ha
pensado que la percepción, el movimiento y la acción carezcan totalmente
de importancia. Todo el mundo está de acuerdo en que, tarde o temprano,
estos factores se deberán tener en cuenta. Sin embargo, según la creencia
más arraigada, los problemas adicionales que plantean estas cuestiones se
pueden separar sin riesgo alguno de la tarea principal de comprender la
mente y la cognición, y las soluciones a estos problemas más «prácticos» sim­
plemente se pueden «adjuntan» a los dispositivos de procesamiento de la ra­
zón incorpórea.
110 I De excursión por la mente

Esta separación metodológica entre las tareas de explicar la razón y la


mente (por un lado) y la acción en tiempo real y en el mundo real (por otro)
es lo que la ciencia cognitiva de la mente corpórea se propone cuestionar.
Cuando se abordan problemas del mundo real en su verdadero escenario y
con toda su complejidad, se hace evidente que ciertos estilos de resolución
de problemas simplemente no funcionan. Y los tipos de solución que s í fun­
cionan suelen fusionar los procesos de razonamiento y de acción de maneras
inesperadas, atravesando una y otra vez los límites tradicionales entre men­
te, cuerpo y entorno.
En cierto sentido, esto no nos debería sorprender. Nuestros cerebros evo­
lucionaron como controladores de unos cuerpos que se movían y actuaban
en un mundo real (y con frecuencia hostil). Seguramente estos órganos evo­
lucionados desarrollaron unos recursos computacionales complementarios
de las acciones e intervenciones que controlaban. Después de todo, el cere­
bro así entendido no necesita mantener una réplica interna y a pequeña es­
cala del mundo que sustente exactamente los mismos tipos de operación y
manipulación que habitualmente aplicamos sobre él. La responsabilidad del
cerebro es ofrecer prestaciones complementarias que apoyen la explotación
reiterada de operaciones sobre el mundo. Su tarea consiste en proporcionar
procesos computacionales (como una potente compleción de patrones) que
el mundo, incluso cuando es manipulado por nosotros, no suele ofrecer.21
Entonces, ¿dónde se encuentra la mente? ¿Se encuentra realmente «den­
tro de la cabeza» o quizá ahora se ha extendido, de una manera un tanto li­
bertina, por el mundo? A primera vista, esta pregunta es extraña. Después
de todo, cada cerebro individual sigue siendo la sede de la conciencia y la ex­
periencia. Pero, ¿qué ocurre con la razón? Cada pensamiento es considera­
do por un cerebro. Pero ahora vemos que el flujo de pensamientos y el éxito
adaptativo de la razón dependen de interacciones reiteradas y cruciales con
recursos externos. El papel de estas interacciones, en los casos que he desta­
cado, es claramente computacional e informacional: consiste en transformar
entradas, simplificar búsquedas, contribuir al reconocimiento, estimular el
recuerdo asociativo, descargar la memoria, etc. En cierto sentido, un ser hu­
mano que razona es un dispositivo cognitivo verdaderamente distribuido: re­
aliza llamadas a recursos externos para que lleven a cabo unas tareas de pro­
cesamiento específicas, de manera muy parecida a cuando un ordenador
conectado a una red hace llamadas a otros ordenadores conectados para que
t

2 !. Naturalmente, esto ya no es estrictamente cierto. Las mismas redes neuronales artifi­


ciales constituyen recursos externos completadores de patrones (Churchland, 1995, capitulo
11), Además, otros agentes y animales también constituyen recursos de compleción de patro­
nes externos al individuo. Véase más información al respecto en el capítulo 4.
Mente y mundo: la frontera plástica I 111

realicen unas tareas concretas. Por tanto, propongo que la demostración que
hacen Kirsh y Maglio del papel de la acción epistémica tiene como conse­
cuencia una distribución correspondiente del mérito epistémico. El flujo de
pensamientos o la generación de respuestas razonadas no son un mérito ex­
clusivo del cerebro. La colaboración entre cerebro y mundo es mucho más
rica y está más impulsada por necesidades de computación e información de
lo que se creía hasta ahora.
Sería reconfortante suponer que esta imagen más integrada de la mente
y el mundo no plantea ninguna amenaza a cualesquiera de nuestras ideas fa
miliares sobre la mente, la cognición y el yo. Reconfortante, pero falso. Por­
que si bien los pensamientos concretos continúan estando vinculados a los
cerebros individuales, el flujo de la razón y las transformaciones de informa­
ción que dicho flujo implica parecen entrecruzar el cerebro y el mundo. Sin
embargo, sospecho que este flujo de ideas es lo que la mayoría de nosotros
asocia con más fuerza con la idea de la mente como sede de la razón y del yo.
Este flujo es más importante que las instantáneas que nos ofrecen los pensa
mientos o las experiencias aisladas." Como veremos, el verdadero motor de
la razón no está delimitado ni por la piel ni por el cráneo.2

22. El epílogo ilustra esta afirmación considerando e! papel del cerebro en la generación
de una compleja corriente de ideas vinculadas. Véase también el apañado 10.5.
4 Sabiduría colectiva al estilo
de los hongos mucilaginosos

4.1 Aquí llega el mucílago

Es la primavera del año 1973 y el tiempo ha sido anormalmente húme­


do. Al mirar por la ventana que da al jardín, nuestra mirada es atraída por
una proliferación de masas redondeadas de un intenso color amarillo.
¿Qué podrán ser? Intrigados, intentamos volver a trabajar pero somos in­
capaces de concentrarnos. Un poco después volvemos a mirar por la ven­
tana. Las masas gelatinosas de color amarillo siguen ahí, pero podríamos
jurar que se han movido. Tenemos razón. Sin prisa, pero sin pausa, estos
seres desconocidos se arrastran por el jardín y trepan por el poste telefóni­
co, acercándose a nosotros. Llenos de espanto, telefoneamos a la policía
para comunicarles la probable visión de formas de vida extraterrestre.
Pero en realidad lo que hemos visto (como han visto muchas otras perso­
nas) es un ser totalmente terrestre, aunque con un ciclo de vida ciertamen­
te muy extraño: se trata del Fuligo séptica, un tipo de hongo mucilaginoso
acelular.1
Existen hongos mucilaginosos de muchas variedades12y tamaños, pero to­
dos pertenecen a la clase de los micetozoos. El nombre es revelador, ya que
combina «miceto» (hongo) y «zoos» (animales). Les gustan los ambientes
húmedos y suelen encontrarse sobre troncos podridos..., tocones o en mon­
tones de restos vegetales en descomposición. Su distribución geográfica es
muy extensa y no parece limitarse a unos climas específicos. Como se dice en

1. Esta historia se basa en informes de Alexopouios y Mims, 1979 y Farr, 1981.


2. Existen dos tipos principales de hongos mucilaginosos: los acelularcs, donde las célu­
las se fusionan para formar una masa multinuclear y los celulares, donde las células se agrupan
pero nunca se fusionan y donde la masa multicelular forma un cuerpo móvil (denominado ba­
bosa en ocasiones). Véase el capítulo 1 de Ashworth y Dee, 1975.
114 I De excursión por la mente

un manual, «muchas especies tienden a aparecer en cualquier lugar, de ma­


nera inesperada» (Farr, 1981, pág. 9).
De interés especial es el ciclo de vida de los hongos mucilaginosos «celu­
lares». Tomemos, por ejemplo, la especie Dictyoslelium dtscoideunt,’ descu­
bierta por primera vez en 1935, en Carolina del Norte. El ciclo de vida del
D. discoideum empieza con lo que se denomina una fase vegetativa, donde
las células del hongo mucilaginoso existen individualmente, como las ame­
bas (se llaman mixoamebas). Mientras las fuentes locales de alimento duran
(las mixoamebas se alimentan de bacterias), las células crecen y se dividen.
Pero cuando las fuentes de alimento se agotan, ocurre una cosa verdadera­
mente extraña. Las células empiezan a agruparse formando una masa con as­
pecto de tejido llamada pseudoplasmodio. Aunque pueda parecer increíble, el
pseudoplasmodio es un ser colectivo móvil, una especie de babosa en minia­
tura (figura 4.1) que puede arrastrarse por el suelo.'1Es atraído por la luz y si­
gue gradientes de temperatura y humedad. Estas señales le ayudan a encontrar
un lugar con más alimento. Cuando encuentra un lugar adecuado, el pseudo­
plasmodio vuelve a cambiar de forma, esta vez diferenciándose por medio de
un tallo y un cuerpo fructífero con una masa de esporas que comprende unos
dos tercios del número total de células. Cuando las esporas se propagan, el ci­
clo vuelve a empezar con una nueva población de mixoamebas.
¿Cómo saben agruparse las células individuales (mixoamebas) del hon­
go mucilaginoso? Una solución -el equivalente biológico de un planificador
central (véase el capítulo 3)- sería que la evolución hubiera elegido unas
«células líder». Estas células estarían especialmente adaptadas para «lla­
mar» a las otras células, probablemente por medios químicos, cuando el ali­
mento empezara a escasear y, de alguna manera, orquestarían la construc­
ción del pseudoplasmodio. Sin embargo, parece que la naturaleza ha
optado por una solución más «democrática». De hecho, las células del hon­
go mucilaginoso parecen comportarse como las hormigas descritas en el
apartado 2.3 anterior. Cuando el alimento escasea, cada célula libera un
compuesto químico (AMP cíclico) que atrae a otras células. A medida que
las células se van agrupando aumenta la concentración de AMP cíclico, que
atrae a más células. Por tanto, un proceso de retroalimentación positiva
conduce a la agrupación de las células que constituyen un pseudoplasmo­
dio. Como comenta Mitchel Resnick (1994, pág. 51), este proceso es un
buen ejemplo de lo que se conoce como autoorganización. En los sistemas
autoorganizados emergen pautas de nivel superior a partir de las interac-
i3

3. La explicación sobre el D discotdewn se basa en Ashworth y Dee, 1975, págs. 32-36.


A. Los hongos mucilaginosos acelulares como el Fuligo séptico no forman una babosa mó­
vil. En cambio, el piasmodio emigra mediante comentes de protoplasma.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 115

FIGURA 4.1 Agrupaciones irigradoras (pseudoplasmodios) de un hongo mucilagi-


noso celular. Fuente: Morrissey, 1982. Reproducido con la autorización de Academic
Press.

dones de múltiples componentes simples, sin necesidad de líderes, contro­


ladores ni orquestadores.
Propondré que la autoorganización y la emergencia no se limitan a colecti
vos primitivos como el hongo mucilaginoso. También se dan formas de una
conducta adaptativa emergente en colectivos de agentes humanos. El cerebro
biológico, que parasita el mundo externo (véase el capítulo 3) con el fin de au­
mentar su capacidad para resolver problemas, no traza el límite en las exten­
siones inorgánicas y ciertos aspectos cruciales de nuestro éxito adaptativo están
determinados por las propiedades colectivas de grupos de agentes individuales.
116 I De excursión por la mente

4.2 Dos formas de emergencia

La emergencia de fenómenos nuevos a partir de una actividad colectiva


(sin líderes ni controladores centrales) se puede producir, por lo menos, de
dos maneras. La primera, a la que denominaré emergencia directa, se basa
principalmente en las propiedades de los elementos individuales (y en sus re
laciones mutuas); en este caso, las condiciones ambientales sólo desempeñan
un papel de contexto. La emergencia directa puede implicar múltiples ele­
mentos homogéneos (como cuando emergen la temperatura y la presión a
partir de las interacciones entre las moléculas de un gas), o puede implicar
elementos heterogéneos (como cuando emerge agua a partir de las interac­
ciones entre moléculas de oxígeno y de hidrógeno). La segunda forma de
emergencia, a la que denominaré emergencia indirecta, también se basa en las
interacciones de elementos individuales pero requiere que estas interaccio
nes estén mediadas por unas estructuras ambientales activas y, con frecuen­
cia, bastante complejas. Por tanto, la diferencia reside en la medida en que
podemos comprender la emergencia de un fenómeno dado centrándonos,
principalmente, en las propiedades de los elementos individuales (emergen
cía directa) o en la medida en que la explicación del fenómeno requiere aten­
der a detalles bastante específicos del entorno. Esta distinción está lejos de
ser absoluta puesto que todos los fenómenos se basan en mayor o menor me­
dida en condiciones ambientales contextúales. (Se puede hacer un poco más
precisa formulándola en función de los papeles explicativos de diferentes ti­
pos de «variables colectivas»; véase el capítulo 6). Pero podemos obtener
una impresión intuitiva básica de esta diferencia examinando algunos casos
sencillos.
Un ejemplo clásico de emergencia directa es el familiar fenómeno de los
atascos de tráfico. Puede producirse un atasco aun cuando no se pueda cul­
par de ello a ningún suceso externo inesperado (como una colisión o una se­
rie de semáforos averiados). Por ejemplo, mediante unas sencillas simulacio­
nes, Mitchel Resnick5 demuestra que se producirá un embotellamiento si
cada automóvil sigue simplemente dos reglas intuitivas: «Si nos vamos acer­
cando al vehículo que tenemos delante, reduciremos la velocidad; si no, la
aumentaremos (salvo sí ya hemos alcanzado la velocidad máxima permiti­
da)» {Resnick, 1994, págs. 69,73). Pero cuando se siguen estas dos reglas y
no hay ningún obstáculo externo, ¿por qué el tráfico no acelera hasta la má­
xima velocidad permitida y se queda ahí? La respuesta se encuentra en las

5. Aquí, como en los apartados 4.1 y 4.2, sigo a Mitchel Resnick cuyo libro Turitrs, Ter-
miles, and Tra/fic Jams (1994) es a la vez un modelo de claridad y un poderoso testimonio del
alcance y la fuerza del pensamiento descentralizado.
Sabiduría colectiva al estilo de ios hongos muciiaginosos I 117

posiciones iniciales. Al principio de la simulación, la distancia entre los au­


tomóviles que circulan por la carretera es aleatoria. Por tanto, en ocasiones
un automóvil empieza a acercarse a otro y pronto debe reducir la velocidad;
esto hace, a su vez, que el vehículo que tiene detrás también reduzca la suya.
El resultado final es una mezcla de tramos de tráfico rápido y de tráfico len­
to. De vez en cuando un automóvil sale del atasco, acelerando y dejando es­
pacio para el que tiene detrás. Pero con la misma rapidez con que el embo­
tellamiento se «desatasca» en una dirección, crece en la otra a medida que se
incorporan nuevos automóviles por detrás y se ven obligados a reducir la
marcha. Aunque cada vehículo avanza hacia adelante, el atasco de tráfico en
sí, considerado como un tipo de entidad de orden superior, ¡se mueve hacia
atrás! Por tanto, esta estructura de orden superior (a la que Resnick deno­
mina estructura colectiva) muestra una conducta fundamentalmente diferen­
te de la conducta de sus componentes. De hecho, los componentes no dejan
de cambiar (a medida que unos vehículos van saliendo y otros nuevos se van
incorporando), pero la integridad del colectivo de orden superior se conser­
va. (De una manera similar, el cuerpo humano no siempre está formado por
la misma masa de materia: las células mueren y son reemplazadas por otras
nuevas construidas a partir de la energía obtenida de los alimentos. También
nosotros somos colectivos de orden superior cuya materia constituyente se
encuentra en flujo constante.) Los atascos de tráfico se consideran casos de
emergencia directa porque el necesario telón de fondo ambiental (las dis­
tancias variables entre los vehículos) es mínimo: seguramente el espaciado
aleatorio es la condición por defecto y no requiere ninguna manipulación
ambiental especial. Sin embargo, la emergencia indirecta es intuitivamente
muy diferente, como veremos a continuación.
Consideremos el siguiente ejemplo: tenemos que acordarnos de com­
prar una caja de latas de cerveza para una fiesta. Para refrescarnos la me­
moria, colocamos una lata de cerveza vacía sobre el felpudo de la puerta.
Cuando volvemos a salir de casa, tropezamos con la lata y nos acordamos
de nuestra misión. Hemos empleado lo que a estas alturas ya es un truco
familiar (recordemos el capítulo 3): explotar algún aspecto de la realidad
como sustituto parcial de la memoria incorporada. De hecho, hemos em­
pleado una alteración de nuestro entorno para comunicarnos algo a noso­
tros mismos. Este truco de emplear el entorno para provocar acciones y co­
municar señales figura en muchos casos de lo que yo denomino emergencia
indirecta.
Tomemos la conducta de construcción de algunas termitas. La conducta
de construcción de una termita supone modificar su entorno local en res­
puesta a los estímulos proporcionados por alteraciones previas del entorno
realizadas por otras termitas o por la misma termita en otra ocasión. Dicho
118 I De excursión por la mente

de otra manera, la construcción de un termitero está bajo el control de lo


que se conoce como algoritmos estigmérgicos.6
Un ejemplo simple de estigmergia es la construcción de arcos (un aspec­
to básico de los termiteros) con pelotillas de barro. He aquí cómo funciona
este proceso:7 todas las termitas hacen pelotillas de barro que, al principio,
depositan al azar. Pero cada pelotilla incluye una señal química añadida por
la termita. Las termitas prefieren dejar caer las pelotillas donde la señal quí­
mica es más fuerte. Por tanto, es probable que las pelotillas nuevas se depo­
siten encima de las antiguas, generándose entonces una fuerza de atracción
aún mayor (¡sí, es la historia de siempre!). De esta manera se van formando
columnas. Cuando dos columnas están muy próximas entre sí, las señales
químicas de la columna vecina influyen en la conducta de soltar las peloti­
llas, incitando a los insectos a añadir barro en el lado de cada columna que
encara a la otra. Este proceso continúa hasta que las puntas de las columnas
se inclinan la una hacia la otra y se forma un arco. El producto final de una
gran cantidad de estigmergias distintas es una estructura compleja de celdi­
llas, cámaras y túneles. En ningún punto de este prolongado proceso se sigue
o se representa un plano del termitero. Ninguna termita actúa como líder
durante la construcción. Ningún termita «sabe» nada, salvo responder cuan­
do se encuentra con una pauta específica en su entorno local. Las termitas
no se hablan entre sí de ninguna manera, salvo mediante los productos am­
bientales de su propia actividad. Esta coordinación basada en el entorno no
requiere ninguna codificación o descodificación lingüística y no impone car­
ga alguna a la memoria; además, las «señales» persisten aunque el individuo
responsable de las mismas se haya ido a hacer otra cosa (Beckers y otros,
1994, pág. 188).
Resumiendo: aprendemos lecciones importantes incluso a partir de estos
casos simples de emergencia de fenómenos colectivos. Estos fenómenos se
pueden producir de maneras directas o muy mediadas por el entorno. Pue­
den sustentar conductas adaptativas complejas sin necesidad de líderes, di­
seños o planificadores centrales. Y pueden manifestar rasgos característicos
totalmente diferentes de los rasgos de los individuos cuya actividad reflejan.
En el siguiente apartado veremos estas conductas en un contexto más fami­
liar: el de la actividad humana.

6, «Esúgmérgico», una combinación de «estigma» (señal) y «ergon» Itrabajo), implica la


utilización del trabajo como señal para más trabajo.
7. Véanse Grasse, 1959 y Beckers y otros. 1994.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 119

4.3 Tripulaciones marinas

En la investigación más prolongada y con más éxito realizada basta la fe­


cha sobre las propiedades cognitivas de grupos humanos, Edwin Hutchins
-antropólogo, científico cognitivo, marinero y oficial de derrota en regatas a
mar abierto- ha descrito y analizado el papel de las estructuras externas y de
las interacciones sociales en la navegación en alta mar. He aquí su descrip­
ción de cómo se realizan y coordinan algunas de las tareas necesarias (Hut-
chins, 1995, pág. 199; la nota al pie8es mía):

De hecho, es posible que el equipo [de navegación] organice su conducta en


una secuencia adecuada sin que exista un guión o un plan global en ninguna par­
te del sistema.8Cada miembro de la tripulación sólo necesita saber qué debe hacer
cuando se producen ciertas condiciones en el entorno. Un examen de los debe­
res de los integrantes de la tripulación muestra que muchos de ellos se especifi­
can en la forma «hacer X cuando ocurra Y». He aquí algunos ejemplos extraídos
de los procedimientos:

A. Hacer sondeos y enviarlos al puente cuando se soliciten.


B. Anotar hora y profundidad cada vez que se envíe un sondeo al puente.
C. Medir y comunicar las demoras en relación con los objetos especificados
por el piloto cuando éste lo ordene.

Al parecer, cada miembro de la tripulación sólo debe seguir una especie


de procedimiento estigmérgico9 esperando que una alteración del entorno
local (como la colocación de una carta de navegación concreta sobre una
mesa, la llegada de una petición verbal o el sonido de una campana) motive
una conducta específica. Esa conducta, a su vez, influirá en el entorno local
de otros miembros de la tripulación, provocará nuevos arranques de activi­
dad y así sucesivamente, hasta que la tarea se haya realizado.
Naturalmente, estamos hablando de agentes humanos que se formarán
ideas y modelos mentales del proceso global. Y como comenta Hutchins,
esta tendencia general hace que el sistema sea más robusto y flexible, porque

8. De hecho, en muchos navios exisie un plan formal. Pero los miembros de la tripulación
no lo emplean explícitamente para estructurar sus acciones; en realidad, como sugiere Hut­
chins (1995, pág. 178), el plan no funcionaría aunque lo hicieran.
9. La verdadera estigmergia requiere una falta total de flexibilidad de respuesta en pre­
sencia de una condición desencadenante. Por tamo, la actividad humana, en genera!, sólo es
cuasi estigmérgica. Lo común es el empleo de condiciones ambientales como instigadoras de
la acción y la capacidad global del grupo para realizar una actividad de resolución de pro­
blemas que sobrepasa el conocimiento y el alcance computacional de cada miembro por se
parado.
120 I De excursión por la mente

los individuos pueden supervisar mutuamente su actividad (por ejemplo, pi­


diendo una demora que no se haya dado a tiempo) y, si es necesario, pueden
encargarse de otras tareas (por ejemplo, si alguien cae enfermo). Sin embar­
go, ningún miembro de la tripulación tendrá interiorizados todos los cono­
cimientos y habilidades pertinentes.
Además, vemos que una gran cantidad de trabajo la llevan a cabo, una
vez más, estructuras externas: reglas de cálculo náuticas, alidadas, registros
de demora, transportadores, cartas de navegación, sondas, etc.13 Estos dis­
positivos cambian la naturaleza de ciertos problemas computacionales, ha­
ciendo que sean más fáciles de abordar por unos cerebros que tienden a la
percepción y la compleción de patrones. La regla de cálculo náutica, que es
el ejemplo favorito de Hutchins, convierte operaciones matemáticas com­
plejas en operaciones de alinear escalas en el espacio físico."
Por último, y recordando temas del capítulo 3, diremos que el espacio de
trabajo mismo para la navegación está estructurado para reducir la comple­
jidad de la resolución de problemas. Por ejemplo, las cartas que se emplean
para atracar en un puerto dado están reunidas en un tablero de cartas y co­
locadas unas sobre otras en el orden en que se van a utilizar (la que primero
se necesite, encima de las restantes).
Según Hutchins, todos estos factores se unen para posibilitar que el sis­
tema global formado por artefactos, agentes, el mundo natural y la organiza­
ción espacial, resuelva el problema de navegar. La conducta global (en el ni­
vel de la embarcación) no está controlada por un plan detallado en la cabeza
del capitán. El capitán puede establecer los objetivos, pero la secuencia de
reunir y transformar información para alcanzar estos objetivos no necesita
representarse explícitamente en ningún lugar. En cambio, la potencia y la
pericia computacionales necesarias se distribuyen por todo un conjunto he­
terogéneo de cerebros, cuerpos, artefactos y otras estructuras externas. Así
navegan los cerebros que completan patrones por mares hostiles y matemá­
ticamente exigentes.

4.4 Las raíces de la armonía


r

Pero, ¿cómo se produce esta delicada armonización entre cerebros, cuer­


pos y mundo? En los casos de lo que he llamado emergencia directa, este

10. Hutchins (1995, capítulo 3) los describe de forma detallada. Una alidada es un dispo­
sitivo telescópico para dirigir visuales; los transportadores son semicírculos graduados que se
emplean para trazar lineas o ángulos sobre cartas de navegación.
11 Véanse la pág. 171 de Hutchins, 1995 y los capilulos 3 y 10 de este libro
Sabiduría colectiva al estilo de los hongos mucilaginosos I 121

problema es menos acuciante porque las propiedades colectivas están direc­


tamente determinadas por la acción masiva de una tendencia individual uni­
forme. Por ejemplo, si la naturaleza hiciera evolucionar -¡n os libren los dio­
ses!- vehículos y carreteras (partiendo de una distribución inicial aleatoria y
de las dos reglas expuestas en el apartado 4.2 anterior), inmediatamente se
producirían embotellamientos de tráfico.
A primera vista, la emergencia indirecta plantea un enigma mayor. En los
casos de este tipo, la propiedad que hay que alcanzar (por ejemplo, la cons­
trucción de un termitero o navegar con éxito) surge a partir de interacciones
múltiples y con frecuencia variadas entre un conjunto de individuos y un en­
torno estructurado con gran complejidad. Los individuos están aparente­
mente construidos o diseñados para que su dinámica, coordinada con estos
entornos complejos, produzca un éxito adaptativo. En estos casos no hay
ningún individuo que deba conocer un plan al completo. Sin embargo, en
cierto sentido el sistema global está bien diseñado. Constituye un método ro­
busto y computacionalmente económico de lograr la conducta deseada. La
pregunta ahora es, ¿cómo se produce este diseño?
Para el sistema nervioso de cada una de las termitas, una parte impor­
tante de la respuesta” es, evidentemente, «mediante la evolución». Hutchins
propone que en el grupo que forma una tripulación también puede estar ac­
tuando una especie de proceso cuasi evolutivo. La característica clave es,
simplemente, que se producen cambios pequeños sin una actividad de dise­
ño previa y que estos cambios tienden a conservarse en la medida en que me
joren el éxito biológico. Por tanto, los cambios evolutivos implican un acre­
cimiento gradual de pequeños cambios «oportunistas»: cambios que, a su
vez, alteran el «paisaje adaptativo» para cambios posteriores, tanto para la
misma especie como para otras especies que habiten en el mismo ecosistema.
Ahora, y siguiendo todavía a Hutchins, consideremos el caso donde un
colectivo cognitivo establecido (como una tripulación) se enfrenta a un reto
nuevo e inesperado. Supongamos que este reto exige una respuesta rápida y
que no hay tiempo para que el grupo se reúna y reflexione sobre la mejor
manera de abordarlo.1213En estas condiciones, ¿cómo puede descubrir el gru­
po una nueva división social del trabajo que responda a las exigencias del en­

12. No deseo (ni necesito) incurrir en una petición de principio acerca de las contribu­
ciones relativas de la variación ciega y la selección natural por un lado, y de propiedades de au-
toorganización más fundamentales de la materia, los compuestos químicos y las células, por
otro. Véanse planteamientos al respecto en Kauffman, 1993; el capítulo 8 de Dennett, 1995 y
las págs. 180-214 de Varela y otros, 1991. Gracias a Arantza Etxeberria por ayudarme a acla­
rar esta importante cuestión.
13. Hutchins (1995, capítulo 8) explica con detalle un caso concreto en el que un sistema
de propulsión de una embarcación fracasó inesperadamente en un momento crítico.
122 I De excursión por la mente

torno? Lo que realmente sucede, como demuestra Hutchins, es que cada


miembro del grupo trata de desempeñar las funciones básicas necesarias
para evitar que la embarcación encalle; sin embargo, al actuar así, cada
miembro limita la actividad de los demás e influye en ella, en una dinámica
que equivale a una búsqueda colectiva y en paralelo de una división del tra­
bajo nueva y al mismo tiempo eficiente desde el punto de vista computacio-
nal. Por ejemplo, cuando un miembro de la tripulación se da cuenta de que
no tiene tiempo suficiente para hacer una suma crucial, le encarga el cálculo
a otro tripulante. Esto, a su vez, desencadena otros efectos. La solución al
problema de evitar el desastre surge como una especie de punto de equili­
brio en una serie repetida de negociaciones locales centradas en la distribu­
ción de tareas, un punto de equilibrio que está determinado tanto por las ha­
bilidades de los individuos como por la frecuencia y la secuencia de los datos
de entrada. Ningún miembro de la tripulación reflexiona sobre un plan glo­
bal para redistribuir las tareas. En cambio, cada tripulante hace lo que sabe
hacer mejor, negociando cualquier ayuda local o cambio de procedimiento
que necesite. En estos casos se produce una búsqueda rápida y en paralelo
de una respuesta colectiva coherente, pero esta búsqueda no implica ningu­
na representación localizada y explícita del espacio de las soluciones globa­
les posibles. En este sentido, como observa Hutchins, la nueva solución se
encuentra mediante un proceso más semejante a la adaptación evolutiva que
al diseño racionalista global.
He aquí una versión algo más sencilla de la misma idea:14 imaginemos
que nuestra tarea consiste en determinar el trazado óptimo de unos senderos
para conectar entre sí un complejo de edificios ya construidos (por ejemplo,
el nuevo campus de una universidad). La estrategia usual es el diseño racio­
nalista global, donde una persona o un grupo pequeño consideran la utiliza­
ción de los diversos edificios, los números de viandantes, etc., y buscan una
pauta de enlaces óptima que refleje las pautas de uso probable. Sin embar­
go, una solución alternativa sería establecer el campus sin ningún sendero y
cubriendo de césped todos los espacios entre los edificios. Al cabo de unos
meses, empezarán a surgir senderos que reflejarán tanto las verdaderas ne­
cesidades de los usuarios como la tendencia de las personas a seguir sende­
ros incipientes. Al cabo de un tiempo, los senderos más marcados se podrán
pavimentar y el problema se habrá resuelto sin que nadie haya tenido que
considerar el problema global de encontrar una distribución óptima de los
senderos o haya necesitado saber o representar los usos a los que se destinan
todos los edificios. La solución se habrá encontrado por medio de una serie
interactiva de cálculos aislados pequeños como, por ejemplo, «Tengo que ir

14. Tuve noticia de este ejemplo por primera vez a través de Aaron Sloman.
Sabiduría colectiva al estilo de los hongos mucilaginosos I 123

desde aquí hasta los comedores: ¿cómo lo haré?» y «Tengo que llegar al la­
boratorio de física lo antes posible: ¿cómo lo hago?». El efecto acumulado
de estas múltiples decisiones locales resuelve el problema global de una for­
ma que se parece más a una especie de evolución que a un diseño centraliza­
do clásico.
Al parecer, la necesidad de explicar los orígenes del éxito colectivo no
nos obliga a volver a la imagen de un agente planificador central que conoz­
ca la forma del espacio de problemas global. De hecho, en ocasiones pode­
mos estructurar nuestro propio entorno de resolución de problemas como
una especie de subproducto de nuestra actividad básica de resolución de
problemas. En nuestro campus hipotético, los primeros viandantes estruc­
turan el entorno como un subproducto de sus propias acciones, pero los
viandantes posteriores se encontrarán con un entorno ya estructurado que,
a su vez, puede ayudarles a resolver, precisamente, los mismos problemas.15

4.5 Modelos de la mente oportunista

Espero que estos primeros capítulos hayan transmitido una impresión


cada vez más clara del carácter oportunista de gran parte de la cognición
biológica. Cuando el cerebro biológico se enfrenta a las fuertes limitaciones
temporales propias de la acción en el mundo real y sólo dispone de un estilo
de cómputo incorporado bastante restrictivo y orientado a la compleción de
patrones, aceptará toda la ayuda que pueda conseguir. Esta ayuda incluye el
empleo de estructuras físicas externas (tanto naturales como artificiales),
el empleo del lenguaje y de instituciones culturales (véanse también los ca­
pítulos 9 y 10) y el empleo abundante de otros agentes. Sin embargo, reco­
nocer la naturaleza oportunista y extendida en el espacio-tiempo de la ver­
dadera resolución de problemas equivale a exponerse a una potencial
pesadilla metodológica. ¿Cómo podemos estudiar y comprender estos siste­
mas extendidos, complejos y a menudo construidos de una manera poco o
nada intuitiva?
Existe una metodología científica cognitiva clásica que, claramente, no
funciona en estos casos. Es la metodología de la reconstrucción racional, que
consiste en formular inmediatamente cada problema en función de un siste­
ma abstracto de relaciones entre entradas y salidas, y buscar una solución
óptima para el problema así definido. Aunque es probable que, en principio,
esta metodología nunca haya sido defendida ni siquiera desde la inteligencia

15. Compárese con el tratamiento de unas hormigas en una playa llevado a cabo por Hut-
chins (1995, pág. 169).
124 F De excursión por la mente

artificial clásica, sí que parece haber dado origen a un gran Corpus de inves­
tigación.16Pensemos en todas esas investigaciones sobre micromundos abs­
tractos: jugar a damas, colocar bloques, planificar excursiones, hacer diag­
nósticos médicos, etc. En todos estos casos, el primer paso consiste en formular
el problema en términos simbólicos canónicos y el segundo consiste en bus­
car una solución eficiente definida en un espacio de oportunidades de trans­
formación de símbolos.
Hemos visto (capitulo 3} que también los conexionistas heredaron la pe­
nosa tendencia a estudiar la resolución de problemas como si fuera incorpó­
rea y a establecer correspondencias entrada salida abstractas y definidas sim­
bólicamente.17 Sin embargo, desde las perspectivas de la robótica y de la
infancia presentadas en los primeros capítulos, ahora parece más razonable
imaginar que el entorno real de muchas tareas influye profundamente en la
naturaleza de los problemas que plantean estas tareas a unos agentes activos
y corpóreos. Estos problemas reales se plantean en un entorno que incluye
las propiedades elásticas de los músculos y la presencia de objetos reales y
manipulables en el espacio. Estas disparidades, que con tanto empeño he
tratado de exponer, con frecuencia pueden marcar la diferencia en la natu
raleza de una tarea computacional.
De hecho, la metodología de la reconstrucción racional puede inducir a
error de varias maneras fundamentales. En primer lugar, la sustitución in­
mediata de cantidades físicas reales por elementos simbólicos puede ocultar
estrategias oportunistas que impliquen actuar sobre el mundo real o explo­
tarlo de alguna manera que contribuya a la resolución de problemas (recor­
demos el «principio 007»). En segundo lugar, conceptualizar el problema en
función de correspondencias entrada-salida también invita a concebir la cog­
nición como una computación pasiva. Es decir, describe la etapa de salida
como el ensayo de una solución a un problema. Pero ya hemos visto muchos
casos (por ejemplo, las estrategias de visión animada y el empleo del botón
de rotación en Tetris) donde la salida es una acción cuyo papel consiste en
descubrir o crear datos adicionales que, a su vez, contribuyan al éxito final.
Estos casos de lo que Kirsh y Maglio llaman «acción episrémica»18amenazan
con colarse por las rendijas de cualquier imagen del éxito cognitivo funda­
mentalmente incorpórea y basada en correspondencias entrada salida. (Otra
amenaza es que la búsqueda de soluciones óptimas puede inducir aún más a

16. Véase una revisión en los capítulos I y 4 de Clark, 1989. Véase también CliíT, 199-1. Se
puede encontrar algo parecido a un apoyo explícito de estas estrategias racionalistas en Newell
y Simón, 1981.
17. Véase el apartado 3.2 anterior. Véanse también McClelland, 1989 y Plunkett y Sinha,
1991.
18. Véase el apartado 3.5 anterior. Véase también Kirsh y Maglio, 1994
Sabiduría colectiva al estilo de los hongos mucilaginosos I 125

error al ocultar el papel de la historia en la constricción del espacio de solu­


ciones biológicamente plausibles. Como veremos en el capítulo 5, la natura­
leza está muy limitada por las soluciones obtenidas para problemas encon­
trados anteriormente. En consecuencia, la actividad cognitiva rara vez está
hecha de una pieza: normalmente comprende remiendos aplicados a toda
prisa a estructuras y estrategias ya existentes.)
Por todas estas razones, la metodología de la reconstrucción racional pa­
rece distorsionar extremadamente la forma y la naturaleza de la cognición
biológica. En su lugar, ahora podemos vislumbrar los perfiles más escuetos
de una metodología alternativa: una metodología para estudiar la cognición
activa y corpórea. Las características fundamentales de esta metodología pa­
recen ser las siguientes:

Centrarse en el mundo real, en tiempo real. Las tareas se identifican en


función del mundo real. Las entradas son cantidades físicas, las salidas son
acciones. La conducta se limita a marcos temporales que son biológicamen­
te realistas.
Reconocer las soluciones descentralizadas. No se parte del simple supues­
to de que una acción coordinada inteligente requiere una planificación cen­
tral detallada. Con frecuencia pueden surgir acciones globales inteligentes a
partir de múltiples interacciones más elementales en las que intervienen in­
dividuos, componentes y/o el entorno.
Visión extendida de la cognición y la computación. Los procesos compu-
tacionales (con frecuencia) se consideran extendidos en el espacio y en el
tiempo. Estos procesos se pueden extender más allá de la cabeza de un indi­
viduo e incluir transformaciones realizadas mediante el empleo de instru­
mentos externos, y también pueden incorporar las cabezas y los cuerpos de
múltiples individuos en situaciones de resolución colectiva de problemas.

Así interpretado, el estudio de la cognición activa y corpórea plantea cla­


ramente unos importantes retos conceptuales y metodológicos. Entre ellos
se incluyen (aunque no son todos) los siguientes:

El problema de la tratabilidad. Ante esta visión radicalmente promiscua


de la cognición, siempre escurriéndose hacia su entorno local, ¿cómo pode­
mos aislar fenómenos tratables para poderlos estudiar? Este desenfrenado li­
beralismo cognitivo, ¿no hace que resulte absurda la esperanza de encontrar
una ciencia genuina de la mente?
E l problema de la cognición avanzada. ¿Hasta qué punto podemos espe­
rar llegar con una concepción descentralizada de la mente? Seguramente
existe algún lugar para la planificación central en la cognición avanzada.
126 I De excursión por la mente

Además, ¿qué ocurre con la visión de la razón individual misma? ¿Qué ima­
gen de la elección y la toma de decisiones racional está implícita en una vi­
sión radicalmente emergentista y descentralizada del éxito adaptativo?
El problema de la identidad. ¿Qué lugar ocupa en todo esto la persona in­
dividual? Si los procesos cognitivos y computacionales entrecruzan afanosa­
mente los límites de la piel y el cráneo, ¿implica esto alguna extensión corre­
lativa de la identidad personal hacia el entorno local? Dicho de una manera
menos misteriosa, ¿implica esto que los cerebros y los organismos indivi­
duales no son objetos apropiados para el estudio científico? Desde luego,
conclusiones como éstas serían bastante difíciles de discernir.

Nos encontramos aquí con una mezcla de inquietudes prácticas (¿cómo


podemos estudiar la mente corpórea y embebida?}, problemas sin resolver
(¿funcionará el mismo tipo de explicación para la cognición verdaderamen­
te avanzada?) y anomalías conceptuales (una cognición escurridiza, ¿implica
personas escurridizas? Los cerebros, ¿son en algún sentido objetos inade­
cuados para el estudio?). En los capítulos restantes abordaré todas estas
cuestiones. Especialmente trataré de responder de manera detallada a las in­
quietudes prácticas y metodológicas (capítulos 5-7), trataré de aclarar los
problemas conceptuales (capítulos 6 y 8) y empezaré a abordar el acuciante pro­
blema de la cognición avanzada (capítulos 9 y 10). Propondré que la clave
para integrar los datos sobre la cognición avanzada con la visión de una cog­
nición activa y corpórea reside en comprender mejor los papeles de dos an­
damiajes o apoyos externos muy especiales: el lenguaje y la cultura.
En resumen: la muerte de la reconstrucción racional crea una especie de
vacío conceptual y metodológico. Nuestra tarea consiste ahora precisamen­
te en llenar este vacío.

Intermedio: una historia condensada

La ciencia cognitiva, tal como se ha esbozado en los capítulos preceden­


tes, se puede contemplar como una progresión en tres etapas. La primera (el
apogeo del cognitivismo clásico) describía la mente en función de un dispo­
sitivo lógico central, unas bases de datos simbólicas y algunos módulos peri­
féricos «sensoriales». Las características fundamentales de esta visión in­
cluían estas ideas:
i
la memoria como recuperación de una base de datos simbólica almace­
nada,
la resolución de problemas como una inferencia lógica,
Sabiduría colectiva a! estilo de los hongos mucilaginosos I 127

la cognición como un proceso centralizado,


el entorno como un (simple) ámbito de problemas,

el cuerpo como periférico de entrada.

La revolución conexionista (redes neuronales artificiales) tenía como ob


jetivo sustituir las tres primeras características por las siguientes:

la memoria como re-creación de patrones,


la resolución de problemas como compleción y transformación de dichos
patrones,

la cognición como un proceso progresivamente descentralizado.

Sin embargo, este replanteamiento radical de la naturaleza del dispositi­


vo cognitivo interno estaba acompañado, en gran medida, de una aceptación
tácita de la clásica marginación del cuerpo y el mundo. A este clasicismo re­
sidual se enfrentan directamente las investigaciones antes presentadas. En
estas investigaciones se mantienen los principios más generales de la con­
cepción conexionista, aunque potenciados por las siguientes imágenes:

una imagen del entorno como recurso activo cuya dinámica intrínseca
puede desempeñar importantes funciones en la resolución de problemas,

una imagen del cuerpo como parte del bucle computacional.

Tomarse en serio de esta manera el cuerpo y el mundo invita a adoptar


una perspectiva emergentista en relación con muchos fenómenos fundamen­
tales; equivale a considerar que el éxito adaptatívo es tan inherente a las
complejas interacciones entre cuerpo, mundo y cerebro como a los procesos
internos limitados por la piel y el cráneo. Sin embargo, los desafíos a los que
se enfrenta este enfoque son numerosos y profundos. El más crucial es la
acuciante necesidad de equilibrar de alguna forma el tratamiento de la apor­
tación interna (centrada en el cerebro) y el tratamiento de los factores exter­
nos, de una manera que haga justicia a cada cual. Este problema se mani­
128 ¡ De excursión por la mente

fiesta como una serie de inquietudes de cariz bastante abstracto, aunque son
inquietudes con importantes consecuencias concretas para la dirección y la
metodología de una ciencia de la mente corpórea. Estas inquietudes in­
cluyen:

encontrar el vocabulario adecuado para describir y analizar los procesos


que entrecruzan el límite agente/entorno,
aislar para su estudio sistemas adecuados a gran escala y motivar alguna
descomposición de estos sistemas en partes y procesos componentes que
interaccionen entre sí,

comprender expresiones familiares como «representación», «computa­


ción» y «mente» de maneras que encajen con la nueva imagen (o, si no,
rechazar por completo estas expresiones).

En resumen: ¿cómo debemos concebir el tipo de fenómenos que hemos


expuesto y cuántas de nuestras viejas ideas y prejuicios tendremos que aban­
donar para hacerlo? A esta cuestión se dedica la segunda parte.
Segunda parte

EXPLICAR LA MENTE EXTENDIDA

N uestro propio cuerpo está en el mundo com o el corazón en el organism o...


forma un sistema con él.
M á URICE M erleau -Po n t y , Phenomenology o/Percepíion.
Versión en castellano del pasaje traducido al inglés por David H ilditch en su
tesis doctoral (Universidad de Washington, 1995).
LAMINA 1. Representación tridimensional de la corteza cerebral y de los principales
centros visuales subcorticales del macaco. La figura abarca todo el hemisferio derecho.
Fuente: van Essen y GalJant, 1994 Reproducida por gentileza de David van Esten, Kack Gallant y Cell
Press.
A,
0,7 65,6

■ ' O'*-

% '/ / / i| $ }{
O l í >I< o 4J? # (9 G s> M
O u '# © OO
Cartesianas Hiperbólicas Polares

B.
- 0,9 62,4

1ll

I ..

= -II $ •# <#
r.
5 :c
= Í5 ' / / Ü V N $ Q f > 0 $ M
r //uv'w ' o o í ; o
Cartesianas Hiperbólicas Polares

LÁMINA 2. Respuestas de dos células de V4 a diferentes pautas espaciales cartesia­


nas y no cartesianas. Cada icono representa un estímulo visual particular y su color
representa la respuesta inedia a ese estimulo en relación con la frecuencia espontá­
nea de londo, empleando la escala de color mostrada arriba. Á) neurona con una res­
puesta máxima ante estímulos polares, especialmente espirales, y mucho menos ante
rejillas hiperbólicas y cartesianas (m odificado con autorización de Gallant y otros,
1993). B? neurona con una respuesta máxim a ante estímulos hiperbólicos con fre­
cuencias espacíales de bajas a moderadas.
Fucnir v j ii ívsscn y Gallant, 1904 a-producirla p o r penalczj de David v_m Esstn. Kack Cufian! yCell l'ress.
LÁMINA 3. Atún robótico que cuelga de un soporte en el Ocean Engineering Testing
Tank Facility del MIT.
Fuente: Triantaíyllou y Trianlafyllou, 1995. Fotografía de Sam Ogden; reproducida por gentileza de Sam
Ogden y con la autorización de Scientific American, Inc
1 3

LÁMINA 4. Un coletazo enérgico seguido en rápida sucesión por otro en la dirección


contraria produce un fuerte y súbito em puje muy adecuado para abalanzarse sobre
una presa o huir con rapidez. El coletazo inicial produce un gran vórtice (1); el se­
gundo coletazo crea otro vórtice que gira en sentido contrario (2, 3). Antes de apar­
tarse de la cola y debilitarse mutuamente, los dos vórtices se combinan para crear un
chorro que produce un fuerte impulso hacia adelante y una fuerza lateral desviada,
aunque manejable (4).
Fuente: Tpanuíyílou yTriamafyllou. 1995; reproducida por gentileza de M. S. vC . S. Tnantafyllou y Scien-
tific American, Inc.
5 Robots en evolución

5.1 Las elusivas estratagemas de la mente


corpórea y embebida

¿Cómo deberíamos estudiar la mente corpórea y embebida? Este pro­


blema se convierte en apremiante cuando nos damos cuenta de que las so­
luciones de la naturaleza suelen confundir las imágenes por las que nos
guiamos y burlar las nítidas demarcaciones (cuerpo, cerebro y mundo) que
estructuran nuestro pensamiento. El cerebro biológico parece estar a la vez
constreñido y potenciado de maneras fundamentales y en ocasiones nada in
tuitivas. Está constreñido por la naturaleza del proceso evolutivo, un proce­
so que debe construir nuevas soluciones y estrategias adaptativas partiendo
de los recursos cognitivos y del hardware existentes. Y como hemos visto,
está potenciado por la disponibilidad de un campo en el mundo real que nos
permite explotar otros agentes, buscar activamente entradas útiles, transfor­
mar nuestras tareas computacionales y descargar en el mundo el conoci­
miento adquirido.
Esta combinación de restricciones y oportunidades plantea un verdade­
ro problema al científico cognitivo. ¿Cómo podemos modelar y comprender
sistemas cuyos parámetros de diseño y operación parecen (desde una pers­
pectiva de diseño no histórica e incorpórea) tan desordenados y poco intui­
tivos? Una solución parcial consiste en enfrentarse directamente al proble­
ma de la acción en el mundo real y en tiempo real, como en los trabajos de
robótica examinados en el capítulo I. Otra consiste en observar atentamen­
te la interacción entre la cognición y la acción al principio del aprendizaje,
como en la investigación sobre el desarrollo examinada en el capítulo 2. Un
importante instrumento adicional -que es el tema central del presente capí­
tulo- es el empleo de una evolución simulada como medio para generar sis-
132 I Explicar la mente extendida

temas de control para robots (verdaderos o simulados). La evolución simu­


lada (como el aprendizaje de redes neuronales) promete ayudarnos a reducir
el papel de nuestras predisposiciones y prejuicios racionalistas en la búsque­
da de soluciones eficientes.

5.2 Un telón de fondo evolutivo

Con frecuencia se ha dicho que los sistemas que han evolucionado de


una manera natural simplemente no funcionan como un diseñador huma­
no podría esperar.1Hay varias razones para ello. Una, que ya hemos visto
ejemplificada muchas veces, supone una tendencia a soluciones distribui­
das. La cuestión, ahora ya familiar para nosotros, es que mientras un d i­
señador humano normalmente construiría la funcionalidad necesaria para
resolver un problema directamente en un dispositivo separado, la evolu­
ción no estaría limitada de ninguna manera por los límites entre un orga­
nismo o dispositivo y el entorno. La resolución de problemas se distribu­
ye fácilmente entre organismo y mundo o entre grupos de organismos. La
evolución, que en un sentido muy real no tiene ninguna perspectiva sobre
ningún problema, carece de impedimentos para encontrar soluciones dis­
tribuidas económicas porque no necesita las anteojeras (por ejemplo, la
firme división entre dispositivo y ámbito de operación) que ayudan a los
técnicos humanos a enfocar su atención y a descomponer problemas com­
plejos en componentes.
Sin embargo, esto no quiere decir que los principios de descomposición
no desempeñen ningún papel en el diseño natural. Pero el tipo de descom­
posición que caracteriza al diseño por selección natural es, de hecho, muy di­
ferente. Es una descomposición dictada por la restricción del holismo evolu­
tivo, un principio formulado explícitamente por Simón (1969) que afirma
que las totalidades complejas se suelen desarrollar de modo incremental con
el tiempo evolutivo y que las diversas formas intermedias deben ser ellos
mismos sistemas completos y robustos capaces de sobrevivir y reproducirse.
Como dice Dawkins (1986, pág. 94), la clave reside en pensar en función de
trayectorias o vías a través del tiempo evolutivo, considerando a los organis­
mos completos que tienen éxito como pasos a lo largo del camino.
Esta restricción es muy fuerte. Un diseño complejo extremadamente
adaptativo que carezca de alguna descomposición evolutiva de esta clase
(con formas ancestrales más sencillas pero exitosas), nunca evolucionará.
Además, las transiciones entre estas formas no deberían ser demasiado ex­

I. Véanse, por ejemplo, Simón, 1962; Dawkins, 1986 y el capitulo 4 de Clark, 1989.
Robots en evolución I 133

tremas: deberían consistir en pequeñas alteraciones estructurales, cada una


de las cuales genera un organismo completo y con éxito.
Se dice, por ejemplo,1 que nuestros pulmones evolucionaron a partir de
la base proporcionada por las vejigas natatorias de los peces. Las vejigas na­
tatorias son unas bolsas de aire que facilitan el movimiento en entornos
acuosos. Se ha propuesto que el origen de nuestra común propensión a la
pleuresía y el enfisema se remonta a ciertos aspectos de la adaptación de la ve­
jiga natatoria. Así, Lieberman (1984, pág. 22) se ve conducido a comentar
que «las vejigas natatorias son dispositivos diseñados lógicamente para na­
dar; para respirar constituyen un sistema complicado y extravagante».
La importante conclusión de todo esto es que las limitaciones del holis
mo evolutivo, junto con la necesidad de avanzar mediante pequeños cambios
increméntales de estructuras ya existentes, pueden producir soluciones a
problemas presentes que deben mucho a sus antecedentes históricos partí
culares. Como dice el especialista en genética celular Frangois Jacob (1977,
pág. 1.163): «Los objetos simples son más dependientes de las limitaciones
[físicas] que de la historia. Cuanto mas aumenta la complejidad, más impor
tante es el papel desempeñado por la historia». Para Jacob, la evolución se
parece más a un hojalatero que a un ingeniero. Un ingeniero se sienta frente
a un tablero de dibujo en blanco y diseña una solución para un problema
nuevo partiendo desde cero; un hojalatero toma un dispositivo ya existente
y trata de adaptarlo para algún propósito nuevo. Al principio, lo que produ­
ce el mecánico puede tener poco sentido para el ingeniero, cuyo pensamien­
to no está limitado por los dispositivos y los recursos disponibles. De la mis­
ma manera, las soluciones naturales para los problemas a los que se
enlrentan los seres evolucionados complejos también pueden parecer poco
claras desde una perspectiva de diseño puro y sin tener en cuenta la historia.
Una manera de empezar a comprender estas soluciones a problemas inicial­
mente opacas, oportunistas e históricamente dependientes de trayectorias, con­
siste en tratar de recapitular artificialmente el proceso evolutivo mismo: hacer que
un hojalatero alcance a otro. Con ello damos paso a los algoritmos genéticos.

5.3 Los algoritmos genéticos como instrumentos de exploración

Como todos sabemos, la evolución biológica funciona mediante un pro­


ceso de diversificación y selección. Dada una población de organismos y una
diversidad dentro de esa población, algunos individuos sobreviven y se re­
producen mejor que otros. Añadamos a esto un mecanismo de transmisión

2. Véase una revisión de éstas y otras posibilidades en el capítulo 4 de Clark, 1989,


134 I Explicar la mente extendida

que haga que los descendientes de los más aptos hereden parte de la estruc­
tura de sus antepasados y tendremos las condiciones mínimas para la bús­
queda evolutiva. Normalmente, esta transmisión supone otros medios incor­
porados de variación (por ejemplo, la mutación) y de diversificación (por
ejemplo, los procesos de división y recombinación característicos de la re­
producción sexual). Mediante una serie repetida de variaciones, diversifica­
ciones, selecciones y transmisiones, el proceso evolutivo realiza una búsque­
da en el espacio de opciones estructurales, una búsqueda que tenderá a
concentrarse en las soluciones más aptas para los problemas de la supervi­
vencia y la reproducción.
Los algoritmos genéticos3simulan este tipo de proceso evolutivo. La po­
blación consiste, inicialmente, en una variedad de individuos de software,
que o bien se han codificado a mano, o bien se han generado al azar. Estos
«individuos» podrían ser líneas de código, estructuras de datos, programas
informáticos jerárquicos completos, redes neuronales, etc. A continuación,
se permite que estos individuos actúen en algún entorno para poder com­
putar, después de cierto tiempo, una medida de aptitud para cada uno
(¿Cuánto alimento ha encontrado? ¿Ha evitado a los depredadores?...).
Después se emplea la codificación inicial de los individuos más aptos (nor­
malmente almacenada en forma de cadenas binarias) como base para la re­
producción (es decir, para generar la próxima población). Pero en vez de li­
mitarse a copiar los individuos con más éxito, se emplean operaciones de
cruce y mutación. En las mutaciones se realiza un pequeño cambio aleato­
rio en la estructura de la codificación de un individuo. Por ejemplo, si el in­
dividuo es una red neuronal, se pueden modificar sutilmente algunos pesos.
En los cruces se recombinan partes de las codificaciones de dos individuos
para imitar la dinámica general de la reproducción sexual. Así, la nueva ge­
neración se basa en las variantes con más éxito de la generación anterior,
pero continúa el proceso de búsqueda de soluciones eficientes investigando
parte del espacio que circunda las buenas soluciones anteriores. Cuando
este proceso se repite durante centenares de miles de generaciones, consti­
tuye (para ciertos ámbitos de problemas) una potente versión de la búsque­
da de descenso por un gradiente,4 salvo por el hecho de que aquí los incre­
mentos de aprendizaje se producen generación tras generación y no durante
la vida de un solo individuo.
Estas técnicas se han utilizado para desarrollar soluciones a problemas en
una amplia variedad de ámbitos, desde el seguimiento de pistas en hormigas ar-
I

3. Véase, por ejemplo, Holland, 1975; Goldberg, 1989; Koza, 1992; Belew, 1990; Nolft,
Floreano, Miglino y Mondada, 1994.
4 Vease el capitulo 3 anterior
Robots en evolución I 135

tificiales (Jefferson y otros, 1990; Koza, 1991), hasta el descubrimiento de leyes


del movimiento planetario (Koza, 1992), pasando por la evolución de contro­
ladores de redes neuronales para insectos artificiales (Beer y Gallagher, 1992).
Esta ultima aplicación es especialmente interesante porque, como veremos a
continuación, nos permite estudiar los efectos de aprendizajes evolutivos incre
mentales en entornos que incluyen una rica dinámica corporal y ambiental.

5.4 Inteligencia corpórea en evolución

Caminar, ver y navegar son estrategias adaptativas fundamentales explo­


tadas por muchas criaturas evolucionadas. ¿Puede ayudarnos la evolución si­
mulada a comprenderlas mejor? La respuesta parece ser un «sí» provisional.
Consideremos el caminar. Randall Beer y John Gallagher (1992) han uti­
lizado algoritmos genéticos para hacer evolucionar controladores de redes
neuronales para la locomoción de insectos. Resulta que estos controladores
evolucionados explotan una variedad de estrategias robustas y, en ocasiones,
nada evidentes. Muchas de estas estrategias se basan en interacciones estre­
chas y continuas entre el controlador y el entorno, y no suponen la cons­
trucción previa de programas motores detallados y explícitos. Además, los
mejores controladores fueron capaces de enfrentarse con éxito a una varie­
dad de situaciones que constituían un desafío, incluyendo funcionar con re-
troalimentación sensorial y sin ella, y compensar automáticamente ciertos ti­
pos de cambio estructural.
El insecto robot de Beer y Gallagher era una especie de cucaracha simu­
lada' con seis patas. Cada pata estaba articulada y se podía alzar y bajar. Un
sensor en cada pata comunicaba el ángulo de las patas en relación con el
cuerpo. El insecto simulado estaba controlado por una red de redes neuro­
nales (cada pata tenía un controlador de red dedicado, formado por cinco
neuronas). Cada subred de cinco neuronas incluía tres neuronas motoras
que gobernaban la pata y dos neuronas «extra» con una función abierta.
Cada subred recibía datos de entrada procedentes del sensor asociado a la
pata que controlaba. Se utilizó un algoritmo genético (véase el apartado 5.3
anterior) para descubrir un conjunto de características (como los pesos de
conexión; véase el capítulo 3 anterior) que permitiera a este tipo de arqui­
tectura de control generar una locomoción sólida y estable. Esto, a su vez,
implicaba encontrar pesos, sesgos y constantes de tiempo (velocidades de
respuesta) capaces de generar una pauta de movimiento viable para cada
pata y de coordinar los movimientos de todas las patas.

5. Véanse la introducción y el capítulo 2 de este libro.


136 t Explicar la mente extendida

Beer y Gallagher desarrollaron once controladores, cada uno con un


conjunto diferente de valores para los parámetros y los pesos. Todos los con­
troladores produjeron una buena locomoción y rodos emplearon la «marcha
trípeda», favorita de los insectos reales que se desplazan con rapidez.
La importancia de la interacción controlador-entorno quedó demostrada
por el desarrollo evolutivo de soluciones en tres entornos diferentes. En el
primer entorno, la búsqueda evolutiva se producía con los sensores de las
patas en funcionamiento. Como era de esperar en estas condiciones, las so­
luciones finales se basaban firmemente en una continua retroalimentación
sensorial- Si más adelante se desactivaban los sensores, la locomoción se per­
día o presentaba muchos problemas. En el segundo entorno, la búsqueda
evolutiva se producía sin retroalimentación sensorial. En esta condición «a
ciegas» se descubrieron soluciones que sólo estaban basadas en generadores
centrales de pautas y que, en consecuencia, producían una locomoción algo
torpe pero fiable, semejante a la de un robot de juguete.
Muchísimo más interesantes fueron los resultados obtenidos cuando la
retroalimentación sensorial estaba presente de una manera intermitente
durante la búsqueda evolutiva. En estas condiciones inestables, evolucio­
naron unos controladores que podían producir un caminar fluido emple­
ando la retroalimentación sensorial cuando estaba disponible, pasando a
una generación de pautas «a ciegas» en ausencia de retroalimentación sen­
sorial (y produciendo una locomoción viable aunque menos elegante) e in­
cluso compensando automáticamente ciertos cambios estructurales (por
ejemplo, alteraciones de la longitud de las patas, como ocurre durante el
crecimiento biológico). La explicación de esta última propiedad supone
que, en estas soluciones «mixtas», la retroalimentación sensorial modula el
generador de pautas. Una alteración en la longitud de una pata influye en
las lecturas del sensor correspondiente y esto, a su vez, ocasiona una ra-
lentización en el generador de salidas motrices. Este tipo de compensación
automática tiene un sabor biológicamente realista: pensemos cómo se
adapta automáticamente un gato para andar a tres patas cuando se ha le­
sionado una o cómo se adapta un ser humano a caminar sobre una super­
ficie helada o con un tobillo torcido. Sin embargo, como señala Beer
(1995b), este tipo de adaptación no es el resultado de un aprendizaje indi­
vidual como tal: es más bien algo inherente a la dinámica original del siste­
ma, y las nuevas condiciones (lesiones, crecimiento de las patas, etc.) no
hacen más que ponerla de manifiesto.
En general, el tipo de solución encarnada por este controlador mixto su­
pone un equilibrio tan sutil entre la generación centralizada de pautas y la
modulación sensorial que, según Beer, es muy fácil que un analista humano
lo hubiera pasado por alto. Mediante el empleo de algoritmos genéticos, se
Robots en evolución I 137

pueden encontrar soluciones que saquen el máximo partido de aquellas es­


tructuras ambientales disponibles y que no se vean perjudicadas por nuestra
tendencia natural a buscar soluciones ordenadas, nítidas y fáciles de des­
componer. Naturalmente, la vertiente negativa de estas soluciones más de­
sordenadas, más interactivas y más realistas biológicamente es que no sólo
son difíciles de descubrir sino que también son difíciles de comprender una
vez descubiertas. Volveremos a este problema en el apartado 5.7.
Posteriores experimentos realizados en otros ámbitos han dado los mis­
mos resultados que los de Beer y Gallagher. Harvey y otros (1994) hicieron
evolucionar sistemas de control para robots orientados visualmente y Yamu-
chi y Beer (1994) hicieron evolucionar redes capaces de controlar un robot
que empleaba como entrada señales de sonar para realizar tareas de recono­
cimiento y navegación por terrenos accidentados. Johnson y otros (1994)
emplearon la programación genética para hacer evolucionar rutinas pareci­
das a la visión animada para solucionar tareas de procesamiento visual eco­
lógicamente realistas y computacionalmente poco costosas (recordemos el
capítulo 1), y aparecieron soluciones que superaron significativamente a los
mejores programas que ellos mismos habían escrito a mano. Por tanto, exis­
ten muchos indicios de la potencia de la búsqueda evolutiva simulada para
descubrir soluciones robustas y poco evidentes a problemas biológicamente
realistas. Con todo, el optimismo de esta afirmación se debería atenuar re­
conociendo varias limitaciones importantes que aquejan a la mayor parte de
los trabajos en este campo. Las principales limitaciones son la «congelación»
del espacio de problemas, el empleo de arquitecturas neuronales y corpora­
les fijas, la falta de una distinción adecuada entre fenotipo y genotipo, y el
problema del «aumento de la escala» de la búsqueda evolutiva.
La «congelación» del espacio de problemas se refiere a la tendencia a
predeterminar una función adaptativa fija y a utilizar la evolución simulada
sólo para maximizar la aptitud en relación con esta meta prefijada (caminar,
navegar, etc.). Este enfoque desatiende uno de los factores que con más fuer­
za diferencian la adaptación evolutiva real de otras formas de aprendizaje: la
capacidad de hacer coevolucionar problemas y soluciones. Un ejemplo clási­
co es la coevolución de técnicas de persecución y evasión en especies anima­
les.6 La cuestión esencial es, simplemente, que la evolución natural no actúa
para «resolver» un problema fijo. En cambio, los problemas mismos se alte­
ran y evolucionan en una compleja red de cambios coevolutivos.
Igualmente problemática es la tendencia a buscar dentro de un espacio
de problemas definido parcialmente por alguna arquitectura neurona! o cor-

6. Véanse algunos experimentos de evolución simulada que implican persecución y eva­


sión en Miller y Clifí, 199-t.
138 I Explicar la mente extendida

pora! fija. Una vez más, estas búsquedas congelan parámetros que, en el
mundo natura!, están sujetos al cambio evolutivo. Por ejemplo, la cucaracha
simulada tenía una forma corporal fija y un conjunto fijo de recursos neuro-
nales. En cambio, la búsqueda evolutiva real es capaz de modificar tanto la
forma corporal7 como la arquitectura nerviosa general.
Otra distorsión biológica es el empleo de correspondencias genotipo
fenotipo bastante directas. En la búsqueda normal por algoritmo genético,
las nuevas poblaciones de individuos están totalmente especificadas por
sus genotipos. En cambio, la manera en que los genes reales llegan a e x ­
presarse en los cuerpos reales permite que las interacciones ambientales
desempeñen un papel mucho mayor durante el tiempo de desarrollo indi­
vidual. De hecho, la imagen de que los genes «codifican» características fí
sicas suele ser errónea. En realidad, los genes codifican características físi­
cas posibles cuya expresión depende, en gran medida, de la influencia de
una variedad de factores ambientales. La capacidad de seleccionar factores
genéticos cuya expresión final en los individuos sigue estando en gran me­
dida bajo el control del entorno, permite que la evolución biológica expío
te varios grados de libertad que no están presentes en la mayoría de los
modelos artificiales.8
Finalmente existe el problema ampliamente reconocido del «aumento de
la escala». La mayoría de los trabajos presentados anteriormente aplican la
búsqueda genética a controladores de redes neuronales relativamente pe­
queños. A medida que aumenta el número de parámetros que caracterizan a
los controladores, las variedades normales de búsqueda evolutiva son cada
vez más ineficaces. La clave para superar este problema parece residir en
combinar una mejora de las codificaciones genéticas con una «descarga» de
parte de la tarea en el entorno (es decir, reducir la cantidad de información
codificada en el genotipo y depender más de las interacciones evolutivas con
un entorno estructurador). Vemos así que el problema del aumento de la es­
cala y el anterior problema de la correspondencia entre fenotipo y genotipo
pueden estar más vinculados de lo que parece a primera vista.9

7. Siguiendo esta linea, Menczer y Belew (1994) emplean un algoritmo genético para de-
terminqr la elección de una interfaz organismo-entorno haciendo evolucionar diferentes tipos
de sensor.
8. Véase un examen excelente de las complejidades de las interacciones gen-entorno en
Gifford, 1990.
9. El trabajo de Nolfi, ^liglino y Parisi (1994) es uno de los pocos intentos de introducir
la plasticidad fenotípica en un modelo combinado de algoritmo genético y red neurona!. En
este modelo, la correspondencia genotipo-fenotipo es un proceso extendido en el tiempo y
sensible al entorno. Además, la búsqueda evolutiva misma se emplea para determinar el equi­
librio entre la influencia de los genes y del entorno.
Robots en evolución I 139

Por tanto, es evidente que el empleo de la evolución simulada está lejos de


ser una panacea para la investigación sobre agentes autónomos. Sin embargo,
estos métodos ya se han ganado un lugar en la «caja de herramientas» de las
ciencias cognitivas de la mente corpórea. La medida en que ese lugar sea más
o menos fundamental también dependerá de la resolución de una disputa in­
terna bastante intensa sobre la legitimidad y el valor de emplear agentes y en­
tornos simulados para comprender la cognición corpórea y activa.

5.5 La batalla de los simuladores (¡Viva lo auténtico!)

En general, la evolución artificial tiene lugar en poblaciones de organis­


mos simulados que intentan superar entornos simulados. Sin embargo, el
empleo de estas simulaciones es, en sí mismo, objeto de discusión dentro de
la comunidad de investigadores que estudian la cognición corpórea y embe­
bida. Por un lado, el empleo de mundos y agentes simulados ofrece las cla­
ras ventajas de simplificar los problemas y hacer más tratable e! estudio de
poblaciones grandes. Por otro lado, una de las principales ideas que impul­
san gran parte de la investigación de los agentes autónomos es, precisamen­
te, el reconocimiento de la insospechada complejidad de las interacciones
reales entre agente y entorno y las sorprendentes maneras en que los seres
corpóreos pueden explotar las características y las propiedades del mundo.
Los fans de la robótica real10*destacan que los investigadores subestiman sis­
temáticamente la dificultad de los problemas (desatendiendo aspectos de la
realidad como el ruido y la poca fiabilidad de los componentes mecánicos) y
que también pasan por alto soluciones sobre la marcha que dependen de
propiedades físicas generales como la elasticidad y el «dar de sí» de ciertos
componentes.11
Tim Smithers (1994, págs. 64-66) ofrece un útil ejemplo -no relacionado
con la robótica- del papel de estas propiedades físicas en su interpretación
de la «oscilación pendular», un fenómeno asociado a la segunda generación de
reguladores de bolas empleados para controlar la potencia de salida de los
primeros motores de vapor. Los reguladores de bolas (también conocidos
como reguladores de Watt en homenaje a su inventor, James Watt) se em­
plean para mantener constante la velocidad de un volante que funciona con
un motor de vapor y al que se conecta otra maquinaria. Sin un mecanismo
regulador, la velocidad del volante variaría según las fluctuaciones del vapor,
las alteraciones del volumen de trabajo y otros factores. El regulador se basa

10. Véanse, por ejemplo, Urooks, 1992 y Smithers, 1994.


11 Recuérdese el ejemplo del robot de una cadena de montaje citado en el prefacio.
140 l Explicar la mente extendida

en un eje vertical conectado con el volante principal. El eje tiene dos brazos,
unidos por goznes, con una esfera metálica en el extremo de cada uno.
Cuando el volante gira, los brazos se van separando del eje a medida que
aumenta la velocidad de rotación. Los brazos actúan directamente sobre una
válvula reguladora que reduce el flujo de vapor cuando los brazos se separan
(cuando aumenta la velocidad del volante) y que lo aumenta cuando los bra­
zos se acercan (cuando disminuye la velocidad del volante). Este dispositivo
hace que el volante mantenga una velocidad de rotación constante, necesaria
para muchas aplicaciones industriales. Según Smithers, cuando aumentó la
precisión en los procesos de fabricación apareció una nueva generación de re­
guladores que empezó a mostrar un problema no observado en las versiones
anteriores, más «rudimentarias». Los nuevos reguladores, fabricados con pre­
cisión, solían ser incapaces de establecer una velocidad de rotación fija y pro­
vocaban una oscilación de aceleraciones y desaceleraciones. Esta oscilación
pendular en torno a una velocidad constante se producía porque los nuevos
reguladores reaccionaban con demasiada rapidez a la velocidad del eje prin­
cipal, produciendo una compensación excesiva. ¿Por qué el rendimiento de
las primeras versiones rudimentarias superaba al de las posteriores, diseñadas
con precisión? La razón era que el rozamiento entre las juntas, los cojinetes y
las poleas de las primeras versiones era suficiente para amortiguar las res­
puestas del sistema, protegiéndolo así de los ciclos de rápida sobrecompen­
sación observados en las máquinas más nuevas. Los reguladores modernos se
basan en componentes adicionales para impedir la oscilación pendular, pero
al precio de ser más difíciles de montar y utilizar (ibíd., pág. 66).
Smithers demuestra que los intentos de hacer más precisos los sistemas
sensoriales de robots sencillos se pueden encontrar con problemas similares.
Si la conducta del robot depende estrechamente de las lecturas de los senso­
res, unos dispositivos muy sensibles quizás respondan en exceso ante pe­
queñas perturbaciones ocasionadas por cambios ambientales relativamente
insignificantes o incluso por el funcionamiento del sensor mismo. Por tanto,
un aumento de resolución no siempre es positivo. Mediante el empleo de
componentes menos precisos, se pueden diseñar robots con dispositivos fí­
sicos cuyas propiedades (por ejemplo, pérdidas mecánicas y eléctricas) amor­
tigüen las respuestas y eviten variaciones y fluctuaciones no deseadas. Según
Smithers, de todo esto se deduce que también puede ser erróneo concebir
los sensores como dispositivos de medición y que deberíamos verlos como
filtros cuyo papel consiste, en parte, en absorber variaciones conductalmen-
te insignificantes para que el sistema pueda mantener unas interacciones sen­
cillas y robustas con su entorno. Según Smithers, los componentes físicos
reales suelen ofrecer gran parte de esta capacidad de filtración o absorción
como resultado de las pérdidas eléctricas y mecánicas inherentes a los me­
Robots en evolución I 141

dios físicos. Es evidente que estos efectos «de propina» no aparecen en los
sistemas agente-entorno simulados. Por tanto, los trabajos basados en simu
laciones corren el peligro de pasar por alto soluciones económicas a proble­
mas importantes porque no reconocen el papel estabilizador de ciertas pro
piedades físicas brutas como la fricción y las pérdidas mecánicas y eléctricas.
Otro problema de los enfoques basados en la pura simulación es la iuer-
te tendencia a simplificar en exceso el entorno simulado y a concentrarse en
la inteligencia del agente simulado. Esto refuerza aún más la visión errónea
del entorno que lo considera poco más que el marco en el que se establece
un problema dado. En cambio, todos los argumentos de los capítulos ante­
riores describen el entorno como un recurso rico y activo que actúa como
«cómplice» en la producción de la conducta adaptativa. Otras inquietudes
relacionadas con ésta son la pobreza relativa de la física simulada (que, en
general, excluye parámetros cruciales de la realidad como el rozamiento y el
peso), la alucinación de un flujo perfecto de información entre el «mundo»
y los sensores, y la alucinación de unos componentes uniformes y perfecta­
mente diseñados" (por ejemplo, el empleo de cuerpos idénticos para todos
los individuos en la mayoría de los escenarios evolutivos). Esta lista se podría
ampliar, pero el mensaje es claro. La simulación ofrece, como mucho, una
versión empobrecida de la realidad y este empobrecimiento sigue unas líneas
bastante peligrosas: líneas que amenazan con deformar nuestra imagen del
funcionamiento de los agentes, enmascarando las aportaciones de las carac­
terísticas del entorno y de los cuerpos físicos reales.
A pesar de todo esto, las ventajas de emplear las simulaciones con mesu­
ra pueden ser grandes, especialmente cuando se investiga el cambio evoluti­
vo. Las grandes poblaciones simuladas son baratas de producir y iáciles de
controlar. Dentro de un entorno virtual, la evaluación de la aptitud en rela­
ción con una conducta se puede automatizar. Los problemas de la ingeniería
real se evitan completamente. Además, la evolución simulada a gran escala
ofrece un considerable ahorro de tiempo en comparación con el empleo re­
petido de observaciones y evaluaciones en el mundo real.
Por tanto, lo más indicado a efectos prácticos parece ser una estrategia
mixta. Así, teóricos como Nolfi, Miglino y Parisi (1994), y Yamuchi y Beer
(1994), emplean simulaciones en las etapas iniciales de investigación y desa­
rrollo y después transfieren los resultados a robots móviles verdaderos. Na­
turalmente, los controladores de redes neuronales que se han hecho evolu­
cionar para guiar un robot simulado, difícilmente se podrán transferir sin
problemas a un sistema real. Pero la fase de simulación se puede utilizar, por12

12. Estas desventajas se identifican y se discuten en la pág. 194 de Nolfi, Floreano, Migli
no y Mondada, 1994.
142 I Explicar la mente extendida

lo menos, para obtener valores generales de una variedad de parámetros que


después se pueden ajustar y adaptar con más precisión al contexto real.11
Finalmente, se debe destacar que incluso la investigación basada en la si­
mulación pura puede ser inmensamente valiosa, en la medida en que permi­
ta la investigación de cuestiones generales relacionadas (por ejemplo) con la
interacción entre el aprendizaje individual y el cambio evolutivo {Ackley y
Littman, 1992; Nolíi y Parisi, 1991) y con las propiedades de grandes colee
tivos de agentes muy simples (Resnick, 1994). Sin embargo, como medio
para comprender la dinámica detallada de las interacciones entre agentes y
entornos reales, las simulaciones siempre se deberían tomar «con pinzas».

5.6 Cómo comprender los agentes evolucionados,


corpóreos y embebidos

A! parecer, el proceso de diseño natural superará sistemáticamente las fi­


guraciones de los teóricos humanos. En particular, la evolución biológica
prescinde totalmente de nuestra nítida delimitación entre lo meramente físi­
co y lo computacional o informacional. Se pueden explotar características fí­
sicas burdas (como las pérdidas eléctricas y mecánicas, el rozamiento y el
ruido) junto con estrategias computacionales familiares (como el aprendiza­
je de redes neuronales) para encontrar soluciones robustas a problemas de
supervivencia y respuesta. Además, como hemos visto repetidamente en ca­
pítulos anteriores, el entorno se puede explotar activamente para transfor­
mar la naturaleza de los problemas que se nos plantean. Y como se comentó
en el apartado 5.2 anterior, con frecuencia la evolución biológica debe tras­
tear con recursos viejos para producir nuevas capacidades: por tanto, la in­
novación cognitiva rara vez se confecciona a partir de un solo tejido com­
pleto, con un diseño ideal. Estos factores se unen para hacer que el diseño
biológico acabe siendo curiosamente opaco. Si desmontamos una grabadora
de vídeo encontraremos un conjunto bien delimitado de módulos y placas de
circuitos que desempeñan unas funciones claras y específicas en la produc­
ción de un rendimiento con éxito. Esto ocurre porque los diseñadores hu­
manos (cosa nada sorprendente) optan por el tipo de diseño global basado
en componentes que tiene más sentido para una reflexión secuencial y cons­
ciente. En el cerebro humano parecen intervenir como componentes unas13

13. Este ajuste se puede lograr mediunte una evolución continuada, empleando robots
reales como fuente de genotipos que luego son seleccionados y modificados con el uso de una
simulación de algoritmo genético, o también se puede lograr mediante un diseño y un ajuste
manual. Véase un planteamiento en Nolfi, Florcano, Miglino y Mondada, 1994.
Robots en evolución i 143

estructuras y unos cableados mucho menos transparentes, incluyendo enor­


mes cantidades de circuitos recurrentes que permiten modificaciones mu­
tuas y repetidas entre muchas áreas. Y de todos modos el papel del cerebro
no es más que hacer que el cuerpo ejecute los movimientos correctos. Al fi­
nal, el éxito adaptativo no se puede atribuir a los cerebros sino a coaliciones
cerebro-cuerpo embebidas en entornos ecológicamente realistas. Y aquí se
plantea una pregunta muy amplia y, por ahora, sin respuesta: ¿cómo pode­
mos estudiar y comprender {no sólo reproducir) el éxito adaptativo de los
seres biológicos, cuyos principios de diseño no respetan los límites intuitivos
entre cognición, cuerpo y mundo?
Una posibilidad, que hoy por hoy va ganando terreno, es sustituir la teo­
rización computacional y el discurso representacional, que son los instru­
mentos usuales de la ciencia cognitiva, por la teorización y el discurso de la
teoría de los sistemas dinámicos. El argumento es el siguiente: la imagen de
la cognición como generación de transformaciones computacionales de re­
presentaciones internas, supone un retorno a la concepción del cerebro
como sede fundamental de un tipo de inteligencia esencialmente incorpórea.
Y la razón de ello es que, en esta imagen, se parte del supuesto de que las re­
presentaciones así concebidas sustituyen a elementos y sucesos reales y que
el razonamiento se produce en una especie de terreno simbólico interno.
Pero hemos visto que la inteligencia corpórea real es, fundamentalmente,
una manera de enlazar con el mundo, de emplear estrategias activas que de­
jan gran parte de la información fuera, en el mundo, y de emplear astuta­
mente secuencias repetidas, en tiempo real, de interacciones cuerpo-mundo
para resolver problemas de una manera robusta y flexible. La imagen es la de
dos sistemas complejos acoplados (el agente y el entorno) cuya actividad
conjunta resuelve el problema. En estos casos, puede tener poco sentido de­
cir que un sistema representa al otro.
Como esta idea puede ser difícil de captar, será útil dar un ejemplo. Tim
van Gelder nos invita a considerar, desde esta perspectiva, el funcionamien­
to del regulador de Watt descrito en el apartado 5.5 anterior. Recordemos
que este regulador mantiene el volante a una velocidad constante, mediante
dos brazos lastrados cuya oscilación cierra la válvula reguladora cuando
aumenta la velocidad de rotación y la abre cuando esta velocidad disminuye.
Van Gelder (1995, pág. 348) contrasta esto con la operación de un «regula­
dor computacional» imaginario que funcionaría de la manera siguiente:

Medir la velocidad del volante.


Comparar la velocidad real con la velocidad deseada.
Si hay una discrepancia, entonces:
medir la presión actual del vapor,
144 I Explicar la mente extendida

calcular la alteración deseada en la presión del vapor,


calcular el ajuste necesario para la válvula reguladora.
Ajustar la válvula reguladora. Volver al paso I.

Este regulador computacional utiliza mediciones explícitas de la veloci­


dad y de la presión del vapor que luego actúan como entrada para otros pro­
cesos que calculan los ajustes necesarios. En cambio, el regulador de Watt
incorpora las etapas de medición, cálculo y control en un proceso único que
integra las influencias recíprocas entre la velocidad del motor por un lado, y
la velocidad y el ángulo de los brazos por otro. Según van Gelder, es mejor
concebir el funcionamiento del regulador de Watt en función de bucles de
retroalimentación y de sistemas físicos estrechamente acoplados, que en fun
ción de representaciones y de cálculos. Estos fenómenos pertenecen al te­
rreno de la teoría general de los sistemas dinámicos. Hagamos ahora una pau­
sa para conocer mejor esta teoría.
La teoría de los sistemas dinámicos es un marco de referencia14 bien
establecido para describir y comprender la conducta de sistemas comple­
jos (véase, por ejemplo, Abraham y Shaw, 1992). Las ideas fundamentales
que subyacen a la perspectiva de los sistemas dinámicos son la noción de
un espacio de estados, la noción de una trayectoria o un conjunto de tra­
yectorias posibles a través de ese espacio y el empleo de la matemática
(continua o discreta) para describir las leyes que dictan las formas de es­
tas trayectorias.
Por tanto, la perspectiva de los sistemas dinámicos incorpora, como un
aspecto fundamental del análisis, la idea de la evolución de los estados de un
sistema a lo largo del tiempo. Como formalismo general es aplicable a todos
los sistemas computacionales existentes (tanto conexionistas como clásicos),
pero su alcance es más amplio y también se puede aplicar al análisis de siste­
mas físicos no cognitivos y no computacionales.
Desde esta perspectiva, el objetivo del análisis de un sistema dinámico es
presentar una imagen de un espacio de estados con una dimensionalidad de
tamaño arbitrario (dependiendo del número de parámetros significativos del
sistema) y comprender las conductas del sistema en función de su posición y

14. Los precursores directos de la nueva ola de «dinamicistas cognitivos» fueron los fe­
nomenales especialistas en cibernética de los años cuarenta y principios de los cincuenta. En­
tre las publicaciones fundamentales se encuentran la obra de Norbert Wiener Cybenietia, or
Control and Communication Jn (be Animal and in (be Machine (Wiley, 1948), diversos volúme­
nes con transcripciones literales de las exposiciones realizadas durante una serie de conferen
cías Macy sobre cibernética (Transactions o f theSixth, Seventh, Eighth and Ntnth (1949-1952)
Macy Con/erencei (Josiah Macy Jr. Foundation]), la obra de W. Ross Ashby btlroductton lo Cy-
bemetics (Wiley, 1956) y el clásico de Ashby Destgn fo ra Bratn (Chapman and Hall, 1952)
Robots en evolución I 145

su movimiento dentro de ese espacio geométrico abstracto. Para reforzar


esta comprensión se suelen invocar con regularidad varios constructos adi­
cionales. Estos constructos capturan las propiedades distintivas de ciertos
puntos o regiones (conjuntos de puntos) del espacio determinadas por la
matemática que rige el sistema. Esta matemática suele especificar una ley di­
námica que determina cómo evolucionan con el tiempo los valores de un
conjunto de variables de estado (esta ley puede consistir, por ejemplo, en un
conjunto de ecuaciones diferenciales). Dado un estado inicial, la sucesión
temporal de estados determinada por la ley dinámica forma una trayectoria
a través del espacio. El conjunto de todas las trayectorias que pasan por
cada punto se denomina flujo y su forma es el objeto típico de estudio. Para
comprender mejor la forma de este flujo se utilizan varios constructos, in­
cluyendo el de atractor: un punto o una región del espacio que, de acuerdo
con las leyes que gobiernan el movimiento a través de ese espacio, «absorbe»
cualquier trayectoria que pase cerca de él. Otros conceptos relacionados son
la «cuenca de atracción» (el campo de influencia de un atractor) y las «bi
furcaciones» (casos donde un cambio pequeño en los valores de un paráme­
tro pueden reestructurar el flujo produciendo un nuevo «retrato de lase», es
decir, una nueva representación de la estructura general de las cuencas de
atracción y de los límites entre las mismas).
Por tanto, el enfoque de los sistemas dinámicos proporciona un conjun­
to de instrumentos matemáticos y conceptuales que ofrece una comprensión
esencialmente geométrica del espacio de conductas posibles de un sistema.
Para captar el sabor del empleo de estos instrumentos, consideremos una
vez más el trabajo sobre la evolución de controladores de patas de insecto
descrito en el apartado 5.4 anterior. Al intentar comprender el tunciona-
miento del controlador de una sola pata,15 Beer (1995b) destaca la Iunción
desempeñada por un cambio sistemático entre dos atractores fijos. El primer
atractor entra en acción cuando se acaba de colocar la punta de una pata so­
bre el suelo, dando inicio a una «fase de postura». La evolución de este esta­
do hace que el sistema se acerque a un atractor fijo. Sin embargo, cuando la
pata se sigue moviendo, este atractor desaparece y es sustituido por otro que
ocupa una posición distinta en el espacio de estados, haciendo que el estado
del sistema evolucione hacia él. Este segundo atractor corresponde a una
«fase de oscilación [de la pata]». El cambio alternante entre estos dos pun­
tos fijos se debe a un conjunto de bifurcaciones que se producen cuando la
pata forma un ángulo determinado. Como consecuencia, el retrato de fase
del controlador alterna entre los dos atractores fijos. Si se desactiva el sensor

15. Éste era el controlador que recibía una retroalimentación sensorial constante; Beer lo
llama «controlador reflejo».
146 I Explicar la mente extendida

del ángulo de la pata, la dinámica se colapsa hasta un punto fijo, congelando


al insecto en una fase de postura permanente. Obsérvese especialmente que
la dinámica descrita por Beer no pertenece al controlador de red neuronal
per se, sino más bien al sistema acoplado formado por el controlador y el
cuerpo (pata) del insecto. La interacción recíproca entre el controlador y la
pata (mediada por la capacidad de detección de ángulos del sensor de la
pata) proporciona la trayectoria en el espacio de estados que acabamos de
descubrir.
Aunque es indudable que este tipo de comprensión geométrica basada
en espacios de estados es a la vez valiosa e informativa, sigue abierta la cues­
tión sobre la medida en que estas explicaciones pueden reemplazar, y no sólo
complementar, las interpretaciones más tradicionales formuladas en térmi­
nos de transiciones computacionales y estados representacionales internos.
Esta postura radical (que pronostica la sustitución total del discurso compu-
tacional y representacional por un discurso centrado en sistemas dinámicos
geométricos) se enfrenta a dos retos cruciales.
El primer reto se refiere a la escala y la tratabilidad. Incluso el conjunto de
30 neuronas que controlan las patas del insecto artificial acabado de mencio­
nar, constituye un sistema dinámico de tal complejidad que nuestra com­
prensión geométrica intuitiva se viene abajo. Además, la matemática detalla­
da de la teoría de los sistemas dinámicos se hace menos tratable a medida que
aumentan el número de parámetros y el tamaño del espacio de estados. Por
eso el análisis de Beer se aplicó a los sistemas más simples, de cinco neuronas,
que controlaban cada pata. Por tanto, el alcance práctico de la teoría de los
sistemas dinámicos para sistemas acoplados muy complejos y dimensionales
(como el cerebro humano) se debe poner seriamente en duda.
El segundo reto, más fundamental, se refiere al tipo de comprensión que
ofrecen estos análisis. Esta comprensión corre el riesgo de convertirse más
en una descripción abstracta que en una explicación completa. Sabemos qué
hace el sistema y cuándo lo hace, y qué pautas de evolución temporal mues­
tra su conducta; pero esta información, aunque valiosa, no parece ser ex­
haustiva. De hecho, y como argumentaré después con más detalle, con fre­
cuencia nos quedamos con una imagen empobrecida del roladaptativo de los
componentes y de la organización funcional interna del sistema.
Mi propuesta es que los mejores aspectos de los análisis dinámicos son su
atención intrínseca a la dimensión temporal y su fácil capacidad para entre­
cruzar los límites entre cerebro, cuerpo y entorno. Destacaré los aspectos
temporales en un capítulo posterior. Pero la cuestión de los límites ya debe­
ría estar clara: cuando tratamos el cerebro como un sistema dinámico, en
esencia lo estamos tratando igual que la mecánica corporal y los procesos del
entorno. El resultado es que la tarea de caracterizar la conducta adaptativa
Robots en evolución { 147

en función de acoplamientos complejos entre cerebro, cuerpo y entorno, se


convierte en algo especialmente fácil y natural.
Por tanto, abogaré por una postura un tanto ecuménica. Los instrumen-
tos de la teoría de los sistemas dinámicos son una baza muy valiosa para
comprender las conductas estrechamente acopladas con el entorno que an­
tes he destacado. Pero se deberían considerar complementarios de la bús­
queda de interpretaciones basadas en la computación y la representación.
Varios de los próximos capítulos se dedicarán a exponer los argumentos en
favor de esta complementariedad.
6 Emergencia y explicación

6.1 ¿Estilos diferentes?

¿Qué instrumentos hacen falta para comprender la cognición corpórea y


embebida en tiempo real? Concretamente, ¿existe una gama de fenómenos
emergentes cuya dependencia tan estrecha del acoplamiento entre cerebro,
cuerpo y mundo haga fracasar a los análisis tradicionales? Argumentaré que
los fenómenos emergentes sí exigen unos estilos nuevos de explicación y es­
tudio, pero que es mejor considerar estos estilos como complementarios (no
como contrarios) de los enfoques analíticos más familiares. Sin duda, vere­
mos una sensibilidad creciente hacia lo que se puede denominar una «deter­
minación ecológica»1 de las funciones de diversos estados y procesos Ínter
nos (es decir, que la situación del organismo en un entorno más amplio y sus
interacciones con ese entorno influyen en lo que se debe representar y com­
putar internamente). Y también veremos la otra cara de esta sensibilidad:
una atención creciente a la dinámica global de los sistemas completos for­
mados por los organismos y su entorno. Pero ninguno de estos desarrollos
evita la necesidad de comprender la contribución de los componentes neu-
ropsicológicos reales a las capacidades que caracterizan psicológicamente a
un agente: un proyecto que aún parece exigir el empleo de algunos instru
mentos analíticos bastante tradicionales. En consecuencia, argumentaré que
una ciencia cognitiva con éxito deberá estudiar tanto la macrodinámica de
los sistemas agente/entorno como la mícrodinámica computacional y repre
sentacional de los circuitos neuronales reales.

1 Debo esta expresión a Josefa Toribio.


150 I Explicar la mente extendida

6.2 De las partes a los todos

En este apañado distinguiré tres estilos de explicación científica cogniti-


va. Estos estilos son muy generales y reúnen modos de programación opues­
tos entre sí (como el conexionista y el clásico).

Explicación basada en componentes

Explicar el funcionamiento de una totalidad compleja detallando los pa­


peles individuales y la organización total de sus partes equivale a dar una e x ­
plicación basada en componentes'. Éste es el estilo explicativo natural que
adoptamos, por ejemplo, cuando explicamos el funcionamiento de un auto­
móvil, un televisor o una lavadora. Explicamos la capacidad global del siste­
ma haciendo referencia a las capacidades y funciones de sus componentes y
a la manera en que estos componentes interaccionan entre sí.
Así interpretada, la explicación basada en componentes es la equivalen­
te contemporánea de la explicación reduccionista al viejo estilo. Evitaré el vo­
cabulario del reduccionismo por dos razones. En primer lugar, gran parte de
la discusión filosófica sobre el reduccionismo suponía que las reducciones
designaban relaciones entre teorías y que las teorías eran constructos Iingua-
formes que implicaban leyes. Pero, en muchos casos (especialmente en la
biología y en la inteligencia artificial), las explicaciones reduccionistas no
adoptan esta forma; en cambio, suponen el desarrollo de unos modelos par­
ciales que especifican unos componentes y sus modos de interacción, y ex­
plican ciertos fenómenos de orden superior (como el funcionamiento de un
receptor de televisión) haciendo alusión a componentes e interacciones de
nivel inferior.1 Se trata de explicaciones reduccionistas en un sentido más
amplio, sentido que la «explicación basada en componentes» parece captar.
La segunda razón es que contrastar la explicación emergentista con la re­
duccionista daría pie a un malentedido bastante común de la noción de
emergencia, que consiste en sugerir que las explicaciones emergentistas tie­
nen un factor de misterio porque no explican cómo surgen las propiedades
de nivel superior a partir de estructuras e interacciones básicas. Pero las hi-23

2. Esto también se conoce (creo que de una manera menos transparente) como «explica­
ción homuncular», una expresión que refleja la idea de que los subcomponcntes pueden ser
sistemas inteligentes en miniatura siempre y cuando estos sistemas, a su vez, se puedan des­
componer en partes más pequeñas y «más tontas». Naturalmente, el resultado final es una co­
lección de partes tan tontas que, de hecho, se pueden construir. Los cambios de estado bina­
rios que subyacen a los circuitos digitales de un ordenador son un buen ejemplo de este
resultado final físicamente implementable. Véase, por ejemplo, Dennett, 1978a.
3. Véase, por ejemplo, Bechtel y Richardson, 1992.
Emergencia y explicación I 151

pótesis emergentistas recientes no se callan en absoluto ante estas cuestiones.


El contraste reside en las maneras en que se combinan las propiedades y las
características de nivel inferior para producir los fenómenos de interés. En
realidad, estas explicaciones emergentistas son un caso especial de explica­
ción reduccionista -po r lo menos si se interpretan de una manera intuitiva—
porque intentan eliminar el misterio de la presencia de una propiedad de ni
vel superior haciendo referencia a una multitud de datos organizativos de
nivel inferior.4 Así pues, y por todas estas razones, creo que será más preciso
y menos confuso contrastar la explicación emergentista con la explicación
basada en componentes y no con la teorización reduccionista en general.
Los métodos de programación modular de la inteligencia artificial clási­
ca5 se prestaban muy bien a una forma de explicación por componentes.
Cuando intentamos comprender el éxito de estos programas, suele ser útil
aislar las diversas subrutinas, módulos, etc. y mostrar su papel para dividir el
problema que interesa en una serie de subproblemas manejables (Dennctt,
1978a).
Como indica Wheeler (1994), ciertos trabajos «conexionistas» recientes
también se prestan a un tipo de explicación por componentes. Las solucio­
nes a problemas complejos como el reconocimiento de códigos postales es­
critos a mano (Le Cun y otros, 1989) explotan redes (o redes de redes) muy
estructuradas y con múltiples capas. En estos casos es posible profundizar en
nuestra comprensión del funcionamiento del sistema preguntándonos por
las funciones de estos componentes brutos (capas o subredes). Este tipo de
explicación es más convincente cuando los componentes admiten una inter­
pretación representacional directa, es decir, cuando el sistema de interés po­
see unas configuraciones de componentes, internas e identificables con fia­
bilidad, que en cierto modo «representan aspectos del dominio... y [también
posee] unos componentes internos, identificables con fiabilidad, que se pue­
den interpretar como transformadores algorítmicos de esas representacio­
nes» (Beer, 1995a, pág. 225). En resumen: existe una relación entre el análi­
sis de componentes de los sistemas inteligentes y la imagen de estos sistemas
como dedicados al intercambio de representaciones internas, porque las fun­
ciones distintivas de los componentes postulados se suelen definir haciendo
referencia a la forma o el contenido de las representaciones internas que pro­
cesan.

■i. Véase un argumento acerca de que es mejor tratar la emergencia como una especie de
reducción en Wimsntt, 1986 y Wimsatt (en prensa).
5 Véanse, por ejemplo, Newell y Simón, 1976 y Haugcland, 1981.
152 i Explicar la mente extendida

Explicación de «atrapar y lanzar»

Este es mi nombre favorito para un enfoque que se toma en serio muchas


ideas de la cognición corpórea y embebida pero que sigue contemplándolas
a través del cristal del análisis tradicional. La característica principal del mé­
todo de «atrapar y lanzar» es que el entorno se sigue tratando como una sim­
ple fuente de entradas al verdadero sistema de pensamiento: el cerebro. La
concesión a la perspectiva corpórea reside en reconocer que estas entradas
pueden conducir a acciones que simplifiquen cómputos posteriores. La ima­
gen tradicional de un ciclo entrada-pensamiento-acción se mantiene, pero se
reconocen las influencias complejas y recíprocas entre la acción en el mundo
real y el procesamiento interno. La investigación sobre la visión animada
muestra algo de este carácter cuando describe que una entrada visual de baja
resolución puede conducir a unas acciones reales (como mover la cabeza o
la fóvea) que, a su vez, generan entradas adecuadas para procesamientos de
mayor resolución. Aquí nos encontramos ante una descripción que recono­
ce las múltiples y complejas maneras en que se pueden alterar y simplificar
las tareas internas por medio de la estructura de la realidad, la dinámica cor­
poral y las intervenciones activas en el mundo. Pero también encontramos
un énfasis -y un interés- bastante tradicional en los ámbitos del procesa­
miento interno, las representaciones internas y la computación (como la
construcción de unas bases de datos internas mínimas que codifican repre­
sentaciones «indéxicas» especializadas del tipo «mi taza es amarilla»; véase
Ballard, 1991, págs. 71-80). La coexistencia pacifica de estas dos imágenes
(del sistema activo y embebido y de la primacía de la economía del procesa­
miento interno) se mantiene mediante una firme insistencia en el límite en
tre cerebro y mundo. El mundo lanza entradas al cerebro, que las atrapa y
responde lanzando acciones. Estas acciones pueden alterar o simplificar pro­
cesamientos posteriores, al hacer que el mundo lance entradas más fáciles de
utilizar, y así sucesivamente. En resumen, aunque existe un fuerte compro­
miso con unos modos interactivos de explicación, se mantiene el interés tra­
dicional en la representación y el procesamiento dentro del cerebro. Una
causa de esto, implícita en la idea misma de «atrapar y lanzar» es que, en es­
tos casos, gran parte del interés se centra en simples cadenas de retroali-
mentación donde las acciones del sistema alteran sus próximas entradas; es­
tas entradas, a su vez, controlan la siguiente acción, y así sucesivamente. En
estos casos, la dimensionalidad relativamente baja de las interacciones nos
permite comprender l'a conducta del sistema empleando instrumentos bas­
tante convencionales. Sin embargo, a medida que aumentan la complejidad
y la dimensionalidad de estas interacciones cruciales, es más difícil (y quizá
imposible) conceptualizarlas añadiendo un simple factor de retroalimenta-
Emergencia y explicación I 153

ción a nuestra comprensión normal. Esta complejidad crítica surge cuando


aumenta el número de procesos de retroalimentación y cuando el montaje
temporal de los diversos procesos se «desincroniza», permitiendo que la re­
troalimentación se produzca a lo largo de múltiples canales y en múltiples es­
calas asincrónicas de tiempo.6

Explicación basada en la emergencia

La explicación basada en la emergencia es el miembro más radical y es­


curridizo demuestra tríada. Mientras que la explicación de «atrapar y lan­
zar» en realidad no es más que una versión sutil y astuta de la explicación ba­
sada en componentes, la explicación basada en la emergencia se propone
ofrecer una perspectiva totalmente nueva del éxito adaptativo. En el corazón
de esta nueva perspectiva se encuentra, naturalmente, la peliaguda noción de
la emergencia misma. Nos acercaremos a ella con cautela, mediante una se­
rie de ejemplos ilustrativos.
J. A. Scott Kelso, en su excelente tratado Dynamic Patterns (1995), pre­
senta el clásico ejemplo del fluido calentado desde abajo. Concretamente,
describe Ja conducta del aceite calentado en una sartén. Cuando se empieza
a aplicar el calor, hay poca diferencia de temperatura entre la parte superior
y la parte inferior del aceite y no observamos ningún movimiento en el líqui­
do. Sin embargo, a medida que la temperatura aumenta, la masa de aceite
empieza a moverse de una manera coordinada: observamos lo que Kelso
(ibíd., pág, 7) describe como «un ordenado movimiento rotatorio». La fuen­
te de este movimiento es la diferencia de temperatura entre el aceite más frío
de la parte superior y el aceite más caliente de la parte inferior. El aceite más
caliente y menos denso se eleva y el más denso y frío desciende en un ciclo
que se va repitiendo a medida que el aceite anteriormente frío, ahora en el
fondo, se calienta y vuelve a ascender para enfriarse otra vez. El resultado es
un persistente movimiento rotatorio conocido como bucle de convección. La

6. Esta observación ha sido hecha por Kelso (1995, pág. 9) y Ashby (1956). Asilby (ibíd.,
pág. 54) afirma que «el concepto de “retroalimentación", tan simple y natural en ciertos casos
elementales, se convierte en artificial y poco útil cuando las interconexiones entre las partes se
hacen inás complejas. Cuando sólo hay dos partes unidas de modo que cada una influye en la
otra, las propiedades de la retroalimentación proporcionan una información útil c importante
sobre las propiedades del todo. Pero cuando el número de partes aumenta hasta una cantidad
tan pequeña como cuatro, si cada una influye en las otras tres se pueden trazar veinte circuitos
entre ellos; y conocer las propiedades de los veinte circuitos no nos da una información com­
pleta sobre el sistema. Estos sistemas complejos no se pueden tratar como un conjunto entre­
lazado de circuitos de retroalimentación más o menos independientes, sino sólo como una to­
talidad».
154 t Explicar la mente extendida

aparición de estos bucles de convección es un ejemplo de propiedad autoor


ganizada que emerge de un grupo de moléculas, y no es muy distinta de la
autoorganización de las células del hongo mucilaginoso descrita en el capí
tulo 4 anterior. Kelso (ibíd., págs. 7-81 comenta:

L o s bucles de convección resultantes son lo que los físicos llaman un efecto


colectivo o cooperativo, que surge sin ninguna instrucción externa. En el len­
guaje de los sistemas dinám icos, el gradiente de tem peratura se llama parám etro
de control. O bsérvese que el parám etro de control no prescribe la pauta em er­
gente ni contiene un código para la misma. Simplemente conduce al sistema por
una variedad de pautas o estados posibles... Esta formación espontánea de pau­
tas es precisam ente lo que entendemos por autoorganización: el sistema se orga­
niza a si mism o, pero no hay ningún «y o», ningún agente dentro del sistema que
lleve a cabo la organización.

Naturalmente, la idea no es que las pautas emergentes carezcan por com


pleto de causa: evidentemente, la causa inmediata es la aplicación de calor a
la sartén. La idea es que las pautas observadas se explican principalmente
por la conducta colectiva (bajo unas condiciones especificas) de un gran
conjunto de componentes simples (las moléculas), ninguno de los cuales de­
sempeña un papel especial o principal en el control o la orquestación del
proceso de formación de las pautas. De hecho, cuando empieza el movi­
miento rotatorio, se alimenta y se mantiene a sí mismo según la manera ca­
racterística de los sistemas autoorganizados. De estos sistemas se puede afir­
mar, simultáneamente, que las acciones de las partes ocasionan la conducta
global y que la conducta global guía la acción de las partes. Como ejemplo
cotidiano de esta idea (en ocasiones denominada «causalidad circular»),
consideremos cómo se combinan las acciones de los .individuos que forman
una muchedumbre para abalanzarse en una dirección, y cómo esa actividad
succiona y moldea la actividad de los individuos indecisos manteniendo y re­
forzando la dirección del movimiento colectivo. Estos fenómenos se prestan
a ser comprendidos en función de variables colectivas, variables que se cen­
tran en unas características de nivel superior cruciales para la explicación de
un fenómeno, pero que no reflejan las propiedades de los componentes sim­
ples. Estas variables pueden reflejar propiedades que dependen de la inte­
racción'de múltiples componentes como la temperatura y la presión de un
gas, la aceleración de una muchedumbre aterrada o la amplitud de los bucles
de convección que se forman en un líquido calentado. Si trazamos los valo­
res de estas variables colectivas a medida que un sistema se despliega en el
tiempo, podremos obtener datos importantes sobre la conducta posible y real
del sistema más amplio. Y si trazamos las relaciones entre los valores de las
variables colectivas y los parámetros de control (como el gradiente de tem­
Emergencia y explicación I 155

peratura), podemos llegar a entender algunos hechos importantes sobre las


circunstancias en las que emergerán estas pautas de nivel superior, cuándo
dará paso una pauta de nivel superior a otra, etc.
Así pues, ahora ya disponemos de un sentido básico del esquivo término
«emergencia». Se produce emergencia cuando aparece una conducta intere­
sante, y sin un control central, como resultado de las interacciones de múlti­
ples componentes simples dentro de un sistema. Pero ya nos hemos encon­
trado antes con otro sentido de la emergencia, principalmente arraigado en
las ideas sobre las interacciones organismo entorno. Este tipo de emergen­
cia, que caracteriza gran parte del trabajo de la robótica en mundo real des
crita en capítulos anteriores, se puede ilustrar con un sencillo ejemplo pro­
cedente de Steels, 1994. Steels nos invita a imaginar un agente robótico que
necesita situarse entre dos polos para recargarse. El punto de recarga está in­
dicado por una fuente de luz, Una solución (no emergentista) consistiría en
dotar al robot de unos sensores que midieran su posición en relación con los
polos y de una subrutina que computara una trayectoria entre los mismos.
Una solución alternativa (emergentista) se basaría en dos simples sistemas de
conducta cuyas interacciones ambientales producirían el posicionamiento
entre los polos como una especie de efecto secundario. Estos sistemas de
conducta serían: 1) un sistema de fototactismo que produjera un acerca­
miento en zigzag a cualquier fuente de luz y 2) un sistema de evitación de
obstáculos que hiciera que el robot se desviara cuando golpeara contra algo.
Con estos dos sencillos sistemas en acción, la conducta deseada emerge con
facilidad y solidez. El robot es atraído por la luz y zigzaguea hacia ella. Si
toca un polo, recula, pero vuelve a ser atraído por la luz y hace otro intento,
aunque esta vez con un ángulo nuevo. Tras unos cuantos intentos, encuentra
la única posición donde sus sistemas de conducta están en equilibrio: una
posición cercana a la luz pero sin tocar ningún polo. La conducta de orien­
tación hacia los polos se considera emergente porque no hay ningún compo­
nente que calcule la trayectoria correspondiente: el fototactismo, la evitación
de obstáculos y la estructura de! entorno local (la situación de la fuente de
luz) ocasionan colectivamente el resultado deseado. Aquí nos encontramos
con otro sentido de la emergencia que gira en torno a la idea de unos efectos
secundarios funcionalmente valiosos producidos por la interacción entre
unos componentes heterogéneos, y que coloca en primer plano las interac­
ciones entre unos sistemas de conducta y la estructura del entorno local. E s­
tos dos sentidos de la emergencia se corresponden, a grandes rasgos, con la
anterior distinción entre formas de emergencia directas e indirectas (véase el
apartado 4.2 anterior).
Ahora profundizaremos un poco mas y aclararemos el tema común que
une a toda esta variedad de casos. Dicho en pocas palabras, ¿existe una ex
156 I Explicar la mente extendida

plicación razonablemente precisa y no trivial de la idea general de caracte­


rística emergente?
En ocasiones, la noción general de emergencia se equipara con la idea de
conductas inesperadas (existen rastros de esto en el énfasis de Steels en los
«efectos secundarios», aunque el autor es consciente del peligro y procura
evitarlo). Sin embargo, existe el problema de que lo que puede ser inespera­
do para una persona puede haber sido predicho por otra: un ingeniero hábil
podría diseñar el robot que encuentra el centro entre los polos, precisamen­
te para explotar las interacciones entre los componentes básicos y el mundo
con el fin de resolver el problema de la recarga. Con todo, aunque el resul­
tado se haya predicho desde el principio, la solución conserva el sabor ca­
racterístico de la emergencia. En resumen: lo que realmente necesitamos es
un criterio independiente del observador o, por lo menos, un criterio menos
sujeto al capricho de las expectativas individuales.
Una idea más prometedora, también mencionada por Steels, dice que un
fenómeno es emergente si su descripción exige un vocabulario nuevo, total­
mente diferente del que empleamos para caracterizar las facultades y las pro­
piedades de sus componentes. Steels cita como ejemplo ciertas propiedades
químicas como la temperatura y la presión, que no figuran en las descripcio­
nes del movimiento de las moléculas individuales pero que son necesarias
para describir la conducta de conjuntos de moléculas. Esto parece promete­
dor, pero no lo suficiente. La razón es que el cambio de vocabulario también
caracteriza casos que, intuitivamente, no son de verdadera emergencia. Parte
de la conducta de un equipo de alta fidelidad compuesto por un amplifica­
dor, un sintonizador y unos altavoces, se describe mejor con un vocabulario
que no se aplica a ninguno de los componentes individuales; sin embargo,
un sistema como éste parece ser un buen candidato para la antigua explica­
ción basada en componentes.7
Una mejor explicación de la emergencia (para nuestros fines, por lo me­
nos) es la generalización de la distinción entre lo que Steels (ibíd.) denomi­
na variables controladas (que reflejan conductas o propiedades que se pue­
den manipular de una manera simple y directa) y variables incontroladas
(que reflejan conductas o propiedades que surgen de la interacción entre
múltiples parámetros y que, en consecuencia, tienden a resistirse a una ma­
nipulación simple y directa). Consideremos el relato de Douglas Hofstadter

7. En realidad, las propiedades complejas de retroaiimentación y alimentación hacia ade­


lante de los circuitos de alta fjdclidad suelen producir características acústicas que se podrían
describir adecuadamente como emergentes (véase más adelante). Pero los fabricantes se es­
fuerzan mucho para reducir estas interacciones, simplificar la señal que pasa entre ios com­
ponentes y aislarlos de la retroaiimentación, interaccionés no lineales, etc. Véase un plantea­
miento en Wimsatt (en prensa).
Emergencia y explicación I 157

sobre un sistema operativo que empieza a «colgarse» cuando tiene a unos


35 usuarios conectados en línea. Hofstadter observa que, en este caso, se­
ría un error pedirle al programador del sistema que aumentara el umbral
de «cuelgue» hasta (por ejemplo! 60 usuarios. La razón es que este um­
bral no esta determinado por una simple variable interna que el progra­
mador pueda manipular directamente y que, en cambio, «el número 35
emerge dinámicamente a partir de una gran cantidad de decisiones estra­
tégicas tomadas por los diseñadores del sistema operativo, del hardware
del ordenador, etc. No se puede juguetear con él» (Hofstadter, 1985, pág.
642). Aquí tenemos una versión totalmente interna al sistema de una va­
riable incontrolada. En otros casos, modificar la variable podría exigir el
ajuste de muchísimos parámetros internos y externos (ambientales) cuya
conducta colectiva determinara su valor. Por tanto, según esta explica­
ción, los fenómenos emergentes son aquellos en cuyas raíces se encuen­
tran variables incontroladas (en este sentido amplio) y que son más el pro­
ducto de una actividad colectiva que de unos componentes aislados o de
unos sistemas de control dedicados. Los fenómenos emergentes, asi en­
tendidos, no son nada raro ni impresionante: sin embargo, conseguir que
emerjan unas conductas determinadas en función de unas variables in­
controladas no ha sido una estrategia común en la inteligencia artificial, y
estas conductas, cuando aparecen, exigen unos tipos de comprensión y
explicación que van más allá del modelo de componentes y del modelo in­
teractivo presentados anteriormente.
Dos ejemplos finales nos ayudarán. El primero, procedente de Resnick,
1994b, se refiere a una estrategia para hacer que unas termitas simuladas re­
cojan astillas de madera y las reúnan en montones. Una solución sería pro­
gramar a (as termitas para que llevaran las astillas a un lugar determinado de
antemano. En relación con esta solución, el amontonamiento de astillas sería
una variable controlada porque la conducta de amontonar estaría bajo un
control directo y podríamos «juguetear» completamente con ella. En cam­
bio, una solución emergentista conseguiría la conducta indirectamente por
medio de los efectos combinados de dos reglas simples y un entorno restrin­
gido. Las reglas son: «Si no llevamos nada y nos topamos con una astilla de
madera, la tomaremos; si llevamos una astilla y nos encontramos con otra,
soltaremos la que llevamos (ibíd., pág. 234). jNo es evidente que una estra­
tegia como ésta funcione, ya que permite quitar astillas de los montones con
la misma facilidad con que se pueden depositar! Sin embargo, 2.000 astillas
dispersas, después de 20.000 iteraciones, acaban organizándose en sólo 34
montones. La conducta de amontonar acaba por arrollar a la conducta de
deshacer los montones porque cuando (por casualidad) se retira la última as­
tilla de una pila incipiente, esa posición queda bloqueada; según las dos re-
158 I Explicar la mente extendida

glas anteriores, en ese lugar no se puede iniciar ningún montón nuevo. La


disminución con el tiempo del número de posiciones posibles para los mon­
tones en la cuadrícula artificial, obliga a amontonar las astillas en las posi­
ciones restantes. Esta característica de «bloqueo de posiciones» no progra­
mada y determinada por el entorno permite que la actividad de acumulación
supere a la de dispersión. En este ejemplo, es evidente que la conducta de
amontonar no está controlada directamente sino que surge de la interacción
entre dos reglas simples y un entorno restringido.
Otro ejemplo: Hallam y Malcolm (1994) describen una solución simple
para el problema de hacer que un robot se desplace siguiendo el contorno de
las paredes. Construimos en el robot una tendencia a desviarse hacia la dere­
cha y colocamos en su lado derecho un sensor que se activa por contacto y que
hace que el robot gire un poco hacia la izquierda. Cuando este robot topa con
una pared a la derecha, primero se aparta (gracias al sensor) y luego vuelve rá­
pidamente a dirigirse hacia la pared (gracias a la tendencia). Este ciclo se irá
repitiendo y, de hecho, el robot irá siguiendo la pared rebotando repetida­
mente contra ella. Como ha indicado Tim Smithers en una comunicación per­
sonal, esta solución exige un equilibrio bastante delicado entre la cantidad de
«viraje hacia la derecha» y la cantidad de «rebote hacia la izquierda». Smithers
también indica que esta idea general de emplear «fuerzas opuestas para lograr
una conducta regulada estable» puede verse en la tecnología de las clepsidras
primitivas, ¡un buen ejemplo de cronometraje emergente! Sin embargo, la
cuestión que cabe destacar es que la conducta de seguimiento de paredes
que acabamos de describir surge de la interacción entre el robot y su entor­
no. No está controlada por ningún estado interno que codifique el objetivo
de seguir las paredes. Nosotros, como teóricos externos, aplicamos la des­
cripción del seguimiento de paredes como una capa de barniz sobre la con­
ducta embebida global del aparato. En estos dos casos, la distinción de Ste-
els entre variables controladas e incontroladas parece darnos lo que
necesitamos. Esta explicación también se puede aplicar con éxito al proble­
ma de encontrar el centro entre los dos polos y sospecho que a cualquier
otro caso de emergencia indirecta. Sin embargo, el énfasis en fenómenos que
no se pueden controlar ni manipular alterando los valores de un solo pará­
metro, no puede abarcar fenómenos intuitivamente emergentes como la apa­
rición de bucles de convección en líquidos calentados. La razón es que los
bucles de convección están bajo el control de un parámetro simple (el gra­
diente de temperatura o, pasando a las causas inmediatas, el calor aplicado)
y, como resultado, es posible «juguetear» con ellos (para emplear la célebre
frase de Hofstadter). De hecho, el gradiente de temperatura que dirige el
movimiento se llama parámetro de control precisamente porque rige las con
ductas colectivas del sistema de una manera tan potente.
Emergencia y explicación I 159

Ante esta importante clase de casos, creo que una explicación mejor de
la emergencia (una especie de generalización débil de la idea de variable in­
controlada) es simplemente ésta: un fenómeno es emergente si se compren­
de mejor prestando atención a los valores cambiantes de una variable co­
lectiva. Veamos a continuación algunos comentarios breves acerca de esta
definición:

• Una variable colectiva es una variable que refleja la pauta resultante de


las interacciones entre múltiples elementos de un sistema {véanse el aparta­
do 6.2 anterior y Kelso, 1995, págs. 7, 8 y 44). Por tanto, todas las variables
incontroladas son variables colectivas.
• Para dar cabida a los casos de emergencia indirecta, ampliamos la no­
ción pertinente de «sistema» para incluir (en ocasiones) aspectos del entor
no externo, como en el caso del robot que encuentra el centro situado entre
los polos.
• Ahora se pueden identificar diferentes grados de emergencia según la
complejidad de las interacciones implicadas. Las interacciones múltiples, no
lineales8 y temporalmente asincrónicas, producen las formas más fuertes de
emergencia; los sistemas que sólo muestran interacciones lineales simples
con una retroalimentación muy limitada, no suelen exigir una comprensión
en función de variables colectivas o de propiedades emergentes.
• Los fenómenos pueden ser emergentes aunque se encuentren bajo el
control de un parámetro simple, siempre y cuando ese parámetro se limite a
hacer que el sistema pase por una sucesión de estados que se describen me­
jor recurriendo a una variable colectiva (por ejemplo, el gradiente de tempe­
ratura hace que el líquido pase por una sucesión de estados que se describen

8. Una relación no lineal es aquella donde dos cantidades o valores no se alteran mutua­
mente de una manera continua. En cambio, el valor de una cantidad puede aumentar (por
ejemplo) durante un tiempo sin influir en absoluto en la otra y después, de repente, cuando se
alcanza un umbral oculto, hace que la otra dé un salto o haga un cambio súbito. La ecuación
de evolución para sistemas conexionistas complejos suele tener una no linealídad muy elevada
porque la salida de una unidad no es la simple suma ponderada de sus entradas sino que im­
plica umbrales, funciones de paso u otras fuentes de no linealidad. Las formas más fuertes de
emergencia se caracterizan por múltiples interacciones no lineales. Cuando las interacciones
son pocas y lineales, rara vez es necesario definir variables colectivas que ayuden a explicar
conductas de sistemas. {Agradezco a Pete Mandik y Ttm Lañe su insistencia en la importancia
de las modulaciones interactivas complejas y no lineales para determinar la clase más fuerte de
casos). Se debe destacar que el uso científico típico también permite el empleo de la etiqueta
«emergente» en una variedad de casos mucho más débiles: de ahí nuestra atención a los robots
que siguen paredes y buscan el centro entre dos polos y al empleo de la idea de emergencia en
conexión con la clase más amplia de éxitos adaptativos mediados por el entorno, no progra­
mados o incontrolados. Véase una exposición más detallada en Wimsatt (en prensa).
160 I Explicar la mente extendida

mediante una variable colectiva que marca la amplitud variable de los bucles
de convección; véase Kelso, 1995, pág. 8).
• La emergencia así definida se vincula con el objetivo de determinar
qué variables deben figurar en una buena explicación de la conducta de un
sistema. Este objetivo depende un poco del observador porque se basa en la
idea de una buena explicación teórica y, en consecuencia, implica cierta re­
lación con las mentes de los científicos humanos. Pero por lo menos no de­
pende de los caprichos de las expectativas individuales sobre la conducta del
sistema.

6.3 Los sistemas dinámicos y la explicación basada en )a


emergencia

¿Cuál es el marco explicativo más eficaz para comprender los fenómenos


emergentes? Una intuición negativa ampliamente compartida es que, en estos
casos, la explicación clásica basada en componentes suele salir, como mínimo,
mal parada (Steels, 1994; Maes, 1994; Wheeler, 1994). Hay dos razones bas­
tante distintas para este fracaso.
Una razón gira en torno al hecho de que muchos fenómenos cognitivos
emergentes (no todos) tienen su origen en factores que abarcan el organismo
y su entorno. En estos casos (y ya hemos visto varios ejemplos) lo ideal sería
un marco explicativo que cumpliera las siguientes condiciones: 1) que fuera
adecuada para modelar tanto los parámetros del organismo como los del en­
torno y 2) que facilitara la comprensión de las complejas interacciones entre
los dos, modelando estos parámetros en función de un marco y de un voca­
bulario uniformes. Según parece, un marco que invoque unos homúnculos
dedicados a computar y procesar información no es un medio ideal para sa­
tisfacer estas demandas.
Otra razón gira en torno a la naturaleza de los componentes. Cuando
cada componente hace una contribución definida a la capacidad de un siste­
ma para mostrar una propiedad concreta, el análisis de componentes es un
potente instrumento. Pero algunos sistemas son muy homogéneos en el nivel
de los componentes y la mayoría de las propiedades interesantes dependen
únicamente de los efectos conjuntos de interacciones simples entre las par­
tes. Un ejemplo (van Gelder, 1991; Bechtel y Richardson, 1992) sería una
simple red conexionista simple, formada por unas unidades de procesa
miento muy similares y cuyas propiedades interesantes son principalmente
atribuibles a la organización (mediante una gran densidad de conexiones
con pesos) de estas unidades. Se produce un caso más complejo cuando un
sistema es muy heterogéneo pero las contribuciones de las partes están muy
Emergencia y explicación I 161

interdefinidas; es decir: la función de un componente C en el tiempo t„ ade­


más de estar determinada por las funciones de los otros componentes en t,
(y de contribuir a determinar estos otros componentes), también puede con­
tribuir de una manera totalmente diferente en un momento t2 gracias a unos
enlaces complejos (y con frecuencia no lineales; véase nota 8) de retroali-
mentación y alimentación hacia adelante con otros subsistemas. Así pues, la
presencia de una heterogeneidad interna y de una especialización funcional
en línea no garantiza que un análisis de los componentes constituya la des­
cripción más reveladora.
Estas complejidades se reflejan en la estupenda descripción que hace
Wimsatt (1986) de los «sistemas agregados». Los sistemas agregados son los
que más se adecúan a una explicación basada en los componentes. En estos
sistemas, las partes muestran su conducta explicativa pertinente incluso es
tando aisladas entre sí, y se pueden invocar las propiedades de un número
pequeño de subsistemas para explicar fenómenos sistémicos interesantes.5 A
medida que aumenta la complejidad de la interacción entre las partes, el
peso de la explicación recae cada vez más en la organización de las partes
que en las partes en sí. En este momento nos vemos conducidos a buscar
nuevos tipos de marcos explicativos. Como veremos después, es probable
que la cognición biológica avanzada se encuentre en algún punto intermedio
de este continuo. Los sistemas tienen componentes neuronales diferenciados
y funcionalmente especializados, pero las interacciones complejas y con fre­
cuencia no lineales (relaciones de retroalimentación y alimentación hacia
adelante) entre estos componentes pueden ser factores determinantes de la
mayoría de los fenómenos intuitivamente «psicológicos». Para comprender
bien los casos de este tipo, además de una explicación tradicional basada en
componentes hace falta algo más. Pero, ¿qué es esc algo?
Teniendo en cuenta nuestros dos deseos (dar cabida por igual a las inte­
racciones organismo-entorno y a las interacciones complejas entre los com­
ponentes), es natural que consideremos el marco de la teoría de los sistemas
dinámicos (brevemente introducido en el capítulo 5 anterior), un enfoque
teórico que ofrece un conjunto de instrumentos para describir la evolución
de los estados de un sistema con el tiempo (Abraham y Shaw, 1992). En es­
tas descripciones, el teórico especifica un conjunto de parámetros cuya evo­
lución colectiva está regida por un conjunto de ecuaciones (normalmente)
diferenciales. Una característica fundamental de estas explicaciones es que
pueden abarcar con facilidad el organismo y el entorno. En estos casos, las
dos fuentes de variación (el organismo y el entorno) se tratan como sistemas
acoplados cuya evolución mutua se describe mediante un conjunto específi-

9. Vcasc también Beclitel y Ridiardson, 1992.


162 I Explicar la mente extendida

co de ecuaciones entrelazadas. La conducta de un péndulo de pared coloca­


do en el entorno de otro péndulo similar constituye un ejemplo sencillo. La
conducta de un solo péndulo se puede describir mediante ecuaciones sim­
ples y constructos teóricos como atractores y ciclos límite1 pero, sorpren­
dentemente, dos péndulos colocados uno cerca del otro tienden a sincroni­
zar su oscilación con el tiempo. Esta sincronización admite una elegante
explicación basada en la teoría de los sistemas dinámicos: los dos péndulos
se tratan como si fueran un solo sistema acoplado y la ecuación para el mo­
vimiento de cada péndulo incluye un término que representa la influencia
del estado actual del otro péndulo, alcanzándose el acoplamiento por medio
de las vibraciones que se transmiten a través de la pared.' De mayor impor­
tancia en nuestro contexto es que la teoría de los sistemas dinámicos tam­
bién proporciona un nuevo marco explicativo. En el corazón de este marco
se encuentra la idea de explicar la conducta de un sistema aislando y mos­
trando un conjunto de variables (variables colectivas, parametros de control,
etc.) que subyacen a las pautas distintivas que emergen a medida que el sis
tema se despliega en el tiempo, y de describir estos modelos de despliegue
real y potencial mediante la terminología distintiva y matemáticamente pre­
cisa de los atractores, los puntos de bifurcación, los retratos de fase, etc. (vé­
ase el apartado 5.6 anterior).
La explicación dinámica típica difiere en muchos aspectos de la com
prensión tradicional centrada en los componentes. A primera vista, la dife­
rencia más desconcertante es que la teoría de los sistemas dinámicos parece
querer explicar unas conductas describiendo otras. Sin embargo (por lo me­
nos intuitivamente), proporcionar una descripción, por rica y detallada que
sea, parece distar mucho de proporcionar una explicación, porque ésta suele
reducir el desconcierto poniendo de manifiesto parte de los mecanismos
ocultos que provocan una conducta. Además, muchos científicos y filósofos
creen que ciertos sistemas físicos (como el cerebro) dependen de unos prin­
cipios organizativos especiales y que, en consecuencia, requieren un vocabu­
lario y un estilo explicativo muy diferentes de los empleados para explicar la
coordinación entre dos péndulos o el goteo de un grifo. No obstante, la teo­
ría de los sistemas dinámicos nos sorprende al emplear el mismo enfoque bá­
sico para abordar muchos tipos de fenómenos reales que superficialmente
son muy diferentes. Esto ayuda a explicar por qué muchos científicos cogni-
tivos se sienten decepcionados al ver que este estilo de explicación ofrece
unas interpretaciones detalladas de pautas de conducta generales, pero dice
poca cosa sobre los «mecanismos reales». Esta sorpresa tiene sentido si lo que

10 Vcase una buena introducción en Norton, 1995.


11 Véase una explicación más completa en Salzman, 1995
Emergencia y explicación l 163

esperamos es encontrar una clase especial de interpretación centrada en suce­


sos ocultos e internos. Pero para un teórico de los sistemas dinámicos intere­
sado en la cognición, tanto la dinámica neuronal como la dinámica corporal
general derivan de los mismos principios que subyacen a la autoorganización
de los sistemas complejos. Desde esta perspectiva, es natural tratar ambos ti­
pos de pautas de maneras similares: en palabras de Kelso <1995, pág. 28), «lo
que se propone es que tanto la conducta manifiesta como la conducta del ce­
rebro, adecuadamente interpretadas, siguen los mismos principios».1-1
Para captar el verdadero sabor de los tipos de explicación aquí debatidos,
nos centraremos en el estudio de un caso real llevado a cabo por Kelso y otros
0981) y resumido con precisión en el capitulo 2 de Kelso, 1995. Este estudio se
centra en el fenómeno de la conducta rítmica y, concretamente, en la produc­
ción de movimientos rítmicos con los dedos. Intentemos mover nuestros dos
dedos índices de un lado a otro en la misma frecuencia. Probablemente vere­
mos que lo podemos conseguir, o bien moviendo los dos dedos de modo que
los músculos equivalentes de cada mano se contraigan a la vez, o bien haciendo
que los músculos equivalentes estén exactamente desfasados (uno se contrae
mientras el otro se expande). Estas dos mismas estrategias estables describen la
conducta de los limpiaparabrisas de los automóviles: normalmente, los limpia-
parabrisas se mueven en fase. Pero algunos modelos están diseñados para fun­
cionar con una coordinación en antifase que suele irritar a algunas personas. La
diferencia importante es que los sujetos humanos se pueden acostumbrar a un
modo u otro según como empiecen la secuencia de acciones. Además, la estra­
tegia de antifase sólo es estable con frecuencias de oscilación bajas. Si un suje­
to empieza con un modo de antifase y luego se le pide que aumente gradual
mente el ritmo de oscilación, cuando llega a una cierta frecuencia crítica se
produce una brusca transición o cambio de fase: en un llamativo ejemplo de al­
teración espontánea de pauta, un movimiento en antifase da lugar a un movi­
miento en fase. (Se produce el mismo tipo de alteración espontánea cuando un
caballo, a una velocidad determinada, cambia del trote al medio galope. Estos
dos estilos de locomoción implican unas estrategias de coordinación entre las
patas totalmente diferentes; véase Kelso, 1995, págs. 42-43).
¿Cómo se deberían explicar estos resultados? Kelso se propuso hacerlo
investigando, en primer lugar, qué variables y parámetros de control descri-12

12. Naturalmente no es difícil que, en algún nivel, cerebro, cuerpo y mundo «obedezcan
'os mismos principios»: las leyes básicas de la física subatómica constituyen precisamente uno
de estos niveles. Sin embargo, es evidente que este no es el nivel optimo para comprender mu­
chos fenómenos (por ejemplo como funciona el motor de un automóvil). Lo que se quiere de
cir aquí es que existen leyes y principios básicos que gobiernan todos los sistemas dinámicos,
complejos y alejados del equilibrio, y que constituyen un nivel óptimo de análisis para com
prender las pautas de conducta neuronal y corporal
164 t Explicar la mente extendida

bían mejor estas conductas. Descubrió que la variable crucial era la que re­
flejaba la relación de fase entre los dedos. Esta variable, como hemos visto,
es constante para una amplia gama de frecuencias de oscilación de los dedos
y cambia repentinamente cuando la frecuencia alcanza un valor determina
do. Es una variable colectiva porque no se puede definir para un solo com­
ponente (un dedo) sino sólo para el sistema más amplio. Por tanto, la fre­
cuencia de movimiento es el parámetro de control de la relación de fase que
ahora se traza como una variable colectiva. Pero el verdadero meollo del
análisis reside en ofrecer una descripción matemática detallada de! sistema
así descrito: un conjunto de ecuaciones que muestren el espacio de posibles
evoluciones temporales de la fase relativa en función del parámetro de con­
trol. Esta descripción representa eficazmente el espacio de estados del siste­
ma (véase el capítulo 5 anterior) mostrando, entre otras cosas, qué áreas del
espacio actúan como atractores (valores de la variable hacia los que tenderá
el sistema desde otras localizaciones determinadas del espacio). Haken y
otros (1985) encontraron precisamente una descripción como ésta y pudie­
ron mostrar las detalladas pautas de coordinación correspondientes a distin­
tos valores del parámetro de control. Entre otros aspectos importantes, este
modelo no sólo podía describir las transiciones de fase observadas sin pos­
tular un «mecanismo conmutador» aparte de la dinámica colectiva, sino que
también podía reproducir los resultados de interferencias de poca impor­
tancia en el sistema, como ocurre cuando se obliga a un dedo a abandonar
brevemente su relación de fase estable. El modelo de Haken y otros también
podía predecir con precisión ciertas características de! sistema, como el
tiempo necesario para pasar de un estado desfasado a un estado de fase.J
Ahora debería estar más claro por qué la explicación dinámica no es me
ramente una buena descripción de los fenómenos observados. Debe su con­
dición de explicación a su capacidad para dilucidar lo que los filósofos de­
nominan «contrafácticos»; es decir, a su capacidad para informarnos no sólo
sobre la conducta real observada en el sistema, sino también sobre su com­
portamiento en varias otras circunstancias. Con todo, estas explicaciones to­
davía carecen de una potente característica de sus parientes más tradiciona­
les. No están obligadas a dar unas recetas detalladas para construir los
dispositivos que describen y explican. En este aspecto, difieren de los mo­
delos familiares donde se explica una conducta mostrando cómo surge a
partir de las propiedades de una variedad de componentes bien comprendi­
dos. Por ejemplo, los modelos computarionales tradicionales tienen la virtud
muy real de descomponer tareas complejas en secuencias de tareas cada vez13

13. Véanse detalles de estos resultados y del modelo matemático empleado en las págs.
54-61 de Kelso, 1995.
Emergencia y explicación 165

mas simples, hasta llegar a un punto en el que podemos ver cómo llevarlas a
cabo únicamente con puertas lógicas, placas de memoria, etc., como recur­
sos básicos.
En su vertiente positiva, las explicaciones dinámicas, con su aparato de
variables colectivas y conductas acopladas, se prestan de una manera natu
ral a abarcar múltiples componentes en interacción e incluso sistemas com­
pletos agente-entorno. Mientras que el marco normal parece orientado a
describir los cómputos y representaciones del agente, los constructos de los
sistemas dinámicos se aplican con la misma facilidad a aspectos del entorno
i por ejemplo, los ritmos de un grifo que gotea) que a sucesos internos de
procesamiento de información. Esta facilidad para describir sistemas inte
grados más amplios es lo que conduce a teóricos como Beer y Galíagher
(1992) y Wheeler (1994) a preferir antes la teoría de los sistemas dinámicos
que los enfoques clásicos basados en componentes para explicar conductas
emergentes que con frecuencia implican al entorno. Las conductas estudia­
das hasta ahora tienden a ser relativamente básicas, como la locomoción me­
diante patas (véase el capítulo 5 anterior) y el movimiento orientado visual
mente. Pero muchos teóricos intuyen que la mayor parte de la inteligencia
biológica cotidiana tiene sus orígenes en unos acoplamientos precisos entre
los organismos y los entornos específicos de ciertas tareas y que, en conse­
cuencia, este estilo de explicación puede ir mucho más alia que las explica­
ciones de fenómenos de «nivel» relativamente bajo. De hecho, en Port y van
Gelder, 1995, se encuentran varios ejemplos de aplicación de la teoría de los
sistemas dinámicos a tareas de nivel superior como la planificación, la toma
de decisiones, la producción del lenguaje y el reconocimiento de sucesos.
Sin embargo, es importante recordar que los parametros sistemicos re­
flejados en estas explicaciones dinámicas se pueden alejar mucho, y de
una manera arbitraria, de los datos reales sobre la estructura y el procesa­
miento interno del agente. Van Gelder (1991) observa que una explica­
ción basada en la teoría de sistemas dinámicos para la conducta del motor
de un automóvil a lo largo del tiempo podría tener que centrarse en un
parámetro como la temperatura, que no corresponde a ningún com po­
nente interno o a ninguna variable directamente controlada. Según van
Gelder, esto puede ocurrir porque «en su forma pura, la explicación d i­
námica no hace referencia a la estructura propiamente dicha del mecanis­
mo cuya conducta explica. Nos dice cómo evolucionan con el tiempo los
valores de los parámetros del sistema, no qué hay en la constitución del
mismo sistema que haga que estos parámetros evolucionen de la manera
especificada. Se dedica a explorar la estructura topográfica de la dinámi­
ca del sistema, pero esta estructura es totalmente diferente de la del siste­
ma mismo» (ibíd., pág. 500).
166 I Explicar la mente extendida

Evidentemente, también disponemos de las opciones intermedias. Salz


man (1995) ofrece una explicación dinámica de la producción del habla ba
sada en la coordinación de múltiples músculos y observa que esta dinámica
coordinadora se debe especificar en términos abstractos de información que
no reflejan directamente ni la estructura biomecánica ni la neuroanatómica.
En sus propias palabras, «esta dinámica abstracta se define mediante coor­
denadas que representan las configuraciones de diferentes tipos de restric
ción como, por ejemplo, las restricciones bilabiales empleadas para producir
/b /, /p / o /m /, las restricciones alveolares empleadas para producir /d/, IxJ
o /n/, etc.» (ibíd., pág. 274). Estas restricciones se definen en términos físi
eos que implican elementos como la abertura y la prominencia de los labios.
Pero la explicación basada en los sistemas dinámicos se define en función de
los tipos más abstractos mencionados anteriormente. Este es un caso Ínter
medio en la medida en que está claro que los parametros inás abstractos ci­
tados en el análisis dinámico se relacionan con componentes y estructuras fí­
sicas del sistema.
Estos análisis intermedios tienen una gran importancia. A continuación
argumentaré que la ciencia cognitiva no se puede permitir prescindir de nin­
guno de los diversos estilos explicativos que acabamos de revisar y que, en
consecuencia, es crucial que nos aseguremos de que estas diversas explica­
ciones se entrelacen y se ilustren mutuamente de un modo u otro. Ahora de
sarrollaré un argumento en pro de este liberalismo explicativo y mostrare
que la necesidad del entrelazamiento mencionado impone unas fuertes res­
tricciones adicionales a nuestra teorización.

6.4 Matemáticos e ingenieros

Exactamente, ¿qué poder tiene el estilo de explicación y análisis basado


puramente en los sistemas dinámicos? Mi punto de vista, como se verá cada
vez con mayor claridad durante los próximos capítulos, es que nos ofrece
una parte fundamental de la comprensión que necesitamos pero (por lo me­
nos en la actualidad) no nos la puede ofrecer toda. Para ver por qué, prime­
ro debemos tener claro qué entiendo por un estilo de explicación basado pu­
ramente en los sistemas dinámicos.
Una explicación basada puramente en los sistemas dinámicos es aquella
donde el teórico sólo busca aislar los parámetros, las variables colectivas,
etc., que controlan con más fuerza la manera en que el sistema se despliega
en el tiempo, incluyendo (esto es importante) la manera en que responderá en
circunstancias nuevas, aún no encontradas. Por tanto, el teórico de los siste­
mas dinámicos puros busca modelos matemáticos o geométricos que permi­
Emergencia y explicación I 167

tan captar con fuerza los fenómenos observables. Esto, además de ser buena
ciencia, es ciencia explicativa (y no sólo descriptiva). Además, como acaba­
mos de ver, gran parte del atractivo y el poder distintivo de estos enfoques
reside en su capacidad de centrarse en variables colectivas, es decir, en va­
riables cuyas raíces físicas suponen las interacciones de múltiples sistemas
(que con frecuencia se extienden por el cerebro, el cuerpo y el mundo). Pero
este poder distintivo tiene un precio: estos modelos «puros» no apelan di­
rectamente a los intereses del ingeniero. El ingeniero quiere saber cómo
construir sistemas que muestren propiedades parecidas a las de la mente y,
en particular, quiere saber cómo surge la dinámica global mostrada con tan­
ta precisión por las explicaciones puras a partir de la microdinámica de di­
versos subsistemas y componentes. Aceptará que una comprensión plena del
sistema en acción exige unas explicaciones dinámicas puras como las que
acabamos de enumerar. Sin embargo, no creerá que esas explicaciones sean
suficientes para comprender cómo funciona el sistema, porque se sitúan a
una gran distancia de los datos sobre las capacidades de unos componentes
físicos familiares y bien comprendidos. En este sentido, una explicación
computacional típica (conexionista o clásica) se acerca mucho más a consti­
tuir una receta para construir un dispositivo capaz de mostrar las conductas
deseadas. La razón de ello es que las transiciones de estado básicas que in­
tervienen en la especificación se deben poder reproducir medíante unas
combinaciones conocidas de unas operaciones básicas que, a su vez, se de­
ben poder realizar empleando puertas lógicas, unidades de procesamiento
conexionistas, etc.
En cierto sentido, lo que se consigue mediante una discusión dinámica
pura se parece más a un sofisticado análisis de tareas que a una explicación
computacional totalmente elaborada. Pero se trata de un análisis de tareas
que está preñado contrafáclicamente (véase el apartado 6.3 anterior) y que al
mismo tiempo es potencialmente amplio. Es amplio en la medida en que
puede «unir» aspectos del espacio del problema que, por un lado, dependen
del entorno exterior y, por otro, dependen de propiedades del organismo
particular. En estos casos habrá múltiples maneras de implementar la diná­
mica descrita, y algunas de ellas incluso podrán dividir las subtareas entre
cuerpo, cerebro y mundo de manera diferente. Por ejemplo, lo que hace un
niño A gracias a la grasa corporal puede hacerlo un niño B gracias a unos pe­
sos artificiales, y lo que puede hacer un ser C mediante unos cálculos com­
plejos lo puede hacer un ser D mediante la resistencia de sus músculos elás­
ticos. Por tanto, a partir de unas «divisiones del trabajo» muy diferentes
pueden emerger unas dinámicas generales idénticas.
Así pues, el principal motivo de queja es que una buena caracterización
dinámicamente pura del sistema no llega a constituir una receta para cons­
168 I Explicar la mente extendida

truir un sistema que muestre las conductas de interés. Una respuesta a esta
queja (respuesta que he oído muchas veces en labios de defensores acérri­
mos de la teoría de los sistemas dinámicos) consiste en atacar su misma base.
¿Por qué insistir en que la verdadera comprensión de algo exige «saber cómo
construirlo»? Esther Thelen (comunicación personal) observa que «según
este criterio, deberíamos echar por la borda casi toda la biología», por no
mencionar la economía, la astronomía, la geología y quién sabe qué más.
¿Por qué la ciencia cognitiva debe satisfacer un criterio explicativo mucho
más exigente que el de las restantes ciencias?
A pesar de su superficial verosimilitud, esta respuesta está desencami­
nada porque se toma la exigencia de la «capacidad de construcción» de una
manera demasiado literal. Lo que aquí se propone no es que realmente po­
damos construir sistemas que muestren las características deseadas (aunque
en favor de la inteligencia artificial se debe decir que, con frecuencia, su ob
jetivo es precisamente éste), sino que deberíamos comprender algo sobre el
origen de las propiedades a mayor escala a partir de las interacciones de las
partes. Aunque no podamos construir nuestros propios volcanes, compren­
demos cómo se confabulan las fuerzas subterráneas para crearlos. También
podemos buscar explicaciones convincentes del crecimiento y la disminu­
ción de la actividad volcánica a lo largo del tiempo, e incluso lo podemos
hacer aislando parámetros de control, definiendo variables colectivas, etc.
Sin duda, una comprensión plena de la naturaleza de la actividad volcánica
depende de seguir simultáneamente y entrelazar con cuidado ambos tipos
de explicación. Así pues, ¡en cierto sentido si que sabemos cómo construir
volcanes, torbellinos, sistemas solares y todo lo demás! Los problemas para
llevar a cabo esta construcción provienen de dificultades prácticas (de es­
cala, materiales, etc.) y no de alguna carencia en el nivel necesario de com­
prensión.
Por tanto, es necesario suavizar el criterio de la «capacidad de construc­
ción» para dar cabida al gran número de casos donde hay otros problemas
que obstaculizan nuestro camino, Unos obstáculos típicos, tomados de un
artículo de Fred Dretske de acertado título,14 podrían ser: «Los materiales
brutos no están disponibles. No podemos pagarlos. Somos demasiado torpes
o no somos lo suficientemente fuertes. La policía no nos deja» (Dretske,
1994, pág. 468). A la inversa, según Dretske, el mero hecho de que podamos
construir algo no garantiza que realmente lo comprendamos: podemos mon­

14. El titulo es «If you can’t make one, you don’t know how n works» (Si no lo puedes
construir, no sabes cómo funciona) Según Dretske (1994, pags. 468-482), a pesar de algunos
problemas superficiales esta afirmación es cierta «en todos los sentidos pertinentes de todas las
palabras pertinentes»
Emergencia y explicación I 169

tar las piezas de una maqueta y no ser más listos que antes. Así pues, la afir­
mación fundamental (y en mi opinión la correcta) es, simplemente, que para
comprender de verdad un fenómeno complejo es necesario que comprenda­
mos por lo menos algo de sus orígenes en las propiedades más básicas de sus
partes biológicas o físicas. Propongo que, en última instancia, esto requiere
explorar continuamente más alia del nivel de las variables colectivas y simi­
lares con el fin de comprender las raíces mas profundas de la misma dinámi­
ca colectiva.
La vertiente positiva es que -retoricas esporádicas aparte- la mayoría de
los proponentes de un enfoque dinámico reconocen esta necesidad y res­
ponden a ella. Después de describir la conducta corpórea y embebida de los
niños pequeños con gran detalle, Thelen y Smith (1994) siguen investigando
cuestiones relacionadas con la dinámica de las organizaciones neuronales
subyacentes. Como indican ellas mismas, su descripción de los paisajes di­
námicos variantes {atractores cambiantes) de los niños, las deja «en una to­
tal ignorancia acerca de los mecanismos más precisos de la estabilidad cam­
biante de los atractores» (ibíd., pág. 129). En respuesta a esta necesidad,
Thelen y Smith abordan mediante un enfoque dinámico el nivel de la orga­
nización neuronal. Kelso (1995, pág. 66) es aún mas claro cuando insiste en
que hace falta un « “esquema tripartito” que implique un mínimo de tres ni­
veles (el nivel de las metas o tareas..., el nivel de las variables colectivas y el
nivel de los componentes) para obtener una comprensión completa». Kelso
también observa -importante cuestión- que lo que realmente cuenta como
componente o como variable colectiva dependerá, en parte, de nuestros in­
tereses explicativos concretos. Citando su propio ejemplo, los osciladores no
lineales se pueden tratar como componentes para algunos fines. Pero la mis­
ma conducta osciladora no lineal es un efecto colectivo que surge de las in­
teracciones de otras partes más fundamentales.
Randall Beer, en sus intentos cuidadosos y progresivos de comprender el
funcionamiento de los controladores de redes neuronales de agentes senci­
llos, destaca la necesidad de comprender la dinámica detallada de cada neu­
rona individual, de pares acoplados de neuronas, de pares acoplados de neu­
ronas acoplados a su vez a cuerpos simples, etc., aumentando la escala de
complejidad. En resumen, Bcer busca una comprensión basada en los siste­
mas dinámicos que llegue hasta abajo y en relación a la cual las propiedades
especiales de sistemas cada vez más grandes y complejos empiecen a tener
más sentido (véase, por ejemplo, Beer, 1995). Por tanto, todos estos teóricos
comparten el reconocimiento de que las aspiraciones explicativas de la cien­
cia cognitiva van más allá de la representación detallada de la conducta cor­
pórea y embebida, e incluso más allá de las explicaciones genuinas de esta
conducta que se puedan dar en función de variables colectivas adecuadas
170 I Explicar la mente extendida

para comprender la conducta general observada. Lo que en última instancia


distingue estos enfoques del trabajo más tradicional, es la insistencia (Kelso
y otros) o la sospecha (Beer) de que las nociones familiares de representa
ción interna, procesamiento de información y (quizá) computación no pro­
porcionan el mejor vocabulario o marco para comprender las restantes cues
tiones relacionadas con la organización neurona!. En cambio, estos autores
abogan por el empleo de un vocabulario de sistemas dinámicos para descri­
bir y explicar todos los niveles de organización biológica. Mi opinión, como
se vera claramente en los próximos capítulos, es que no sólo necesitaremos
una mezcla de niveles de análisis (algo parecido al «esquema tripartito» de
Kelso) sino también una mezcla de instrumentos explicativos que combine
los constructos de los sistemas dinámicos con ideas sobre la representación,
la computación y la función de procesamiento de información de unos sub­
componentes identificables. Para captar el sabor general de este enfoque
mixto, consideremos un ejemplo concreto.

6.5 Decisiones, decisiones

La explicación basada en componentes y la explicación de «atrapar y


lanzar» son adecuadas para explicar la conducta adaptativa desentrañando
las aportaciones de componentes específicos del agente. La explicación de
«atrapar y lanzar» se distingue principalmente por reconocer de una ma
ñera explícita las profundas diferencias que puede producir, en nuestras
hipótesis sobre la organización interna requerida para el procesamiento de
información, la atención a las oportunidades ambientales y a las exigencias
de la acción en tiempo real. En cambio, las explicaciones de fenómenos
emergentes basadas puramente en los sistemas dinámicos, esperan impor­
tar una perspectiva completamente nueva que se centra en la evolución de
parámetros sistémicos globales y que es especialmente idónea para mode­
lar la compleja interacción entre múltiples parámetros del agente y del en­
torno. Así descritos, parece casi evidente que los dos tipos de explicación
(el análisis basado en componentes y en el procesamiento de información,
y el estilo de análisis de la dinámica global) son necesarios y que se debe­
rían entralazar con fluidez. Sin embargo, varios escritos recientes propo­
nen un punto de vista alternativo, más imperialista. Según éstos, la teoría
de los sistemas dinámicos es preferible al discurso de descomposiciones del
procesamiento de información y de componentes internos que trabajan
con representaciones. Un punto de vista tan radical sólo se puede mante­
ner adoptando una visión excesivamente empobrecida de los objetivos de
la ciencia cognitiva.
Emergencia y explicación I 171

Consideremos el objetivo de explicar los efectos sistemáticos de varios ti­


pos de daños y trastornos locales. Con frecuencia, el hecho de centrarse en
parámetros sistémicos globales que nos ayuden a comprender la dinámica
imperante en sistemas organismo-entorno que funcionan bien, oculta deta­
lles sobre la contribución a ese acoplamiento de diversos sistemas internos y,
en consecuencia, oculta información sobre la influencia de los fallos de estos
sistemas en la conducta global. Sin embargo, un importante corpus de traba­
jo en la neurociencia cognitiva pretende precisamente determinar la organi­
zación interna que explica las pautas de fallo que se producen tras un daño
local (Farah, 1990; Damasio y Damasio, 1994). Estas explicaciones suelen
adoptar al mismo tiempo una perspectiva basada en módulos/componentes
y una perspectiva basada en representaciones. Este tipo de comprensión
complementa cualquier comprensión más amplia de la dinámica global. Cada
estilo explicativo ayuda a capturar una gama distinta de fenómenos y ofrece
tipos diferentes de generalización y predicción.
Por ejemplo, Busemeyer y Townsend (1995) presentan una elegante apli­
cación de la teorización dinámica para comprender la toma de decisiones. El
marco de referencia que desarrollan estos autores, llamado «teoría del campo
de decisiones», describe cómo evolucionan los estados de preferencia con el
tiempo. Busemeyer y Townsend presentan unas ecuaciones dinámicas que de­
finen la interacción de diversos factores generales (como el valor previsto a lar­
go y a corto plazo para diferentes opciones) y que también predicen y explican
las oscilaciones entre elecciones probables que se producen durante la delibe
ración. Estas oscilaciones se explican como los efectos de variar la cantidad de
atención que quien toma la decisión dedica en cada momento a diversos fac
tores. Esta interpretación captura y explica varios fenómenos interesantes, in­
cluyendo las aparentes incoherencias entre los órdenes de preferencias medi­
dos por la elección y los medidos por el precio de venta.” Por tanto, a partir
de las ecuaciones específicas que emplean estos autores para modelar la evo­
lución en el tiempo de las variables y los parámetros elegidos, aparece una cla­
se entera de generalizaciones, explicaciones y predicciones.
Sin embargo, hay otros tipos de explicación y de generalización que no
se pueden subsumir en este nivel de descripción. Consideremos, por ejem­
plo, el famoso caso de Phineas Gage a mediados del siglo XIX. Gage, que tra­
bajaba de capataz en el tendido de raíles de ferrocarril, sufrió una terrible le­
sión cuando una barra de hierro le atravesó la cara, el cráneo y el cerebro.
Increíblemente, Gage sobrevivió y recobró todas sus aptitudes lógicas, espa­
ciales y físicas. Pero aunque su memoria y su inteligencia no se vieron afec­
tadas, su vida y su personalidad cambiaron radicalmente. Ya no era digno de

15. Véase también Lichtenstein y Slovic, 1971.


172 I Explicar la mente extendida

confianza, ni afectuoso, ni capaz de cumplir con sus deberes y compromisos.


Al parecer, la lesión de su cerebro había ocasionado un efecto muy específi­
co pero extraño: era casi como si sus «centros morales» se hubieran destrui­
do (Damasio y otros, 1994). Para ser más precisos, parecía que su capacidad
de «tomar decisiones racionales acerca de cuestiones personales y sociales»
(¡bíd.) hubiera sido dañada selectivamente, dejando intactas su inteligencia
y sus restantes capacidades. Hace unos años, un equipo de neurocientíficos
especializados en imágenes cerebrales analizó el cráneo de Gage y, mediante
simulaciones por ordenador, pudieron identificar las probables localizacio­
nes de las lesiones cerebrales. Al identificar unas estructuras neuronales es­
pecíficas como localizaciones de las lesiones, Damasio y otros (ibíd.) pudie­
ron empezar a comprender las alteraciones selectivas de Gage (y de otros
casos parecidos; véase el caso de E.V.R. en Damasio y otros, 1990). La lesión
estaba en las regiones ventrales mediales de los dos lóbulos frontales, es de­
cir, en las áreas que parecen desempeñar un papel fundamental en el proce­
samiento emocional. Este hallazgo condujo al equipo de Damasio a especu­
lar que las respuestas emocionales desempeñan un papel especial en la toma
de decisiones sociales.1* Inspirándose en parte en estos estudios, los Dama­
sio también desarrollaron un marco más general para la explicación de los
déficit psicológicos selectivos. Se trata de la «hipótesis de la zona de conver
gencia» que se explica con cierto detalle en el próximo capítulo. Como ve­
remos, un aspecto característico de esta hipótesis es cómo combina la aten­
ción a la compartimentación funcional básica del cerebro con el
reconocimiento del papel de los circuitos integradores de mayor escala. Por
tanto, parece que una explicación completa de déficit como los de Gage y
E.V.R. requiere combinar localizaciones de procesamiento de información
bastante familiares (asignar tareas definidas a zonas diferentes de la corteza
motriz y sensorial) con análisis a mayor escala que implican la vinculación de
múltiples zonas mediante complejas redes de conectividad retroalimentado-
ra y de alimentación hacia adelante.
Los detalles de esta explicación quedarán más claros cuando nos centre­
mos en la neurociencia contemporánea (capítulo 7). De momento, lo impor­
tante no es evaluar los detalles de esta propuesta de Damasio y otros, sino
observar que su objetivo es un tipo de comprensión que no está presente en
la descripción global ofrecida por la teoría del campo de decisiones (que no
ha sido diseñada para predecir o esclarecer las alteraciones inesperadamen­
te selectivas del proceso de toma de decisiones que abordan estos estudios
neuroanatómicos). Esto no es una crítica de la teoría del campo de decisio­
nes, que en sí misma proporciona un tipo de comprensión, predicción y ex-16

16. Véanse más detalles en el capítulo 8 de Damasio, 199-1 y en el capítulo 7 de este libro.
Emergencia y explicación t 173

plicacíón ausente en la propuesta de los Damasio. Y esto es así porque la


teoría del campo de decisiones puede tratar las propiedades emergentes del
sistema completo, intacto y que funciona bien como variables colectivas y, en
consecuencia, proporciona un vocabulario y un nivel de análisis muy ade­
cuado para capturar pautas de evolución con el tiempo en la conducta de
agentes intactos que funcionan bien. Además, con frecuencia estas descrip­
ciones más abstractas serán las que nos servirán mejor si queremos com­
prender los acoplamientos existentes entre unos sistemas completos y sus
entornos. Debemos reconocer sin reparos que las características globalmen­
te emergentes suelen desempeñar un papel importante en aclarar las expli­
caciones de estos acoplamientos. Sin embargo, como estos dos estilos de
explicación se complementan de manera natural, sobra la rivalidad que al­
gunos defensores del análisis basado en los sistemas dinámicos parecen fo­
mentar. En cambio, deberíamos distinguir claramente dos proyectos expli­
cativos, cada uno con su propia clase de generalizaciones. Uno de estos
proyectos pretende comprender la manera en que se interrelacionan agentes
y entornos intactos y, al hacerlo, puede invocar parámetros abstractos y glo­
balmente emergentes. El otro intenta comprender las funciones específicas
de procesamiento de información que desempeñan diversos subsistemas in­
ternos en la producción de conductas y, en consecuencia, ayudar a explicar
clases enteras de fenómenos (por ejemplo, los efectos de lesiones locales)
que a su homólogo, simplemente, no le interesan.
De hecho, una manera natural de concebir los dos proyectos que acaba­
mos de resumir, consiste en describir el análisis de componentes como si
proporcionara (en parte) la implementación detallada del relato más global
y abstracto basado en los sistemas dinámicos. Van Gelder (1991) es escép­
tico acerca del valor de estas descripciones de implementación, por lo me­
nos para comprender redes neuronales complejas; observa (pág. 502) que la
explicación basada en componentes (o, como él dice, «sistemática») es poco
útil en casos donde «las “ partes” de la estructura son muchas y muy simila­
res, y los parámetros esenciales... no hacen ninguna referencia en absoluto
a partes del sistema». Pero si bien esto puede ser cierto para comprender las
conductas de redes conexionistas aisladas y relativamente homogéneas, pa­
rece manifiestamente inexacto en lo que se refiere a los cerebros de la ma­
yoría de los organismos biológicos. Propongo que una imagen más realista
debe aceptar tres tipos de explicación y descripción igualmente importan­
tes y entrelazados:1

1. Una explicación de las conductas generales del organismo que fun­


ciona bien en el entorno: una explicación que pueda invocar variables co­
lectivas cuyas raíces constituyentes abarquen cerebro, cuerpo y mundo.
174 I Explicar la mente extendida

2. Una explicación que identifique los diversos componentes cuyas pro­


piedades colectivas son el objetivo de las explicaciones apropiadas a 1. Este
objetivo consta de dos importantes subtareas: identificar los componentes
neuronales pertinentes y explicar cómo interaccionan estos componentes en­
tre sí.
3. Una explicación de las diversas funciones de procesamiento de infor­
mación desempeñadas por los componentes (tanto internos como externos)
identificados en 2., que además puede asignar unos roles computacionales y
unas capacidades representacionales específicas a distintos subsistemas neu­
ronales.

Afirmo que las explicaciones satisfactorias del éxito adaptativo corpóreo


y embebido deben abarcar estas tres bases. Además, cada tipo de explica­
ción impone limitaciones y requisitos a los otros. No puede haber ninguna
variable colectiva legítima en 1. que carezca de detalles de implementación
microdinámica en 2., y estos detalles no se pueden entender totalmente sin
el comentario, al nivel del sistema general, de las funciones de los diversos
componentes que se ofrece en 3. Podría parecer que la mejor manera de con­
seguir esto sería dedicarse a los tres tipos de explicación identificados ante­
riormente en mi exposición: el análisis de componentes, para asignar fun­
ciones generales de procesamiento de información a estructuras neuronales;
el análisis tipo «atrapar y lanzar», para investigar de qué manera actúa el or­
ganismo sobre su entorno y cómo actúa el entorno sobre el organismo; y el
análisis emergentista, para describir las clases de conducta adaptativa que
dependen más de las variables colectivas y de las interacciones organismo-
entorno.

6.6 El cerebro contraataca

Al parecer, una explicación completa de la cognición corpórea, embebi­


da y cargada de emergencia debe hacer justicia a varios tipos de datos. Uno
de estos corpas de datos se refiere a los cambios en la conducta general de
un sistema con el tiempo. Otro se refiere, por ejemplo, a los efectos especí­
ficos de daños locales e internos al sistema. Para explicar estos fenómenos
heterogéneos, el teórico debe estar dispuesto a explotar múltiples tipos de
instrumentos explicativos que van desde unos análisis que entrecruzan el
organismo y el entorno hásta otros que cuantifican múltiples componentes
internos y complejas conectividades, pasando por otros que aíslan compo­
nentes y ofrecen un comentario funcional y representacional de sus roles
básicos.
Emergencia y explicación I 175

Las propiedades emergentes figurarán en esta actividad explicativa en


dos niveles. En primer lugar, habrá unas características emergentes internas
reflejadas por variables colectivas constituidas por la interacción de múlti­
ples fuentes internas de variación. En segundo lugar, habrá unas caracterís­
ticas emergentes conductuales reflejadas por variables colectivas constitui­
das por interacciones entre organismos completos y activos, y su entorno
local. Es preciso comprender estas dos clases de propiedades semejantes y la
teoría de los sistemas dinámicos proporciona un conjunto de instrumentos
que pueden ayudar en cada campo. Pero todos estos esfuerzos explicativos
no son autónomos. Las variables colectivas se deben traducir en fuentes de
variancia reales (neuronales y ambientales). Y las especializaciones básicas
de los componentes se deben identificar y factorizar en nuestra comprensión
y en nuestros modelos. Si no hacemos esto último, el resultado será un fra­
caso explicativo que se propagará hacia todos los niveles (por ejemplo, cuan­
do nos enfrentamos a datos sobre daños selectivos ocasionados por una le­
sión cerebral local). En el próximo capítulo, empezaremos a desarrollar este
amplio marco, observando con más detalle algunas investigaciones neuro-
científicas recientes.
7 La imagen neurocientífica

7.1 ¿Cerebros? ¡Para qué!

¿Realmente necesita la ciencia cognitiva ocuparse del cerebro biológico?


Para un observador casual, la respuesta parecerá evidente: naturalmente que
si. En caso contrario, ¿de qué otra manera podemos esperar lograr una mejor
comprensión de la mente? Y lo que es más, ¡ese observador casual tendría ra­
zón! Por tanto, es aún más sorprendente que influyentes programas de inves­
tigación en la ciencia cognitiva hayan minimizado o ignorado con tanta fre­
cuencia los estudios neurocientíficos en sus intentos de modelar y explicar los
fenómenos mentales. Una razón popular para este desinterés era la afirmación,
común entre los primeros investigadores de la inteligencia artificial simbólica,
de que el nivel correcto de descripción del dispositivo físico (a efectos psico­
lógicos) se encuentra a bastante distancia de las descripciones de las estructu­
ras y los procesos neuronales. Se creía que hacía falta un nivel de descripción
mucho más abstracto: por ejemplo, una descripción basada en las funciones de
procesamiento de información de un sistema computacional.' Se creía que los
detalles precisos de la organización neuronal constituían una solución especí­
fica para el problema de construir físicamente un dispositivo que satisficiera
una explicación computacional tan abstracta, pero eso era todo/'
Con la aparición (o la reaparición) de los modelos conexionistas, todo
esto empezó a cambiar. Estos modelos fueron especificados deliberada-12

1. Véanse Newell y Simón, 1972 y las págs. 15í-J7GdeBoden, 1988.


2. Zenon Pylyshyn, uno de los principales teóricos de este campo, escribió que la ciencia
cognitiva, cuando se le da un sesgo computacional, permite un «estudio de la actividad cogni­
tiva totalmente abstraído, en principio, de los fundamentos biológicos y fenomenológicos...
una ciencia de la estructura y la fundón divorciada de la sustancia material» (1986, pág. 68).
178 ! Explicar la mente extendida

mente para reducir la distancia entre la explicación computacional y la na­


turaleza general de la implementación neuronal. Con frecuencia, el ajuste
entre el trabajo conexionista y la teoría del cerebro real era mucho más dé­
bil de lo que cabía esperar. Pero a medida que el conexionismo fue madu­
rando, los intentos de salvar esta distancia3 fueron cada vez más comunes y
se veía venir una síntesis real de las perspectivas neurocientífica y compu-
tacíonal.
Pero la investigación conexionista también se encaminaba en otra di­
rección: la dirección, destacada a lo largo de este libro, de ocuparse de los
detalles de la cognición corpórea y embebida en el entorno. Afirmo que
no se debería permitir que este énfasis emergente anegara los intentos de
desarrollar unos modelos cada vez más plausibles desde el punto de vista
neuronal. Es indudable que las dos perspectivas deben avanzar de la
mano. Deberíamos ver el cerebro como un sistema complejo cuyas pro­
piedades adaptativas sólo emergen en relación con un telón de fondo cru­
cial de estructuras y procesos corporales y ambientales. Sin embargo, para
entender plenamente estos procesos extendidos, debemos comprender
con todo detalle las contribuciones de sistemas neuronales concretos y las
complejas interacciones que se dan entre ellos. Por tanto, la insistencia en
las interacciones entre el organismo y el entorno no se debería ver como
otra excusa de la ciencia cognitiva para evitar enfrentarse al cerebro bio­
lógico.
En resumen, la verdadera pregunta no es: «¿Debemos estudiar el cere
bro?», sino: «¿Cóm o debemos estudiarlo?». ¿Qué tipo de modelos neuro
científicos encaja mejor con nuestro énfasis en la acción corpórea y el éxito
en tiempo real? Y si estos modelos existen, ¿en qué medida están apoyados
por datos y experimentos neuroanatómicos y neurocientíficos cognitivos?
Propondré que la clase de modelos neurocientíficos más prometedora tiene
tres características principales:

1. el empleo de múltiples representaciones parciales,


2. un énfasis básico en las aptitudes motrices y sensoriales, y
3. una visión descentralizada de la economía neuronal global.

En los apartados siguientes esbozaré y discutiré algunos ejemplos de con­


jeturas neurocientíficas de este tipo e indicaré algunas líneas de continuidad
con la investigación de la cognición corpórea y embebida.

3. Véanse ensayos en Gluck y Rumelhart, 1990 y en'Nadel y otros, 1989; véanse también
vanas de las contribuciones en Koch y Davis, 1994.
La imagen neurocientifica I 179

7.2 Los dedos del mono

Consideremos una pregunta aparentemente sencilla: ¿cómo guía el cere­


bro del mono el movimiento de sus dedos? Durante muchos años, los neu-
rocientíficos han dado por buena una imagen intuitiva y simple. Según esta
imagen, parte de! cerebro del mono era la sede de un mapa somatotópico:
una región donde conjuntos de neuronas agrupadas espacialmente se dedi­
caban al control de cada dedo por separado. La actividad de un grupo haría
que el dedo correspondiente se moviera. Mover varios dedos a la vez exigi­
ría la actividad simultánea de varios grupos neuronales. Esta imagen del con­
trol de los dedos por el cerebro del mono quedó inmortalizada en las imáge­
nes «homunculares» de las subdivisiones espaciales de la zona cerebral Mi
(área motriz 1), que representaban distintos grupos neuronales, dispuestos
en sucesión lateral medial, que controlaban cada dedo por separado.
Este modelo es elegante e intuitivo y representaría una buena solución
para problemas que exigen que los dedos se muevan independientemente
(como cuando se toca el piano con destreza). Pero no es la solución de la
naturaleza, como demuestran algunas investigaciones más recientes. Para
ver esto, observemos una evidente predicción del simple modelo homuncu-
lar. Este modelo predice que los movimientos donde intervienen varios de­
dos deben exigir una activación más extendida y de más neuronas que los
movimientos de un solo dedo. Además, también predice que los movimien­
tos del pulgar se corresponden con la actividad de la región más lateral de
la región M i de la mano, y que los movimientos de los otros dedos se co­
rresponden con la actividad de otras zonas ordenadas en sucesión hasta lle­
gar a la región más medial (correspondiente a los movimientos del dedo me­
ñique). Ninguna de estas predicciones se confirma. Marc Schieber y
Lyndon Hibbard, neurocientíficos de la Washington University School of
Medicine, encontraron que los movimientos de cada dedo por separado es­
taban acompañados de una diseminación de la actividad por toda la zona
MI de la mano. Además, se ha observado que para los movimientos preci
sos hace falta más actividad de la corteza motriz que para los movimientos
más básicos de toda la mano y que algunas neuronas de la corteza motriz
parecen dedicadas a impedir los movimientos de otros dedos cuando un
dedo concreto debe actuar por separado.
Schieber (1990, pág. 444) propone que interpretemos todo esto conside­
rando los movimientos aislados de los dedos como casos complejos, y las «si­
nergias más rudimentarias, como las empleadas para abrir y cerrar la mano»,
como adaptaciones básicas. Estas adaptaciones son perfectamente razonables
para seres cuya principal necesidad sea asir ramas y balancearse, y el diagnós­
tico total encaja como anillo al dedo con nuestra perspectiva evolutiva del di­
180 I Explicar la mente extendida

seño cognitivo natural. El problema fundamental es producir una acción rá­


pida, fluida y adaptada al entorno. Para ello se seleccionan unas estrategias de
codificación neuronal que faciliten una gama particular de conductas de asi­
miento en las que el factor tiempo es fundamental. Esta necesidad básica e
históricamente determinada condiciona las soluciones para problemas más
recientes centrados en los movimientos de dedos aislados {como tocar el pia­
no). Para alcanzar estas metas más recientes, Schieber (ibíd.) sugiere que «la
corteza motriz puede superponer un control, en parte sobre los centros sub­
corticales filogenéticamente más antiguos y, en parte directamente sobre... las
neuronas motrices espinales, para ajustar el movimiento de todos los dedos».
Por tanto, la evolución trastea con las sinergias de toda la mano, dedicando
recursos neuronales tanto a la supresión de movimientos como a su produc­
ción, con el fin de posibilitar movimientos precisos.
La lección parece ser que la evolución biológica puede seleccionar es­
quemas internos de codificación que a primera vista parecen extraños y tos­
cos pero que, en realidad, representan soluciones bastante elegantes al pro­
blema combinado de satisfacer unas necesidades básicas y aprovechar al
máximo los recursos existentes. Dicho de una manera más general, ía litera­
tura neurocientífica abunda en casos de codificaciones neuronales un tanto
inesperadas. Por ejemplo, se ha visto que la respuesta de algunas neuronas
de la corteza parietal posterior de la rata es máxima {en el contexto de reco­
rrer un laberinto radial) ante ciertas orientaciones de la cabeza y en presen­
cia de alguna característica o marca local (McNaughton y Nadel, 1990, págs.
49-50), y que otras neuronas responden a determinados movimientos de giro
hechos por la rata (otro caso de las representaciones «motorcéntricas» y
orientadas al agente presentadas en capítulos anteriores).
El modelo de Schieber también ilustra el papel que tienen en la cogni­
ción natural las representaciones internas distribuidas. Este tema ha ocupa­
do un lugar preponderante en los trabajos recientes sobre redes neuronales
artificiales.4 Una representación distribuida es una codificación interna
donde el contenido de interés no está a cargo de un recurso individual (por
ejemplo, una sola neurona) y tampoco está necesariamente a cargo de un
grupo espacialmente localizado de unidades o neuronas. En cambio, este
contenido (relacionado, por ejemplo, con el movimiento de un dedo aislado)
está a óargo de un patrón de activación que se disemina por una población
de neuronas o unidades. Las codificaciones distribuidas ofrecen varias ven­
tajas y oportunidades. Por ejemplo, el patrón mismo puede codificar una in­
formación estructural significativa haciendo que ciertas variaciones de poca
importancia en su configuración reflejen diferencias pequeñas, pero a veces

4. Recuérdese la anterior discusión del capitulo 3.


La imagen neurocíentífica i 181

importantes, en lo que se representa en cada momento. Y también es posible


emplear métodos de almacenamiento superpuesto para que cada neurona
individual pueda desempeñar un papel en la codificación de muchas cosas
diferentes (de la misma manera que el número 2 puede aparecer en muchos
patrones numéricas diferentes: «2, 4, 6», «2 ,3 , 4», «2, 4, 8», etc.). Cuando
este tipo de almacenamiento superpuesto se emplea sistemáticamente para
representar elementos semánticamente afines mediante patrones superpues­
tos pero no idénticos, se obtienen las ventajas adicionales de la generaliza­
ción (unos elementos o sucesos nuevos pueden recibir unas codificaciones
no arbitrarias en la medida en que se parezcan a otros elementos o sucesos
ya existentes) y de la «degradación elegante» (una lesión física limitada será
menos problemática porque en la codificación de cada clase general de ele­
mentos o sucesos participan muchos componentes y el rendimiento sera
aceptable mientras se conserven algunos de ellos). Estas ventajas se exami­
nan con detalle en otro lugar (Clark, 1989,1993), por ahora la cuestión es,
simplemente, que el cerebro puede estar empleando unos esquemas repre-
sentacionales muy complejos, superpuestos y espacialmente distribuidos in­
cluso en casos dondb, intuitivamente, podríamos haber esperado una estra­
tegia de codificación simple y espacialmente localizada como en el caso de la
zona motriz M I.5 AI parecer, el método de la naturaleza consiste en emplear
unas codificaciones distribuidas en el espacio y superpuestas entre sí para
gobernar movimientos similares (pero no idénticos) de los dedos. Por tanto,
la imagen final nos muestra unas neuronas corticales específicas que desem­
peñan un papel en el control de los músculos de varios dedos, participando
en patrones de actividad ampliamente extendidos en el espacio que corres­
ponden a diferentes tipos de movimientos y con distintas direcciones.

5. El caso del control del movimiento de los dedos parece encontrarse en el extremo
«muy distribuido» de un continuo de posibilidades de codificación. De hecho, en el extremo
opuesto encontramos algunos esquemas de codificación que utilizan agrupaciones espaciales
de neuronas para mantener un mapa topográfico interno (un mapa interno que mantiene las
relaciones espaciales entre las entradas sensoriales). Por ejemplo, existe un grupo de neuronas
en la corteza cerebral de (a rata cuya organización espacial refleja la distribución espacia! de los
bigotes del animal. Sin embargo, incluso en estos casos aparentemente claros, se debe destacar
que la topografía interna está adaptada a las respuestas máximas de las neuronas individuales
y, en consecuencia, deja espacio para que otros aspectos del ajuste de estas neuronas desem­
peñen una función (véase e! apartado 7.3 más adelante), y que los perfiles de respuesta se sue­
len obtener en situaciones artificiales (que implican el empleo de manipulaciones eléctricas o
quirúrgicas) y no pueden reflejar con fidelidad el papel de las neuronas en la respuesta a si­
tuaciones ecológicamente normales. Con todo, la existencia de la correspondencia topográfi­
ca interna es un resultado sorprendente e importante que demuestra que (a naturaleza puede
utilizar varias estrategias y ardides diferentes para fomentar el éxito adaptativo. Véase una ex­
posición del caso de los bigotes de la rata en Woolsey, 1990.
182 1 Explicar la mente extendida

7.3 La visión de los primates: de la detección


de características a los filtros sintonizados*

Para paladear aún más el sabor de la investigación neurocientífica actual,


haremos una breve incursión en el mundo cada vez mejor comprendido de
ia visión de los primates. En los trabajos computacionales sobre la visión ani­
mada ya vimos en qué medida es probable que una naturaleza de carácter
ahorrativo se base en señales poco costosas y en el estado del entorno local
para minimizar su carga de procesamiento interno. Pero aun teniendo esto
en cuenta, la complejidad de los mecanismos de la visión real sigue siendo
asombrosa. Lo que sigue es un esbozo, necesariamente truncado, basado en
el reciente trabajo de David Van Essen, un destacado investigador de ia vi­
sión de los primates que (de manera muy conveniente para mí) tiene su sede
en la Washington University School of Medicine.7
La investigación neuronatómica ha descubierto una multiplicidad de par­
tes y vías anatómicas que parecen desempeñar papeles especiales en el pro­
cesamiento visual. La neurociencia cognitiva se propone, mediante el em­
pleo de una amplia variedad de instrumentos experimentales y teóricos,
identificar las distintas características de respuesta de las neuronas y las po­
blaciones neuronales participantes. Anatómicamente, el macaco posee por lo
menos 32 áreas visuales en el cerebro y más de 300 vías de conexión. Entre
las áreas más importantes (véase la lámina 1) se incluyen centros de procesa­
miento cortical inicial como VI y V2, sedes intermedias como V4 y MT y se­
des superiores como TI (corteza temporal inferior) y PP (corteza parietal
posterior). Las vías de conexión tienden a ir en ambos sentidos: por ejemplo,
de VI a V2 y viceversa. Además, existe cierta conectividad «lateral» como,
por ejemplo, entre las subáreas de VI.
Aunque según la descripción de FeJleman y Van Essen (1991) el sistema
global comprende diez niveles de procesamiento cortical, a continuación
sólo se describen algunos de los más importantes. Subcorticalmente, el sis­
tema recibe entradas procedentes de tres poblaciones de células, incluyendo
las llamadas poblaciones magnocelulares y parvocelulares. A continuación,
una vía de procesamiento se ocupa básicamente de la entrada magnocelular
y otra de la entrada parvocelular. Esta división tiene sentido dados los dife­
rentes tipos de información de bajo nivel en los que se «especializa» cada po­
blación. Las células parvo (P) tienen una resolución espacial alta y una reso-
i

6. Esta discusión se basa en gran medida en Van Essen y Gallant, 1994.


7. Véanse especialmente Van Essen y Gallant, 1994; Knierim y Van Essen, 1992 y Fellc-
man y Van Essen, 1991. Gran parte del trabajo se basa en estudios con macacos, cuyo sistema
visual parece ser adecuadamente similar al humano.
La imagen neurocientífica I 183

ludón temporal baja; las células magno (M) tienen una resolución temporal
alta. Como resultado, las células M permiten la percepción de movimien­
tos rápidos, mientras que las células P se encargan (entre otras cosas) de la
diferenciación de colores. La destrucción selectiva de células P impide que
el mono pueda distinguir los colores pero deja intacto el reconocimiento del
movimiento.
La corriente de procesamiento también denominada «m agno» (MD)
incluye muchas poblaciones de neuronas sensibles a la dirección de un es­
tímulo de movimiento, especialmente en el área MT. La estimulación eléc­
trica de parte de la zona MT puede hacer que el mono «perciba» un movi
miento hacia la izquierda cuando, en realidad, el objeto de referencia se
mueve hacia la derecha (Salzman y Newsome, 1994). En etapas aún más
avanzadas de la jerarquía procesadora (como la MSDT) existen indicios de
la presencia de células sensibles a estímulos de movimiento muy complejos,
como el movimiento en espiral (Graziano y otros, 1994). Al final, la corrien­
te MD se conecta con la corteza parietal posterior, que parece emplear la in­
formación espacial para controlar funciones de nivel superior como, por
ejemplo, decidir dónde se encuentra un objeto y planificar los movimientos
de los ojos.
Mientras tanto, la misión de determinar qué es cada cosa (reconocí
miento de objetos) está a cargo de una corriente de procesamiento distinta
que tiene sus raíces, especialmente, en unas entradas parvocelulares que pa­
san por las zonas V i, V4 y PIT (áreas inferotemporales posteriores) y que
acaban en las áreas inferotemporales centrales y anteriores. Esta vía parece
estar especializada en la forma y el color. En el nivel correspondiente a V4,
existen indicios de la presencia de células sensibles a formas muy complejas
como estímulos concéntricos, radiales, espirales e hiperbólicos (véase la lá­
mina 2). En niveles superiores, ciertas células individuales de la corteza
temporal inferior dan una respuesta máxima ante estímulos geométricos
complejos como caras y manos. Pero (y esto es crucial) estas respuestas má­
ximas no especifican de una manera exhaustiva el papel desempeñado por
una célula dada en el procesamiento de la información. Aunque una célula
puede dar una respuesta máxima ante (por ejemplo) un patrón en espiral, la
misma célula también responderá en cierta medida a muchas otros patro­
nes. Con frecuencia, lo más revelador es la sintonización de una célula con
un conjunto entero de estímulos. Esta sintonización global permite a una
célula participar en un gran número de patrones distribuidos de codifica­
ción, aportando información tanto por el hecho de estar activa como por su
grado de actividad. Estas consideraciones condujeron a Van Essen y otros a
tratar las células no como simples detectores de características que indican
la presencia o ausencia de algún parámetro fijo, sino más bien como filtros
184 I Explicar la mente extendida

sintonizados con varias dimensiones del estímulo, de manera que las dife­
rencias en la frecuencia de disparo permiten que una célula codifique múl­
tiples tipos de información.8 También hay fuertes indicios de que las res­
puestas de las células de los niveles medios y superiores de la jerarquía
procesadora dependen de la atención y de otros parámetros cambiantes
(Motter, 1994), e incluso de que las características de la respuesta de las cé­
lulas de VI están moduladas por los efectos del contexto local (Knierim y
Van Essen 1992). Tratar las neuronas como filtros sintonizables y modula-
bles proporciona un sólido marco en el que cabe formular y comprender es­
tos perfiles complejos. La imagen básica que aquí se presenta también está
en consonancia con la perspectiva de diseño propugnada por Tim Smithers
(véase el apartado 5.5 anterior), en la que se analizan sistemas sensoriales
muy simples como si fueran filtros sintonizados y no simples canales de de­
tección de características.
Por tanto, los trabajos recientes sobre la visión de los primates muestran
una conciencia creciente de la complejidad y la sofisticación de los esquemas
de codificación y de las vías de procesamiento biológicos. Sin embargo, esta
apreciación creciente de la complejidad y la dinámica interactiva no implica
que el sistema visual de los primates sea analíticamente impenetrable. Al
contrario, vemos que el sistema separa, filtra y encamina la información pro­
gresivamente para hacer que varios tipos de información estén a disposición
de diversos componentes (por ejemplo, la corteza temporal inferior y la cor­
teza parietal posterior), y para permitir que los estímulos visuales, tanto de
bajo nivel como de alto nivel, orienten la conducta como y cuando haga fal­
ta. Por tanto, una comprensión completa de (por ejemplo) las estrategias de
la visión animada (recuérdese el capítulo 1 anterior) exigirá, por un lado, la
apreciación de muchos tipos de dinámica interna compleja y, por otro, com­
prender cómo utiliza estos recursos un ser corpóreo y embebido para explo­
tar características del entorno y estímulos localmente eficaces al servicio del
éxito adaptativo.

7.4 Hipótesis del control neurona!

Un desarrollo importante en la neurociencia cognitiva reciente es el cre­


ciente reconocimiento del papel de las estructuras neuronales de control.
Las estructuras neurópatas de control, tal y como voy a usar el término, son

8. «Las diferencias en la frecuencia de disparo transmiten información útil para distinguir


entre estímulos que se encuentran en las pendientes de la superficie de sintonización multidi-
mensional de cada célula» (Van Essen y Gallant, 1994, pág. 4).
La imagen neurocienlifica I 185

aquellos circuitos, estructuras o procesos ncuronales cuyo papel principal


sea modular la actividad de otros circuitos, estructuras o procesos neurona-
íes, es decir, cualquier elemento o proceso cuyo papel sea controlar la eco­
nomía interna en vez de seguir las condiciones externas o controlar directa­
mente la actividad corporal. Una útil analogía, propuesta por Van Essen y
otros (1994), es la división de los procesos en una factoría moderna, donde
muchos procesos no se dedican a la construcción del producto en sí sino más
bien al tráfico interno de materiales. Muchos neurocientíficos creen ahora
que, de una manera similar, se dedican grandes cantidades de capacidad
neuronal al tráfico y el tratamiento de información. Según esta explicación,
el papel de ciertas poblaciones neuronales consiste en modular el flujo de ac­
tividad entre otras poblaciones para potenciar ciertas clases de atención, re­
cuerdos multimodales, etc.
Siguiendo esta línea, Van Essen y otros (1994) postulan la existencia de
unos mecanismos neuronales dedicados a regular el flujo de información
entre áreas corticales. Según estos autores, esta regulación nos permite (por
ejemplo) dirigir una ventana interna de atención visual hacia un objetivo
concreto (como una letra del alfabeto que aparece en una posición aleato­
ria dentro del campo visual) o dirigir la misma orden de movimiento a cual­
quier parte del cuerpo. El gasto computacional dedicado a generar una se­
ñal distinta para cada caso sería prohibitivo. Mediante el desarrollo de un
único recurso que puede ser «dirigido» con flexibilidad hacia diversas po­
siciones, se consiguen unos enormes ahorros de procesamiento. Según Van
Essen y otros, la clave de esta orientación flexible es el empleo de poblacio­
nes de «neuronas de control» que encaminan dinámicamente la informa­
ción por el cerebro. La propuesta de estos autores no se queda en un simple
esbozo intuitivo y está acompañada de un modelo detallado del funciona­
miento de estos controladores al estilo de las redes neuronales; además, los
autores relacionan este modelo con toda una variedad de sustratos y meca­
nismos neurológicos conocidos. Los perfiles de respuesta muy dependien­
tes del contexto de algunas neuronas corticales (mencionados en el apartado
7.3 anterior) se pueden explicar mediante estos mecanismos que encaminan
una y otra vez la información entrante.
Otro tipo de hipótesis de control neuronal se basa en la idea de «proce­
samiento reentrante» (Edelman y Mountcastle, 1978; Edelman, .1987). Es
bien sabido que el cerebro incluye muchas vías que enlazan áreas corticales
distantes y que regresan de las zonas superiores del cerebro a las inferiores.
La idea del procesamiento reentrante es que estas vías «laterales y descen­
dentes» se emplean para controlar y coordinar la actividad de múltiples cen­
tros (con frecuencia de nivel inferior). Estas vías transportan unas «señales
reentrantes» que provocan ia activación de las zonas receptoras. Considere­
186 t Explicar la mente extendida

mos dos poblaciones de neuronas que responden a unos tipos diferentes de


estímulos externos (por ejemplo, la vista y el tacto) y que están interconecta­
das recíprocamente mediante estas vías reentrantes. Estas conexiones recí­
procas permiten que, con el tiempo, lo que ocurre en un lugar se correlacio­
ne con lo que ocurre en el otro. Estas correlaciones podrían llegar a codificar
propiedades de nivel superior, como las combinaciones de textura y color
características de una clase particular de objetos.
Como ejemplo final de una hipótesis de control neuronal, considere­
mos el intento reciente de Damasio y Damasio (1994) de desarrollar un
marco general para explicar los déficit psicológicos selectivos. Se produ­
ce un déficit selectivo cuando una persona, normalmente a causa de un
trauma o de una lesión cerebral, pierde unas capacidades cognitivas espe­
cíficas pero conserva relativamente intactas las restantes. Por ejemplo
(Damasio y otros, 1989), se comprobó que un paciente conocido como
Boswell tenía dañada selectivamente la capacidad de recuperar conoci­
mientos relacionados con entidades únicas (como personas concretas) y
con sucesos específicos (como episodios biográficos concretos, lugares
singulares, objetos especiales, etc.). Sin embargo, su conocimiento cate-
gorial más general permanecía intacto. Podía identificar si un elemento
era un automóvil, una casa, una persona, etc. Boswell no mostraba déficit
de atención o percepción y su capacidad para adquirir y realizar habilida­
des físicas no se había alterado.
Damasio y Damasio (1994) describen un marco capaz de explicar es­
tas pautas de déficit. La característica esencial de su propuesta es que el
cerebro explota unas «zonas de convergencia»: unas áreas que «dirigen la
activación simultánea de zonas anatómicamente separadas cuya conjun­
ción define una entidad» (ibíd., pág. 65). Por tanto, una zona de conver­
gencia se define como una agrupación de neuronas donde entran en con­
tacto múltiples bucles de retroalimcntación y alimentación hacia adelante.
Es una región donde convergen varias conexiones corticales de retroali-
mentación y alimentación hacia adelante de largo recorrido. La función
de una zona de convergencia consiste en permitir que el sistema (devol­
viendo señales hacia las múltiples áreas corticales implicadas en el proce­
samiento previo) genere pautas de actividad entre grupos de neuronas
muy distantes entre sí. Según Damasio y Damasio, cuando accedemos al
conocimiento de conceptos, entidades y sucesos, explotamos estas señales
de alto nivel para recrear las pautas extendidas de actividad característi­
cas de los contenidos en cuestión. Si suponemos que distintos tipos de co­
nocimientos dependen de unos complejos de coactivación diferentes y
que estos complejos, a su vez, están gestionados por unas zonas de conver­
gencia distintas, podremos empezar a comprender por qué una lesión cere­
La imagen neurocientífica I 187

bral local puede dañar selectivamente la recuperación de diferentes tipos


de conocimientos. Con todo, para explicar la disociación entre el conoci­
miento de sucesos únicos y no únicos, también hace falta presentar la no­
ción de jerarquía de zonas de convergencia. Recordemos que las zonas de
convergencia, según la concepción de Damasio y Damasio, se proyectan
tanto hacia atrás (reactivando representaciones corticales anteriores)
como hacia adelante (hacía zonas de mayor convergencia). Estas zonas su­
periores pueden impulsar de una manera poco costosa una actividad ex­
tendida de bajo nivel, explotando conexiones de retroalimentación con
los enlaces previos dentro de una jerarquía de zonas de convergencia. La
hipótesis básica es la siguiente:

...el nivel en el cual se recupera el conocimiento (por ejemplo, supraordinado,


objeto básico, subordinado) dependerá del alcance de la activación multirregio-
nal. A su vez, esto dependerá del nivel de zona de convergencia que se active.
Las zonas de convergencia de bajo nivel vinculan señales relacionadas con cate­
gorías de entidades... Las zonas de convergencia de nivel mas elevado vinculan
señales relacionadas con combinaciones más complejas... Las zonas de conver­
gencia capaces de vincular entidades con sucesos... se encuentran en la cima de
las corrientes jerárquicas, en las regiones frontales y temporales más anteriores
(ibtd., pág. 73).

Por tanto, la recuperación de conocimientos sobre entidades y sucesos


únicos requiere la activación conjunta de varios locus más básicos que el co­
nocimiento de entidades y sucesos no únicos (donde los primeros subsumen
a los segundos, pero no a la inversa). De manera similar, el conocimiento de
conceptos requerirá la activación conjunta de varias áreas distintas, mientras
que el conocimiento de características simples (por ejemplo, el color) se pue­
de limitar a una sola área. Si suponemos una jerarquía de zonas de conver­
gencia extendida en el espacio neuronal, esta imagen explicaría por qué las
lesiones en las cortezas visuales previas dañan selectivamente el conocimien­
to de características simples como el color, mientras que las lesiones en las
cortezas intermedias alteran el conocimiento de entidades y sucesos no úni­
cos y las lesiones en las cortezas anteriores alteran las respuestas relaciona­
das con entidades y sucesos únicos.
Según este marco unos sistemas neuronales distintos pero superpuestos
promueven el acceso a distintos tipos de conocimiento. Cuanto más com­
plejas sean las conjunciones de información necesarias para fijar una clase de
conocimientos, más necesaria será esta actividad de coordinación. Esto, a su
vez, implica unos centros correlativamente más elevados en una jerarquía de
zonas de convergencia que corresponden a locus de las cortezas temporales
cada vez más anteriores. Damasio y Damasio destacan que su intención no es
188 I Explicar ia mente extendida

describir las zonas dañadas como si fueran las sedes físicas de diferentes cla­
ses de conocimientos: lo que proponen es que las regiones dañadas son zo­
nas de control que promueven la activación conjunta de varias áreas muy
distantes entre sí. En general, se trata de cortezas sensoriales y motrices pre­
vias que, mediante las señales reentrantes, serían estimuladas a crear de nue­
vo sus respuestas particulares ante ciertos estímulos externos. Resumiendo
sus propuestas, Damasio y Damasio comentan lo siguiente:

...[la imagen] que proponemos implica una compartimentación funcional relati­


va para el cerebro normal. Un gran conjunto de sistemas en las cortezas senso­
riales y motrices previas sería la base para los conocimientos «de sensación» y
«de acción»... Otro conjunto de sistemas en las cortezas de orden superior or­
questaría la trabazón de actividades en el tiempo en los primeros; es decir, susci­
taría y establecería una correspondencia temporal entre áreas separadas (ibíd.,
pág. 70).

Según esta explicación, existen unas regiones neuronales localizadas


para varios tipos de información sensorial y motriz y para varios niveles de
control mediados por zonas de convergencia. Sin embargo, las aptitudes de
nivel superior (como, por ejemplo, captar conceptos) se describen como
dependientes de la actividad de múltiples áreas básicas (en las cortezas sen­
soriales y motrices) mediada por la actividad de múltiples zonas de conver­
gencia. Por tanto, gran parte del aparato explicativo para explicar fenóme­
nos como la posesión de conceptos requerirá unos recursos que vayan más
allá de los simples análisis de componentes presentados en el capítulo 6 an­
terior. Necesitaremos modelos que estén especialmente bien adaptados para
revelar los principios subyacentes a los fenómenos que emergen a partir de
la actividad coevolutiva, compleja y temporalmente trabada en el tiempo, de
múltiples componentes vinculados por abundantes vías de retroalimentación
y proalimentación. Como los análisis clásicos de componentes no han tendi­
do a salir bien parados en estos casos, aquí parece darse una oportunidad
clara para explicar la implementación detallada de la hipótesis de las zonas
de convergencia desde una perspectiva dinámica. Al mismo tiempo, el poder
explicativo de la teoría está claramente vinculado con la descomposición
previa en áreas de procesamiento básico (que llevan a cabo tareas cognitivas
identificables) y en un conjunto bien definido de zonas de convergencia cu­
yas diferentes actividades de conmutación también se corresponden con
clases diferentes de recuperación de conocimientos. Sólo a la luz de esta des­
composición y de este comentario funcional puede este modelo predecir y
explicar los efectos selectivos de las lesiones cerebrales locales en la recupe­
ración de conocimientos relacionados con entidades y sucesos únicos. En
La imagen neurocientífíca I 109

este caso, la presencia del análisis de componentes parece esencial para sal­
var el abismo existente entre los fenómenos que hay que explicar (es decir,
los déficit que afectan a tipos específicos de conocimientos) y los modelos
que creamos. Si no habláramos de las funciones cognitívas de las cortezas
sensoriales previas ni de las estructuras corticales de nivel superior especia­
lizadas en volver a crear unos complejos específicos de actividad cognitiva,
no comprenderíamos cómo podrían explicarse realmente los fenómenos psi­
cológicos por medio de otras descripciones de la dinámica detallada de las
interacciones entre los componentes.
Por último, obsérvese que las hipótesis de control neuronal están muy le­
jos de describir el cerebro como un dispositivo centralizado para el inter­
cambio de mensajes, porque existe una gran diferencia entre imaginar que
algún sistema interno de control tiene acceso a toda la información codifica­
da en los diversos subsistemas, e imaginar un sistema que puede abrir y ce­
rrar canales que conectan diversos subsistemas entre sí.’ Todo lo que exigen
las hipótesis de control neuronal acabadas de esbozar es esta última capaci­
dad para controlar canales. Por tanto, son muy distintas de la visión tradi­
cional de un sistema «ejecutivo central». Los «centros superiores» postula­
dos por Damasio y Damasio no actúan como almacenes de conocimientos
«transferidos» desde los centros de nivel inferior. En cambio, son «mera­
mente los puntos de convergencia más distantes desde los cuales se puede
disparar la retroactivación divergente» (Damasio y Damasio, 1994, pág. 70).
Creo que gran parte de la oposición recibida por los enfoques centrados en
el procesamiento de la información se puede formular mejor como una opo­
sición a una imagen de la mente caracterizada por un rico «envío de mensa­
jes» (véase, por ejemplo, Brooks, 1991). Así, Maes (1994, pág. 141} observa
que el trabajo centrado en agentes autónomos adaptativos evita el empleo de
módulos clásicos que «se basan en la “representación central” como medio
de interfaz». En cambio, estos investigadores postulan unos módulos que se
relacionan entre sí mediante mensajes muy simples cuyo contenido rara vez
va más allá de señales de activación, supresión o inhibición. Como resultado,
no hace falta que los módulos compartan ningún formato de representación:
cada uno puede codificar información de maneras muy características y es­
pecíficas de la tarea (ibíd., pág. 142). Esta imagen de un control descentrali­
zado y de múltiples formatos de representación es a la vez biológicamente
realista y computacionalmente atractiva. Pero, como hemos visto, también es
totalmente compatible con cierto grado de descomposición modular interna
y con el empleo de estilos de explicación (parcial) basados en el procesa
miento de información.

9. Posner (1994) destaca esta distinción.


190 I Explicar la mente extendida

Por tanto, las hipótesis de control neuronal constituyen una potente mez­
cla de radicalismo y tradicionalismo. Su radicalismo se debe a que ofrecen un
modelo de la cognición superior descentralizado y sin envío de mensajes, a
que suelen describir la cognición superior como si surgiera de la actividad
trabada en el tiempo de múltiples tipos de zonas de procesamiento senso-
riomotor más básicas, y a que reconocen la dinámica compleja y recurrente
del procesamiento neuronal.
Pero conservan elementos fundamentales de enfoques más tradicionales,
como el empleo de una descomposición, al estilo del procesamiento de la in­
formación, en la que se asocian unos componentes neuronales definidos con
unas funciones específicas de portar contenido.

7.5 Refinar la representación

Como se puede ver incluso en estos ejemplos breves y superficiales, la


neurociencia contemporánea constituye una interesante mezcla entre lo ra­
dical y lo tradicional. Retiene gran parte del énfasis tradicional en los análi­
sis de la computación neuronal basados en componentes y en el procesa­
miento de información, Pero lo hace dentro del contexto más amplio de una
comprensión sistémica que, al mismo tiempo, está cada vez más descentrali­
zada y más atenta al papel de la dinámica recurrente compleja. La noción de
representación interna sigue desempeñando un papel fundamental, pero la
imagen de estas representaciones está experimentando unas alteraciones
fundamentales. En primer lugar, ia pregunta de qué es lo que se representa
internamente se ha vuelto a plantear, por un lado, como resultado de los es­
tudios «de abajo arriba» de los perfiles de respuesta de poblaciones neuro­
nales específicas {como en el trabajo de Schieber sobre la representación en
la corteza motriz del mono) y, por otro, como resultado de una conciencia
creciente de la importancia del encaje ecológico del organismo en su entor­
no natural (como en la investigación sobre la visión animada presentada an­
teriormente). Y, en segundo lugar, la cuestión acerca de cómo se representan
las cosas internamente ha sido transformada por el trabajo conexionista so­
bre la representación distribuida y por el reconocimiento de que es mejor
ver las neuronas individuales como filtros sintonizados con múltiples di­
mensiones de estímulo. Esta combinación de descentralización, recurrencia,
sensibilidad ecológica y representación multidimensional distribuida, cons­
tituye una imagen del cerebro representador que está muy lejos de la vieja
¡dea de un único código simbólico interno (o «lenguaje del pensamiento»;
véanse Fodor, 1975 y Fodor, 1986). Es como la imagen representacional y
computacional, pero despojada de todo exceso de equipaje y racionalizada
La imagen neurocientifica I 191

para complementar el estudio de la dinámica organismo-entorno más amplia


destacada en capítulos anteriores. Para completar este proyecto de integra­
ción y reconciliación, debemos observar con más detalle las nociones funda­
mentales concretas de computación y representación.
8 Ser, computar, representar

8.1 ¿Noventa por ciento de vida (artificial)?

Según Woody Alien, el noventa por ciento de la vida consiste, simple­


mente, en estar ahí; y, desde luego, hemos visto de muchas maneras que los
hechos sobre la corporeización y la situación ambiental tienen una impor­
tancia considerable para explicar nuestro éxito adaptativo. Sin embargo, en
los últimos dos capítulos hemos encontrado algunas advertencias importan
tes. En concreto, no deberíamos tener demasiada prisa en rechazar los apa
ratos explicativos más tradicionales de la computación y la representación.
Las mentes pueden estar esencialmente corporeizadas y embebidas y, aun
a s i depender fundamentalmente de unos cerebros que computan y repre­
sentan. Sin embargo, para hacer que esta postura ecuménica cuaje, necesita­
mos enfrentarnos específicamente a algunos retos directos relacionados con
las nociones mismas de computación y representación (¿tienen estas nocio­
nes unas definiciones no triviales compatibles con el nuevo marco?) y a al­
gunos problemas relacionados con la aplicación práctica de estas nociones a
sistemas que muestran propiedades emergentes dependientes de procesos
marcados por una causalidad compleja, continua y recíproca.1

8.2 ¿Qué es eso que llamamos representación?

Los científicos cognitívos suelen hablar de los cerebros y de los modelos


informáticos como si albergaran «representaciones internas». Esta idea bási­

1. Véase la definición más adelante.


194 I Explicar la mente extendida

ca ofrecía un terreno común incluso para los campos, por lo demás opues­
tos, del conexionismo y la inteligencia artificial clásica.2 Las diferencias en­
tre conexionistas y clasicistas se centraban únicamente en la naturaleza pre­
cisa del sistema de representaciones internas, no en su existencia misma. Los
clasicistas creían en una economía interna «simbólicamente sólida» donde
los contenidos mentales se almacenaban como cadenas de símbolos que po­
dían ser leídas, copiadas y trasladadas por algún tipo de unidad central de
procesamiento interno. Los conexionistas creían en un estilo mucho más im­
plícito de representación interna que sustituía las cadenas de símbolos sóli­
dos y manipulabas por vectores numéricos complejos y operaciones básicas
de reconocimiento y transformación de patrones.
Aun así, tanto las representaciones simbólicas explícitas y sólidas como
las representaciones conexionistas distribuidas y vectoriales se consideraban
representaciones internas propiamente dichas. Desde este punto de vista, en
un sistema se da representación interna siempre que ese sistema cumpla los
siquientes requisitos intuitivos (Haugeland, 1991):

1. El sistema debe coordinar sus conductas con características del en­


torno cuya presencia no siempre sea «segura».
2. El sistema se debe enfrentar a estos casos «sustituyendo» las señales
recibidas directamente desde el entorno por otra cosa que guíe la conducta.
3. Esa «otra cosa» debe formar parte de un esquema de representación
más general que permita que esta sustitución se produzca sistemáticamente
y que dé cabida a una variedad de estados de representación relacionados
(véase Haugeland, 1991, pág. 62).

El primer requisito descarta los casos donde no hay ninguna «sustitu­


ción» y donde la conducta está controlada directamente por la característica
del entorno (por medio de una «señal detectable»). Por tanto, «las plantas
que siguen al sol con sus hojas no necesitan una representación del sol ni de
su posición porque el seguimiento está guiado directamente por el mismo
sol» (ibíd., pág. 62). El segundo requisito identifica como representación
cualquier cosa que «sustituya» a la característica ambiental pertinente. Pero
el tercer requisito limita esta categoría a las sustituciones que figuran en un
esquema de sustitución más amplio, descartando así (por ejemplo) los jugos
gástricos como representaciones completas de futuros alimentos (ibíd.).
Aunque estos requisitos están bien encaminados, creo que el papel de la ca­
pacidad de desacoplamiento (la capacidad de emplear estados internos para

2. Véanse la introducción y el capítulo 3 anteriores, así como Smolensky, 1988; Fodory


Pylyshyn, 1988, y Clark, 1989.
Ser, computar, representar I 195

orientar la conducta en ausencia de la característica ambiental pertinente) es


un poco exagerado.
Consideremos una población de neuronas en la corteza parietal posterior
de una rata. Estas neuronas contienen información sobre la dirección (iz­
quierda, derecha, enfrente) hacia la que se orienta la cabeza del animal. Lo
hacen utilizando un esquema de codificación que es «general» en un sentido
parecido al expresado en el tercer requisito de Haugeland. Según mi pare­
cer, la noción de esquema representacional general es muy generosa y no re­
quiere la presencia de una sintaxis de combinación clásica que permita yux­
taponer y concatenar elementos con toda libertad; creo que sólo requiere
que nos encontremos frente a algún tipo de sistema de codificación. Y estos
sistemas pueden ser de muchísimas maneras. Por ejemplo, bastará con que
el sistema sea tal que los elementos que se deban tratar de una manera simi­
lar estén representados por unas codificaciones (como patrones de activa­
ción en una población de neuronas o en una red neuronal artificial) que es­
tén próximas entre sí en un espacio de estados multidimensionaí adecuado.*
De hecho, este tipo de esquema de representación es característico de gran
parte del trabajo conexionista examinado anteriormente y pretende caracte­
rizar por lo menos algunos de los sistemas de codificación encontrados en los
cerebros biológicos. Las poblaciones de neuronas parietales posteriores de la
rata son un caso ejemplar. Sin embargo, hasta ahora no hay nada en nuestra
descripción que sugiera que estas neuronas puedan desempeñar su papel en
ausencia de una corriente continua de señales propioceptivas procedentes del
cuerpo de la rata. Si este «desacoplamiento» no es posible, nos enfrentamos
a un caso que satisface plenamente la tercera condición de Haugeland (la pre­
sencia de un esquema de codificación sistemática) pero no satisface las otras
dos (este esquema de codificación no actúa como sustituto en ausencia de se­
ñales entrantes). ¿Qué podemos decir de un caso como éste?'’
Parece razonablemente claro que si interpretamos los estados de la po­
blación neuronal como codificaciones de posiciones específicas de la cabeza
obtendremos una base explicativa útil. Estas interpretaciones nos ayudan a
comprender el flujo de información dentro del sistema cuando, por ejemplo,
nos encontramos con otros grupos neuronales (como poblaciones dedicadas34

3. Véase mucha más información sobre la codificación de espacios de estados en Church-


land, 1989; Clark, 1989 y Clark, 1993. Véase una discusión del contraste con los esquemas de
combinación clásicos en van Gelder, 1990. Véase una discusión de la naturaleza especial de los
sistemas de representación conexionistas en Clark, 1994.
4. La cuestión no es si las neuronas parietales posteriores de la rata pueden actuar en
ausencia de entradas visuales (por ejemplo, al soñar, si es que las ratas sueñan). En cambio, la
cuestión es que la incapacidad de desacoplamiento en sí no parece privar a la interpretación
representacional de toda su fuerza explicativa.
196 I Explicar la mente extendida

al control motor) que consumen la información codificada en la población


estudiada. Sin embargo, una aplicación estricta de los criterios de Hauge-
íand rechazaría la descripción de estos sistemas internos (con estados inter­
nos no desacoplabas) como genuinamente representacionales. Esto parece
poco atractivo en vista de la muy real base explicativa que ofrece la inter­
pretación representacional y tampoco sintoniza con la práctica neurocientí-
fica corriente.
Por tanto, los criterios de Haugeland parecen ser demasiado restrictivos.
Sin embargo, es importante encontrar alguna manera de limitar la aplicabi-
lidad de la noción de representación interna. Por ejemplo, seguramente es
necesario descartar casos de mera correlación causal y de control ambiental
demasiado simple. Seguramente es cierto que la presencia dentro de un sis­
tema de algún tipo de estado interno complejo no es suficiente para justifi­
car la caracterización del sistema como representacional. Como Beer (1995a)
y otros han destacado, existen sistemas de todo tipo (como las columnas de
destilación de una refinería) con estados internos complejos y nadie siente la
tentación de tratarlos como dispositivos de representación. Tampoco basta
la mera existencia de una correlación fiable -e incluso no accidental- entre
un estado interno y un parámetro ambiental o corporal para decir que hay
representación. Más que la mera existencia de la correlación en sí, lo que
cuenta es la naturaleza y la complejidad de esa correlación y el hecho de
que un sistema consuma5 o explote de alguna manera un conjunto entero de
correlaciones por sus contenidos semánticos específicos. Por tanto, es im­
portante que el sistema utilice estas correlaciones de una manera que indi­
que que el sistema de estados internos tiene la función de contener tipos es­
pecíficos de información.
Existe una llamativa correlación entre la marea y la posición de la luna;
sin embargo, ninguna representa a la otra ya que (por ejemplo) nunca consi­
deraríamos plausible que las mareas hubieran sido seleccionadas o diseñadas
-o hubieran evolucionado- con el fin de contener información sobre la po­
sición de la luna. En cambio, parece muy plausible suponer que la población
de neuronas de la corteza parietal posterior de la rata (como resultado del
aprendizaje, la evolución o lo que sea; véanse Millikan, 1984 y Dretske,
1988) contiene información sobre la dirección hacia la que apunta la cabeza
del animal. Y una hipótesis como ésta recibe aún más apoyo cuando vemos
cómo otros sistemas neuronales de la rata consumen esta información cuan­
do la rata recorre un laberinto radial.6

5. Probablemente la versión más desarrollada de este tipo de enfoque orientado al con­


sumo sea la de Millikan (1994).
6. Véanse detalles en las pags. 49-50 de McNaughton y Nadcl, 1990.
Ser, computar, representar 1 197

Por tanto, el hecho de que un estado interno sea una representación no


depende tanto de su naturaleza detallada (por ejemplo, si se asemeja a una
palabra en un lenguaje interno, o a una imagen, o a otra cosa totalmente dis­
tinta) como del papel que desempeña dentro del sistema. Puede ser una es­
tructura estática o un proceso extendido en el tiempo. Puede ser local o muy
distribuido. Puede ser muy preciso o lamentablemente impreciso. Lo que
cuenta es que se supone que contiene un tipo determinado de información y
que su papel en relación con otros sistemas internos y con la producción de
la conducta es, precisamente, contener esa información. Este punto está muy
bien argumentado por Miller y Freyd, quienes añaden que «el punto fuerte
del representacionalismo siempre ha sido la concepción normativa básica de
que las representaciones internas deben registrar con precisión procesos y
estados externos importantes» y que «su punto débil... es consecuencia de
supuestos demasiado limitados sobre qué puede actuar como representación
y qué cosas vale la pena representan» (1993, pág. 13). Estoy totalmente de
acuerdo, aunque matizando el énfasis innecesario en la precisión del registro.
Teniendo presentes todas estas observaciones, consideraremos que una
explicación es representacionalista si describe sistemas enteros de estados
(locales o distribuidos) o procesos (secuencias temporales de estos estados)
internos identificables, como entidades cuya función es contener tipos espe­
cíficos de información acerca de estados de cosas corporales o externos. Por
tanto, la teorización representacionalista se encuentra en los tramos superio­
res de un continuo de posibilidades cuyos límites inferiores, que no son re-
presentacionalistas, incluyen meras correlaciones causales y casos muy sim­
ples de lo que puede denominarse «conexión adaptativa». Las conexiones
adaptativas van más allá de las meras correlaciones causales en la medida en
que requieren suponer que los estados internos del sistema coordinan sus
conductas (mediante la evolución, el diseño o el aprendizaje) con contin­
gencias ambientales específicas. Pero cuando la conexión es muy simple
(como en el caso de un girasol o de un robot que busca una fuente de luz)
ganamos poca cosa tratando el estado interno como una representación. Mi
propuesta es que el discurso representacionalista es adecuado cuando abor­
damos estados internos que presentan además una coordinación sistemática
con un espacio entero de contingencias ambientales. En estos casos es útil
concebir los estados internos como un código que puede expresar toda una
gama de posibilidades y que es «leído» eficazmente por otros sistemas inter­
nos que necesitan obtener información sobre las características del entorno
que se están reflejando. Por tanto, la conexión adaptativa se va convirtiendo
paulatinamente en una representación interna genuina a medida que la co­
nexión se hace más compleja y sistemática. En el otro extremo de este conti­
nuo nos encontramos con los seres de Haugeland, que pueden desplegar es­
198 I Explicar la mente extendida

tos códigos internos en ausencia total de las características ambientales perti­


nentes, Se trata de los seres que más representan su mundo, y que pueden lle­
var a cabo imaginaciones complejas, reflexiones fuera de línea y razonamientos
contrafácticos. Los problemas cuya solución exige estas capacidades están ávi­
dos de representación, es decir, parecen pedir a gritos el empleo de aspectos
sistémicos internos como sustitutos de estados de cosas externos. Sin embar­
go, esto no implica que los seres capaces de resolver estos problemas deban
emplear representaciones internas para hacerlo. Según la noción de represen­
tación interna propia de la ciencia cognitiva, también podemos obtener una
base explicativa tratando los subestados o procesos internos identificables
como si fueran portadores de contenidos específicos, y descifrando los esque­
mas de codificación más generales en los que figuran. Si este proyecto se viera
obstaculizado (por ejemplo, si encontráramos seres capaces de pensar en lo
distal y en lo inexistente, y cuya capacidad para el razonamiento y el pensa­
miento se resistiera a todos nuestros intentos de sustentar interpretaciones re-
presentacionales en sucesos internos concretos), ¡nos enfrentaríamos a agen­
tes representadores que no trabajarían con representaciones internas!
Por tanto, la pregunta que se nos plantea es la siguiente: ¿qué papel de­
sempeñarán -si es que llegan a desempeñar alguno- las interpretaciones re-
presentacionales de sucesos internos específicos en las explicaciones de una
ciencia cognitiva madura? Esta pregunta tiene una sorprendente variedad de
respuestas, que incluye las siguientes:

1. Estas interpretaciones carecen de importancia explicativa pero pue­


den desempeñar una función heurística.
2. Estas interpretaciones inducen a error. Vincular unos estados o pro­
cesos internos concretos con unas funciones de portar contenido lleva a con­
clusiones teóricas erróneas.
3. Estas interpretaciones forman parte del aparato mismo explicativo y re­
flejan verdades importantes sobre las funciones de diversos estados y procesos.

Algunos entusiastas (que no todos) de la teoría de los sistemas dinámicos


y de la investigación de agentes autónomos han empezado a inclinarse hacia
la opción más escéptica, es decir, hacia un rechazo completo de las explica­
ciones .del procesamiento de información que identifiquen unos estados o
procesos internos concretos como portadores de unos contenidos específi­
cos. Esta postura conlleva la tentación de apoyar una tesis radical que se
puede resumir como sigue:

Tesis de la cognición corpórea radical. Toda perspectiva estructurada, sim


bólica, representacional y computacional de la cognición es errónea. La me­
Ser, computar, representar I 199

jor manera de estudiar la cognición corpórea es mediante ideas y esquemas


explicativos no computacionales y no representacionales que supongan, por
ejemplo, los instrumentos de la teoría de los sistemas dinámicos.

Se pueden encontrar versiones de esta tesis en trabajos recientes en el


campo de la psicología del desarrollo (véase el capítulo 2 anterior; véanse
también Thelen y Smith, 1994 y Thelen, 1995), en el campo de la robótica en
mundo real y en la teoría de los agentes autónomos (véase el capítulo 1 ante­
rior; véanse también Smithers, 1994 y Brooks, 1991), en tratamientos filosó­
ficos y de ciencia cognitiva (Maturana y Varela, 1987; Varela y otros, 1991;
Wheeler, 1994) y en algunos enfoques neurocientíficos (Skarda y Freeman,
1987). Entre otras perspectivas más prudentes que, sin embargo, tienden al
escepticismo en relación con el cómputo y la representación interna se inclu­
yen Beer y Gallagher, 1992; Beer, 1995b; van Gelder, 1995; y varios ensayos
de Port y van Gelder, 1995. Los precedentes históricos de este escepticismo
también están en boga: véanse especialmente Heidegger, 1927; Merleau-
Ponty, 1942; y los trabajos de J. J. Gibson7y los psicólogos ecológicos.
Por tanto, parece que la tesis de la cognición corpórea radical tiene un
apoyo genuino.8 La perspectiva resultante supone rechazar las explicaciones
basadas en representaciones internas y la aplicación de explicaciones com­
putacionales a la psicología, y nos insta a abandonar estos instrumentos an­
ticuados en favor de los flamantes instrumentos de la teoría de los sistemas
dinámicos.
Creo que este radicalismo es a la vez injustificado y un tanto contrapro­
ducente. Tiende a fomentar la competición cuando el progreso exige coope­

7. Véase, por ejemplo, Gibson, 1979.


8. Consideremos las siguientes citas: «Nuestro compromiso con una teoría biológica­
mente coherente significa que rechazamos categóricamente las analogías con máquinas de la
cognición y el desarrollo... Evitamos deliberadamente el vocabulario tecnológico que habla de
dispositivos procesadores, programas, unidades de almacenamiento, esquemas, módulos o dia­
gramas de cableado. Lo sustituimos... por un vocabulario adecuado para un sistema fluido y
orgánico con ciertas propiedades termodinámicas» (Thelen y Smith, 199-1). «Postulamos que
el desarrollo se produce a causa de una pauta de actividad trabada en d tiempo que atraviesa
componentes heterogéneos. ¡No construimos ninguna representación! La mente es una acti­
vidad en... tiempo real de causas físicas reales» (ibíd), «La representación es la unidad errónea
de abstracción en la construcción de las partes más voluminosas de los sistemas inteligentes»
(Brooks, 1991). «El concepto de “representación’’... es innecesario como piedra angular para
explicar el cerebro y la conducta» (Skarda y Freeman, 1987). «Las explicaciones basadas en es­
tructuras dentro de la cabeza - “creencias”, “reglas” , “conceptos” y “esquemas”-n o son acep­
tables... Nuestra teoría gira en torno a nuevos coriccptos: no linealidad, reentrada, acopla­
miento, heterocronicidad, atractores, momento, espacios de estados, dinámica intrínseca,
fuerzas. Estos conceptos nuevos no se pueden reducir a los antiguos» (Thden y Smith, 1994).
200 I Explicar la mente extendida

ración. En la mayoría de los casos, por lo menos, el énfasis incipiente en los


papeles del cuerpo y del mundo se puede considerar complementario de la
búsqueda de interpretaciones computacionales y representacionales. En los
próximos apartados examinaremos varias causas posibles de este escepticis­
mo hacia las perspectivas representacionales y computacionales y mostraré
que, en general, la conclusión radical no está justificada, bien porque los fe­
nómenos aludidos carecen de una «avidez de representación» suficiente, bien
porque la conclusión escéptica exige una lectura demasiado estrecha y res­
trictiva de los términos fundamentales «representación» y «computación».

8.3 Representación orientada hacia ia acción

Una cosa está cada vez más clara. En la medida en que el cerebro biológi­
co opere con algo que se pueda describir adecuadamente como «representa­
ción interna», una gran parte de esas representaciones serán locales y estarán
orientadas hacia la acción en vez de ser objetivas e independientes de la ac­
ción. Aquí se da un contraste entre representaciones «personalizadas», com­
putación almente económicas y localmente eficaces, y estructuras cuyo conte­
nido se parece más a símbolos clásicos que denotan elementos de la realidad
pública y objetiva. Tomemos el trabajo sobre la visión animada presentado en
el capítulo 1 anterior. Aunque en él se mantiene el compromiso con el empleo
de descripciones tanto computacionales como representacionales, la natura­
leza de los procesamientos y de las representaciones se ha replanteado para
que refleje el papel fundamental (por ejemplo) del movimiento corporal real
(incluyendo el desplazamiento de la fóvea) para determinar y simplificar los
problemas de procesamiento de información que caben resolver. Las estrate­
gias seguidas suponían una mayor dependencia de lo que Ballard (1991) ha
denominado «representaciones personalizadas», es decir, el empleo de repre­
sentaciones de características idiosincrásicas y localmente eficaces para orien­
tar la conducta. Por ejemplo, para guiar una búsqueda visual de nuestra taza
de café podemos depender en gran medida del color particular de la taza y
(según la teoría de la visión animada) podemos emplear una representación
interna cuyo contenido sea (por ejemplo) que nuestra taza es amarilla. Esta
descripción sólo es eficaz localmente (no se podrá generalizar para ayudamos
a encontrar otras tazas de café) y está muy centrada en el agente. Pero una de
sus ventajas es que supone características cuya detección es computacional-
mente económica: el color se puede reconocer incluso en las periferias de
baja resolución del campo visual.
Según Ballard, los sistemas clásicos tendían a ignorar estas características
localmente eficaces porque la identidad del objeto (el hecho de ser una taza
Ser, computar, representar i 201

de café) no depende, por ejemplo, de su color. En cambio, estos sistemas


se centraban en procedimientos de identificación que buscaban caracte­
rísticas menos accidentales y que, en consecuencia, invocaban estados re-
presentacionales internos cuyos contenidos reflejaban propiedades más
profundas y más independientes del agente, como la forma y la capacidad.
Sin embargo, esto puede ser inadecuado para modelar el conocimiento en
línea9 que empleamos para guiar nuestras búsquedas en tiempo real. En
particular, los sistemas clásicos omiten la tendencia dominante en los
agentes humanos a estructurar activamente su entorno con el fin de redu­
cir posteriores cargas computacionales. Por tanto, es plausible suponer
que algunos de nosotros empleamos tazas de colores brillantes, en parte
porque así podremos basarnos en representaciones simples y personaliza­
das para guiar su búsqueda e identificación. Cuando hacemos esto, añadi­
mos estructura a nuestro entorno de una manera diseñada para simpíifi
car posteriores conductas de resolución de problemas, de manera muy
parecida al empleo por parte de ciertos insectos sociales de pistas quími­
cas que añaden a su entorno local una estructura fácil de utilizar y que les
permite hacer que el camino hasta el alimento sea detectable con un gas­
to computacional mínimo. Como destaca Ballard, el mundo del comercio
muestra una profunda apreciación (rayana en la veneración) por el poder
de estas estructuras «accesorias»: las películas Kodak vienen en cajas de
un vivo color amarillo; los productos ecológicamente sanos muestran un
suave color verde en su exterior; la marca X de copos de maíz se vende en
cajas rojas. Aunque muchas de esta codificaciones no se generalizarán más
allá de una cadena de supermercados o de una marca dada, son utilizadas
por el consumidor para simplificar la búsqueda y la identificación de ar­
tículos y, en consecuencia, benefician al fabricante en términos económi­
cos concretos.
Así pues, puede que una explicación al estilo de la visión animada de los
cómputos subyacentes a la búsqueda y la identificación visual en línea, no
haga alusión a representaciones internas que describan características defi­

9. Aquí se establece una distinción entre las estrategias que empleamos («en linea») para
provocar identificaciones y respuestas rápidas durante la acción cotidiana y las estrategias que
tenemos a nuestra disposición (desconectadas o «fuera de línea») como procedimientos de res­
paldo más reflexivos y que consumen más tiempo. Así, podemos emplear señales sencillas
como barbas y canas para la detección cotidiana de abuelos (o aletas y natación para detectar
peces) aun poseyendo estrategias mucho más precisas que podríamos desplegar si tuviéramos
más tiempo e información. Por tanto, la expresión «en línea» significa una resolución de pro­
blemas cotidianos limitada en cuanto a tiempo y recursos que favorece la adopción de estrate­
gias «sobre la marcha» y semiautomatizadas en detrimento de procedimientos más intensivos
que reflejarían nuestros conocimientos y compromisos más profundos.
202 I Explicar la mente extendida

nidoras de clases de objetos interpersonalmente válidas. Sin embargo, estas


explicaciones siguen haciendo alusión a unas bases de datos donde se aso­
cian unas características localmente eficaces con unos elementos dados.
Además, como vimos en el capítulo 7, una explicación completa del proce­
samiento visual también deberá incluir descripciones de mecanismos gene­
rales para la detección (por ejemplo) de la forma, el color y el movimiento.
Y hemos visto que estas explicaciones suelen asociar vías y centros nerviosos
específicos con el procesamiento y la codificación de tipos concretos de in­
formación.
A estas alturas, también es importante que esté claro que las vertientes
computacional y representacional de la investigación sobre la visión anima­
da no nos exigen aceptar una imagen del cerebro como si fuera un sistema
clásico basado en reglas y símbolos. Los enfoques conexionistas (véase el ca­
pítulo 3 anterior) constituyen una demostración clara de la posibilidad de
emplear unos marcos alternativos que, no obstante, están basados en la
computación y (normalmente) en la representación. También debería estar
claro que los tipos de explicaciones neurocientíficas exploradas en el capí­
tulo 7 anterior son muy distintas de la visión clásica de una economía inter­
na centralizada, dedicada al tratamiento de símbolos. Recordemos que en la
hipótesis de las zonas de convergencia se describían unas funciones de re­
presentación de nivel superior que, en esencia, emergían a partir de la coac­
tivación trabada en el tiempo de zonas de procesamiento más básico y de ni­
vel inferior; o que en la explicación de la visión de los primates se reconocía
la sensibilidad al contexto, la complejidad y la sofisticación de los esquemas
naturales de codificación y que las neuronas se equiparaban a filtros sintoni­
zados con múltiples dimensiones de estímulo; o que en el nuevo modelo del
control de los dedos del mono la función de las formas de representación in­
terna estaba muy distribuida y se orientaba a acciones básicas (la represen­
tación de sinergias de toda la mano como objetivo básico de las codificacio­
nes de el área MI de la mano). En todos estos casos, nos encontramos ante
una imagen neurocientífica que está basada en la representación (por cuan­
to reconoce la necesidad de asignar funciones específicas de portar conteni­
do a componentes y procesos internos) y que muestra una loable generosi­
dad en relación con las formas, con frecuencia complejas y no intuitivas, en
que la naturaleza despliega sus recursos internos.
Un contraste similar, presentado con cierto detalle en capítulos anterio­
res, se refiere al empleo de representaciones que más que ser personalizadas
o parciales están orientadas hacia la acción. Se trata de estados internos que
(como se describió en el apartado 2.6 anterior) son al mismo tiempo codifi­
caciones de cómo es el mundo y especificaciones de acciones apropiadas. El
mapa interno que además es una especificación de la actividad motriz nece­
Ser, computar, representar I 203

saria para vincular localizaciones diferentes (véase el apartado 2.6 anterior)


es un buen ejemplo.
Como ejemplo adiciona!, consideremos brevemente el cangrejo robot
descrito en el capítulo 5 de Churchland, 1989 y examinado en Hooker y otros,
1992. Este cangrejo emplea enlaces punto a punto entre dos mapas topográ­
ficos deformados para especificar directamente conductas de asimiento a
partir de entradas simples de percepción. En este ejemplo, las propias codi­
ficaciones visuales iniciales se deforman o sesgan con el fin de reducir la
complejidad de los cómputos necesarios para emplear esa información en
la especificación del asimiento. También aquí se explota un tipo de repre­
sentación interna centrada en la acción (o «deíctíca»; véase Agre, 1988) don­
de el sistema no crea primero un modelo completo y objetivo del mundo y
después define un procedimiento costoso que (por ejemplo) tome este mo­
delo como entrada y genere como salida unas acciones orientadas hacia la
búsqueda de alimento. En cambio, las codificaciones iniciales del sistema ya
se dirigen hacia la producción de la acción apropiada. Este tipo de sesgo
orientado hacia la acción puede ser, al menos en parte, lo que Gibson pre­
tendía establecer cuando decía, con un discurso retóricamente problemáti­
co, que los organismos «perciben directamente» el mundo en función de sus
facilitaciones para la acción.,ü Al parecer, la percepción no se debería con-
ceptualizar (o, por lo menos, no siempre) independientemente de la clase de
acciones que un ser necesita llevar a cabo.
Por tanto, las representaciones orientadas hacia la acción presentan ven­
tajas e inconvenientes. Como ya hemos visto, las ventajas incluyen la capaci­
dad para guiar acciones apropiadas en circunstancias ecológicamente nor­
males de una manera computacionalmente económica. Las desventajas son
igualmente evidentes. Sí un ser necesita emplear el mismo conjunto de in­
formación para desarrollar actividades múltiples o de carácter abierto, con
frecuencia será más económico desplegar una codificación más neutral res­
pecto a la acción que pueda actuar como entrada para toda una gama de ru­
tinas de procesamiento más concretos. Por ejemplo, si el conocimiento sobre
la situación de un objeto se debe emplear para múltiples fines diferentes,
puede ser más eficiente generar un solo mapa interno independiente de la
acción a! que accedan múltiples rutinas con un objetivo más especializado.
Con todo, es razonable suponer que las clases de representación inter­
na más orientadas hacia la acción son las más básicas en relación con la10

10. Véase el apartado 2.7 anterior. Hooker y otros (1992) plantearon una propuesta simi­
lar en un brillante articulo que contrasta con claridad las diversas concepciones de la repre­
sentación interna y defiende una nocton de la representación como control. Véase también
Clark, 1995.
204 I Explicar la mente extendida

evolución y el desarrollo." Y hasta puede ocurrir que la inmensa mayoría


de las acciones y las resoluciones de problemas de carácter cotidiano, rá­
pido y fluido, dependan de ellas. Para nuestros fines actuales, la cuestión
es, simplemente, que el hecho de que esto sea cierto no basta para esta­
blecer la tesis de la cognición corpórea radica!, porque seguiríamos obte­
niendo una considerable base explicativa a partir de la comprensión de las
características específicas del espacio personal o egocéntrico implicado en
el análisis basado en la acción. Por tanto, la comprensión de los conteni­
dos específicos de las representaciones orientadas hacia la acción desem­
peña la habitual función explicativa de poner de manifiesto la función
adaptativa de ciertos procesos o estados internos y ayudar a determinar su
contribución a unas redes de procesamiento de información cada vez ma­
yores.

6.4 Programas, fuerzas y programas parciales

A continuación, consideremos algunas afirmaciones de Thelen y Smith


(véase el capítulo 2 anterior) según las cuales aprender a caminar y aprender
a alcanzar no dependen de programas almacenados. Recuérdese que Thelen
y Smith mostraron, de una manera muy convincente, que estos aprendizajes
dependen de una multiplicidad de factores extendidos por el cerebro, el
cuerpo y el entorno local. Sin duda, esta imagen difiere profundamente de
concepciones más tradicionales, donde las diversas etapas de (por ejemplo)
caminar se describen como la mera ejecución de un conjunto de instruccio­
nes ya existentes que están codificadas en un recurso interno especificado
genéticamente. La diferencia reside en que Thelen y Smith no consideran
que las pautas de conducta del niño12se encuentren bajo el control de un re­
curso interno fijo, sino que emergen de un «diálogo continuo» en el que in­
tervienen factores neuronales, corporales y ambientales. Por ejemplo, vimos
que los movimientos de pisar de un niño se pueden inducir fuera de su mo­
mento evolutivo usual si sostenemos al niño erguido dentro de agua tibia. Y
vimos que las diferencias individuales en los niveles de energía y en los re­
pertorios básicos de movimientos con los brazos hacen que cada niño se en­
frente a problemas diferentes cuando aprende a alcanzar. (Los niños más ac-

U . Para la evolución ééase Millikan, 1995. Para el desarrollo véanse Karmiloff-Smith,


1979; Karmiloff-Smith, 1992 y Clark y Karmiloff-Smith, 1993. La imagen tentadora de una
transición gradual desde unas codificaciones orientadas hacia la acción hasta unas codificacio­
nes más neutrales respecto a ella se discute brevemente en Clark, 1995.
12. Véase Thelen y Smith, 1994, págs. 8-20 y 263-266.
Ser, computar, representar I 205

tivos en el aspecto motor deben aprender a moderar y controlar sus movi­


mientos cuando agitan los brazos, mientras que los niños más pasivos deben
aprender a generar una fuerza inicial suficiente para lanzar el brazo hacia un
objetivo). Un estudio detallado de varios niños que mostraban estas diferen
cias en sus pautas de actividad apoyaba la conclusión general de que «[los
niños] descubrieron [soluciones al problema de alcanzar] en relación con
sus propias situaciones, forjadas a partir de sus paisajes individuales y sin es­
tar prefiguradas por una sinergia conocida de antemano por el cerebro o por
los genes» (Thelen y Smith, 1994, pág. 260). Naturalmente, esto no significa
que estas soluciones no tengan nada en común. Según Thelen y Smith, com­
parten una rutina de aprendizaje donde el sistema brazo-músculo se trata
como un ensamblaje de muelles y masas, y la tarea del sistema nervioso cen­
tral consiste en aprender a controlar ese ensamblaje ajustando parámetros
como la rigidez inicial de los muelles. Por tanto, la tarea consiste en coordi­
nar la dinámica intrínseca del sistema para ponerla al servicio de una meta
dada. En consecuencia, «no existen instrucciones o programas explícitos a
priori ni para la trayectoria de la mano, ni para coordinar los ángulos de las
articulaciones, ni para las pautas de activación muscular» (ibíd., pág. 264).
En cambio aprendemos a manipular unos cuantos parámetros básicos (como
las condiciones iniciales de rigidez) para esculpir y modular la conducta de
un sistema físico cambiante que posee una dinámica intrínseca rica y en pro­
ceso de desarrollo.
Los experimentos y datos presentados por Thelen y Smith son fascinan­
tes, importantes y convincentes. Pero no apoyan inequívocamente la serie de
afirmaciones radicales resumida en el apartado 8.2 anterior. En vez de un ar­
gumento claro en contra del compuracionalismo y el representacionalísmo
en general', nos encontramos con un conjunto de evidencias que indican que
no descubriremos explicaciones computacionales y representacionales co­
rrectas si no damos la importancia que merece al papel del cuerpo y del en­
torno local: un papel que incluye definir problemas y, en ocasiones, resol­
verlos. Hemos visto que las cualidades elásticas de ¡os músculos y los niveles
variables de energía de los niños contribuyen a concretar los problemas es­
pecíficos que un cerebro determinado debe resolver. Y es fácil imaginar sí
tuaciones similares donde unos parámetros ambientales y corporales pueden
contribuir a la obtención de unas soluciones concretas: por ejemplo, ajustar
se a unas extremidades basadas en muelles permite que los robots ambulan­
tes se adapten a terrenos irregulares sin el esfuerzo computacional masivo
que haría falta para obtener el mismo resultado empleando sensores y bucles
de retroalimentación en un medio que no se ajuste (véanse también Michie y
Johnson, 1984 y el capítulo 1 anterior). Además, cuando reconocemos el pa­
pel del cuerpo y del entorno (recuérdense los ejemplos de los niños que pi­
206 I Explicar la mente extendida

saban suspendidos en el agua) en la construcción de problemas y de solu­


ciones, se hace evidente que, para ciertos fines explicativos, el sistema global
formado por cerebro, cuerpo y entorno local puede constituir un objeto de
estudio apropiado y unificado. Sin embargo, estas nociones e ideas tan im­
portantes son totalmente compatibles con el estudio de la cognición desde
una perspectiva computacional1’ y representacional. En mi opinión, la au­
téntica conclusión de estas consideraciones es una mejor explicación com-
putacional y representacional, no un rechazo total de estas perspectivas.
Teniendo esto presente, es revelador observar con más detenimiento al­
gunos pasajes específicos donde se rechaza el computacionalismo. He aquí
un ejemplo típico:

Los datos sobre el desarrollo brindan un convincente apoyo a... las posturas
contrarias al computacionalismo. Es necesario rechazar la visión piagetiana de
que el estado final del desarrollo es llegar a ser como un lógico suizo y la convic­
ción maduracionista de que en el cerebro hay un ejecutivo... que dirige el curso
del desarrollo (Thelen 1995, pág. 76).

La cuestión que cabe destacar es que, aquí (como en otros lugares), la ex­
presión enérgica de una postura anticomputacional está seguida de una des­
cripción más minuciosa y precisa de los objetivos. Si ignoramos las afirma­
ciones espectaculares y nos centramos en estas descripciones más minuciosas,
veremos que el verdadero malo de la película no es el computacionalismo (o
el representacionalismo) per se sino más bien:

1. La afirmación de que el desarrollo está dirigido por un plan total­


mente detallado de antemano.134

13. Quedan pendientes muchas cuestiones delicadas acerca de la manera correcta de com­
prender la noción misma de computación. En particular, hay quien afirma que la computación
propiamente dicho sólo puede darse en sistemas que emplean estados discretos en vez de (por
ejemplo) unidades con niveles continuos de activación. Este punto de vista «formalista» de la
computación se vincula con las ideas de digitalización que subyacen a muchos resultados clási­
cos en la teoría de la computación. Sin embargo, también hay una noción de computación más
informal (con unos orígenes históricos igualmente impresionantes en los trabajos iniciales del
denominada computación analógica) relacionada con las ideas generales de procesamiento au­
tomático de información y de transformación de representaciones. Yo mismo adopto esta no­
ción menos restrictiva de la computación en el presente volumen. Obsérvese que, desde esta
perspectiva, la tarea de demostrar que un sistema es computacional se reduce a demostrar que
transforma y procesa automáticamente información. Pero estas mismas nociones también son
problemáticas. Véanse exposiciones más detalladas de todas estas cuestiones en Giunti, 1996:
Smith, 1995; Smitb, 1996; Hardcastlc, 1995 y en los artículos de Harnad, 1994.
14. Véanse afirmaciones similares en las págs. 83-85, 161 y 331-338 de Thelen y Smith,
1994 y en la pág. 74 de Thelen, 1995.
Ser, computar, representar I 207

2. La afirmación de que la cognición adulta implica operaciones lógicas


internas sobre estructuras de datos preposicionales (es decir, la noción logi-
cista de la etapa final del desarrollo cognitivo atribuida a Piaget).

En lugar de estas tesis, Thelen y Smith proponen (de una manera bas­
tante convincente desde mi punto de vista) lo siguiente:

1*. El desarrollo (y la acción) presentan un orden que es meramente eje­


cutor. Las soluciones son el resultado de un «montaje blando» de múltiples
componentes heterogéneos, incluyendo la mecánica corporal, los estados y
procesos neuronales y las condiciones ambientales (1994, pág. 311).
2*. Aun cuando la cognición adulta parezca muy lógica y preposicional,
en realidad se basa en recursos (como metáforas de fuerza, acción y movi­
miento) desarrollados en una actividad en tiempo real y que tienen su base
en la experiencia corporal (ibíd., pág. 323; Thelen, 1995).

El apoyo experimental para Ia se presentó en el capítulo 2 anterior. No


enumeraré los argumentos a favor de 2 * ni intentaré decidir sobre ninguna de
estas afirmaciones. Sólo diré que admitir estas dos afirmaciones es totalmen­
te compatible con un compromiso sustancial con el empleo de la explicación
computacional. De hecho, las pruebas presentadas funcionan mejor contra
modelos que suponen codificaciones clásicas cuasi lingüísticas y contra la no­
ción de que los estados iniciales de la mente del niño determinan por com
pleto el curso de su desarrollo posterior. Pero incluso el venerable conexio-
nismo hizo frente, hace ya tiempo, a la tiranía ejercida por las codificaciones
cuasi lingüísticas- Y sin duda los especialistas en desarrollo atraídos por los
modelos informáticos pueden abrazar la noción (que se expondrá más ade­
lante) de soluciones parcialmente programadas, es decir, aquellos casos donde
el programa inicial del niño está configurado por la evolución precisamente
para permitir que la dinámica corporal y las contingencias del entorno local
ayuden a determinar el curso y el resultado del proceso de desarrollo. Por
tanto, los programas parciales compartirían el carácter lógico de la mayoría
de los genes: no llegarían a constituir un diseño completo del producto final
y cederían muchas decisiones a las condiciones y procesos del entorno local.
Sin embargo, continuarían siendo unos factores aislables que, en un contex­
to natural, con frecuencia marcan una «diferencia típica e importante».15
Por tanto, supongamos que admitimos que, por lo menos en los casos
examinados, el cerebro no contiene ninguna receta exhaustiva para el éxito

15. Véase una exposición completa del complejo caso de la especificación genética par­
cial en las págs. 116-117 de Dcnnett, 1995.
208 I Explicar fa mente extendida

conductual. ¿Se desprende de ello que el discurso sobre programas internos


es necesariamente erróneo en casos como éstos? Y si fuera así, ¿también se
desprendería que no es útil contemplar las raíces neuronales de esta activi­
dad como algo que implica procesos computacionales? Argumentaré que la
respuesta a ambas preguntas es «no». En pocas palabras, pongo en duda las
transiciones implícitas desde «no existe ninguna receta exhaustiva» a «no
hay programas internos» y desde «no hay programas internos» a «no hay
computación». Me parece que estas posturas fallan por su base, aunque
plantean una pléyade de cuestiones sutiles y profundas que no pretendo ser
capaz de resolver completamente.
Consideremos la idea misma de un programa para hacer tal o cual cosa
como, por ejemplo, calcular nuestros impuestos. La imagen más básica es la
de una receta: un conjunto de instrucciones que, si se siguen fielmente, re­
solverán un problema. ¿Cuál es la diferencia entre una receta y una fuerza
que, si se aplica, tiene un resultado determinado? Tomemos, por ejemplo, el
calor aplicado a una sartén llena de aceite: el calor, cuando alcanza un valor
determinado, ocasiona la emergencia de remolinos y bucles de convección
en el aceite. ¿Es el calor {en ese valor determinado) un programa para la cre­
ación de estos efectos? ¿Es una receta para crear remolinos y bucles de con­
vección? Sin duda, no: sólo es una fuerza aplicada a un sistema físico. Pero,
aunque el contraste es evidente, es sorprendentemente difícil dar una expli­
cación razonada de la diferencia. ¿Dónde deberíamos buscar las diferencias
que marcan esa diferencia?
Un lugar donde mirar es la idea de programa, entendido literalmente
como un conjunto de instrucciones. Las instrucciones se formulan en algún
tipo de lenguaje: un sistema de signos que se pueden interpretar mediante al­
gún dispositivo de lectura (un oyente para instrucciones habladas; un com­
pilador para instrucciones en LISP; etc.). Por tanto, una razón por la que el
calor aplicado a la sartén no se parece a un programa para bucles de con­
vección puede ser que no presenta ningún indicio de un lenguaje: ningún
rastro de símbolos o señales que necesiten posterior interpretación o desco­
dificación.
Otra razón, relacionada con la anterior, es que el parámetro de control
(la cantidad de calor necesaria para producir, por ejemplo, bucles de con­
vección) parece ser demasiado simple e indiferenciado. Como uno de mis es­
tudiantes comentó acertadamente, se parece más a enchufar el ordenador
que a ejecutar un programa en él. Desde luego, sospecho que esta diferencia
es la fundamental (aunque aquí es donde las aguas aún están demasiado tur­
bias para ver con claridad) y que la cuestión de exigir un lenguaje o un código
es, en cierto modo, derivada. Consideremos dos supuestos «programas»
para calcular nuestros impuestos. Uno consta de 400 líneas de instrucciones
Ser, computar, representar I 209

y abarca explícitamente todo el terreno que cabe esperar. El otro está dise­
ñado para ser ejecutado en un equipo muy especial que ya está preparado
para calcular impuestos. Este «programa» sólo contiene la instrucción «cal­
cular impuestos». Sin duda, es un ejemplo de programa muy restrictivo o
marginal. Contiene una instrucción que (supongamos) debe ser descodifica­
da por un dispositivo de lectura para que se produzca la conducta deseada.
Pero parece tener más en común con el ejemplo del «mero enchufe» (y, en
consecuencia, con el modelo del calor aplicado a la sartén) que con la ima­
gen de una receta para el éxito. Así pues, quizá la base conceptual no sea la
mera intervención de señales y descodificaciones sino la medida en que la
conducta deseada (el cálculo de impuestos, los bucles de convección) esté
realmente especificada por la fuerza aplicada en vez de ser simplemente ac­
tivada por ella. Este diagnóstico parece intuitivamente atractivo y puede ayu­
dar a explicar, por ejemplo, por qué es tentador tratar el ADN como si pro­
gramara resultados físicos,'6mientras se niega que el calor programe el aceite
de la sartén.
Por tanto, la idea de un programa parcial es la idea de una especificación
genuina que, no obstante, cede gran parte del trabajo y de la toma de deci­
siones a otras partes de la matriz causal global. En este sentido, se parece16

16. Sin embargo, el caso de la programación genética es delicado e interesante y por ra


zones que guardan mucha relación con nuestra discusión. El genoma, ¿codifica realmente los
resultados evolutivos? En cierto sentido, no. Cada vez está mas claro que la mayoría de las ca
racterístieas o rasgos de los individuos son el resultado de una compleja interacción entre múl­
tiples genes y las condiciones ambientales locales. Por tanto, ¿debemos abandonar por com­
pleto la nocion de «genes para algo especifico»? La pregunta sigue abierta, pero recientemente
varios teóricos han propuesto que las ideas sobre la codificación y la especificación genéticas
todavia pueden tener sentido y ser útiles a pesar del hecho de que, como mucho, un gen de
terminado es un determinante parcial cuyos efectos definitivos dependen en gran medida de la
estructura del entorno y de la presencia de otros genes. Una razón es que decir que un gen de
terminado es «para algo» nos alerta sobre cierto tipo de hecho funcional: un hecho cuya espe­
cificación no es problemática siempre y cuando las otras condiciones (el resto de los genes, e!
entorno local I se mantengan constantes. Asi, se argumenta que es seguro y apropiado decir que
un gen es un gen para un cuello largo si «los rivales para el lugar de ese gen en el cromosoma
condujeran en el entorno pertinente (incluyendo el enlomo genético! a un cuello mas cono»
(Sterelny, 1995, pág. 162J. ¿Por qué adornar la contribución genética con el barniz de un pro­
posito tun gen para un cuello largo)1* Porque, dicho simplemente, el material genético existe
para controlar esa característica, mientras que los parámetros ambientales locales (normal
mentel no. Sterelny cita el ejemplo de unas plantas que se desarrollan de maneras distintas en
climas diferentes. Estas diferencias tienen un valor adaptativo y son provocadas por la combi
nación de las condiciones climáticas locales (que actúan como disparadores) y las influencias
genéticas. Pero el genoma está estructurado precisamente para permitir esta adaptación cli­
mática, mientras que el clima, como todos sabemos, es totalmente indiferente al destino de los
seres vivos. Véanse más exposiciones de todas estas cuestiones en Oyama, 1985; Dawkins,
1982; Gifford, 1990; Gifford, 1994; Dennnett, 1995 y Sterelny, 1995.
210 | Explicar la mente extendida

mucho a un programa normal de ordenador (escrito, por ejemplo, en LISP)


que no especifica cómo o cuándo se alcanzarán ciertos subobjetivos y que
cede estas tareas a funciones incorporadas al sistema operativo (de hecho,
ningún programa informático ofrece una especificación completa de la ma­
nera de resolver un problema: en una o en varias ocasiones, la especificación
se interrumpe y la actividad corre a cargo del sistema operativo o del hard­
ware). Por tanto, la expresión «programa parcial» sirve principalmente para
distinguir la clase de casos, más bien especiales, donde algunas de estas de­
cisiones y procedimientos se dejan en manos de unas estructuras bastante
distantes: estructuras de la matriz causal más amplia del cuerpo y el mundo
externo. Por ejemplo, es correcto decir que un sistema de control motor
como el circuito emulador descrito en Jordán y otros (1994) y examinado en
el capítulo I anterior, aprende un programa para controlar las trayectorias
del brazo. Sin embargo, se trata de un programa que sólo tendrá éxito si
existe un telón de fondo específico de dinámica corporal (la masa del brazo,
la elasticidad de los músculos) y de aspectos ambientales (la fuerza de la gra­
vedad). Es adecuado verlo como un programa porque, en el fondo, especifi­
ca movimientos de alcanzar en una especie de vocabulario neuronal. Cuan­
to menos detallada sea la especificación requerida (es decir, cuanto más
trabajo sea realizado por la dinámica intrínseca del sistema, bien a largo pla­
zo, bien de una manera temporal), menos necesario será tratarlo como un
programa. Por tanto, más que enfrentarnos a una dicotomía entre soluciones
programadas y no programadas, nos enfrentamos a un continuo donde las
soluciones pueden estar más o menos programadas en la medida en que un
resultado deseado dependa de una serie de movimientos (lógicos o físicos)
que requieran una especificación concreta en vez de una mera incitación.
Sin embargo, al profundizar en este contraste debemos tener presen­
te la posibilidad muy real de que se produzca una cascada de actividad
computacional donde, por medio de una secuencia de sistemas subordina­
dos, una simple instrucción no estructurada sea tranformada progresiva­
mente en una especificación muy detallada que al final controle la conducta
(véanse, por ejemplo, Greene, 1972 y Gallistel, 1980). Si este desarrollo pro­
gresivo se produce en la cadena de sucesos neuronales, podemos considerar
la etapa (o etapas) de especificación más detallada como un programa alma­
cenado. La polémica afirmación de Thelen y Smith, Kelso y otros autores, es
que quizá no valga la pena tratar como programas almacenados ni siquiera
las etapas más detalladas de especificación neuronal: que la dinámica sinér-17

17. El concepto de sinergia intenta capturar la idea de vínculos o acoplamientos que li­
mitan el despliegue colectivo de un sistema que comprende muchas panes. Kelso (1995, pág.
38) cita como ejemplo las ruedas delanteras de un automóvil, que están obligadas a girar al
Ser, computar, representar I 211

gica17 del sistema corporal lleva a cabo tantas cosas, que las órdenes neuro-
nales se comprenden mejor en todas las etapas como la aplicación de fuerzas
simples a un sistema complejo cuerpo-entorno cuya propia dinámica recibe
gran parte de la carga relacionada con la resolución de problemas. Sin em­
bargo, desde una perspectiva menos radical se podría decir que lo que real­
mente demuestran estas investigaciones es que el problema de producir mo­
vimientos de alcanzar y similares puede exigir menos conjuntos internos de
instrucciones detalladas de lo que hemos supuesto hasta ahora, a causa de la
dinámica sinérgica bastante compleja que ya está implementada (por ejem­
plo) en los brazos y músculos mismos. Como dicen Thelen y Smith, puede
que la especificación requerida para generar algunas conductas motrices se
limite a estipular la configuración de unos cuantos parámetros esenciales
(como, por ejemplo, la rigidez inicial del sistema muscular) que pueden te­
ner unos efectos complejos en la dinámica total del sistema físico, de modo
que la conducta de alcanzar se lleve a cabo sin especificar directamente cier­
tos parámetros como las configuraciones angulares de las articulaciones. La
cuestión que cabe destacar es que la ausencia de un tipo particular de ins­
trucciones o especificaciones (por ejemplo, que estipulen explícitamente las
configuraciones angulares de las articulaciones y la pauta de activación mus­
cular) no implica la ausencia completa de una especificación o programa. De
hecho, esta caracterización solo parece convincente en el caso extremo don­
de la noción de una especificación codificada se reduce a la noción de una
simple fuerza aplicada o de una sola instrucción no estructurada. Así pues,
queda mucho espacio por explorar entre la idea de un programa almacena­
do que especifica una estrategia de resolución de problemas en un nivel muy
bajo (por ejemplo, el nivel de la pauta de activación del músculo) y la idea de
un sistema cuya dinámica intrínseca hace que una especificación sea total­
mente innecesaria o la reduzca a la aplicación de una simple fuerza (que, en
realidad, viene a ser lo mismo). Entre estos dos extremos se encuentra el es­
pacio de lo que he denominado «programas parciales». Creo que la verda­
dera enseñanza de los trabajos sobre el control motor basados en los siste­
mas dinámicos es que éste es el espacio donde encontraremos los programas
de la propia naturaleza.
Pero supongamos que no es así. Supongamos que no existe ningún nivel
de elaboración neuronal de instrucciones que merezca denominarse «pro­
grama almacenado». Aun así, propongo que de ello no se deduce que la ima­
gen del cerebro como dispositivo compiitacioml carezca de base. De hecho,

mismo tiempo en una sinergia incorporada que, sin duda, simplifica la dirección. Se puede
aplicar con éxito el mismo concepto al ejemplo de las pautas de coordinación entre manos exa­
minado en el capítulo 6 anterior (véase Kelso, 1995, pág. 52).
212 l Explicar la mente extendida

considero escandaloso que, después de todos estos años, la ciencia cognitiva


siga comprendiendo mal la idea misma de computación. Ante esta falta de
claridad, es imposible presentar aquí un argumento irrebatible. Pero una op­
ción atractiva es aceptar una noción de computación que esté estrechamen­
te vinculada con la idea de procesamiento automatizado de información y
con la transformación mecanicista de representaciones. Según esta explica­
ción, existiría una actividad de computación siempre que observáramos una
transición entre representaciones controlada de una manera mecanicista, in­
dependientemente de que estas representaciones intervengan o no en un es­
quema de especificación que esté lo suficientemente detallado como para
que lo consideremos un programa almacenado. Además, esta noción relati­
vamente generosa1®de la computación da cabida a una variedad de estilos de
computación que van desde la computación digital (definida en función de
estados discretos) hasta la computación analógica (definida en función de
cantidades continuas). Por esta razón, la tarea de demostrar que un sistema
es computacional se reduce a demostrar que lleva a cabo transformaciones y
procesamientos automatizados de información.
Así pues, en muchos aspectos parece prematuro deducir, a partir de las
imágenes y pruebas aducidas por Thelen y Smith y otros autores, que debe­
ríamos abandonar las nociones de computación y de representación interna
en nuestros intentos por comprender la cognición biológica. En cambio, lo
que realmente emerge de este trabajo y de los trabajos en la visión animada
y la robótica examinados anteriormente, es un par de advertencias, ahora ya
familiares pero muy importantes, que se pueden resumir como sigue:

l. Procuremos no atribuir demasiadas cosas a la cabeza (o al sistema re-


presentacional interno). Lo que se llegue a representar y/o computar inter­
namente estará determinado por un complejo malabarismo que hace intervenir
factores ambientales y corporales en el hábito de resolución de problemas.
Como resultado, en el quehacer biológico cotidiano habrá tanto soluciones
parcialmente programadas como representaciones personalizadas u orienta­
das hacia la acción.

18 Naturalmente, el peligro es que esta noción sea ahora demasiado generosa, permi­
tiendo (por ejemplo) que el sistema de fichas de una biblioteca y las redes de fax se consideren
sistemas computacionales. Estoy de acuerdo en que, como mucho, estos casos son marginales.
Sin embargo, la principal noción alternativa incurre en el error contrario. Esta noción (en bea-
siones denominada «idea formalista de la computación») vincula la idea misma de computa­
ción a ideas sobre codificación digital y «conmutabilidad clásica». Pero la noción de compu­
tación analógica tiene una historia larga y distinguida y, en consecuencia, no se puede
considerar contradictoria. Véanse exposiciones detalladas de todas estas cuestiones en Har-
nad, 1994; Hardcastle, 1995; Smith, 1995 yGiunti, 1996.
Ser, computar, representar I 213

2. Cuidémonos de los supuestos rígidos sobre la forma de las represen­


taciones internas o el estilo de la computación neuronal. No hay razón para
suponer que las representaciones clásicas {localizadas en el tiempo y en el es­
pacio) y la computación discreta y serial limiten el espacio de las soluciones
representacíonales y computacionales. De todos modos, los modelos cone-
xionistas ya han empezado a relajar estas limitaciones y no han hecho más
que arañar la superficie de la gama de posibilidades abiertas a los sistemas
biológicos.

8.5 Seguir el ritmo

Quizá haya otras razones para recelar de los enfoques basados en la re­
presentación. Como se ha argumentado recientemente, estos enfoques no
pueden hacer justicia a las cruciales dimensiones temporales de la respuesta
adaptativa real (véase especialmente la introducción a Port y van Gelder,
1995). Por ejemplo, los primeros modelos de carácter conexionista (véase el
capítulo 3 anterior) no manifestaban ningún conocimiento intrínseco del tiem­
po o del orden y dependían de una variedad de ardides19para eliminar la am­
bigüedad de secuencias con elementos idénticos. Además, la información de
entrada para estas redes eran «instantáneas» del mundo y las salidas nunca
eran patrones de actividad esencialmente extendidos en el tiempo. La apari­
ción de las redes recurrentes (Jordán, 1986; Elman, 1991) constituyó un
avance porque estas redes incorporaban bucles internos de retroalimenta-
ción que permitían que las respuestas a nuevas entradas tuvieran en cuenta
las actividades previas de las redes. Sin embargo, como indican Port y otros
(1995), estas redes son más adecuadas para tratar con el orden que con la
sincronización real. Por ejemplo, pueden especificar como salida una se
cuencia ordenada de operaciones (como una serie de instrucciones para tra­
zar un rectángulo; véase Jordán, 1986) o ser sensibles a restricciones grama
ticales que dependan del orden de las entradas (véase el trabajo de Elman,
1991, sobre gramáticas artificiales). Pero el orden no es lo mismo que la sin­
cronización real. Cuando corremos para alcanzar un autobús en marcha, de­
bemos hacer algo más que producir la secuencia correcta de órdenes motri
ces. Debemos tomar nota de una pauta que se despliega en el tiempo (el
autobús que acelera alejándose de nosotros) y generar una gama de acciones
compensatorias (una serie de órdenes motrices coordinada en el tiempo para
las piernas, los brazos y el cuerpo). Y en el momento del contacto (si es que
tenemos suerte) se debe producir un delicado acoplamiento entre la activi­

19. Véanse algunas ejemplos en las pags. 119-120 de Churchland y Sejnowski, 1992
214 I Explicar la mente extendida

dad extendida en el tiempo de los dos sistemas (nosotros y el autobús). Esta


conducta requiere que por lo menos uno de los sistemas responda a la sin­
cronización real (no simplemente al orden) de los sucesos en el otro. Para
modelar esto, los investigadores han empezado a buscar maneras de emplear
las propiedades en tiempo real de las señales entrantes para «configurar» los
recursos internos. El truco estriba en emplear la sincronización real de algu­
nas señales de entrada como un «reloj» con el que medir otras señales simi­
lares. Una manera de conseguir esto es mediante el desarrollo de un «oscila­
dor adaptativo». Estos dispositivos (Torras, 1985; McCauley, 1994; Port y
otros, 1995) tienen dos propiedades fundamentales. En primer lugar, gene­
ran salidas periódicas de modo independiente (como las neuronas que tie­
nen una frecuencia tónica de picos). En segundo lugar, esta actividad perió­
dica puede estar influida por señales entrantes. Si este oscilador detecta
señales entrantes, se dispara (produce un pico) inmediatamente y altera su
periodicidad para acercarla un poco más a la de las señales entrantes. Con el
tiempo, y dentro de unos límites fijos, este oscilador acabará activándose
perfectamente en fase con las entradas. Si la señal de entrada cesa, el oscila­
dor volverá gradualmente a su valor natural. Las versiones de estos disposi­
tivos basadas en redes neuronales consiguen adaptarse empleando el fami­
liar procedimiento de aprendizaje de descenso por un gradiente. Pero, en
este caso, la información que impulsa el descenso es la diferencia entre la sin­
cronización usual («esperada») de un pico y la sincronización real ocasiona­
da por la tendencia del dispositivo a dispararse de inmediato si se detecta
una señal de entrada. Por tanto, estos dispositivos se dejan «arrastrar» por la
frecuencia de una señal detectada y entonces pueden mantener esa frecuen­
cia durante un tiempo aunque la señal desaparezca o pierda el ritmo. Como
este arrastre no es inmediato, las señales no periódicas no tienen efectos rea­
les (sólo producen un pico con un ritmo inusual). Pero las señales regulares
hacen que el dispositivo «siga el ritmo». Un sistema complejo puede utilizar
muchos osciladores adaptativos, cada uno con un ritmo natural diferente y,
en consecuencia, especialmente sensible a señales entrantes con cadencias
distintas. El arrastre global en relación con un estímulo que contenga varios
elementos periódicos diferentes (por ejemplo, una pieza musical) se produ­
ce cuando varios osciladores individuales se dejan arrastrar por elementos
diferentes de la estructura temporal.20
Por ahora, la principal lección de todo esto es que los procesos internos
con características temporales intrínsecas pueden figurar de manera desta­
cada en la explicación de ün subconjunto importante de conductas adapta-

20. Vease una amplia exposición en Pon y otros, 1995; los párrafos anteriores de mi ca­
pítulo deben mucho a su tratamiento claro y conciso.
Ser, computar, representar ! 215

tivas. En estos casos, el «ajuste» entre el estado interno y las circunstancias


externas permite abarcar mucho más que la noción usual de representación
interna. El oscilador adaptativo realiza su trabajo ajustando su actividad a los
ritmos de sucesos externos que producen señales periódicas. No representa
esa periodicidad mediante algún símbolo arbitrario y menos aún con alguna
codificación de tipo textual. Es mejor concebirlo como un sistema interno
que se fusiona temporalmente con sistemas externos parasitando sus pro­
piedades temporales reales. Para intentar analizar y explicar estas capacida­
des, necesitamos tanto la perspectiva en la que el sistema externo es una
fuente de entradas que arrastran al oscilador, como la perspectiva que se
centra en las propiedades posteriores del sistema acoplado más grande. Sin
embargo, y a pesar de estas complicaciones, es indudable que sigue siendo
natural e informativo describir el oscilador como un dispositivo cuyo papel
adaptativo consiste en representar la dinámica temporal de algún sistema ex­
terno o de unos sucesos externos concretos. Después de todo, los aspectos
temporales de los sucesos y los procesos externos son tan reales como los co­
lores, los pesos, las orientaciones y todos los objetivos más familiares de las
codificaciones neuronales. Sin embargo, en este caso es especialmente evi­
dente que el tipo de representación implicada difiere de las concepciones co­
rrientes: el vehículo de la representación es un proceso, con propiedades tem­
porales intrínsecas. No es una estructura vectorial o simbólica arbitraria y no
forma parte de un sistema de codificaciones cuasi lingüísticas. Quizá estas
diferencias sean suficientes para persuadir a algunos teóricos de que es to­
talmente inadecuado denominar representacionales a estos procesos. Y en úl­
tima instancia no vale la pena pelearse por esta palabra. Lo que sí parece cla­
ro es que sólo entenderemos el papel y la función del oscilador si
comprendemos a qué aspectos de los procesos y sucesos externos está adap­
tado y los efectos que puede tener en otros sistemas neuronales y de control
motor que consuman la información que proporciona.

8.6 Causalidad recíproca continua

Sólo queda una manera (que yo sepa) de intentar argumentar con fuerza
en contra del representacionalismo. Se basa en apelar a la presencia de unas
influencias continuas y mutuamente moduladores que vinculan cerebro,
cuerpo y mundo. Ya hemos encontrado indicios de esta complejidad mutua­
mente moduladora en el funcionamiento interno del mismo cerebro (véase
el caso de la visión de los mamíferos en el apartado 7.3 anterior). Pero su­
pongamos que algo parecido a este nivel de complejidad interactiva caracte­
rizara a algunos de los enlaces entre los circuitos neuronales, el cuerpo físico
216 I Explicar la mente extendida

y ciertos aspectos del entorno local. Los casos en los que estoy pensando se
pueden presentar adaptando una analogía debida a Tim van Gelder (comu­
nicación personal).
Consideremos un receptor de radio, cuya señal de entrada podemos
tratar como un modulador continuo de la «conducta» de la radio (su sali­
da de sonido). Ahora imaginemos (aquí es donde adapto la analogía para
insistir en este punto) que la salida de la radio también es un modulador
continuo del dispositivo externo (el transmisor) que emite la señal de en­
trada. En este caso, observamos una interacción verdaderamente compleja
y temporalmente densa entre los dos componentes del sistema que podría
conducir a dinámicas globales distintas (por ejemplo, a una retroalimenta-
ción positiva o a un equilibrio estable) dependiendo de los detalles preci­
sos de la interacción. El hecho fundamental es que, dada la naturaleza con­
tinua de las modulaciones mutuas, una estrategia analítica común daría
pocos resultados. Naturalmente, esta estrategia común es el análisis de
componentes tal como se ha descrito en el capítulo 6 anterior. Es induda­
ble que en este ejemplo podríamos -y deberíamos- identificar distintos
componentes. Pero esta estrategia fracasa si después intentamos compren­
der el despliegue conductual de un componente dado (por ejemplo, el re­
ceptor) tratándolo como si fuera una unidad aislada21 de su entorno local
por los límites tradicionales de la transducción y la acción, porque estos lí­
mites, en vista de los hechos de la modulación mutua continua, parecerían
arbitrarios en relación con este despliegue conductual concreto. No serían
arbitrarios si, por ejemplo, la unidad receptora mostrara conductas discre­
tas, en unidades de tiempo de recepción de señales y de su posterior emi­
sión. Si así fuera, podríamos reconceptualizar los sucesos del entorno
como si el mundo diera entradas a un dispositivo que luego produce sali­
das («acciones») que influyen en el mundo y que, en consecuencia, ayudan
a moldear la próxima entrada de la secuencia: por ejemplo, podríamos de­
sarrollar una versión interactiva tipo «atrapar y lanzar» del análisis de com­
ponentes, como se predice en el capítulo 6 anterior.
Otro ejemplo (propuesto por Randy Beer) puede ayudar a definir mejor
esta diferencia. Consideremos un sistema simple con dos neuronas que, por
separado, no muestran ninguna tendencia a oscilar rítmicamente. Sin em­
bargo, en ocasiones ocurre que dos neuronas como éstas, cuando están vin­
culadas por algún proceso de señalización continua, modulan mutuamente
su conducta y producen una dinámica oscilatoria. Llamemos «cerebro» a la

21. He tomado esta noción de aislamiento de Butler (en prensa). El capítulo 4 de esta obr
presenta buenos argumentos contra la tesis radical de la cognición corpórea, aunque no aborda
la clase de casos que constituyen un reto especial y que se examinan en el presente apartado.
Ser, computar, representar I 217

neurona I y «entorno» a la neurona 2. ¿Qué valor concreto tendría una di­


visión como ésta para comprender la conducta oscilatoria?
Está claro que aquí hay dos componentes y que es útil distinguirlos e in­
cluso estudiar su dinámica individual. Sin embargo, si el objetivo es explicar
la oscilación, la neurona «cerebro» no tiene nada de especial. Tranquilamen­
te podríamos optar por tratar al otro componente (la neurona «entorno»)
como el sistema básico y describir la neurona «cerebro» como una mera fuen­
te de perturbaciones para el «entorno». El hecho es que, en este caso indu­
dablemente simplista, ningún componente disfruta de una posición especial
cuando se trata de explicar las oscilaciones rítmicas. De hecho, la propiedad
estudiada se entiende mejor si se trata como una propiedad emergente del sis­
tema más amplio creado por el acoplamiento de las dos neuronas. De mane­
ra similar, en el caso de los cerebros biológicos y los entornos locales sería in­
justificable -como destaca acertadamente Buder (1998)- fingir que no nos
enfrentamos a componentes distintos. Sin embargo, lo importante es ver si
ciertos fenómenos estudiados se explican mejor otorgando una posición es­
pecial a uno de los componentes (el cerebro) y tratando al otro como una
mera fuente de entradas y un espacio para salidas. En casos donde la con­
ducta estudiada implica una causalidad recíproca continua entre los compo­
nentes, esta estrategia parece inadecuada. Admito que en estos casos no nos
enfrentamos a un solo sistema indiferenciado. Pero el fenómeno estudiado es
una propiedad emergente del acoplamiento de los dos componentes (perfec­
tamente reales) y no se debería «asignar» a ninguno de los dos por separado.
Tampoco me parece que la causalidad recíproca continua^ sea un caso
raro o excepcional en la resolución de problemas del ser humano. Los inte­
grantes de un trío de jazz, cuando improvisan, están inmersos precisamente
en una red de complejidad causal. La interpretación de cada miembro res
ponde continuamente a las de los demás y, al mismo tiempo, ejerce su propia
fuerza moduladora. Bailar, jugar a deportes interactivos y hasta tener una
conversación son actividades que, en ocasiones, muestran el tipo de dinámi­
ca mutuamente moduladora que quiere premiar perspectivas más amplias
que las que se centran en un solo componente y tratan a todos los demás
como meras entradas y salidas. Naturalmente, se trata de casos donde lo que
cuenta es algo parecido al entorno social. Pero las interacciones recíprocas
densas pueden caracterizar igualmente bien nuestras relaciones con máqui-2

22. También conocida como «causalidad circular»; vease, por e|emplo, la bibliografía so­
bre cibernética citada en las notas del capitulo 5. Esta noción también se destaca en Kelso,
1995. Evito esta expresión porque parece sugerir un proceso simple que implica una etapa de
retroalimcntación desde la salida a la entrada. Los casos mas interesantes de causalidad recí­
proca continua implican múltiples fuentes asincrónicas de retroalimentación, veanse Kelso,
1995, pág. 9 y Ashby, 1956, pag. 54.
218 i Explicar la mente extendida

ñas complejas (como los automóviles y los aeroplanos) o incluso la interac­


ción continua entre músicos e instrumentos. Lo que importa no es si el otro
componente es por sí mismo un sistema cognitivo, sino la naturaleza del aco­
plamiento causal entre los componentes. Cuando este acoplamiento susten­
ta un intercambio continuo y mutuamente modulado, con frecuencia será
productivo tener en cuenta la dinámica emergente del sistema global.
Por tanto, en la medida en que cerebro, cuerpo y mundo participen con­
juntamente en episodios con una densa influencia causal recíproca, nos en­
frentaremos a despliegues de conducta que se resistirán a la explicación ba­
sada en entradas y salidas de un motor cognitivo individual supuestamente
aislado. ¿Qué significado tendría esto para el empleo en estos casos de la no­
ción de representación interna en las explicaciones cognitivas científicas?
Parece que sólo hay dos posibilidades.
La primera es que, a pesar de todo, podríamos añadir un barniz repre-
sentacional a algún subconjunto específico de las estructuras correspondien­
tes a la vertiente del agente. Imaginemos una red neuronal compleja A cuya
dinámica acoplada con el entorno incluye una frecuencia de picos (de acti­
vación) específica que es utilizada por otras redes como fuente de informa­
ción acerca de la presencia o ausencia de ciertos procesos ambientales ex­
ternos: aquellos con los que la red A está acoplada tan íntimamente. Por
tanto, las redes que se encuentran más abajo emplean los perfiles de res­
puesta de A como sustitutos de estos estados del entorno, Imaginemos tam­
bién que, en ocasiones, los perfiles de la respuesta acoplada d e/l también se
pueden inducir, en ausencia de las entradas del entorno, por influencias neu-
ronales que van de arriba abajo” y que cuando ocurre esto el agente se en­
cuentra a sí mismo imaginando que participa en la interacción compleja en
cuestión (por ejemplo, tocar en un trío de jazz). En estas circunstancias, pa­
rece natural y productivo tratar a A como si fuera un locus de representacio­
nes internas a pesar de su participación ocasional en episodios de interacción
recíproca densa con sucesos y procesos externos.
Sin embargo, la otra posibilidad es, sencillamente, que el sistema nunca
muestre el tipo de evolución interna potcncialmente desacoplada que aca­
bamos de describir. Esto es lo que ocurrirá, por ejemplo, si ciertos recursos
internos sólo participan en intercambios ambientales densamente acoplados,
continuos y recíprocos, sin que parezca existir ningún estado o proceso in­
terno identificable cuyo papel en estas interacciones consista en contener
elementos específicos de información acerca de los sucesos externos. Es de­
cir, lo interno y lo extefno interaccionan de una manera adaptativamente va-23

23. De hecho, éste es precisamente el tipo de escenario previsto por la hipótesis de las zo­
nas de convergencia de Damasio y Damasio (véase el apartado 7.4 anterior).
Ser, computar, representar t 219

liosa pero, sencillamente, no sucumben a nuestros intentos de asignar unas


funciones concretas de procesamiento de información a determinados com­
ponentes, estados o procesos puramente internos. En estos casos, el sistema
muestra lo que se puede denominar un equilibrio adaptativo no representa-
cional (un ejemplo cotidiano es el juego del tira y afloja con una cuerda: no
sirve de nada concebir uno de los equipos como si fuera una representación
de la fuerza ejercida por el otro, pero hasta el desplome final los dos conjun­
tos de fuerzas se influyen y sostienen entre sí con un delicado equilibrio).
Creo que cuando lo interno y lo externo muestran esta coevolución con­
tinua, mutuamente moduladora y no desacoplable, los instrumentos de des­
composición del procesamiento de información alcanzan su máxima ineficacia.
Lo que importa en estos casos son las propiedades reales y temporalmente
ricas del intercambio continuo entre el organismo y el entorno. Sin embar­
go, aunque estos casos son muy interesantes conceptualmente, no constitu­
yen un desafio serio para el papel general de la representación en la ciencia
cognitiva. De hecho, no pueden plantear este desafío porque, por definición,
se encuentran fuera de la clase de casos para los que lo más indicado es un
enfoque representacional, como veremos a continuación.

8.7 Problemas ávidos de representación

Como hemos visto, el mayor desafío que se puede plantear a una inter­
pretación basada en la representación proviene de casos donde la red de in­
fluencia causal llega a ser tan amplia y compleja que es prácticamente impo­
sible aislar unos «elementos privilegiados» a los que asignar unas funciones
adaptativas específicas de portar información. Estos casos suelen suponer la
evolución continua y recíproca de múltiple sistemas estrechamente vincula­
dos entre sí, cuyo efecto acumulativo («emergente») consiste en suscitar al­
gún tipo de conducta o respuesta útil. Sin embargo, al intentar hacer justicia
a estos casos problemáticos no deberíamos olvidar la gama de casos igual­
mente convincentes para los que una comprensión representacional parece
muy adecuada. Se trata de los casos que suponen lo que en otro lugar24 he
denominado «problemas ávidos de representación».
Recordemos el primer requisito de Haugeland para un sistema que utili­
ce representaciones internas (véase el apartado 8.2 anterior). Según este re­
quisito, el sistema debe coordinar sus conductas con características del en­
torno cuya presencia no siempre sea «segura». Creo que hay dos clases
principales de casos donde se cumple esta condición. Se trata de: I) los ca­

24. Vease Clark y Toribio, 1994.


220 I Explicar la mente extendida

sos que suponen razonar sobre estados de cosas ausentes, inexistentes o con-
trafácticos, y/o 2) los casos que suponen una sensibilidad selectiva a estados
de cosas cuyas manifestaciones físicas son complejas y difíciles de controlar.
La primera clase de casos (ya mencionada en el apartado 8.2 anterior) in­
cluye pensamientos sobre sucesos distantes en el tiempo o en el espacio y
pensamientos sobre los resultados potenciales de acciones imaginadas. En
estos casos es difícil evitar la conclusión de que el razonamiento con éxito
implica crear algún tipo de sustitutos previos e identificables para los fenó­
menos ausentes: sustitutos internos que hacen posible una coordinación
conductual adecuada sin la orientación facilitada por una entrada externa
constante.
La segunda clase de casos (que Haugeland no tiene en cuenta) es igual­
mente familiar, aunque un poco más difícil de describir. Son casos donde el
sistema cognitivo debe responder selectivamente a estados de cosas cuyas ma­
nifestaciones físicas son totalmente diversas: estados de cosas que se unifican
en algún nivel más bien abstracto, pero cuyos equivalentes físicos tienen poco
en común. Como ejemplos podemos citar la capacidad para elegir todos los
elementos valiosos de una habitación y la capacidad para razonar acerca de
todas las posesiones del Papa. Es muy difícil ver cómo podemos conseguir
que un sistema razone sobre cosas como éstas sin configurarlo para que pri­
mero asimile las múltiples entradas superficialmente diferentes a un proceso
o estado interno común, de modo que después se pueda definir otro proce­
samiento (razonamiento) sobre este equivalente interno que puede ser un ele­
mento, un patrón o un proceso cuyo contenido se corresponda con la pro­
piedad abstracta. En estos casos, el éxito conductual parece depender de
nuestra capacidad para comprimir o dilatar un espacio de entradas sensoria­
les. Para que un agente tenga éxito, debe aprender a tratar entradas con unas
codificaciones tempranas (en las periferias sensoriales) muy diferentes como
si requirieran la misma clasificación o, a la inversa, debe aprender a tratar en­
tradas cuya codificaciones tempranas son muy similares como si requirieran
clasificaciones diferentes. Los estados internos identificables desarrollados
para servir a estos fines no son más que representaciones internas cuyos con­
tenidos se refieren a los (esquivos) estados de cosas en cuestión.25 (Si alguna
de estas explicaciones resultara ser correcta, sería difícil resistirse a la conclu­
sión de que incluso el reconocimiento visual básico implica, en ocasiones,
cómputos definidos sobre estados representacionales internos genuinos.)
En los dos tipos de casos mencionados (lo ausente y lo ingobernable), la
característica común es la necesidad de generar otro estado interno cuyo pa­
pel adaptativo en relación con el procesamiento de información consista en

25. Véase una defensa más completa de esta afirmación en Clark y Thornton, 1996.
Ser, computar, representar ¡ 221

orientar la conducta a pesar de la hostilidad efectiva de las señales del en­


torno (es decir, o no hay ninguna señal, o las señales requieren un cómputo
considerable para orientar de manera útil la acción). Al parecer, en estos ca­
sos ávidos de representación el sistema debe crear algún tipo de elemento,
pauta o proceso interno cuya función sea sustituir el estado de cosas esqui­
vo. Por tanto, se trata de casos donde lo más natural es esperar encontrar es­
tados del sistema que se puedan considerar representaciones internas con
todas las de la ley.
Realmente puede parecer que en tales casos deberían existir siempre re­
presentaciones internas subyacentes al éxito conductual. Sin embargo, esta
conclusión es demasiado tajante porque es indudable que existe un elemen­
to pragmático importante que aún podría desbaratar el intento de compren­
der el sistema desde un punto de vista representacional. Por tanto, aunque
es evidente que los casos ávidos de representación exigen que algún tipo de
propiedad sistémica compense la carencia de entradas procedentes del en­
torno seguras o fáciles de utilizar, de ello no se sigue que la propiedad perti­
nente se pueda individuar útilmente. Una vez más, esta individuación no será
útil si supone una actividad tan compleja en el tiempo y una influencia recí­
proca entre tantos subsistemas que sea mejor concebir la «sustitución» como
una propiedad emergente del funcionamiento total del sistema. En estos ca­
sos (si es que existen), se podría decir con toda la razón que el sistema total
representa su mundo, pero no lo haría explotando nada que pudiéramos tratar
productivamente como representaciones internas. Por tanto, la noción de re­
presentación interna sólo se puede utilizar cuando podemos establecer unas
correspondencias relativamente detalladas entre unos vehículos internos y
unas funciones adaptativas de transporte de información. Estos vehículos
pueden estar distribuidos espacialmente (como en la hipótesis de las zonas
de convergencia), ser temporalmente complejos e/o implicar cualidades ana­
lógicas y valores numéricos continuos. Pero deben ser identificables como
subconjuntos bien diferenciados de la estructura o actividad sistémica total.
Mi opinión (coherente con el estado de la neurocíencia contemporánea) es
que esta identificación acabará siendo posible y que desempeñará un papel
fundamental en la comprensión de ciertos aspectos de nuestro éxito adapta-
tivo. Como mínimo, ahora podemos ver con más claridad qué haría falta
para socavar un enfoque basado en la representación: haría falta demostrar
que, incluso en los casos ávidos de representación, es prácticamente imposi­
ble aislar un sistema de vehículos detallados que desempeñen unas funcio­
nes adaptativas específicas de transporte de información. Además, hemos
visto de muchas maneras que las ideas fundamentales de un enfoque corpó­
reo y embebido (codificaciones orientadas hacia la acción, resolución de
problemas relacionada con el entorno y acoplamientos sinérgicos entre múl­
222 I Explicar la mente extendida

tiples elementos) son, en cualquier caso, compatibles con el empleo de inter­


pretaciones computacionales y representacionales.
Así pues, y a fin de cuentas, la resolución de este debate debe depen­
der de futuros estudios empíricos. Sin duda, en el grado de complejidad
de los procesos y estados internos existe un límite superior26 más allá del
cual es simplemente poco informativo y explicativamente ocioso describir
estos procesos y estados como representaciones internas. Pero probable­
mente la cuestión sobre el lugar exacto de este límite solo se resolverá me­
diante la experiencia práctica. La respuesta surgirá por ensayo y error, a me­
dida que los experimentadores generen y analicen soluciones dinámicas
reales a problemas cada vez más complejos y superficialmente «ávidos de re­
presentación». Estas confrontaciones pueden desembocar en un proceso de
acomodación mutua donde las explicaciones basadas en los sistemas diná­
micos se adapten y enriquezcan con interpretaciones y análisis computacio­
nales y representacionales, y viceversa.27 O puede ocurrir que la pura com­
plejidad de los procesos y las pautas dinámicas implicadas, y el profundo
entretejido de elementos internos y externos, nos convenzan de que es inútil
tratar de identificar unos aspectos específicos de la compleja y cambiante red
causal como indicadores de la presencia de características ambientales espe­
cíficas y que, en consecuencia, es inútil pretender obtener una comprensión
representacional de la estructura y el funcionamiento del sistema. El resulta­
do más probable, creo yo, no es tanto un rechazo total de las nociones de
computación y representación como un replanteamiento parcial de estas no­
ciones. Este replanteamiento está prefigurado en muchos análisis dinámicos
de otros tipos de problema ávidos de representación (como la toma de deci­
siones y la planificación28) y es una continuación natural de programas de in­
vestigación basados en el conexionismo y en la neurociencia computacional.
Sin embargo, un replanteamiento como éste tendría consecuencias que
irían más allá de la mera identificación de una nueva gama de vehículos in­
ternos capaces de desempeñar funciones de representación. Un aspecto po­
sitivo de este replanteamiento es que los vehículos dedicados a la represen­
tación ya no se limitarían al ámbito de los procesos y los estados internos.
Por ejemplo, al hacer que los valores de unas variables colectivas tengan im­
portancia para la representación, los teóricos dinámicos pueden permitir

26. Esta cuestión surgió durante una conversación especialmente fructífera con Randy
Beer.
27. El trabajo reciente de Melanie Mitchell y Jim Crutchficld se dedica intensamente a
esta visión de enriquecimiento mutuo; véanse, por ejemplo, Crutchfield y Mitchell, 1995 y Mit­
chell y otros, 1994.
28. Véanse ensayos en Port y van Gelder, 1995. Véase también van Gelder, 1995, págs.
376-377.
Ser, computar, representar I 223

que algunos de los estados portadores de contenidos de un sistema sean in­


trínsecamente amplios: que dependan de estados definidos únicamente en el
sistema más general que comprende al agente y a algunas partes selectas del
entorno local.29 Un aspecto negativo sería que, en la medida en que los ve­
hículos dedicados a la representación floten más y más por encima del nivel
de las variables y de ios parámetros básicos del sistema,3031podremos presen­
ciar la fractura parcial de un potente y familiar esquema explicativo. La in­
quietud (ya familiar desde el apartado 6.4 anterior) es que, de esta manera,
empezamos a separar la descripción representacional de un sistema (y, de
una manera más general, su caracterización como procesador de informa­
ción) del tipo de descripción que apelaría directamente al proyecto de ela­
borar o construir un sistema como él. En cambio, una de las principales vir­
tudes de los modelos computacionales más habituales es que muestran cómo
fluyen la información y las representaciones a través del sistema con el fin de
producir recetas eficaces para generar esa conducta en un dispositivo físico
real. Al permitir que se adhieran barnices representación ales a entidades di­
námicas complejas (ciclos límite, trayectorias en espacios de estados, valores
de variables colectivas, etc.), el teórico lanza la explicación basada en el pro­
cesamiento de información hacia un nivel de abstracción muy por encima de
los detalles de los componentes y las variables básicas del sistema, cercenando
así los vínculos entre la descripción representacional y los detalles específi­
cos del funcionamiento interno. Ahora parece que las mejores explicaciones
representacionales se pueden separar3 de los detalles de la implementación
física mucho más de lo que se creía anteriormente.

29. Aquí, (a idea (que inicialmente puede parecer paradójica) es que, en ocasiones, so­
brevienen unos «contenidos estrechos» (Fodor, 1986) a estados del agente junto con partes se­
leccionadas del entorno local. Véase Clark y Chaimcrs, 1998.
30. Por tanto, esta inquietud sólo se aplicará a las elecciones de vehículos dinámicos que
no se basen en una comprensión detallada al nivel de los componentes. Las explicaciones co-
nexionistas basadas en trayectorias, espacios de estados y atractores (véase, por ejemplo, El
man, 1991) no se verán afectadas porque sus parámetros básicos ya están determinados por las
propiedades de los componentes básicos. Lo mismo se podría decir de las explicaciones diná­
micas con base neuronal (véase, por ejemplo, Jordán y otros, 1994).
31. Naturalmente, siempre ha habido una gran distancia entre una descripción algorítmi­
ca y cualquier implementación concreta. Pero una virtud fundamental de los enfoques com­
putacionales usuales era que al menos limitaban las descripciones algorítmicas para garantizar
que, en principio, se pudieran implemcntar empleando únicamente los recursos básicos de una
máquina universal de Turing; véase, por ejemplo, Newell y Simón, 198!. (Por tanto, lo que una
descripción dinámica abstracta puede perder como prescripción mecanicista detallada, lo pue­
de compensar en fuerza temporal; véase van Gelder, 1995.)
224 { Explicar la mente extendida

8.8 Raíces

Los argumentos contrarios al representacionalismo y la computación exa­


minados en los apartados anteriores tienen varios antecedentes, algunos re­
cientes y otros no tanto. Concluiré la presente exposición esbozando algunas’2
de estas raíces y mostrando diversas diferencias en cuanto a énfasis y alcance.
Heidegger (1927) escribió sobre la importancia de Dasein (ser-ahí)," un
modo de «ser-en-el-mundo» en el que no somos observadores distantes y pasi­
vos sino participantes activos, y destacó que nuestras relaciones prácticas con el
mundo (clavar clavos, abrir puertas, etc.) no suponen tanto unas representacio­
nes separadas (por ejemplo, del martillo como un objeto rígido con un peso y
una forma concretos) como unos acoplamientosfuncionales', utilizamos el marti­
llo para clavar el clavo. Para Heidegger, este acoplamiento práctico con el
mundo se encuentra en el corazón de todo pensamiento e intencionalidad.” Una
noción fundamental en este análisis es la idea de utensilio, es decir, de cosas que
nos rodean y que figuran en las múltiples actividades basadas en la habilidad que
subyacen a nuestras aptitudes cotidianas para solventar problemas con éxito.
Por tanto, el trabajo de Heidegger prefigura el escepticismo hacia lo que
se puede denominar tipos de representación interna «neutrales respecto a la
acción» y se hace eco de nuestro énfasis en el empleo de instrumentos y en
los acoplamientos entre organismo y mundo orientados hacia la acción. Sin
embargo, algunas inquietudes de Heidegger son radicalmente distintas de
las del presente proyecto. En particular, Heidegger se oponía a la idea de
que el conocimiento supone una relación entre las mentes y un mundo inde­
pendiente (Dreyfus, 1991, págs. 48-51), una cuestión más bien metafísica en
relación con la cual no adoptaré ninguna postura. Además, la noción que tie­
ne Heidegger del entorno de la acción corpórea es completamente social. Mi
versión de «estar ahí» es considerablemente más amplia e incluye todos los
casos donde el cuerpo y el entorno local aparecen como elementos en una
actividad extendida de resolución de problemas.”
Más cercano al proyecto actual en cuanto a espíritu y ejecución es el tra­
bajo del fenomenólogo Mnurice Merleau-Ponty,” que se ocupó de describir1

1 La expresión inglesa para el Dasein hcideggeniano es «being there», que significa tamo
«ser ahí» como «estar ahí». El autor juega con ambos sentidos a lo largo del texto, empezando
por el mismo título del libro (N. del T.).
32. Entre otros trabajos especialmente pertinentes se incluyen Maturana y Varela, 1987;
Dreyfus, 1979; Winograd y Flores, 1986; Kclso, 1995 y varios de los artículos de Boden, 1996.
33. Véase una excelente discusión en los capítulos 3 y 6 de Dreyfus, 199!.
34. Wheclcr (1995) aborda este conflicto y ofrece como solución una ampliación funda­
mentada de la noción de trasfondo de Heidegger.
35. Véase una excelente discusión de los temas comunes que vinculan el trabajo de Mcr-
Ser, computar, representar S 225

la actividad inteligente cotidiana como la puesta en juego de sinergias com­


pletas entre organismo, cuerpo y mundo. En particular, Merleau-Ponty des­
tacó la importancia de lo que yo he denominado «causalidad recíproca con­
tinua», es decir, la idea de que debemos ir más allá de la imagen pasiva del
organismo que percibe el mundo y reconocer que nuestras acciones pueden
responder continuamente a sucesos del mundo que, a su vez, responden con­
tinuamente a nuestras acciones. Consideremos un encantador ejemplo, al
que llamo «el caso del hámster y las pinzas»:

Cuando mi mano sigue cada esfuerzo que hace un animal para escapar mien­
tras sostengo un instrumento para capturarlo, es evidente que cada uno de mis
movimientos responde a una estimulación externa; pero también es evidente que
estas estimulaciones no se podrían recibir sin los movimientos por los cuales ex­
pongo mis receptores a su influencia... Las propiedades del objeto y las inten­
ciones del sujeto no sólo se entremezclan; también constituyen una nueva totali­
dad (Merleau-Ponty, 1942, pág. 13).

En este ejemplo, los movimientos de mi mano responden continuamente a


los del hámster que se esfuerza por escapar, pero los forcejeos del hámster es­
tán continuamente moldeados y determinados por los movimientos de mi
mano. Aquí, como dijera David Hilditch (1995), acción y percepción se fusio­
nan en una especie de «danza interactiva libre entre el perceptor y lo percibi­
do». Esta danza interactiva e iterada, como vimos, se reconoce ahora en el tra
bajo reciente sobre los fundamentos computacionales de la visión animada.
Además, Merleau-Ponty también destaca que la percepción se dirige hacia el
control de la conducta en el mundo real y en tiempo real. Aquí aporta algo muy
parecido’6a la noción de «facilitación» de Gibson, noción que, a su vez, ha ins­
pirado directamente la idea de representaciones internas orientadas hacia Ja ac­
ción examinada en el capítulo 2 y el apartado 8.3 anteriores. Una facilitación es
una oportunidad de uso o interacción que un objeto o condición brinda a cier
to tipo de agente. Por ejemplo, a una persona una silla le facilita un asiento, pero
para un pájaro carpintero la misma silla puede facilitarle algo muy diferente.*36

leau-Ponty con proyectos actuales de la ciencia cognitiva corpórea y embebida en Hilditch,


1995. Varela y otros, J991, ofrecen un convincente tratamiento de muchos de los temas de
Merleau-Ponty y se presenta explícitamente (véanse las págs. xv-xvii) como una continuación
moderna del programa de investigación de ese autor.
36. Véanse algunas diferencias en las págs. 43-48 de Hilditch, 1995. Los paralelismos y las
diferencias se vuelven a examinar en las págs. 203-204 de Varela y otros, 1991. Varela y otros ar­
gumentan que Gibson se comprometió demasiado con la noción de que las invariantes percepti­
vas simplemente estaban en el mundo exterior y que no eran construidas conjuntamente por el
animal y la realidad. Varela y otros parecen estar comprometidos con el punto de vista contrario,
según el cual estas invariantes dependen de la actividad del organismo guiada por la percepción.
226 I Explicar la mente extendida

A Gibson le interesaba especialmente el ajuste de la percepción visual a


las características invariantes de la señal luminosa entrante para seleccionar
directamente clases de acciones posibles (por ejemplo, las pautas de luz que
especifican la presencia de un terreno llano y que brindan al ser humano la
oportunidad de andar). Según Gibson, en la medida en que el sistema de
percepción humano pudiera sintonizar con estas facilitaciones, no habría
ninguna necesidad de invocar entidades adicionales, como las representa­
ciones internas, que mediaran entre la percepción y la acción. En el aparta­
do 8.3 anterior argumenté que, con frecuencia, un rechazo tan tajante deri­
va de una refundición innecesaria de dos nociones totalmente distintas. Una
es la idea enteramente general de las representaciones internas como esta­
dos, estructuras o procesos internos cuyo papel adaptativo consiste en con­
tener tipos específicos de información que serán utilizados por otros siste­
mas neuronales y orientadores de la acción. La otra es la idea más específica
de las representaciones internas como codificaciones ricas y neutrales res­
pecto a la acción de condiciones externas. Sólo en este último sentido más
restringido se produce una contradicción entre las ideas de Gibson y el cons-
tructo teórico de la representación interna.”
Por último, la reciente discusión de «la mente corpórea» presentada por
Varela y otros (1991) muestra tres intereses básicos que también desempe­
ñan un papel fundamental en el presente proyecto.373839En primer lugar, Vare-
la y otros se proponen colocar en el lugar que se merece a la naturaleza acti­
va de la percepción y a la manera en que nuestra organización cognitiva
refleja nuestra participación física en el mundo. En segundo lugar, ofrecen
algunos ejemplos muy convincentes de conductas emergentes en sistemas
simples.19En tercer lugar, colocan en un primer plano la noción de causali­

37. La ¡dea de que los estados internos incorporan información que se puede desplegar
de una manera computacionalmentc económica para orientar la acción posterior se encuentra,
de una forma u otra, en Ballard, 1991; Brooks, 1991; Mataric, 1991; Chapman, 1990; Gibson,
1979; Gibson, 1982, Ncisser, 1993 y Turvey y otros, 1981
38. Otra área reciente de investigación donde la cuestión de la corporeización también
ocupa un lugar preponderante, se dedica a estudiar cómo los esquemas y las imágenes basados
en el cuerpo impregnan a estilos de pensamiento mucho más abstractos. Aquí, la idea funda­
mental es que nuestra manera de conceptualizar ciertos ámbitos rarificados (problemas mora­
les, relaciones temporales, estructuras arguméntales, etc.) depende mucho de una especie de
extensión metafórica de nociones básicas basadas en experiencias corporales. Aunque en es­
píritu mi interés por el papel del cuerpo y el mundo es claramente similar, en realidad es bas­
tante diferente porque yo me centro en cómo las intervenciones físicas y las estructuras am­
bientales reales reconfiguran el espacio de los cómputos neuronales individuales. El estudio de
las metáforas corporales se profundiza en Lakoff, 1987; Johnson, 1987, y en el capítulo 11 de
Thelen y Smith, 199-4.
39. Véase especialmente el ejemplo de Bittorio en el capítulo 8 de Varela y otros, 1991.
Ser, computar, representar I 227

dad recíproca (o «circular») y sus implicaciones negativas para ciertos tipos


de proyectos reduccionistas basados en componentes, Estas cuestiones se
unifican en la idea de cognición como enacción. La ciencia cognitiva enacti­
va, tal como la definen Varcla y otros, es un estudio de la mente que no des­
cribe la cognición como el reflejo interno de un mundo objetivo externo sino
que designa como locas básico del interés científico y explicativo las interac­
ciones sensoriomotrices repetidas entre agente y mundo.40
Por tanto, Varela y otros se dedican a un proyecto muy relacionado con el
nuestro, Con todo, existen algunas diferencias importantes en cuanto a énfasis
e interés. En primer lugar, Varela y otros emplean sus reflexiones como pruebas
para rebatir las perspectivas realistas y objetivistas del mundo. Yo evito delibe­
radamente esta postura porque conlleva el riesgo de oscurecer el valor científi­
co de un enfoque corpóreo y embebido, vinculándolo a la idea problemática de
que los objetos no son independientes de la mente.41 Lo que yo afirmo es, sim­
plemente, que los aspectos de la estructura de la realidad que representan los
cerebros biológicos se suelen orientar estrictamente hacia unas necesidades y
capacidades sensoriomotrices específicas. Por tanto, el objetivo de gran parte
de la crítica actual no es la idea de que los cerebros representen aspectos de un
mundo independiente real, sino más bien la idea de que estas representaciones
sean neutrales respecto a la acción y que, en consecuencia, requieran un impor­
tante esfuerzo computacional adicional para producir respuestas inteligentes.
En segundo lugar, Varela y otros (ibíd., pág. 9), se oponen a la idea de que «la
cognición es, fundamentalmente, representación». Nuestro enfoque es mucho
más cordial con los análisis representacionales y basados en el procesamiento
de información. Pretende reconceptualizar parcialmente las ideas sobre los
contenidos y los formatos de varios estados y procesos internos, pero sin re
chazar las ideas mismas de procesamiento de información y de representacio­
nes internas. Además, nuestro proyecto destaca un cuerpo de investigaciones
de ciencia cognitiva algo diferentes (las investigaciones sobre la robótica en
mundo real la teoría de los agentes autónomos) y trata de mostrar cómo enca­
jan las ideas y los análisis que emergen de estas investigaciones muy recientes
en la trama más amplia de las investigaciones psicológicas, psicofísicas y evolu­
tivas que constituyen el terreno común de ambas disciplinas.

40. Véanse las págs. 172-179 tle Varcla y otros, 1991, donde la influencia de las ideas de
Merleau Pomy sobre la causalidad circular se destaca explícitamente
41. No puedo dejar de sospechar que existe algún desacuerdo entre Varcla, Thompson y
Rosch acerca de esta cuestión porque en algunos lugares (véanse, por ejemplo, las págs. 172-
179) su argumento se detiene deliberadamente justo ames de esta conclusión radical, mientras
que en otros lugares (véase, por ejemplo, el capítulo 10) parece apoyarla. Sin embargo, toda
exégests es delicada y la insinuación de la existencia de una tensión interna es, necesariamen
te, tentativa.
228 | Explicar la mente extendida

8.9 Representacionalismo mínimo

En mi opinión, el reciente escepticismo hacia el papel de la computación


y la representación en la ciencia cognitiva es exagerado. Gran parte de este
debate se puede formular mejor como una discusión entre los fans de los mo­
delos maximalistas, detallados y neutrales respecto a la acción del mundo in­
terno, y quienes sospechan (incluyendo a este autor) que gran parte de la con­
ducta inteligente depende de unos recursos mínimos como, por ejemplo,
codificaciones internas de carácter múltiple, parcial, personalizado y/u orien­
tado hacia la acción. De manera similar, gran parte de la oposición a la idea
del cerebro como dispositivo computacional se puede formular mejor como
una oposición a la idea del cerebro como codificador de «especificaciones
plenamente programadas» para el desarrollo o la acción. He argumentado
que las condiciones mínimas para hablar con sentido de representaciones in­
ternas se dan cuando podemos desvelar con éxito la compleja trama causal de
influencias y poner de manifiesto el papel adaptativo basado en el procesa­
miento de la información de algún sistema de estados o de procesos: un siste­
ma que suponga una distribución espacial y una complejidad temporal, y que
permita identificar con éxito las configuraciones físicas que sustituyen a esta­
dos específicos de cosas. Esta amplitud de miras puede perturbar a aquellas
personas cuyas intuiciones sobre estas cuestiones se hayan forjado en la fra­
gua más restrictiva de la reflexión sobre el lenguaje, los textos y las gramáti­
cas artificiales,42 pero sospecho que todas las partes estarán de acuerdo en que

42 Vease, por ejemplo, el debate entre Vera y Simón (extremadamente liberales) y Tou-
retzky y Pomerleau en Cognitwe Saetí ce, 18 (1994). Aunque se presenta más como una dis­
cusión sobre símbolos internos que sobre representaciones internas, este debate muestra
exactamente el choque de intuiciones comentado en el texto. Touretzky y Pomerleau sólo
identifican como símbolos internos los elementos que sean sintácticamente arbitrarios (lo que
importa no es el estado físico per se sino solo su papel convencional), relativamente pasivos
(manipulados por un procesador bien diferenciado) y capaces de entrar en episodios recursi­
vos de combinación y recombinación basados en funciones. Vera y Simón cuentan como sím­
bolos cualesquiera señales o estados internos cuya función sea designar o denotar. Mi propio
punto de vista, como debe resultar evidente, se encuentra a medio camino entre estos dos ex­
tremos. Estoy de acuerdo con Touretzky y Pomerleau en que no se debe considerar un símbo­
lo (o una representación interna) cualquier señal que pase por un sistema complejo. Pero bas­
ta con que una señal sea capaz de actuar como un sustituto genuino (controlando respuestas en
ausencia de una entrada real del entorno) y que forme parte de algún tipo de sistema repre-
sentacional. Sin embargo, como se argumentó en el apartado 8.1 anterior, estas limitaciones
adicionales están muy lejos de exigir (os sistemas de símbolos clásicos y concadenadores ima­
ginados por Touretzky y Pomerleau. De una manera más general, considero intuitiva la idea
global de que un sistema interno de representación no se debe vincular en exceso con nuestra
experiencia con lenguajes, textos y gramáticas artificiales, que son tipos específicos de esque­
mas cuyas propiedades pueden decir más sobre el perfil computacional del pensamiento hu­
Ser, computar, representar I 229

una importante lección que se puede extraer del trabajo actual en la neuro-
ciencia y en la teoría de los sistemas dinámicos es que no deberíamos tener una
mentalidad cerrada acerca de la naturaleza de los sucesos internos que ayudan
a explicar el éxito conductual. Estos sucesos internos pueden incluir toda cla­
se de procesos neuronales complejos que dependan de amplias gamas de pro­
piedades dinámicas, que incluyen atractores caóticos, ciclos límite, pozos po­
tenciales, trayectorias en espacios de estados, valores de variables colectivas o
sistémicas y muchas cosas más.45 De la misma manera, las explicaciones que in­
vocan la representación interna pueden acabar otorgando a estos procesos di­
námicos de carácter tan complejo y local el papel de vehículos para tipos es­
pecíficos de información y de conocimientos. En la medida en que esto ocurra,
la noción misma de representación interna podrá experimentar una transfor­
mación sutil que, ante todo, la despoje de las connotaciones clásicas que invi­
taban a concebir los vehículos típicos de la representación como estructuras
relativamente sencillas y localizadas en el espacio y/o en el tiempo.
Debemos admitir que algunos casos plantean un problema especialmen­
te difícil. Son los casos que implican procesos de causalidad recíproca conti­
nua entre factores externos e internos. Parece improbable que esta interac­
ción continua pueda caracterizar la gama de casos donde el enfoque
represen racional es más convincente, es decir, los casos que implican razonar
sobre lo distante, lo inexistente o lo sumamente abstracto. En estos casos, el
centro de atención se desplaza hacia la dinámica interna del sistema que se
estudia. El problema crucial y todavía no resuelto es si esta dinámica interna
encajará o no con una interpretación que, aun siendo más liberal, siga estan­
do basada en la representación. En favor del «no» se puede aducir que a me­
dida que la dinámica interna se hace más compleja o a medida que los su­
puestos contenidos se hacen más pequeños (personalizados, orientados
hacia la acción), la base explicativa proporcionada por las interpretaciones
basadas en la representación debe disminuir hasta acabar desapareciendo
por debajo de un umbral aún por determinar. En favor del «sí» se puede
destacar que aún no existe ninguna intrepretación alternativa de la resolu
ción de problemas genuinamente ávidos de representación y que es difícil
ver cómo se pueden dar explicaciones concisas, generales y claras de gran
parte de nuestro éxito adaptativo sin reinventar, de algún modo, las ¡deas de
procesamiento complejo y de estados internos contenido.43*

mano consciente que sobre el género total de sistemas de representación. Véanse más exposi­
ciones en Kirsh, 1991; van Gelder, 1990; el capítulo 6 de Clark, 1993; Touretzky y Pomerleau,
1994, y Vera y Simón, 1994.
43. Véanse Skarda y Freeman, 1987; Beer, 1995; Thelen y Smith, 1994; Elman, 1994, y
Kelso, 1995.
230 I Explicar la mente extendida

Parece probable que para avanzar más en estas cuestiones deberemos


aguardar la generación y el análisis de una gama más amplia de demostra­
ciones prácticas: modelos basados en sistemas dinámicos que tengan como
objetivo el razonamiento y la acción en dominios cada vez más complejos y
abstractos. Creo que, a medida que se desarrollen estas investigaciones, ve­
remos una coevolución cooperativa y bastante delicada entre múltiples tipos
de análisis e ideas. Veremos la aparición de nuevas ideas sobre la represen­
tación y la computación que incorporen las economías de los estados inter­
nos orientados hacia la acción y de los procesamientos analógicos continuos,
y que reconozcan la compleja danza conjunta de diversas fuentes internas
y externas de variación. Aprenderemos a caracterizar la función adaptativa
basada en el procesamiento de información de los estados y procesos inter­
nos, de maneras que no nos cieguen ante las complejidades de los intercam­
bios interactivos que refuerzan gran parte de nuestro éxito adaptativo. Pero,
en general, nos encontraremos añadiendo nuevos instrumentos ai repertorio
de la ciencia cognitiva, refinando y reconfigurando -aunque no abandonan­
do- los que ya poseemos. Después de todo, si el cerebro fuera tan sencillo
que un solo enfoque pudiera desentrañar sus secretos, ¡nosotros mismos se­
ríamos tan sencillos que no podríamos llevar a cabo esta tarea!44

4-t. Aunque esta frase es muy conocida, su origen es bastante incierto. Durante mucho
tiempo yo la había atribuido al neurocienúfico soviético A. R. Luria, pero no he podido en­
contrar ninguna prueba que lo confirme. Casi lodos mis colegas científicos cognitivos ingleses
y norteamericanos la conocen pero tampoco han podido encontrar su origen. Así que lo dejo
como un ejercicio para el lector.
Tercera parte

MÁS ALLÁ

Y c! autobús de Jerónimo el Bosco partió de casa de Kcsey con un rótulo de


destino en la parte delantera que decía «Masalla» y otro rótulo en la parte trase­
ra que rezaba «Precaución: carga extraña».
T om Wo l f e , The Electric Kool-Aid Acid Test.

Vivimos en un mundo donde el habla es una institución.


M aurice M ekleau -P o n t y ,
Phcrtoirienology o f Perception 0945/1962), pág. 184.
9 Mentes y mercados

9.1 Cerebros salvajes, mentes andamiadas

Como hemos visto, la razón biológica con frecuencia consiste en un bati­


burrillo de estratagemas en línea desplegadas «sobre la marcha» que están
disponibles, en parte, gracias a nuestra capacidad para intervenir en diversos
tipos de resolución de problemas de carácter colectivo u orientados a explo­
tar el entorno. Sin embargo, es natural que nos preguntemos en qué medida
(si la hay) puede servir este enfoque1de base para comprender los aspectos
más avanzados y distintivos de la cognición humana: no hablo de caminar,
alcanzar, seguir paredes y buscar con la vista, sino de votar, elegir lo que con­
sumimos, planificar dos semanas de vacaciones, gobernar un país, etc. Estos
ámbitos más exóticos, ¿revelan al fin la delicada flor del pensamiento lógico,
clásico, interno y manipulador de símbolos? ¿Es aquí donde por fin situare­
mos la gran linea divisoria entre la razón humana objetiva y los perfiles cog
nitivos de otros animales?12
En los capítulos restantes propondré, de manera tentativa, que no hay
necesidad de postular la existencia de esta línea divisoria, que la forma bási­
ca de la razón individual (rápida compleción de patrones en múltiples siste­
mas neuronales) es común en toda la naturaleza y que donde realmente des­
tacamos los seres humanos es en nuestras asombrosas capacidades para crear
y mantener una variedad de estructuras externas especiales (simbólicas y so-
ciales-institucionales). Estas estructuras externas funcionan para comple­

1. Véanse más enfoques en McCIamrock, 1995; Thelen y Smith, 1994; Rutkowska, 1993;
Hutchins, 1995; Rcsnick, 1994, y Varela y otros, 1991. Véanse también los ensayos en Boden,
1996.
2. Véase Davidson, 1986.
234 t Más allá

mentar nuestros perfiles cognitivos individuales y difundir la razón humana


a través de redes físicas y sociales cada vez más amplias cuyos cómputos co­
lectivos muestran sus propias dinámicas y propiedades especiales.
Esta extensión de nuestro marco básico a casos más avanzados implica
tres pasos fundamentales. En primer lugar, el razonamiento individual se
vuelve a formular como una especie de estilo de cómputo rápido para la
compleción de patrones. En segundo lugar, una parte considerable de la ta­
rea de resolver problemas se descarga en estructuras y procesos externos,
pero estas estructuras y procesos ahora tienden a ser más sociales e institu­
cionales que puramente físicos. Y en tercer lugar, el lenguaje público (como
medio de coordinación social y como instrumento para el pensamiento indi­
vidual) ahora desempeña un papel fundamental.
En resumen, la idea es que la cognición avanzada depende de manera
crucial de nuestras capacidades para disipar razonamiento: para difundir a
través de estructuras sociales complejas el conocimiento y la sabiduría prác­
tica que adquirimos y para reducir las cargas de los cerebros individuales si­
tuando estos cerebros en complejas tramas de restricciones lingüísticas, so­
ciales, políticas e institucionales. Así pues, empezamos a vislumbrar que
podemos enfrentamos a los fenómenos de la cognición avanzada con méto­
dos que presentan una continuidad, al menos de una manera general, con el
enfoque básico adoptado en los casos más simples. A poco que esto sea cier­
to, nuestros cerebros no serán tan diferentes de los órganos fragmentados,
especializados y orientados hacia la acción de otros animales y de los robots
autónomos. Pero nosotros, los seres humanos, destacamos en un aspecto
crucial: somos expertos en estructurar nuestros mundos físicos y sociales y
en extraer conductas complejas y coherentes de estos recursos tan difíciles
de controlar. Empleamos la inteligencia con el fin de estructurar nuestro en­
torno para poder tener éxito con menos inteligencia. [Nuestros cerebros ha­
cen que el mundo sea inteligente para que nosotros podamos ser unos ton­
tos felices! O dicho de otra manera, el cerebro humano más estas piezas de
andamiaje externo son los que finalmente constituyen la máquina de infe­
rencias racional e inteligente que llamamos mente. Vistas así las cosas, está
claro que somos inteligentes; sin embargo, nuestros límites se adentran en el
mundo mucho más de lo que inicialmente pudiéramos suponer.3

3. La elección entre estas dos perspectivas es delicada y controvertible. Se abordara con


más detalle en el capitulo 10.
Mentes y mercados I 235

9.2 Perdidos en el supermercado

Entramos en el supermercado para comprar una lata de alubias. E n ­


frentados a una abrumadora colección de marcas y precios, debemos de­
cidir cuál vamos a comprar. Según la teoría económica clásica, en estas
circunstancias un agente racional procede, a grandes rasgos, de la manera
siguiente: el agente posee un conjunto preexistente y exhaustivo de prefe­
rencias que reflejan la calidad, el coste y quizá otros factores (el país de
origen, etc.). Estas preferencias están asociadas a unos pesos o valores y el
resultado final es una clasificación de las características deseadas. A con­
tinuación, esta clasificación compleja (y sistemática) de las preferencias se
aplica a un conocimiento perfecto de las opciones que ofrece el mundo (el
supermercado) y el agente seleccionador de alubias actúa para maximizar
la utilidad esperada; es decir, el agente compra el artículo que mejor sa­
tisfaga los requisitos establecidos en el conjunto ordenado de preferencias
(Friedman, 1953). Recientemente, esta imagen de la elección económica
racional se ha denominado «paradigma de la racionalidad sustantiva» (Den-
zau y North, 1995).
Sin embargo, como teoría de los mecanismos psicológicos de la elec­
ción individual cotidiana, el modelo de la racionalidad sustantiva falla
por su base. El problema principal, según la conocida descripción de
Herbert Simón (1982), es que los cerebros humanos, como mucho, sólo
son locits de racionalidad parcial o limitada.4 Nuestros cerebros, como
avalan repetidamente los capítulos precedentes, no han sido diseñados co­
mo instrumentos de una razón sin prisas, totalmente informada, ni para
ofrecer respuestas perfectas partiendo de una información supuestamen­
te perfecta.
En vista de la naturaleza «sobre la marcha», limitada y circunscrita en el
tiempo de la cognición biológica, quizá sea sorprendente que la teoría econó­
mica clásica, con su visión de un razonador totalmente informado, lógicamen­
te coherente, sin prisas y tranquilo, haya dado tanto de sí. Vista la evidente
irrealidad psicológica de su modelo de la elección humana, ¿cómo es que la
economía tradicional ha podido desarrollar modelos que predicen con un éxi­
to por lo menos moderado el comportamiento de las empresas (en mercados
competitivos con precios fijos), el comportamiento de los partidos políticos y
los resultados de manipulaciones experimentales como la «doble subasta»?
(Satz y Ferejohn, 1994; Denzau y North, 1995). Y -empleando un tono menos

4. Sin embargo, deberíamos distinguir la concepción de la razón como corpórea y embe­


bida de la noción importante, pero todavía insuficientemente radical, de «racionalidad limita­
da», véase el apartado 9.3, más adelante.
236 I Más allá

optimista- ¿por qué no ha podido aclarar toda una colección de fenómenos so­
ciales y económicos diferentes? Entre sus fracasos más sonados se encuentran
la incapacidad de construir modelos de cambios económicos a gran escala con
el tiempo y la incapacidad de construir modelos de elección en condiciones de
gran incertidumbre como, por ejemplo, cuando no hay ningún conjunto pree­
xistente de resultados que se puedan clasificar según su conveniencia (Denzau
y North, 1995; North, 1993). Se trata de fracasos fundamentales en la medida
en que se ramifican hacia una gran variedad de casos más concretos, como la
incapacidad para construir modelos de la conducta de los votantes, para pre­
decir el desarrollo de instituciones económicas y sociales, y para abordar la
mayor parte de las elecciones que llevan a cabo los legisladores.5
Esta pauta de éxitos y fracasos es a la vez fascinante y reveladora porque
la mejor manera de explicarla parece suponer una disociación entre casos de
lo que se puede denominar elección muy andamiada y casos de pensamiento
individual menos restringido. Como varios autores han argumentado recien­
temente,6 el paradigma de la racionalidad sustantiva parece funcionar mejor
en los casos muy andamiados y fracasa progresivamente a medida que aumen­
ta el papel del pensamiento individual poco restringido.
La idea de elección muy andamiada se encuentra en la base de unos im­
portantes trabajos llevados a cabo recientemente por Satz y Ferejohn (1994)
y Denzau y North (1995). El tema común es que la teoría económica neoclá­
sica funciona mejor en situaciones donde la elección racional individual está
muy limitada por la selección cuasi evolutiva de políticas y prácticas institu­
cionales restrictivas. Esta ironía es destacada explícitamente por Satz y Fe­
rejohn: «La teoría [tradicional] de la elección racional es más potente en
contextos donde la elección está limitada» (pág. 72). ¿Cómo puede ocurrir
esto? Según Satz y Ferejohn, la razón es simple: lo que actúa en estos casos
no es tanto el pensamiento individual como las estructuras sociales e institu­
cionales más amplias en las que está embebido el individuo. Estas mismas es­
tructuras han evolucionado y prosperado (en los casos donde funciona la
teoría económica) fomentando la selección de acciones colectivas que real­
mente maximicen el rendimiento en relación con un conjunto fijo de metas.
Por ejemplo, el entorno competitivo de la economía de mercado garantiza
que, en general, sólo sobrevivan las empresas que maximicen sus beneficios.
Este hecho, más que cualquier otro hecho sobre las creencias, los deseos u
otros aspectos psicológicos de los individuos implicados, asegura el éxito

5. La cuestión de la conducta de los votantes se plantea convincentemente en Satz y Fe­


rejohn, 199-1, La cuestión del cambio institucional y la política pública se examina en North,
1993.
6. Especialmente Satz y Ferejohn, 199-1, y Denzau y North, 1995.
Mentes y mercados I 237

frecuente de los modelos de racionalidad sustantiva en predecir la conducta


de las empresas. Las fuertes limitaciones impuestas por la estructura más
amplia del mercado originan, en el nivel de la empresa, estrategias y políticas
orientadas a maximizar los beneficios. Bajo la influencia de un andamiaje tan
poderoso, las teorías y las visiones individuales del mundo pueden tener
poco impacto en la conducta global de la empresa. Cuando el andamiaje ex­
terno de políticas, infraestructuras y costumbres es fuerte y -más importan­
te aún- es el resultado de una selección competitiva, los miembros indivi­
duales son, en realidad, piezas intercambiables de un engranaje mayor. Este
engranaje se extiende mucho más allá del individuo, incorporando estructu­
ras sociales, físicas e incluso geopolíticas a gran escala. Lo que la teoría eco­
nómica tradicional suele modelar con éxito es el razonamiento y conducta
difusos de este engranaje más amplio. Existe una gran variedad de perfiles
psicológicos individuales que son totalmente compatibles con ciertos roles
funcionales concretos dentro de ese engranaje más amplio. Como comenta­
ron Satz y Ferejohn (ibíd., pág. 79): «Muchos conjuntos de motivaciones in­
dividuales son compatibles con las limitaciones que el entorno competitivo
del mercado impone a la conducta de una empresa. Con frecuencia, cuando
explicamos la conducta de una empresa nos encontramos con pautas causa­
les que se mantienen constantes en las diversas prácticas de actividad maxi-
mizadora que encontramos en la Inglaterra calvinista y en la Comunidad de
Ahorro y Préstamo de Texas».
En cambio, la teoría de la conducta de los consumidores es floja y tiene
menos éxito. La razón de ello es que las ideas y la visión del mundo de cada
individuo tienen preponderancia en las elecciones de consumo y el anda­
miaje externo es proporcionalmente más débil. De manera similar, la teoría
de la conducta de los votantes es floja en comparación con la teoría de la
conducta de los partidos durante las convocatorias electorales. Como ocu­
rría antes, sólo sobreviven los partidos que superan la fuerte presión selecti­
va que impone la actividad orientada a maximizar los votos. En compara­
ción, la elección individual es relativamente espontánea (ibíd., págs. 79-80).
Según Satz y Ferejohn, el factor crucial que distingue los casos con
éxito de los casos sin éxito (del empleo de la teoría neoclásica que supone
la racionalidad sustantiva) es la disponibilidad de una teoría de intereses
determinada estructuralmente. En los casos donde el entorno estructura-
dor global actúa para seleccionar acciones limitadas que se ajusten a un
modelo específico de preferencias, la teoría neoclásica funciona. Y funcio­
na porque la psicología individual deja de importar: las «preferencias» es­
tán impuestas por la situación más amplia y no hace falta que se repitan en
la psicología individual. Por ejemplo, en un sistema electoral democrático
bipartidista, la situación global selecciona al partido que actúa para maxi-
238 Más allá

mizar los votos. Esta fuerza estructurados externa nos permite atribuir
«preferencias» a partir de las limitaciones para obtener el éxito en este en­
granaje mayor. Las limitaciones para los votantes individuales son mucho
más débiles. Por tanto, los perfiles psicológicos reales pasan a un primer
plano y la teoría neoclásica fracasa (Satz y Ferejohn, 1994, págs. 79-80;
North, 1993, pág. 7). Este diagnóstico general está apoyado por el análisis
de Denzau y North (1995), quienes destacan que la teoría económica tra­
dicional construye buenos modelos de la elección en mercados competiti­
vos de precio fijo y en ciertos estudios experimentales restringidos. En es­
tos casos, según ellos, determinados aspectos institucionales desempeñan
papeles importantes en el fomento de un rendimiento económico «de esti­
lo maximizador». A modo de ilustración, Denzau y North citan algunos es­
tudios computacionales fascinantes realizados por Gode y Sunder (1992)
que se basan en unos agentes de bolsa de «inteligencia nula», unos agentes
simulados que no teorizan, ni recuerdan sucesos, ni tratan de maximizar
los resultados de una manera activa. Cuando se limitó a estos agentes sim­
ples a que sólo pujaran cuando ello no acarreara pérdidas inmediatas, se al­
canzó una eficiencia del 75 % (medida como «porcentaje de la suma de las
rentas potenciales de compra y venta» (ibíd., pág. 5). Sustituir los agentes
de inteligencia nula (IN) por seres humanos sólo aumentó la eficiencia en
un simple 1 %. Pero la alteración del andamiaje institucional (por ejemplo,
reunir todas las ofertas en una subasta doble antes de contratar o permitir
ofertar y contratar simultáneamente) provocó una mejora del 6 %. La con­
clusión firme es que «la mayor parte de los aumentos de eficiencia en al­
gunas situaciones de distribución de recursos se pueden atribuir a detalles
institucionales, independientemente de sus efectos en agentes racionales»
(ibíd., pág. 5).
Los resultados de los experimentos con agentes IN demuestran clara­
mente el poder de los entornos institucionales y de las limitaciones externas
para fomentar conductas colectivas que se ajusten al modelo de la racionali­
dad sustantiva. Estos resultados encajan muy bien con las noticias, por lo de­
más inquietantes, de que la mayor parte de la economía tradicional no se ve­
ría afectada si las personas eligieran al azar (Alchian, 1950, citado en Satz y
Ferejohn, 1994) en vez de maximizar la satisfacción de sus preferencias, y de
que las palomas y las ratas con frecuencia pueden rendir de maneras cohe­
rentes con la teoría de la racionalidad sustantiva (Kagel, 1987, citado en Satz
y Ferejohn, 1994). Estos resultados tienen sentido si el andamiaje de la elec­
ción por medio de estructuras restrictivas de escala superior es, en ocasiones,
el portador más vigoroso de fuerza maximizadora. En los casos más extre­
mos de esta restricción, el individuo que elige no es más que una simple pie­
za que desempeña el mismo papel funcional limitado que también pueden
Mentes y mercados I 239

desempeñar un agente de inteligencia nula, una paloma, una rata, un agente


humano o, en los peores casos, un dispositivo que funcione a cara o cruz.7

9.3 ¿Oficinas inteligentes?

Todo lo dicho hasta ahora indica que el andamiaje es importante: la es­


tructuración externa proporcionada por instituciones y organizaciones car­
ga con gran parte del peso explicativo para interpretar las pautas econó­
micas actuales. Para ver dónde encaja la psicología humana, empecemos
por preguntarnos: ¿qué tipo de mente individual necesita un andamiaje ex­
terno?
Como hemos visto, un papel vital de las estructuras y los andamiajes ex­
ternos está plenamente predicho por trabajos recientes sobre la cognición in­
dividual. La noción de racionalidad limitada de Simón (1982) probablemen­
te fue el primer paso en esta dirección. Pero aunque Simón rechazó con
razón la noción de los agentes humanos como razonadores lógicos perfectos,
siguió comprometido con un modelo de computación básicamente clasicis-
ta (véanse la introducción y el capítulo 3 anteriores) que implicaba unas re­
glas explícitas y unas estructuras de datos cuasi lingüísticas. La principal di­
ferencia era el empleo de la heurística con el objetivo de satisfacer más que
de optimizar, es decir, el empleo de «reglas generales» para encontrar una
solución viable con unos gastos mínimos de tiempo y potencia de procesa­
miento.
El resurgir de las ideas conexionistas (redes neuronales artificiales, pro
cesamiento distribuido en paralelo; véase el capítulo 3 anterior) nos llevó
aún más allá al poner en duda los modelos clásicos de la representación in­
terna y del proceso computacional.
En el apartado 3.3 anterior vimos que, de hecho, estos sistemas sustitu­
yen el razonamiento y la inferencia paso a paso por el reconocimiento rápido
de patrones. Esta sustitución produce un perfil concreto de puntos fuertes
(aptitudes motrices, reconocimiento de rostros, etc.) y débiles (planificación
a largo plazo, lógica) que nos permite determinar de qué manera las estruc­
turas externas pueden complementar y potenciar la cognición individual ais­
lada. Se había argumentado que las estructuras externas nos permitían su­

7. Con esto no quiero afirmar (erróneamente) que las elecciones extremadamente anda­
miadas siempre se ajustan a las normas de la racionalidad sustantiva. Esto sólo ocurre si el mis­
mo andamiaje institucional ha evolucionado como resultado de una presión selectiva para roa-
ximizar las recompensas, y si el entorno económico ha permanecido estable o si el propio
andamiaje institucional original incorpora una flexibilidad suficiente para abordar cambios
posteriores.
240 I Más allá

perar dominios de problemas que requerían un despliegue secuencial y sis­


temático de capacidades básicas para la compleción de patrones y para la
producción y reutilización de resultados intermedios. El sencillo ejemplo pre­
sentado en e! capítulo 3 anterior se refería al empleo de lápiz y papel para ex­
tender unos conocimientos aritméticos simples (por ejemplo, que 7 x 7 = 49)
a la solución de problemas más complejos (por ejemplo, 777 x 777). Ahora
podemos ver, de una manera muy general, que las instituciones, las empresas
y las organizaciones parecen compartir muchas propiedades esenciales con
el lápiz, el papel y la práctica aritmética de este ejemplo. El lápiz y el papel
proporcionan un medio externo en el que nos comportamos (empleando re­
cursos básicos en línea) según dicte la práctica o política general de las mul­
tiplicaciones largas. La mayoría de nosotros no conocemos la justificación
matemática del procedimiento. Pero lo empleamos y funciona. De manera
similar, las empresas y las organizaciones constituyen un recurso externo
donde los individuos se comportan de acuerdo con una serie de normas, po­
líticas y prácticas. En estos ámbitos, la resolución cotidiana de problemas
suele suponer el empleo de estrategias de reconocimiento de patrones local­
mente eficaces que se invocan como resultado de alguna incitación externa
(como un papel verde en la bandeja de «entrada», cumplimentado de una
manera prefijada) y que dejan huellas en forma de otras señales (hojas de
papel, mensajes de correo electrónico, etc.) que estarán disponibles para
manipulaciones futuras dentro del engranaje más amplio de la empresa. En
estos contextos, al menos a corto plazo, el papel de la racionalidad indivi­
dual puede llegar a ser marginal. Si el engranaje global y las estrategias se
han seleccionado para maximizar los beneficios, el hecho de que los indivi­
duos sean piezas que desplieguen formas muy limitadas de racionalidad,
orientada a la compleción de patrones, carecerá de importancia. (Se podría
decir que las neuronas individuales son piezas aún más limitadas, pero una
vez organizadas en cerebros mediante la selección natural también sostie­
nen una razón más elevada).
Así pues, gran parte de lo que sucede en el complejo mundo de los seres
humanos se puede comprender, de una manera un tanto sorprendente,
como si implicara algo semejante a los «algoritmos estigmérgicos» presenta­
dos en el apartado 4.3 anterior. Recordemos que la estigmergia supone el
empleo de estructuras externas para controlar, inducir y coordinar acciones
individuales. También es posible modificar estas estructuras externas y mol­
dear así las conductas futuras. En el caso de la construcción de termiteros,
aunque las acciones de cada termita están controladas por la estructura local
del nido, esas mismas acciones suelen producir modificaciones en la estruc­
tura que, a su vez, inducen a los mismos -o a otros- individuos a desarrollar
más actividad. Naturalmente, aunque los seres humanos se encuentran in­
Mentes y mercados I 241

mersos en los entornos restrictivos de grandes instituciones sociales, políti­


cas o económicas, ¡no son termitas! A diferencia de las termitas, nosotros no
desempeñaremos siempre una acción sólo porque un estímulo externo pa­
rezca exigirlo. Sin embargo, nuestros éxitos (y a veces nuestros fracasos) co­
lectivos se suelen comprender mejor si consideramos que el individuo sólo
elige sus respuestas dentro de las limitaciones -con frecuencia poderosas-
impuestas por los contextos de acción más amplios de carácter social e insti­
tucional. Y de hecho esto es justamente lo que cabe esperar cuando recono­
cemos que la naturaleza computacional de la cognición individual no es ide­
al para abordar ciertos ámbitos complejos. Al parecer, en estos casos sólo
resolvemos el problema (por ejemplo, construir un «Jumbo» o gobernar un
país) de una manera indirecta, creando estructuras externas más grandes,
tanto físicas como sociales, que puedan inducir y coordinar una larga suce­
sión de episodios -que se pueden tratar individualmente- de resolución de
problemas, conservando y transmitiendo las soluciones parciales a lo largo
de la sucesión.

9.4 Dentro de la máquina

Las organizaciones, las fábricas, las oficinas, las instituciones y otras en­
tidades similares son los andamiajes a gran escala de nuestro éxito cognitivo
distintivo. Sin embargo, estas totalidades más amplias, al tiempo que ofrecen
información y andamiaje al pensamiento individual, también reciben estruc­
tura e información a través de los actos de comunicación de los individuos y
mediante episodios de resolución de problemas en solitario. Un proyecto
crucial para las ciencias cognítivas de la mente corpórea es iniciar la difícil
tarea de comprender y analizar esta compleja relación reciproca: una tarea
de enormes proporciones que exigirá el empleo de simulaciones que operen
en múltiples escalas de tiempo y niveles de organización, Lo ideal sería que
estas simulaciones abarcaran el cambio evolutivo genético, el aprendizaje y
la resolución de problemas de carácter individual, los procesos de evolución
de culturas y artefactos y las capacidades emergentes para la resolución de
problemas de grupos de agentes en comunicación. Sin embargo, y muy a mi
pesar, esto es pedir demasiado dada la situación actual en este campo Pero
al menos es posible empezar a rascar la superficie de estas cuestiones.
Se han dado algunos intentos apreciables de construir modelos para par­
te de la interacción entre la evolución genética y el aprendizaje individual
(Ackley y Littman, 1992; Nolfi y Parisi, 1991; véanse discusiones en Clark,
1993 y Clark, 1996b). Sin embargo, para la presente discusión son más per­
tinentes los intentos de construir modelos de la interacción entre el aprendí-
242 j Más allá

zaje individual, la evolución de culturas y artefactos, y las pautas de comuni­


cación entre grupos. Siguiendo esta línea, Hutchins (1995) se propuso in­
vestigar la influencia de diversas pautas de comunicación en las capacidades
colectivas de resolución de problemas de grupos pequeños de «agentes» ar­
tificiales simples. En esta simulación, cada agente era una red neuronal pe­
queña que comprendía algunas unidades de procesamiento conectadas entre
sí. Cada unidad codificaba algún rasgo específico del entorno. Unos víncu­
los excitadores conectaban entre sí rasgos que se sustentaban mutuamente;
otros vínculos inhibidores conectaban entre sí rasgos mutuamente contra­
dictorios. Por ejemplo, un rasgo como «es un perro» sería codificada por
una sola unidad con vínculos excitadores con (por ejemplo) las unidades «la­
dra» y «es peludo» y con vínculos inhibidores con (por ejemplo) las unida­
des «maúlla» y «es un gato» (estando estas dos últimas vinculadas entre sí
mediante una conexión excitadora). Estas redes se conocen como redes de
satisfacción de restricciones.
Una vez configuradas (mediante el aprendizaje o codificándolas a mano)
las redes de satisfacción de restricciones muestran unas notables propieda­
des de razonamiento semejantes a la compleción de patrones. Imaginemos
que las diversas unidades reciben señales de entrada procedentes del entor­
no. La activación de unas pocas unidades que figuren en una red de cone­
xiones excitadoras producirá actividad en todas las unidades restantes de esa
red. Así, la entrada «ladra» producirá un perfil de activación global adecua­
do para la categoría «perro», etc. Con frecuencia, las unidades individuales
«eligen» entre responder (activarse) o no sumando las entradas recibidas a
través de diversos canales y comparando el resultado con un valor de um­
bral. Como resultado, cuando una red de satisfacción de restricciones se ha
acostumbrado a una interpretación de la entrada (por ejemplo, haciendo que
se activen todas las unidades relacionadas con las características del perro),
eliminar esta interpretación puede ser difícil porque las unidades se prestan
entre sí un apoyo considerable. Según Hutchins, esta característica de esta
clase redes concuerda bastante bien con el familiar efecto psicológico del
sesgo a la confirmación, es decir, la inclinación a desatender, descartar o
reinterpretar de una manera creativa las pruebas que van contra alguna hi­
pótesis o modelo que ya se ha establecido (como una entrada «maúlla» aisla­
da; véase, por ejemplo, Wason, 1968).
Ahora imaginemos una comunidad de redes de satisfacción de restriccio­
nes donde cada red tiene un nivel distinto de actividad inicial («predisposi­
ción») y un acceso diferente a los datos del entorno. Hutchins demuestra que,
en estos casos, la manera precisa en que se estructura la comunicación entre
las redes marca una profunda diferencia en el tipo de resolución colectiva de
problemas que vaya a aparecer. Sorprendentemente, Hutchins (pág. 252) en­
Mentes y mercados I 243

contró que, en esta clase de casos, no siempre es mejor más comunicación


que menos. En particular, si desde el principio se permite que todas las re­
des influyan en la actividad de las demás (que se comuniquen), el sistema
global muestra un grado extremo de sesgo a la confirmación: mucho más
que cualquiera de las redes estudiadas por separado. La razón es que la den­
sidad de las pautas de comunicación impone una fuerte tendencia a descu­
brir con rapidez una interpretación compartida de los datos, es decir, a en­
contrar un patrón de actividad estable para todas las unidades. En vez de
asignar el valor debido a los datos externos que reciben como entrada, las re­
des se vuelcan mucho más en estas restricciones internas (la necesidad de en
contrar un conjunto de patrones de activación que no perturbe a las otras re­
des). Como resultado, el grupo social se precipita «hacia la interpretación
más cercana al centro de gravedad de sus predisposiciones, independiente­
mente de la evidencia» (ibíd., pág. 259).
En cambio, si limitamos el nivel de comunicación inicial daremos tiempo
a cada red para que equilibre sus predisposiciones con la información pro­
cedente del entorno. Si la comunicación entre las redes se posibilita después,
el sesgo global a la confirmación se reduce activamente: es decir, el grupo tie­
ne más probabilidades de encontrar una solución correcta que cualquiera de
sus integrantes por separado. Estos resultados indican que la ventaja colec­
tiva de un jurado sobre una decisión individual se puede disipar proporcio-
nalmente al nivel de comunicación inicial entre sus miembros.8 Con todo, lo
más importante es que este ejemplo ilustra una manera de poder empezar a
comprender, de una forma rigurosa, algunos aspectos de la delicada interac­
ción entre la cognición individual y la dinámica de grupo. Sin duda, esta
comprensión será crucial para apreciar mejor las funciones de las estructu­
ras institucionales y organizativas en la resolución colectiva de proble­
mas, y para determinar el papel del equilibrio entre la cognición individual y
el andamiaje externo al que esa misma cognición da forma y en cuyo seno
habita.
Una consecuencia de la sencilla demostración acabada de presentar es
que hay espacio para que evolucionen pautas de comunicación entre los
agentes (a lo largo del tiempo cultural-evolutivo) que satisfagan mejor las ne­
cesidades de resolución de problemas de un colectivo determinado. En una
fascinante simulación anterior, Hutchins y Hazelhurst (1991) mostraron que
los artefactos culturales (palabras y símbolos) que fluyen por el interior de la
máquina colectiva pueden «evolucionan para satisfacer mejor ciertas nece­

8. Compárese con el teorema del jurado de Condorcet, según el cual si (entre otras cosas)
las elecciones del jurado son independíenles, entonces el voto por mayoría del jurado será co­
rrecto con más frecuencia que el de cualquiera de sus integrantes por separado.
244 t Más allá

sidades específicas de resolución de problemas. En este estudio, Hutchins


(un científico cognitivo) y Hazelhurst (un antropólogo cultural) crearon
una sencilla simulación por ordenador en la que varias generaciones con­
secutivas de redes conexionistas sencillas mejoraban gradualmente su ca­
pacidad para resolver problemas creando y pasándose un conjunto de ar­
tefactos culturales: concretamente, un lenguaje simple que codificaba
información sobre algunas correlaciones destacadas entre sucesos del en­
torno. Esta simulación se basaba en un grupo de «ciudadanos» (redes co­
nexionistas) capaces de aprender a partir de dos tipos de estructuras del
entorno: unas «estructuras naturales» (correlaciones observadas entre su­
cesos y, en este caso, entre las fases de la luna y la marea) y unas «estructu­
ras artificiales» (que suponían aprender mediante la exposición a símbolos
que representan ios estados de la luna y de la marea). Gracias a su capaci­
dad intrínseca para la compleción de patrones y el aprendizaje, estas redes
pueden aprender a asociar símbolos con sucesos y a denotar sucesos me­
diante símbolos. Por tanto, pueden generar símbolos para reflejar expe­
riencias y pueden emplear estos símbolos para ocasionar los tipos de expe­
riencia que normalmente provocaría el suceso real (que, en sí mismo, no es
más que otro tipo de codificación en esta simulación sencilla). En conse­
cuencia, la exposición a unos símbolos produce una especie de «experien­
cia vicaria» de los sucesos asociados. Además, algunas simulaciones incor­
poraban un «sesgo en la selección de artefactos» donde unos productos
culturales (estructuras de símbolos) eran seleccionados por otros ciudada­
nos con una probabilidad que reflejaba, en parte, la competencia (el grado
de éxito) de la red que los había producido.
El estudio de Hutchins-Hazelhurst suponía observar el éxito relativo de
muchas generaciones de redes. Pero, a diferencia del trabajo sobre algorit­
mos genéticos examinado en el capítulo 5 anterior, todas las generaciones
eran idénticas en cuanto a estructura interna: no se permitía ninguna mejora
genética. A pesar de ello, la acumulación gradual de mejores artefactos ex­
ternos (las estructuras simbólicas que representaban los estados de la luna y
las mareas) permitió que las generaciones posteriores aprendieran unas re­
gularidades ambientales que las generaciones anteriores a ellas no habían po­
dido aprender. La contribución de cada individuo a las generaciones futuras
no era genética: consistía en un artefacto simbólico que comprendía entra­
das para las fases de la luna y los estados de la marea. En parte, los ciudada­
nos de generaciones posteriores recibían entrenamiento con los artefactos
generados por sus predecesores inmediatos, aunque la selección de estos ar­
tefactos se hacía o bien al azar (todos los artefactos de la generación anterior
tenían la misma probabilidad de ser empleados) o bien en relación con el
sesgo de selección (favoreciendo así a los mejores artefactos).
Mentes y mercados I 245

Los resultados fueron claros: las primeras generaciones no podían pre­


decir la regularidad. Las generaciones posteriores, idénticas al nacer y em­
pleando los mismos procedimientos de aprendizaje, fueron capaces de re­
solver el problema. Las simulaciones en las que intervenía el sesgo de
selección tuvieron más éxito que las basadas en la elección al azar. Por tan­
to, la existencia de unos productos artificiales y de unas estrategias para se­
leccionar estos productos posibilita un tipo de aprendizaje multigeneracio-
nal que es independiente del cambio genético y que amplía enormemente los
horizontes del aprendizaje individual.9
En estas sencillas simulaciones vemos algunos de los primeros intentos
de dar un poco de cuerpo cuantitativo y analítico a las ideas sobre la resolu­
ción colectiva de problemas en comunidades de agentes capaces de crear y
explotar diversos tipos de estructuras externas de símbolos. Estas estructu­
ras de símbolos son la «sangre» que fluye por el tejido social e institucional
más amplio que moldea y habilita el pensamiento humano individual.

9.5 Entornos de diseño

Hace poco, Rodney Brooks, el creador de muchos de los robots móviles


descritos en capítulos anteriores, planteó esta pregunta: ¿cómo podemos ob­
tener una conducta coherente a partir de múltiples procesos adaptatívos sin
un control centralizado? Se trata de una pregunta acuciante si, como sospe­
chan muchos neurocientíficos y especialistas en robótica, incluso la cogni­
ción humana avanzada depende de múltiples sistemas internos, con una co­
municación limitada, que explotan formas de representación interna
parciales y orientadas hacia la acción. Sin el gran homúnculo central -el área
interna donde, como dice Dennett (1991), todo «se junta»- ¿qué impide que
la conducta se convierta en caótica y contraproducente? Brooks (1994) con­
sidera tres fuentes de restricción: la coherencia natural (donde el mundo fí­
sico determina, por ejemplo, que la acción A se realice antes que la acción
B), la coherencia diseñada (donde el sistema posee, por ejemplo, una jerar­
quía preincorporada de metas) y diversas formas de modulación global de
bajo coste (como los efectos hormonales).
A esta lista podemos añadir ahora la idea de automodulación estigmérgi-
ca: el proceso mediante el cual los cerebros inteligentes estructuran activa­
mente sus propios mundos externos (físico y social) para suscitar acciones
exitosas con menos cómputo individual. Al parecer, la coherencia y la fuer­

9. Vease más información sobre la interacción entre el aprendizaje humano y los artefac
tos culturales en Norman, 1988 y en el apartado 10.3 posterior.
246 I Más allá

za de la resolución de problemas de gran parte de la actividad humana pue­


de estar enraizada en el hecho simple, pero con frecuencia desatendido, de
que somos los seres que más explotan los andamiajes externos de todo el pla­
neta. Construimos «entornos de diseño» en los que la razón humana es ca­
paz de sobrepasar ampliamente el ámbito computacional del cerebro bioló­
gico básico. Por tanto, la razón avanzada es, más que nada, el reino del
cerebro andamiado: el cerebro en su contexto corporal, interaccionando con
un mundo complejo de estructuras físicas y sociales. Estas estructuras exter­
nas limitan y potencian a la vez las actividades de resolución de problemas
del cerebro básico, cuyo papel principal es sustentar una sucesión de res­
puestas iteradas y locales de compleción de patrones. Dentro de este para­
digma, los éxitos de la economía clásica (por citar sólo un ejemplo) emergen
como si dependieran básicamente de la dinámica a corto plazo de respuestas
fuertemente determinadas por tipos particulares de estructuras organizativas
o institucionales: estructuras que, a su vez, han evolucionado como resulta­
do de la presión selectiva para maximizar cierto tipo de gratificaciones.
Con todo, en la mayoría de los casos estos mismos andamiajes externos
son producto del pensamiento y la actividad de seres humanos aislados o en
colectividad. Por tanto, la presente discusión apenas rasca la superficie de un
proyecto enorme y difícil: comprender la manera en que nuestro cerebro es­
tructura y habita a la vez un mundo poblado de culturas, países, lenguas, or­
ganizaciones, instituciones, partidos políticos, redes de correo electrónico y
toda la inmensa parafemalia de estructuras externas y andamiajes que orien­
tan y dan contenido a nuestras acciones cotidianas.
Todo esto, como observa Hutchins (1995) de forma harto significativa,
sólo sirve para recordarnos algo que ya sabíamos: si nuestros logros superan
a los de nuestros antepasados, no es porque nuestros cerebros sean más in­
teligentes que los suyos. Nuestros cerebros son las piezas de unos engranajes
sociales y culturales más grandes que muestran la huella de los ingentes es­
fuerzos realizados anteriormente por individuos y colectividades. En un sen­
tido bastante literal, este engranaje es la corporeización persistente de la ri­
queza de conocimientos alcanzados. Esta gigantesca razón extendida es la que
más se beneficia de nuestros simples esfuerzos individuales y por ello cons­
tituye el vehículo principal de nuestro éxito cognitivo distintivo.
10 Lenguaje: el artefacto definitivo

10.1 El poder de la palabra

¿Qué hace por nosotros el lenguaje público? Hay una respuesta fácil y
común que, si bien no es incorrecta, induce sutilmente a error. Esta respues­
ta es que el lenguaje nos ayuda a comunicar ideas, permitiendo que otros se­
res humanos se beneficien de lo que sabemos y que nosotros nos beneficie­
mos de lo que saben los demas. Sin duda esto es cierto y establece una de las
principales fuentes de nuestro éxito cognitivo. Con todo, el énfasis en el len­
guaje como medio de comunicación tiende a cegarnos ante otro papel más
sutil, pero igualmente poderoso: el papel del lenguaje como instrumento1
para alterar la naturaleza de las tareas computacionales que intervienen en
diversos tipos de resolución de problemas.
La idea básica es muy sencilla. Consideremos un artefacto o instrumento
familiar como unas tijeras.7 Normalmente, un artefacto como éste suele pre-12

1. Entre los autores recientes que suscriben alguna versión de este punto de vista del len­
guaje se incluyen Dennett (1991, 1995), Carruthcrs (1996) y. posiblemente, Gauker (1990,
1992) Carruthcrs distingue muy cuidadosamente entre el interés «comunicativo» y el interés
«cognitivo» del lenguaje (págs. 44 y 52). En el apartado 10.2 posterior intentaré aclarar algu­
nas similitudes y diferencias entre estas concepciones y la noción del lenguaje como transfor­
mador cnmputacional. En una línea parecida, McClamrock (1995) ofrece una interesante ex­
plicación del «lenguaje embebido» donde destaca hechos acerca del contexto externo (físico y
social) en el que se usa el lenguaje. Aunque la discusión de McClamrock (véase, por ejemplo,
ibíd., págs. 116-131) se centra en el debate entre las teorías «intemalisras» y «externalistas» del
significado, varías de sus observaciones tienen que ver directamente con mis intereses y los
examinaré en el apartado 10.3 posterior. La perspectiva que desarrollo está muy en deuda con
e! tratamiento que hace Hutchins (1995) del papel de los medios extemos en la construcción
de sistemas cognitivos extendidos (véanse también los capítulos 4 y 9 anteriores).
2. Richard Gregory (1981) comenta el papel de los artefactos (incluyendo las tijeras)
248 I Más allá

sentar una adaptación doble: un ajuste bidireccional, con el usuario por un


lado y con la tarea por otro. Por una parte, la forma de las tijeras se adapta
muy bien a la forma y las capacidades de manipulación de la mano humana.
Por otra parte, cuando el artefacto se utiliza confiere al agente unas capaci­
dades o facultades características que los seres humanos no poseen de ma­
nera natural: la capacidad de hacer cortes rectos y limpios en ciertos papeles
y tejidos, la capacidad de abrir envoltorios, etc. Esto no puede ser más evi­
dente: después de todo, ¿por qué otra razón valoramos este artefacto?
En muchos aspectos, el lenguaje público es el artefacto definitivo. No
sólo nos confiere facultades adicionales de comunicación; también nos per­
mite reestructurar una variedad de tareas difíciles, pero importantes, y dar­
les unos formatos más adecuados para las capacidades computacionales bá­
sicas del cerebro humano. De la misma manera que las tijeras nos permiten
explotar nuestras capacidades manipuladoras básicas para alcanzar nuevos
fines, el lenguaje nos permite explotar nuestras capacidades cognitivas bási­
cas de transformación y reconocimiento de patrones para que se amplíen ha­
cia nuevos horizontes conductuales e intelectuales. Además, como el len­
guaje público también presenta la adaptación doble descrita anteriormente,
puede constituir un conjunto de artefactos lingüísticos cuya misma forma
ha evolucionado, en parte, para explotar las contingencias y los sesgos del
aprendizaje y el recuerdo de los seres humanos. (Esta adaptación inversa
-del artefacto al usuario- podría ser la base de una nueva perspectiva sobre
la controversia acerca de los mecanismos innatos para la adquisición y la
comprensión del lenguaje.) Por último, la pura intimidad de las relaciones
entre el pensamiento humano y los instrumentos del lenguaje público nos
plantea el interesante y delicado enigma consistente en determinar dónde
acaba el usuario y dónde empieza el instrumento.

10.2 Más allá de la comunicación

La idea de que el lenguaje puede hacer mucho más que servir simple­
mente como vehículo para la comunicación no es nueva. Está claramente
presente en el trabajo de especialistas en el desarrollo como Lev Vy-
gotsky (1962) y Laura Berk (véase, por ejemplo, Díaz y Berk, 1992). Fi-

como medios para reducir la carga computacional del individuo y ampliar nuestros horizontes
conductuales. Daniel Dennett (1995, págs. 375-378) se ha dedicado al mismo tema, descri­
biendo una clase de animales a los que denomina seres «gregorianos» (en homenaje a Richard
Gregory): seres que explotan anefactos diseñados como amplificadores de la inteligencia y
como depósitos del conocimiento y la sabiduría adquiridos. Véase también Norman, 1988.
Ei lenguaje: un artefacto definitivo I 249

gura en los argumentos y las conjeturas filosóficas de, por ejemplo, Peter
Carruthers (1996) y Ray Jackendoff (1996). Y aparece en las especula­
ciones más orientadas hacia la ciencia cognitiva de Daniel Dennett (1991,
1995). Será útil examinar algunas ideas fundamentales de esta literatura
antes de seguir con nuestra versión preferida: concretamente, la idea del
lenguaje como transformador computacional que permite a los cerebros
completadores de patrones abordar problemas cognitivos que, si no, se­
rían intratables.
Durante los años treinta, Vygotsky, un psicólogo de la época, propuso
la idea de que el empleo del lenguaje público tiene unos profundos efec­
tos en el desarrollo cognitivo. Postuló unos fuertes vínculos entre el dis­
curso, la experiencia social y el aprendizaje. Dos ideas de Vygotsky que
son especialmente pertinentes para nuestros fines actuales se refieren al
habla privada y la acción andamiada (la acción realizada dentro de la
«zona de desarrollo proximal»; véanse Vygotsky, 1962 y el capítulo 3 ante­
rior). Decimos que una acción está «andamiada» si se basa en algún apoyo
externo. Este apoyo puede consistir en el empleo de instrumentos o en la
explotación del conocimiento y las aptitudes de otras personas; dicho en
otras palabras, el concepto de andamiaje (tal como yo lo utilizaré)5 abarca
una amplia clase de potenciaciones físicas, cognitivas y sociales que nos
permiten alcanzar una meta que, en caso contrario, sería inalcanzable.
Como ejemplos sencillos se pueden citar el empleo de un compás para tra­
zar un círculo perfecto, el papel de los miembros de una tripulación para
que el piloto mantenga el rumbo y la capacidad de un niño pequeño para
dar sus primeros pasos cuando sus padres lo sostienen. Aunque la noción
de «zona de desarrollo proximal» de Vygotsky se refiere a los casos en que
un niño es temporalmente capaz de tener éxito en determinadas tareas sólo
mediante la orientación o la ayuda proporcionada por otro ser humano
(normalmente uno de los padres o un educador), esta noción encaja con el
interés de Vygotsky en el habla privada de la manera siguiente: cuando un
niño sigue las indicaciones verbales de un agente más experimentado, con
frecuencia puede tener éxito en tareas que, en caso contrario, encontraría
imposibles de realizar (pensemos en cuando aprendimos a atarnos los cor­
dones de los zapatos). Más adelante, cuando el adulto no está presente, el
niño puede llevar a cabo un diálogo similar, pero esta vez consigo mismo.
Aunque hay quien dice que, incluso en este último caso, el había (sea en3

3. Como mencioné en el capítulo 3 anterior, esta utilización es algo más amplia de lo ñor
mal. Gran parte de la literatura de inspiración soviética considera que el andamiaje es intrín
secamente social. Yo amplío esta noción para incluir todos los casos donde se hacen intervenir
estructuras externas para potenciar la resolución de problemas.
250 I Más allá

voz alta, sea «interiorizada») desempeña la función de orientar la conduc­


ta, enfocar la atención y evitar errores comunes. En estos casos, el papel
del lenguaje consiste en orientar y dar forma a nuestra propia conducta: es
un instrumento para estructurar y controlar la acción, no un mero medio
de transferencia de información entre agentes.
Esta idea de Vygotsky está apoyada por investigaciones más recientes so­
bre el desarrollo. Berk y Garvin (1984) observaron y grabaron el discurso de
un grupo de niños de edades comprendidas entre cinco y diez años. Encon
traron que la mayor parte de su habla privada (no dirigida a otros oyentes)
parecía orientada a dirigir y controlar las propias acciones del niño y que la
incidencia de este discurso aumentaba cuando el niño estaba solo y trataba
de llevar a cabo alguna tarea difícil. En estudios posteriores (Bivens y Berk,
1990; Berk, 1994) se encontró que los niños que más hablaban para sí eran
los que después dominaban mejor las tareas. A partir de este estudio y de
otros similares, Berk llegó a la conclusión de que el habla dirigida hacia uno
mismo (sea en voz alta, sea interiorizada) es un instrumento cognitivo crucial
que nos permite destacar las características más desconcertantes de situado
nes nuevas, y dirigir y controlar mejor nuestras propias acciones orientadas
a la resolución de problemas.
El tema del lenguaje como instrumento también ha sido desarrollado por
el filósofo Christopher Gauker. Sin embargo, el interés de Gauker se centra
en replantear el papel intraindividual del lenguaje en función de lo que él de­
nomina «análisis causa-efecto». La idea es describir el lenguaje público «no
como un instrumento para representar el mundo o expresar los propios pen­
samientos, sino como un instrumento para efectuar cambios en el propio en­
torno» (Gauker, 1990, pág. 31). Para captar el sabor de esta afirmación, con­
sideremos el empleo de un símbolo por parte de un chimpancé para pedir
un plátano. El chimpancé pulsa una teda concreta de un teclado (la situa­
ción física precisa de la tecla puede variar en cada prueba) y aprende que ha­
cer que se ilumine ese símbolo tiende a provocar que aparezcan plátanos. Se­
gún Gauker, la comprensión cuasi lingüística del chimpancé es explicable en
función de su reconocimiento de una relación causa-efecto entre la produc
ción de un símbolo y cambios en su entorno local. Gauker examina una va­
riedad de conductas de empleo de símbolos y concluye que todos sucumben
a este tipo de análisis. Esto le lleva a suponer que, si bien la comprensión lin­
güística de los seres humanos es claramente más compleja, también «consis­
te en captar las relaciones causales en las que pueden intervenir los signos
lingüísticos» (ibíd., pág. 44).
Gauker tiende a ver el rol del lenguaje como si fuera, por así decir, di­
rectamente causal: como una manera de conseguir que se hagan las cosas,
muy parecida a alargar la mano y tomar una tarta. Sin embargo, la idea de
El lenguaje: un artefacto definitivo I 251

que aprendemos mediante la experiencia las fuerzas causales peculiares de


unas señales y unos símbolos concretos es, en principio, mucho más amplia,
incluso podríamos descubrir, como en los ejemplos de Vygotsky, que la emi­
sión de palabras y frases dirigidas a nosotros mismos tiene ciertos efectos en
nuestra propia conducta.45También podríamos aprender a explotar el len­
guaje como instrumento de una manera mucho más indirecta, para alterar la
forma de los espacios de problemas computacionales (véase el apartado 10.3
siguiente).
Una pregunta evidente que plantea el supuesto papel del lenguaje como
instrumento dirigido hacia uno mismo es, «¿cómo funciona?». ¿Qué tiene el
habla dirigida hacia uno mismo que la hace adecuada, por ejemplo, para de­
sempeñar una función orientadora? Después de todo, ¡no está nada claro
cómo nos podemos decir algo que no sepamos ya! En este sentido, es indu­
dable que el lenguaje público puede llegar a ser, como mucho, un medio
para expresar ideas ya formuladas y entendidas en otro código interno más
básico. Sin embargo, éste es precisamente el punto de vista que una explica­
ción «supracomunicativa» del lenguaje tiene que rechazar en última instan
cia. Una manera de rechazarlo consiste en describir el lenguaje público como
si él mismo fuera el medio para un tipo especial de pensamiento. Otra ma­
nera (en modo alguno exclusiva y no del todo definida) consiste en describir
las entradas linguaformes como si tuvieran efectos distintivos en algún dis­
positivo computacional interno. Carruthers (1996) defiende la primera;
Dennett (1991) ofrece una versión de la segunda.’ Carruthers argumenta
que, en este caso por lo menos, deberíamos tomarnos muy en serio la evi
dencia de nuestra propia introspección. Por supuesto, muchas veces parece
que nuestros propios pensamientos estén compuestos por palabras y oracio­
nes del lenguaje público. Y según Carruthers, la razón de que tengamos esta
impresión es porque es verdad: «...el pensamiento interno se da, literalmen­
te, en forma de habla interna».6 Por extensión, Carruthers considera que
muchos empleos del lenguaje, más que una cuestión de simple comunica­

4. Creo que esta idea se origina en la convincente discusión de Dennett (1991, capítulos
7 y 8) acerca del papel de las palabras como medio de autoestimulación. La discusión de este
tema continúa en el capítulo 13 de Dennett, 1995.
5. Un foco fundamental de los tratamientos de Carruthers y de Dennett es la relación en­
tre lenguaje y conciencia. No discutiré estas cuestiones aquí, salvo para decir que me inclino
más por Churchland (1995, capítulo 10), quien describe la conciencia básica como la propie­
dad común de los seres humanos y de muchos animales no lingüísticos. El lenguaje aumenta
increíblemente el poder de la cognición humana. Pero no creo que intervenga en las percep­
ciones básicas del placer, el dolor y el mundo sensorial inherentes al verdadero misterio de la
conciencia.
6. Véase una detallada exposición en el capítulo 2 de Carruthers (1996).
252 I Más allá

ción, son una cuestión de lo que él acertadamente denomina pensamiento pú­


blico. Esta perspectiva encaja satisfactoriamente con la noción de Vygotsky
defendida por Berk y también es aplicable al interesante caso de escribir
nuestras ideas. Según Carruthers (ibíd., pág. 56), «no es que primero tenga­
mos un pensamiento personal y después lo escribamos, sino que pensar es
el escribin>. Volveré más adelante a esta cuestión (véanse el apartado 10.3 y el
epílogo posteriores) porque creo que, si bien lo que dice Carruthers es casi
correcto, podemos comprender mejor su idea tratando la escritura como una
manipulación del entorno que transforma el espacio de problemas para los
cerebros humanos.
Como ya se ha dicho, otra manera de desarrollar un punto de vista su-
pracomunicativo del lenguaje consiste en suponer que, en realidad, las en­
tradas lingüísticas reprograman o alteran de alguna otra manera la estructura
computacional de alto nivel del cerebro mismo. Aunque su interpretación
es delicada (y, en consecuencia, tentativa), Dennett (1991, pág. 278) parece
sostener este punto de vista cuando propone que «las mentes humanas
conscientes son máquinas virtuales más o menos seriales, implementadas de
manera ineficiente en el hardware en paralelo que la evolución nos ha pro­
porcionado». En éstos y en otros pasajes del mismo trabajo, la idea parece
ser que bombardear (algo parecido a) un cerebro que procesa en paralelo,
que es conexionista y que completa patrones con (entre otras cosas) textos
y frases en lenguaje público (recordatorios, planes, exhortaciones, pregun­
tas, etc.), da como resultado un tipo de reorganización cognitiva semejante
a la que se produce cuando un sistema informático emula a otro. En tales
casos, la instalación de un nuevo programa permite que el usuario trate una
máquina serial basada (por ejemplo) en el lenguaje LISP como si fuera un
enorme dispositivo conexionista en paralelo. Lo que Dennett propone
(ibíd., pág. 218), es el mismo truco pero al revés: la simulación de algo pa­
recido a un instrumento serial lógico pero empleando los recursos total­
mente diferentes de las redes neuronales masivamente paralelas que la evo­
lución biológica favorece para la supervivencia y la acción en mundo y
tiempo reales.
Sorprendentemente, Dennett (1995, págs. 370-373) propone que esta su­
til reprogramación del cerebro mediante (principalmente) un bombardeo
lingüístico es lo que produce el fenómeno de la conciencia humana (nuestro
sentido del yo) y nos permite sobrepasar con mucho los logros conductuales
y cognitivos de la mayoría de los animales. Por tanto, Dennett atribuye en
gran medida nuestras habilidades cognitivas avanzadas no a nuestro hard­
ware innato (que sólo puede diferir en aspectos pequeños, aunque impor­
tantes, del de otros animales) sino a la manera especial en que ios efectos de
la cultura y el lenguaje modifican diversas características plásticas (progra-
El lenguaje: un artefacto definitivo I 253

mables) de! cerebro. Como dice Dennett (1991, pág. 219), esta máquina se­
rial se instala gracias a una «miríada de microajustes en la plasticidad del ce­
rebro». Naturalmente, la mera exposición a la cultura y el lenguaje no es su­
ficiente para garantizar una cognición parecida a la humana. Podemos
exponer una cucaracha a todo el lenguaje que queramos y no hallaremos
ningún rastro de las transformaciones cognitivas que Dennett ve en noso­
tros. Dennett no dice que no haya diferencias iniciales en cuanto al hardwa­
re. Lo que dice es que la existencia de unas diferencias relativamente peque­
ñas en el hardware (por ejemplo, entre nosotros y los chimpancés) nos
permite crear un lenguaje público y otros desarrollos culturales que, me­
diante un efecto de bola de nieve, conducen a grandes cambios y potencia­
ciones de la cognición, incluyendo quizá la instalación literal de un nuevo
tipo de dispositivo computacional dentro del cerebro,
La visión de Dennett es compleja y adolece de ambigüedad. Sin duda, la
imagen que yo deseo desarrollar está profundamente relacionada con ella,
aunque difiere (creo yo) en un aspecto fundamental. Mientras que Dennett
considera que el lenguaje público es a la vez un instrumento cognitivo y una
fuente de reorganización profunda pero sutil del cerebro, yo me inclino a ver­
lo, en esencia, como un simple instrumento: como un recurso externo que
complementa, pero no altera en profundidad, los modos básicos de repre­
sentación y computación del cerebro. Es decir, considero que los cambios son
relativamente superficiales y que se dirigen a permitirnos el empleo y la ex­
plotación de diversos recursos externos. Naturalmente, estas posturas no son
completamente distintas. El mero hecho de que repitamos frases mentalmen
te y las utilicemos para orientar y alterar nuestra conducta significa que no
podemos - y no deberíamos- tratar el lenguaje y la cultura como recursos to­
talmente externos. Sin embargo, sigue siendo posible que esa repetición, más
que implicar el empleo de un dispositivo computacional fundamentalmente
diferente en el cerebro, implique el empleo de los mismos recursos de siem­
pre (esencialmente completadores de patrones) para construir modelos de los
tipos especiales de conducta observados en el mundo del lenguaje público. Y
como observa Paul Churchland (1995, págs. 264-269), de hecho existe una
clase de redes conexionistas («redes recurrentes»; véanse el capítulo 7 ante­
rior; Elman, 1993 y una discusión adicional en Clark, 1993) que parecen ser
muy adecuadas para modelar y apoyar esta conducta lingüística.
Esta visión de la repetición interior está muy bien desarrollada por los
conexionistas David Rumelhart, Paul Smolensky, James McClelland y Geof-
frey Hinton, quienes argumentan que la estrategia general de «construir mo­
delos mentales» de la conducta de determinados aspectos de nuestro entor­
no es especialmente importante en la medida en que nos permite imaginar
recursos externos con los que hemos interaccionado físicamente con ante­
254 f Más allá

rioridad y repetir mentalmente la dinámica de estas interacciones. Así, la


experiencia de trazar y utilizar diagramas de Venn nos permite entrenar
una red neuronal que, más adelante, nos permitirá manipular mentalmen
te diagramas de Venn imaginarios. Sin duda, estas manipulaciones imagi-
narias requieren un recurso neuronal especialmente entrenado, pero no
hay razón para suponer que este entrenamiento tenga como resultado la
instalación de un tipo diferente de dispositivo computacional. Es el mismo
proceso de siempre, dedicado a la compleción de patrones en espacios re-
presentacionales de muchas dimensiones, pero aplicado al ámbito especial
de un tipo específico de representación externa. Rumelhart y otros desta­
can el claro vinculo con la noción de Vygotsky resumiendo su punto de vis­
ta como sigue (1986, pág. 47):

Se nos puede instruir para que nos comportemos de una manera concreta.
Podemos considerar que responder a este tipo de instrucciones equivale, sim -
plemente, a responder a un suceso del entorno. También podemos recordar una
de estas instrucciones y «decirnos a nosotros mismos» lo que debemos hacer: de
esta manera, interiorizamos la instrucción. Creemos que el proceso de seguir ins­
trucciones es esencialmente el mismo, independientemente de que nos las diga­
mos nosotros mismos o de que se nos diga lo que debemos hacer. Así pues, tam­
bién aquí se da la interiorización de un formato representacional externo.

El pasaje (págs. 44-48) del cual se ha extraído la cita anterior es extraor­


dinariamente rico y toca varios de nuestros temas principales. Rumelhart y
otros observan que estos formalismos externos son especialmente difíciles de
inventar y lentos de desarrollar, y que por sí mismos son ejemplos de pro­
ductos que sólo pueden evolucionar (de una manera parecida al intento de
alzarse uno mismo tirándose de las orejas) gracias a un proceso, mediatizado
lingüísticamente, de almacenamiento cultural y refinamiento gradual a lo
largo de muchas vidas. También observan que, cuando utilizamos represen­
taciones externas reales, podemos emplear nuestras capacidades motrices y
perceptivas básicas para descomponer problemas en partes y ocuparnos de
series de subproblemas, almacenando mientras tanto los resultados interme­
dios: una importante propiedad que volveremos a examinar en el apartado
10.3 posterior.
De manera similar, el enfoque que voy a proponer describe el lenguaje
como un artefacto externo cuyo diseño se orienta más a complementar el
perfil de procesamiento básico que compartimos con otros animales que a
transformarlo. En este enfoque no se considera que la experiencia con el
lenguaje sea fuente de una profunda reprogramación interna. La cuestión
de si presenta la repetición lingüística interna como algo que, en ocasiones,
constituye literalmente determinados procesos cognitivos humanos (como
El lenguaje: un artefacto definitivo I 255

afirma Carruthers) es discutible. Creo que lo importante no es tratar de res­


ponder a la difícil pregunta: «¿Realmente pensamos con palabras?» (cuya
respuesta seguramente es, «jE n cierto sentido sí y cierto sentido no!»), sino
tratar de ver, simplemente, qué beneficios computacionales puede extraer
un cerebro completador de patrones del fértil entorno de estructuras exter­
nas simbólicas y manipulables. Así, ha llegado el momento de que desafie­
mos al lenguaje en su guarida.

10.3 Cambio de espacios

¿Cómo pueden complementar los artefactos lingüísticos la actividad de


un cerebro completador de patrones? Propongo que una función funda­
mental se refleja en el concepto de cambio de espacios: el agente que explota
estructuras externas de símbolos cambia lo que sería (en el mejor de los ca­
sos) un cómputo interno que exigiría mucho tiempo y esfuerzo por una re­
presentación adquirida culturalmente. De hecho, es el mismo cambio que re­
alizamos de una manera puramente interna cuando nos detenemos justo
antes de manipular físicamente unos símbolos externos y empleamos nues­
tros modelos internos de esos mismos símbolos para formular un problema
mediante una forma de notación que lo haga más fácil de resolver. Y como
se ha observado con frecuencia, seguramente son nuestras experiencias an­
teriores con la manipulación de símbolos externos reales lo que prepara el
camino para estos episodios más autosuficientes de resolución de problemas
simplificada mediante símbolos.
Los ejemplos son innumerables y entre ellos se incluyen el empleo de la
numeración arábiga (en vez, por ejemplo, de la numeración romana) como
notación para resolver problemas aritméticos; el empleo de diagramas de
Venn para resolver problemas de la teoría de conjuntos; el empleo de los len­
guajes especializados de la biología, la física, etc., para plantear y resolver
problemas complejos; y el empleo de listas y agendas como ayuda para la
planificación individual y la coordinación de grupos. Todo estos casos com­
parten una base lógica subyacente: incorporar directamente parte del cono­
cimiento necesario para resolver un problema a los recursos mismos que em­
pleamos para representar el problema. Pero los detalles precisos de cómo se
realiza este intercambio y cómo expande nuestro potencial cognitivo varía
de un caso a otro. Por tanto, será útil distinguir varías maneras de cambiar
esfuerzos computacionales individuales por representaciones transmitidas
culturalmente.
Los casos más simples son los que suponen el empleo de soportes exter­
nos de símbolos para descargar parte de nuestra memoria en el mundo. En
256 I Más allá

estos casos, simplemente utilizamos el mundo artificial formado por textos,


diarios, libretas, etc., como soporte para almacenar sistemáticamente con­
juntos de datos grandes y con frecuencia complejos. También podemos em­
plear manipulaciones externas simples (como dejar una nota en el espejo)
para suscitar el recuerdo en la memoria biológica incorporada, y en el mo­
mento oportuno, de ciertas intenciones e informaciones. Por tanto, este em­
pleo de artefactos lingüísticos forma una continuidad con una variedad de
manipulaciones del entorno más sencillas, como dejar un envase de aceite
vacío en la puerta para que topemos con él al salir y nos acordemos de com­
prar más aceite.
Un caso algo más complejo (Dennett, 1993) se refiere al empleo de eti­
quetas para simplificar el entorno. En ciertos casos empleamos señales y eti
quetas perceptivamente simples para que nos ayuden a abordar entornos
complejos. Los dibujos de las puertas de los servicios, los rótulos de los clu­
bes nocturnos y las señales de los centros urbanos cumplen este papel. Ha
cen que un pequeño aprendizaje individual pueda dar mucho de sí, ayudán­
donos a encontrar objetivos en escenarios nuevos sin que sepamos de
antemano, y de una manera detallada, qué debemos buscar o dónde debe­
mos buscarlo. McCIamrock (1995, pág. 88) describe muy bien esta estrate­
gia diciendo que mediante ella «imponemos en el entorno ciertas propieda­
des estables que hacen disminuir nuestra carga computacional y la necesidad
de que hagamos inferencias».
Muy similar, pero quizá menos evidente, es el empleo de etiquetas lin­
güísticas para simplificar el entorno de aprendizaje de ciertos conceptos im­
portantes (esta función ya se ha examinado y ejemplificado en el capitulo 9
anterior mediante la simulación de «la luna y las mareas» de Hutchins). Al
parecer, el empleo de etiquetas simples ofrece al dispositivo de aprendizaje
una base sólida que le permite comprimir enormes espacios de búsqueda
hasta un tamaño manejable.7
Los beneficios más sofisticados del empleo de la representación lingüís­
tica se concentran en el empleo del lenguaje para coordinar la acción. Deci­
mos a otros que estaremos en tal lugar a tal hora. Incluso jugamos a este jue­
go con nosotros mismos, quizá escribiendo en una lista qué cosas vamos a
hacer y cuándo las haremos. Un efecto de esta planificación explícita es fa­
cilitar la coordinación de acciones. Así, si comunicamos a alguien que esta­
remos en la estación a las 9 de la mañana, esa persona podrá planificar su
viaje para venir a recogernos. O, en el plano individual, si tenemos que
comprar pintura para retocar el coche y salir a comprar otras cosas, pode­

7. Véanse discusiones adicionales de este fenómeno, especialmente cuando se presenta en


el aprendizaje conexionísta, en Clark, 1993 (págs. 97-98), y Clark y Thornton (1997)
El lenguaje: un artefacto definitivo I 257

mos minimizar nuestro esfuerzo imponiendo un orden adecuado y siguien­


do un plan explícito. Cuanto mayor sea el espacio de demandas y oportuni­
dades, más necesario será emplear lápiz y papel para reunir y reorganizar
repetidamente las opciones y para conservar el resultado como una especie
de estructura externa de control, disponible para orientar nuestras acciones
posteriores.
Sin embargo, aunque estas funciones de coordinación son importantes,
no agotan todas las ventajas de la planificación explícita (normalmente ba
sada en el lenguaje). Como ha indicado Michael Bratman (1987), la crea
ción de planes explícitos puede tener un papel especial en la reducción de
la carga cognitiva en línea de agentes con recursos limitados como nosotros.
Es decir, nuestros planes poseen una estabilidad que reduce la cantidad de
deliberaciones en línea que realizamos cuando nos ocupamos de gran parte
de nuestro quehacer cotidiano. Naturalmente, una información nueva pue­
de hacer -y así ocurre con frecuencia- que modifiquemos nuestros planes.
Pero no dejamos que cualquier cambio leve provoque un replanteamiento
de nuestros planes, ni siquiera cuando, permaneciendo igual todo lo res­
tante, podemos elegir de una manera ligeramente diferente. Según Brat
man, el papel de esta estabilidad es impedir el derroche que significaría un
proceso continuo de replanteamientos y elecciones (exceptuando, natural­
mente, los casos donde este trastorno esté bien compensado).5Por tanto, las
formulaciones y los intercambios lingüísticos desempeñan un papel funda­
mental en la coordinación de actividades (tanto en el plano interpersonal
como en el individual) y también en la reducción de la cantidad de delibe
raciones en línea que llevamos a cabo.
Muy relacionado con estas funciones de control y coordinación se en
cuentra el fascinante -pero mal comprendido- papel de la repetición in­
terna del habla en la manipulación de nuestra atención y en la distribución
de nuestros recursos cognitivos. Los resultados evolutivos mencionados en
el apartado 10.2 anterior (sobre la manera en que el habla dirigido hacia
uno mismo mejora la resolución de problemas) sugieren que el habla in­
terno es como una especie de bucle de control adicional capaz de modular
el uso que hace el cerebro de sus propios recursos cognitivos básicos. En
las relaciones interpersonales, este fenómeno se da cuando seguimos ins­
trucciones escritas o respondemos a las indicaciones orales de otra perso­
na para aprender a conducir o a navegar. Cuando practicamos por nuestra
cuenta, la repetición mental de estas mismas instrucciones actúa como una
señal de control que, de alguna manera, nos ayuda a supervisar y corregir
nuestra conducta.

8, Ve-jse una exposición a fondo en Bratman, 1987.


258 I Más allá

Dreyfus y Dreyfus (1990) han argumentado que la repetición interna sólo


desempeña este papel en los principiantes y que los verdaderos expertos de­
jan atrás estos apoyos lingüísticos. Pero, aunque es claramente evidente que,
por ejemplo, los conductores expertos no repiten mentalmente consignas
como «retrovisor, intermitente, maniobra», esto no demuestra que el razo­
namiento basado en el lenguaje no desempeñe ningún papel en el rendi­
miento de los expertos. Un interesante estudio llevado a cabo recientemen­
te por Kirsh y Maglio (véase el capítulo 3 anterior) examina el papel de la
reacción y de la reflexión linguaforme en sujetos expertos en el juego de or­
denador Tetris. Recordemos que, en este juego, el jugador intenta acumular
puntos colocando de una manera compacta unos objetos geométricos (zoi-
des) que caen hacia abajo desde la parte superior de la pantalla. Cuando un
zoide desciende, el jugador puede manipularlo haciendo que gire o se des­
place antes de llegar al fondo. Cuando un zoide llega al fondo se detiene y
aparece otro zoide por la parte superior de la pantalla. La velocidad de caí­
da aumenta a medida que avanza la partida. Pero (y aquí está el truco) cuan­
do se completa una hilera (es decir, cuando una hilera está totalmente ocu­
pada por zoides) ésta desaparece. Si el jugador es lento colocando los zoides,
la pantalla se va llenando hasta que ya no pueden entrar más zoides por arri
ba y la partida finaliza. Por tanto, los niveles de juego más avanzado exigen
fundamentalmente una toma rápida de decisiones. El juego del Tetris es un
ejemplo claro de ámbito que parece exigir un razonamiento de estilo cone-
xionista y de compleción de patrones para alcanzar el nivel de un experto.
Además, si el modelo de Dreyfus y Dreyfus es correcto, este razonamiento
en paralelo y orientado a la compleción de patrones debería explicar de una
manera exhaustiva la habilidad de un experto. Pero curiosamente no parece
que sea así. El juego de un experto parece depender de una delicada -y nada
evidente- interacción entre un módulo rápido dedicado a la compleción de
patrones y un conjunto explícito de intereses o normativas de nivel superior.
Aunque estos resultados son preliminares y sería inapropiado presentarlos
de una manera detallada, su principal observación es que los verdaderos ex­
pertos en el Tetris dicen que no se basan únicamente en un conjunto de res­
puestas adaptativas rápidas producidas (por así decir) por una red entrena­
da, sino que también emplean unos intereses o normativas de nivel superior
para supervisar la salida de la red especializada con el fin de «descubrir ten­
dencias o desviaciones en relación con... la normativa» (Kirsh y Maglio 1991,
pág. 10). Entre los ejemplos de estas normas se incluyen «no agrupar en el
centro y tratar de mantener el contorno plano» y «evitar depender de pie­
zas» (ibíd., págs. 8-9). Pero precisamente éstas son las normas improvisadas
que (según Dreyfus y Dreyfus) sólo podríamos asociar a jugadores novatos.
Con todo, como la atención a estas normas parece marcar especialmente el
El lenguaje: un artefacto definitivo I 259

juego de los verdaderos expertos, deberíamos preguntarnos cómo pueden


ayudar estas normas al nivel de juego de un experto, dadas las limitaciones
de tiempo que sufren las respuestas, Simplemente, no hay tiempo para refle­
xionar sobre estas normas con el fin de corregir la salida en línea destinada a
un zoide descendente concreto.
Aquí es donde Kirsh y Maglio hacen una conjetura que llama a la refle­
xión. Proponen que el papel de las normativas de nivel superior probable­
mente es indirecto. En vez de corregir la salida de una red entrenada, el efec­
to de la normativa puede ser alterar el centro de atención para entradas
posteriores. La idea es que, en ocasiones, la red entrenada (o «módulo reac­
tivo», como dicen Kirsh y Maglio) tomará decisiones que conducirán a si­
tuaciones peligrosas que no cumplan la normativa de nivel superior. El re­
medio no es anular el módulo reactivo, sino manipular las entradas que
recibe a partir de ese momento y presentarle vectores de características que,
cuando sean procesadas por el módulo de la manera usual, produzcan sali­
das que cumplan la normativa. Así pues, según la descripción de Kirsh y Ma­
glio, de las normativas se encarga un recurso definido y muy «infectado de
lenguaje» que modula indirectamente la conducta de una agencia reactiva
más básica, rápida y fluida. Por desgracia, la manera precisa en que se lleva
a cabo esta modulación indirecta está descrita de una manera muy vaga, aun­
que Kirsh y Maglio especulan que podría funcionar centrando la atención
perceptiva en ciertas regiones peligrosas o aumentando la resolución de unas
rutinas visuales específicas.
Naturalmente, la ventaja más evidente de la codificación lingüística de
los pensamientos y las ideas es que esta codificación transforma nuestras
ideas en señales compactas y fáciles de transmitir, permitiendo que otros se­
res humanos las puedan refinar, criticar y explotar. Este es el papel comuni­
cativo que, según mi propuesta, tiende a dominar nuestras ideas intuitivas
sobre el papel y la función del lenguaje. Pero la concepción que tengamos de
este papel tan familiar seguirá siendo pobre mientras no lo veamos en el con­
texto computacional específico que nos ofrecen los modelos conexionistas
generales del cerebro biológico, ya que una característica destacada de estos
modelos es la extrema dependencia de trayectorias de sus hábitos de aprendi­
zaje. Por ejemplo, una convincente serie de experimentos llevados a cabo
p o rje ff Elman (1994) y otros demostró que el aprendizaje conexionista es
muy dependiente de la secuencia de casos de entrenamiento. Si el entrena­
miento inicial sale mal, la red suele ser incapaz de recuperarse. Una red con­
creta demostró que sólo podía aprender reglas gramaticales complejas a par­
tir de un conjunto de oraciones de ejemplo, si antes había sido entrenada
con un subconjunto más básico de ejemplos que destacaran (por ejemplo) la
concordancia de número entre sujeto y verbo. Una exposición prematura a
260 I Más allá

casos gramaticales más complejos (como dependencias muy distantes) lleva­


ría a unas malas «soluciones» (mínimos locales) iniciales de las que la red no
se podría liberar.9 El aprendizaje humano, como el de las redes neuronales
artificiales, parece estar sometido, al menos hasta cierto punto, a la depen­
dencia de trayectorias. Ciertas ideas sólo se pueden comprender cuando ya
se han comprendido otras. El entrenamiento recibido por una mente la pre­
para para que capte y abarque ideas que no pueden ser comprendidas por
otra. De hecho, los procesos de la educación formal pretenden guiar a men
tes jóvenes (y no tan jóvenes) por un genuino viaje intelectual, viaje que in­
cluso podría empezar con ideas que ahora se sabe que son incorrectas pero
que, por sí solas, parecen ser capaces de preparar al sistema para que más
adelante aprecie unas verdades más exactas. Estos hechos prosaicos reflejan
dependencias de trayectorias cognitivas: no podemos llegar a todas partes
desde cualquier lugar y el lugar donde ahora nos encontramos limita enor­
memente nuestras futuras trayectorias intelectuales potenciales. De hecho, la
dependencia de trayectorias se explica muy bien si consideramos que el pro­
greso intelectual supone algo parecido a un proceso de búsqueda computa-
cional en un espacio grande y complejo. Los aprendizajes previos hacen que
el sistema se incline a probar ciertas regiones de ese espacio y no otras.
Cuanto más adecuado sea el aprendizaje previo, más manejable será la tarea
de aprender una nueva regularidad: el aprendizaje previo actúa como un fil­
tro en el espacio de opciones que hay que explorar. Las redes neuronales ar­
tificiales que aprenden mediante el método de descenso por un gradiente
(véase el capítulo 3 anterior) están extremadamente restringidas porque la
rutina de aprendizaje las obliga a explorar siempre los bordes de su posición
actual en el espacio de pesos. Como esto constituye su conocimiento actual,
estas redes no puede ir «saltando» por un espacio de hipótesis. Por tanto, la
situación actual de una red en el espacio de pesos (su conocimiento actual)
restringirá de una manera fundamental las «ideas» nuevas que podrá explo­
rar posteriormente (Elman, 1994, pág. 94).
Cuando nos enfrentamos a dispositivos que muestran señales de depen­
der de trayectorias, la observación trivial de que el lenguaje permite empa­
quetar y transmitir ideas entre individuos adquiere un nuevo vigor. Ahora
podemos apreciar cómo estas migraciones permiten la construcción comu­
nitaria de trayectorias y progresiones intelectuales sumamente delicadas y di­
fíciles. Una idea que sólo estaba al alcance de la experiencia previa de Joe,
pero que sólo puede florecer en el nicho intelectual que ofrece ahora el ce­
rebro de Mary, puede desarrollar todo su potencial viajando entre Joe y

9. Véase un tratamiento detallado de este caso, incluyendo la otra manera principal de re­
solver el problema por parte de Elman (limitando la memoria inicial), en Clark, 1994,
El lenguaje: un artefacto definitivo I 261

Mary como y cuando haga falta. La trayectoria hacia una buena idea puede
entrecruzar varias historias individuales de aprendizaje, haciendo que el mí­
nimo local de un agente se convierta en un sólido bloque de construción
para otro. Además, la gran cantidad de nichos intelectuales disponibles den­
tro de una comunidad vinculada lingüísticamente, constituye una matriz im­
presionante de posibles trayectorias entre agentes. Por tanto, la observación
de que el lenguaje público permite que la cognición humana sea colectiva
(Churchland, 1995, pág. 270) adquiere una nueva dimensión cuando reco­
nocemos el papel de este empeño colectivo en trascender la naturaleza de­
pendiente de trayectorias de la cognición humana individual. Incluso una
búsqueda ciega y poco inteligente de recodificaciones productivas de datos
almacenados, producirá, de vez en cuando, unos resultados impactantes. Al
permitir que estos resultados circulen entre los individuos, la razón anda­
miada por la cultura es capaz de explorar progresivamente unos espacios en
los que la razón individual dependiente de trayectorias nunca se podría
adentrar. (Véase una investigación detallada y con base estadística de esta
afirmación en Clark y Thomton, 1997.)
Esta imagen general encaja limpiamente con el trabajo exploratorio de
Merlin Donald (1991) sobre la evolución de la cultura y la cognición. Donald
reconoce claramente el papel crucial de ciertas formas de andamiaje externo
(concretamente, de los sistemas externos de memoria) en el pensamiento hu­
mano. Pero distingue dos tipos principales de andamiaje, que él denomina
mítico y teórico. Según Donald, antes de los griegos ya se utilizaban diversos
formalismos externos pero sólo al servicio de mitos y narraciones. La inno­
vación fundamental de los griegos fue empezar a utilizar el medio escrito
para registrar los procesos del pensamiento y el razonamiento. Mientras que
los registros escritos anteriores sólo contenían mitos o teorías acabadas (que
se debían aprender a rajatabla y transmitir relativamente inalteradas), los
griegos empezaron a registrar ideas parciales, especulaciones con pruebas a
favor y en contra de ellas, etc. Esta nueva práctica permitió la circulación de
conjeturas y soluciones parciales, que luego eran enmendadas y completadas
por otros, etc. Según Donald (ibíd., pág. 343), lo que así se creó fue «mucho
más que una invención simbólica, como el alfabeto, o que un soporte espe­
cífico de memoria externa, como la mejora del papel o la impresión»; lo que
se creó fue «el proceso de descubrimiento y cambio cognitivo externamente
codificados».
Para completar nuestro inventario inicial de las virtudes cognitivas del
pensamiento andamiado por el lenguaje, consideremos las propiedades físi­
cas de ciertos medios externos. Por ejemplo, mientras redacto este capítulo
no paro de crear, eliminar y reorganizar trozos de texto. Tengo ficheros (tan­
to en papel como informáticos) con todos los apuntes y fragmentos que he
262 : Más allá

ido almacenando durante un largo período de tiempo y que pueden tener re­
lación con este tema. Tengo libros y artículos originales llenos de comenta­
rios y anotaciones. Mientras traslado cosas de acá para allá (de una manera
literal y física), interaccionando primero con una y luego con otra y elabo­
rando nuevos comentarios, anotaciones y planes, la forma intelectual del ca
pítulo crece y se solidifica. Esta forma no surge totalmente desarrollada a
partir de una meditación interna. Es el producto de una sucesión de interac­
ciones sostenidas y repetidas entre mi cerebro y una variedad de accesorios
externos. Me atrevo a decir que, en estos casos, gran parte del pensamiento
real incluye bucles y circuitos que salen de la cabeza y pasan por el entorno
local. Los argumentos y las tesis intelectuales de gran amplitud casi siempre
son producto de cerebros que actúan en concierto con múltiples recursos
externos. Estos recursos nos permiten llevar a cabo manipulaciones y yuxta
posiciones de ideas y datos que pronto desconcertarían a un cerebro no po­
tenciado."1En todos estos casos, el entorno físico real de Jos símbolos y las
palabras impresas nos permite buscar, almacenar, ordenar y reorganizar da­
tos de maneras ajenas al repertorio incluido en el cerebro biológico."
La lección es clara. El habla pública, la repetición interna y el empleo de
textos escritos e informáticos son poderosos instrumentos que reconfiguran
la forma del espacio computacional. Una y otra vez cambiamos cómputos in
dividuales por representaciones adquiridas culturalmente. Una y otra vez
empleamos palabras para enfocar, aclarar, transformar, descargar y controlar
nuestro propio pensamiento. Así entendido, el lenguaje no es un mero espe­
jo imperfecto de nuestro conocimiento intuitivo.1’ Es una parte integrante
del mecanismo mismo de la razón.

10. El caso sencillo de manipular físicamente fichas de ImcJcct o Scrabblc para presentar
nuevos fragmentos de palabras potencíales a un cerebro especializado en completar patrones
(véanse Kirsh, 1995 y el capítulo 3 anterior) es una versión a escala minúscula de la misma es­
trategia.
11. Por ejemplo, Bechtel (1996, pág. 128) comenta que «las representaciones lingüísticas
poseen características que no se pueden encontrar en nuestras representaciones cognitivas in­
ternas. Por ejemplo, los registros escritos pueden perdurar sin cambios durante largos perio­
dos de tiempo, mientras que nuestra “memoria” interna parece basarse en la reconstrucción,
no en la recuperación de registros almacenados. Ademas, mediante los diversos dispositivos
sintácticos proporcionados por el lenguaje, se pueden guardar directamente relaciones entre
piezas de información (por ejemplo, que un árbol se cayó y una persona dio un salto) que, de
no ser así, se podrían llegar a confundir (como ocurre cuando sólo se vinculan mediante una
estructura asociativa como una red concxionista simple)»
12. Creo que, en ocasiones, el hecho de no apreciar plenamente las múltiples funciones del
lenguaje público conduce al neuroíilósofo Paul Churchland a desestimar la expresión linguafor-
me como si fuera un simple reflejo superficial de nuestro conocimiento «real» (véase, por ejemplo,
Churchland, 1989, pág. 18). Véase una discusión en Clark, 1996a y en el apartado 104 siguiente.
El lenguaje: un artefacto definitivo I 263

10.4 Pensar sobre el pensar: el efecto del manglar

Si vemos que un árbol crece en una isla, ¿cuál de los dos creemos que apa­
reció primero? Lo natural (y casi siempre correcto) es suponer que la isla pro­
porcionó el suelo fértil en el que pudo arraigar una semilla afortunada. Sin
embargo, los manglares1’ constituyen una reveladora excepción a esta regla
general. Los mangles crecen a partir de unas semillas flotantes que introdu­
cen las raíces en fondos cenagosos de poca profundidad. La semilla hace cre­
cer unas complejas raíces verticales desde la superficie del agua, formando lo
que a todas luces parece un árbol pequeño con zancos. Sin embargo, el com­
plejo sistema de raíces aéreas pronto atrapa tierra, hierba y detritus. Después
de un tiempo, la acumulación de material atrapado forma una pequeña isla.
A medida que pasa el tiempo, la isla crece más y más. Al final, un número cre­
ciente de estas islas pueden acabar uniéndose, haciendo que la línea de la cos­
ta llegue hasta los árboles. Durante todo este proceso, y a pesar de nuestras
intuiciones previas, la tierra es construida progresivamente por los árboles.
Sospecho que en algunas clases de pensamiento humano actúa este
«efecto del manglar». Es natural suponer que las palabras siempre están en­
raizadas en el suelo fértil de los pensamientos preexistentes. Pero al menos
en algunas ocasiones la influencia parece ir en la dirección contraria. Un
ejemplo sencillo es la poesía. Cuando elaboramos un poema, no sólo nos li­
mitamos a emplear palabras para expresar pensamientos: con frecuencia, las
mismas propiedades de las palabras {su estructura y su cadencia) determinan
los pensamientos que el poema llegará a expresar. Se puede producir una in­
versión parcial similar durante la elaboración de argumentos y textos com­
plejos. Cuando escribimos nuestras ideas, generamos una señal cuyo forma­
to nos abre una nueva gama de posibilidades. Podemos revisar una y otra vez
las mismas ideas, abordándolas desde ángulos diferentes y con actitudes
mentales distintas. Podemos conservar las ideas originales para juzgarlas y
probar sin ningún riesgo algunas alteraciones sutiles. Las podemos almace­
nar para compararlas y combinarlas con otros conjuntos de ¡deas de mane­
ras que pronto desconcertarían a una imaginación no potenciada. Como se
destacó en el apartado anterior, así es como las propiedades reales del texto
físico transforman el espacio de pensamientos posibles.
Estas observaciones me llevan a formular la siguiente conjetura: quizá
el lenguaje público es el responsable de un conjunto de características dis-13

13. Un ejemplo especialmente espectacular es el gran bosque de mangles, conocido como


«Las diez míl islas», que se extiende hacia el norte desde Cayo Oeste hasta la región de los
Everglades. Los mangles negros de esta región pueden alcanzar alturas de 25 m (Landi, 1982,
págs. 361-363).
264 1 Más allá

tintivas del pensamiento humano que se plasman en la capacidad para ma­


nifestar una dinámica cogmtwa de segundo orden. Denomino dinámica cog-
nitiva de segundo orden a un cúmulo de capacidades que implican autoe-
valuación, autocrítica y respuestas compensatorias ajustadas con
precisión.1* Esto es lo que ocurre, por ejemplo, cuando reconocemos un
defecto en uno de nuestros planes o argumentos y dedicamos recursos cog-
nitivos a eliminarlo, o cuando reflexionamos sobre la poca fiabilidad de
nuestros juicios iniciales en ciertos tipos de situaciones y, como resultado,
actuamos con un cuidado especial, o cuando averiguamos por qué hemos
llegado a una conclusión determinada comprendiendo las transiciones ló­
gicas de nuestro propio pensamiento, o cuando descubrimos las condicio­
nes bajo las cuales pensamos mejor y tratamos de provocarlas. La lista po­
dría continuar, pero creo que la pauta ya está clara. En todos estos casos
pensamos en nuestros propios perfiles cognitivos o en unos pensamientos
concretos. Este «pensar sobre el pensar» es un buen candidato para una
capacidad inconfundiblemente humana, es decir, que no esté manifiesta­
mente presente en los animales con los que compartimos este planeta y que
no emplean ningún lenguaje. Por tanto, es natural que nos preguntemos si
esto puede constituir una clase entera de pensamiento en la que el lengua­
je desempeñe un papel generativo: una especie de pensamiento que no sólo
se refleje en nuestro empleo de palabras (o que esté potenciado por ellas)
sino que dependa directamente del lenguaje para su propia existencia. En
este modelo, el lenguaje público y la repetición interna de oraciones actúan
como las raíces aéreas del mangle: las palabras actuarían como puntos fijos
capaces de atraer y acumular más material intelectual, creando las islas de
pensamiento de segundo orden tan características del paisaje cognitivo del
Homo sapiens.
A grandes rasgos, es fácil ver cómo puede haber ocurrido esto. En cuan­
to formulamos un pensamiento en palabras (o sobre papel) se convierte en
un objeto para nosotros mismos y para los demás. Como objeto, es una cosa
sobre la cual podemos pensar. Para crear ese objeto no necesitamos pensar so­
bre pensamientos, pero en cuanto está ahí, inmediatamente se da la oportu­
nidad de tratarlo como si fuera un objeto por derecho propio. Por tanto, el
proceso de formulación lingüística crea una estructura estable a la que se ad­
hieren pensamientos posteriores.14

14. Se me ha informado de dos trabajos muy recientes que destacan estos temas. Jean-Pie
rre Changeux (neurocientífico y biólogo molecular) y Alain Connes (matemático) proponen
que la autoevaluación es lo que distingue a la verdadera inteligencia; véase Changeux y Con­
nes, 1995. Derek Bickerton (lingüista) ensalza el «pensamiento fuera de línea» y destaca que
ninguna otra especie parece tener (a capacidad para detectar problemas en su propio rendi­
miento y tomar medidas adecuadas para rectificarlos; véase Bickerton, 1995.
El lenguaje: un artefacto definitivo I 265

El lingüista Ray Jackendoff ha propuesto algo parecido acerca del papel


potencial de la repetición interna de frases. Jackendoff (1996) propone que
la repetición mental de frases puede ser el medio principal por el que nues­
tros pensamientos se convierten en objetos a los que luego podemos dedicar
más atención y reflexión. La afirmación fundamental es que la formulación
lingüística hace que los pensamientos complejos estén disponibles para los
procesos de atención mental y que esto, a su vez, los abre a toda una gama de
posteriores operaciones mentales. Por ejemplo, nos permite seleccionar dis­
tintos elementos de un pensamiento complejo y examinarlos uno a uno.
También nos permite «estabilizar» ideas muy abstractas en la memoria de
trabajo, así como revisar y criticar nuestro propio razonamiento de maneras
que serían imposibles con otra modalidad de representación.
¿Qué hace que la repetición interna de frases desempeñe un papel tan
fuera de lo común? Propongo que la respuesta se debe encontrar en el pa­
pel más prosaico (y anterior en el tiempo) del lenguaje como instrumento
de comunicación. Para funcionar como un instrumento eficiente de comu­
nicación, el lenguaje público se habrá ido transformando en un código ade­
cuado para los intercambios interpersonales donde se presentan ideas que
después se examinan y se someten a crítica. Y esto, a su vez, implica el desa­
rrollo de un código que minimice la contextualidad (la mayoría de las pala­
bras retienen, esencialmente, los mismos significados en las diferentes ora­
ciones en las que aparecen), que sea efectivamente neutral en cuanto a la
modalidad (una idea puede ser suscitada por entradas visuales, auditivas o
táctiles y aun así conservarse empleando la misma fórmula verbal) y que per­
mita memorizar con facilidad cadenas simples de palabras.15Por tanto, cuan­
do «congelamos» nuestros propios pensamientos en forma de oraciones re
cordables, independientes del contexto y que trascienden la modalidad,
creamos un tipo especial de objeto mental: un objeto que se deja examinar
desde múltiples ángulos cognitivos, que no está condenado a sufrir cambios
o alteraciones cada vez que nos exponemos a nuevas entradas o a nueva in­
formación y que organiza ideas en un nivel de abstracción más elevado a par­
tir de los detalles idiosincrásicos de sus orígenes proximales en la impresión
sensorial. Propongo que este objeto mental encaja de manera ideal en las
operaciones evaluadoras, críticas y enfocadas con precisión que caracterizan
la cognición de segundo orden. Es un objeto adecuado para los exámenes
minuciosos y repetidos que supone la noción de Jackendoff de prestar aten­

15. Annette Karmiloff-Smith destaca las dimensiones del lenguaje público neutrales en
cuanto a la modalidad en su trabajo estrechamente relacionado sobre la redescripción repre-
sentacional. Para la relativa independencia del contexto de ios signos y símbolos de! lenguaje
público, véanse Kirsh, 1991 y el capítulo 6 de Clark, 1993.
266 1 Más alté

ción a nuestros propios pensamientos. Por tanto, el sistema de codificación


del lenguaje público es especialmente idóneo para intervenir en el ámbito
más privado de la representación interna, el autoexamen y la autocrítica, tal
como había predicho Vygotsky en los trabajos mencionados en el apartado
10.2 anterior. El lenguaje se revela como un recurso fundamental mediante
el cual redescribimos con eficacia1617nuestros propios pensamientos en un for­
mato que los hace asequibles para una variedad de nuevas operaciones y ma
nípulaciones.
Es verosímil concebir la emergencia de esta dinámica cognitiva de segun­
do orden como una raíz de la auténtica explosión de tipos y variedades de es­
tructuras externas de andamiaje acaecida en la evolución cultural humana. La
capacidad de pensar en nuestro propio pensamiento nos permite estructurar
activamente nuestro mundo con el fin de fomentar, sostener y ampliar nues­
tros propios logros cognitivos. Este proceso también se alimenta a sí mismo,
como cuando la aparición del texto escrito y de la notación nos permitió em­
pezar a fijar secuencias de pensamiento y de razonamiento cada vez más com­
plejas y extendidas, y tratarlas como objetos de posterior examen y atención
(recordemos las conjeturas de Merlin Donald en el apartado anterior). Una
vez asentado este aparato (interno y externo) de reflexión basado en oraciones
y textos, podemos esperar el desarrollo de nuevos tipos de pensamiento y de
codificación de carácter no lingüísticos dedicados a dirigir las oraciones y los
textos y a interaccionar con ellos de maneras cada vez más poderosas y efi
ciernes.'7Así consideradas, las construcciones lingüísticas son una nueva clase
de objetos que nos invitan a desarrollar nuevas capacidades (no basadas en el
lenguaje) de utilización, reconocimiento y manipulación. Por tanto, los modos
de pensamiento con frases y sin ellas han coevolucionado para complementar,
y no para duplicar, las ventajas cognitivas que ofrece cada uno.
Creo que el hecho de no apreciar esta profunda complementariedad es lo
que ha llevado a Paul Churchland (uno de los mejores y más imaginativos
neurofilósofos) a rechazar la expresión linguaforme como si fuera un simple
reflejo superficial de nuestro conocimiento «verdadero». Churchland teme
que sin este rechazo podríamos describir erróneamente todo el pensamiento
y la cognición como si implicara la repetición inconsciente de cadenas de
símbolos parecidos a frases y que, en consecuencia, podríamos pasar por alto

16. La idea de que la cognición avanzada implica procesos repetidos donde el conoci­
miento y la representación obtenidos se redescriben en nuevos formatos (que luego sostienen
nuevos tipos de operación y de acceso cognitivos) se examina con mucho más detalle en Kar-
miloff-Smith, 1992; Clark, 1993; Clark y Karmiloff-Smith, 1994, y Dennett, 1994. La hipótesis
original de la redescripción representacional fue desarrollada por Karmiloff-Smith (1979,
1986).
17. Véanse, por ejemplo, Bechtel, 1996, págs. 123-131; Clark, 1996a, págs. 120-125.
El lenguaje: un artefacto definitivo I 267

las potentes codificaciones basadas en patrones y prototipos que parecen ser


biológica y evolutivamente fundamentales. Pero ahora hemos explorado una
parte sustancial del fértil territorio que hay en medio.1819Ai combinar un con­
junto de aptitudes biológicamente básicas para el reconocimiento de patro­
nes con los «adhesivos cognitivos» especiales de la palabra y el texto, noso­
tros, al igual que los mangles, creamos paisajes nuevos: nuevos puntos fijos
en el mar del pensamiento. Concebido como un artefacto cognitivo comple­
mentario, el lenguaje puede ampliar genuinamente nuestros horizontes cog­
nitivos sin necesidad de intentar la tarea imposible de recapitular los conte­
nidos detallados del pensamiento no lingüístico.

10.5 La adaptación del lenguaje al cerebro

Consideremos un artefacto mal diseñado como, por ejemplo, uno de los


primeros programas para procesar textos que era extraordinariamente difí­
cil de aprender y muy incómodo y frustrante de utilizar. jUn ser mutante
imaginario que encontrara fácil un programa como éste seguramente hubie­
ra necesitado unos recursos nerviosos diseñados especialmente para adqui­
rir esta competencia con rapidez!
Ahora consideremos un artefacto diseñado a la perfección: el clip para
sujetar papeles.'9 Para aprender a utilizar los clips con rapidez y habilidad no
es necesario ser un mutante con un cerebro diseñado especialmente, porque
el mismo clip está adaptado para facilitar una utilización sencilla por parte
de seres como nosotros (pero no por parte de ratas o palomas) en nuestros
entornos de oficina.
Supongamos (y sólo supongamos) que el lenguaje es así. Es decir, que es
un artefacto que ha evolucionado, en parte, para que seres como nosotros lo
puedan adquirir y utilizar con facilidad. Por ejemplo, puede presentar es­
tructuras fonéticas o gramaticales que exploten determinadas predisposicio­
nes naturales del cerebro y del sistema perceptivo del ser humano. De ser
esto así, podría parecer que nuestros cerebros están especialmente adapta
dos para adquirir un lenguaje natural, pero de hecho sería el lenguaje natu­
ral el que estaría especialmente adaptado para ser adquirido por nosotros, a
pesar de todas las imperfecciones cognitivas.

18. Dennett (1991) explora precisamente este territorio intermedio. Examino de manera
detallada la subestimación del papel del lenguaje por parte de Cburchland en Clark, 1996. Vé­
anse ejemplos de esta subestimación en la pág. 18 de Churchland, 1989 y en las págs. 265-270
de Cburchland y Churchland, 1996.
19. Vease una exposición completa del clip en Petroski, 1992.
268 t Más allá

Sin duda, la verdad se encuentra a medio camino. Recientes conjeturas


de varios científicos cognitivos (véase, por ejemplo, Newport, 1990) indican
que ciertas características de los lenguajes naturales (como la estructura mor­
fológica) pueden estar orientadas a explotar efectos «de ventana» propor­
cionados por las limitaciones de la memoria y la atención típicas de los seres
humanos jóvenes. Y Christiansen (1994) ha argumentado explícitamente,
desde el punto de vista de la investigación conexionista, que la adquisición
de un lenguaje está potenciada por una especie de relación simbiótica entre
el lenguaje y sus usuarios, de manera que un lenguaje sólo puede persistir y
prosperar si es aprendido y utilizado con facilidad por sus anfitriones huma­
nos. Esta relación simbiótica fuerza al lenguaje a cambiar y a adaptarse de
maneras que fomenten el aprendizaje.
Esta adaptación inversa, donde el lenguaje natural está adaptado en cier­
ta medida al cerebro humano, puede ser importante para evaluar la medida
en que nuestra capacidad para aprender y emplear el lenguaje público se de­
bería tomar, en sí misma, como prueba de que cognitivamente somos muy
diferentes de otros animales. Porque ocurre que, al parecer, los seres huma­
nos son los únicos animales capaces de adquirir y explotar plenamente los
sistemas simbólicos complejos, abstractos y abiertos del lenguaje público.2*
Sin embargo, no hace falta suponer que esto requiera unas diferencias neu-
rológicas y computacionales esenciales y aplastantes entre nosotros y otros
animales.” Unos cambios neuronales relativamente secundarios pueden ha­
ber posibilitado el aprendizaje básico del lenguaje por parte de nuestros an­
tepasados y, de ahí en adelante, el proceso de adaptación inversa puede ha­
ber conducido a formas lingüísticas que exploten mejor las predisposiciones
cognitivas preexistentes e independientes del lenguaje (especialmente en los
seres humanos jóvenes).22 Según este modelo, el cerebro humano no tiene

20. En lo que sigue pasaré por alto algunos grandes debates sobre el lenguaje animal en
general y el lenguaje de los chimpancés en particular. Véanse planteamientos ecuánimes en el
capítulo 13 de Dennett, 1995, y en el capítulo 10 de Churchland, 1995.
21. Véase una exposición crítica en Pinker, 1994; Christiansen, 1994; el capítulo 10 de
Churchland, 1995, y el capítulo 13 de Dennett, 1995
22. Sin embargo, cualquier intento de argumentar de una manera convincente la afirmación
extrema de que el aprendizaje del lenguaje humano no supone ningún dispositivo especializado
en el cerebro para (a adquisición del lenguaje, debe enfrentarse a una gran variedad de pruebas
y argumentos lingüísticos detallados. En particular, debe encarar el argumento de la «pobreza del
estimulo» (Pinker, 1994), según el cual es simplemente imposible adquirir la detallada compe­
tencia gramatical que nos caracteriza a partir de los datos de aprendizaje a los que nos expone­
mos y suponiendo únicamente unos mecanismos de aprendizaje generales y no sesgados. Como
lo único que yo digo es que la adaptación inversa puede desempeñar algún papel en restar im­
portancia a la cantidad de «dotación innata» que debemos postular, no intentaré abordar aquí
esta cuestión. Véase una defensa a fondo de la afirmación extrema en Christiansen, 1994.
El lenguaje: un artefacto definitivo f 269

porqué diferir profundamente del cerebro de los animales superiores. En


cambio, los seres humanos normales se benefician de una pequeña innova­
ción neurológica que, junto con un entorno increíblemente potenciador de
un lenguaje público cada vez más adaptado a la inversa, ha conducido a las
explosiones cognitivas de la ciencia, la cultura y el aprendizaje humanos.
A la vaga y sugerente noción de la adaptación inversa se le puede dar un
poco de cuerpo cuantitativo y computacional (aunque de una manera clara­
mente simplista). Haré y Elman (1995) han utilizado una «filogenia cultural»
de redes conexionistas para construir un modelo, con cierto detalle de la se­
rie de cambios que caracterizaron la evolución desde el pretérito del inglés
antiguo (hacia el año 870) hasta el pretérito del inglés moderno. Mostraron
que esta evolución histórica se puede modelar, con cierto detalle, mediante
una serie de redes neuronales donde las salidas de una generación se utilizan
como datos de entrenamiento para la próxima. Este proceso produce cam­
bios en el mismo lenguaje a medida que éste se altera para reflejar los perfi­
les de aprendizaje de sus usuarios. En pocas palabras, esto es lo que sucede:
una red original es adiestrada en las formas del inglés antiguo. Luego se
adiestra otra red (aunque no a la perfección) a partir de las formas produci­
das por la primera. A continuación se utiliza esta salida para adiestrar otra
red, y así sucesivamente. Lo crucial es que cualquier error que cometa una
red cuando aprende a establecer correspondencias, pasan a formar parte del
conjunto de datos de la siguiente red. Los patrones difíciles de aprender y
los elementos que se parecen a otros con inflexiones diferentes, tienden a de­
saparecer. Como dicen Haré y Elman (ibíd., pág. 61): «Al principio, las cía
ses [de verbos] difieren en su coherencia fonológica y en el tamaño de su cla­
se. Las pautas que inicialmente son menos comunes o están menos definidas
son las más difíciles de aprender y tienden a perderse tras varias generacio­
nes de aprendizaje. Este proceso va en aumento a medida que la clase domi­
nante capta nuevos miembros y se convierte en un atractor cada vez más po­
deroso». Al estudiar así la interacción entre un conjunto de datos externos y
los procesos de aprendizaje individual, Haré y Elman pudieron hacer algu­
nas predicciones bastante precisas (confirmadas por los hechos lingüísticos)
sobre la evolución histórica del inglés antiguo al inglés moderno. La conse­
cuencia más importante para nuestros fines es que, en estos casos, los anda­
miajes mismos externos de la cognición se adaptan para prosperar mejor en
el nicho proporcionado por los cerebros humanos. Por tanto, la comple-
mentariedad entre el cerebro biológico y sus accesorios y apoyos artificiales
está impuesta por unas fuerzas coevolutivas que unen a usuarios y artefactos
en un bucle virtuoso de mutua modulación.
270 I Más allá

10.6 ¿Dónde acaba la mente y empieza el resto del mundo?23

Las complejidades de la dinámica usuario-artefacto nos invitan a refle­


xionar sobre un tema más general: cómo concebir la frontera entre un siste­
ma inteligente y el mundo. Como vimos en capítulos anteriores, esta fronte­
ra parece ser más plástica de lo que se había supuesto anterioramente: en
muchos casos, unos recursos extracorporales seleccionados son parte im­
portante de unos procesos computacionales y cognitivos extendidos. Lleva­
da hasta el extremo, esta fuga de la mente hacia el mundo amenaza con re­
configurar la imagen fundamental que tenemos de nosotros mismos,
ampliando nuestra visión de las personas para incluir, en ocasiones, caracte­
rísticas del entorno local. Probablemente, esta ampliación es más verosímil
en casos donde intervienen como accesorios externos el texto escrito y la pa
labra hablada, porque las interacciones con estos accesorios son omnipre­
sentes (en las sociedades cultas modernas), fiables y evolutivamente básicas.
En estas culturas, los cerebros humanos dan por sentados estos soportes de
texto y discurso con la misma seguridad con que dan por sentado que actúan
en un mundo de peso, fuerza, fricción y gravedad. El lenguaje es una cons­
tante y, como tal, se puede confiar en él con toda seguridad como telón de
fondo contra el cual se desarrollan los procesos en línea de la computación
neuronal. De la misma manera que un controlador de red neuronal diseña­
do para mover un brazo hacia un objetivo en el espacio definirá sus órdenes
para tener en cuenta la elasticidad de los músculos y los efectos de la grave­
dad, los procesos del razonamiento pueden aprender a tener en cuenta las
aportaciones potenciales de la reorganización y la descarga textual, y de la
repetición y el intercambio vocal. Por tanto, las capacidades cognitívas ma­
duras que identificamos como mente e intelecto se pueden parecer más a la
navegación en barco (véase el capítulo 3) que a las capacidades del cerebro
biológico aislado. La navegación en barco emerge de la adecuada orquesta­
ción de un sistema extenso y complejo que comprende personas, instrumen­
tos y prácticas. De la misma manera, sospecho que gran parte de lo que iden-

23. En la literatura filosófica, esta pregunta se presta a dos respuestas usuales. O seguimos
las demarcaciones intuitivas de la piel y el cráneo, o suponemos que, en realidad, esta cuestión
se refiere ai análisis del significado y procedemos a examinar los pros y contras de la doctrina
(a grandes rasgos) putnamianos según la cual «los significados, simplemente, no están en la ca­
beza» (Putnam, 1975). Sin embargo mi propuesta es adoptar una postura distinta de estas dos
según la cual los procesos cognitivos no respetan los límites de la piel o del cráneo. Es decir,
afirmo 1) que la noción intuitiva de la mente se debería desprender de sus tendencias intern te­
tas, y 2) que las razones para ello no dependen del (discutible) papel de la referencia del mun­
do real y de las condiciones de verdad para determinar el significado de símbolos mentales o
lingüísticos. Véase una exposición a fondo en Clark y Chalmers, 1998.
El lenguaje: u n artefacto definitivo I 271

dficamos como nuestras capacidades mentales en realidad pueden ser pro­


piedades de los sistemas más amplios, y extendidos en el entomo, de los que
los cerebros humanos mismos son sólo una parte (importante!.
Esto es mucho decir y no espero convencer aquí a los escépticos. Pero
creo que no es tan descabellado como puede parecer a primera vista. Des­
pués de todo, en general es bastante difícil trazar una línea divisoria clara
entre un instrumento y su usuario.^ Cuando tomamos una piedra para cas­
car una nuez, es evidente que esa piedra es un instrumento. Pero si un pá­
jaro suelta una nuez en pleno vuelo para que se rompa al chocar contra el
suelo, ¿es el suelo un instrumento? Algunas aves tragan piedras pequeñas
para facilitar la digestión: ¿son instrumentos estas piedras? ¿O quizá una
vez tragadas simplemente pasan a formar parte del ave? ¿Es un instrumen­
to el árbol al que trepamos para escapar de un depredador? ¿Y la tela de
una araña?
Propongo que el lenguaje público y sus apoyos en el texto y la notación
simbólica no son diferentes de las piedras tragadas por las aves. En ambos
casos, la respuesta a la pregunta «¿Dónde acaba el usuario y empieza el ins­
trumento?» es muy delicada. A la luz del conjunto global de nuestras discu­
siones anteriores, como mínimo estoy convencido de dos afirmaciones. La
primera es que algunas acciones humanas se asemejan más a pensamientos
de lo que parece a primera vista. Se trata de las acciones cuyo verdadero ob­
jetivo es alterar las tareas computacionales a las que se enfrenta el cerebro
cuando trata de resolver un problema: lo que Kirsh y Maglio llaman «accio­
nes epistémicas». La segunda afirmación es que ciertos daños causados al
entorno pueden tener la misma relevancia moral que los daños causados a
personas: al decir esto pienso especialmente en las personas con lesiones
neurológicas (véanse los casos del capítulo 3 anterior) que consiguen salir
adelante añadiendo a su entorno cotidiano unas capas especialmente densas
de accesorios y apoyos externos. Me parece que alterar estos apoyos se pa­
recería más a un delito contra las personas que a un delito contra la propie­
dad. Por ejemplo, Clark y Chalmers (1998) describen el caso de una perso­
na con lesiones neurológicas que depende en grado extremo de un cuaderno
que siempre lleva consigo y a cuyos contenidos se remite en numerosas si­
tuaciones cotidianas. En este caso, la destrucción gratuita del cuaderno ten­
dría un aspecto moral especialmente inquietante: es indudable que dañaría a
la persona en el sentido más literal que se pueda imaginar.
A la luz de estas inquietudes y del evidente valor metodológico (véanse
los capítulos 3,4, 6 y 8 anteriores) de estudiar los sistemas extendidos cere-24

24. He tomado los ejemplos siguientes de Beth Presión (1995). Véanse también Beck,
1980, y Gibson e Ingold, 1993.
272 I Más allá

bro-cuerpo-mundo como totalidades computacionales y dinámicas integra­


das, estoy convencido de que (en ocasiones) es valioso tratar los procesos
cognitivos como si se extendieran más allá de los estrechos confines de la
piel y del cráneo. Y me pregunto si también se debería ampliar la noción in­
tuitiva de la mente misma para abarcar una variedad de accesorios y apoyos
externos; es decir, me pregunto si el sistema que solemos denominar «men­
te», en realidad es mucho más amplio que el que denominamos «cerebro».
A primera vista, esta conclusión tan general puede parecer difícil de digerir.
Creo que una razón de ello es que tendemos a confundir lo mental con lo
consciente. Y aunque no pretendo afirmar en absoluto que la conciencia in­
dividual se extienda más allá de la cabeza, parece evidente que no todo lo
que ocurre en el cerebro y constituye un proceso mental o cognitivo (en el
sentido científico actual) está vinculado con un procesamiento conscienteP
Quizá sea más verosímil suponer que lo que mantiene los verdaderos proce­
sos mentales y cognitivos en la cabeza es una especie de transportabilidad.
Es decir, nos inclinamos hacia una visión de lo que podría llamarse «la men­
te desnuda»: una visión de los recursos y operaciones que siempre podemos
hacer intervenir en una tarea cognitiva, independientemente de cualquier
otra oportunidad que el entorno local nos pueda facilitar o no.
Comprendo bien este reparo. Parece evidente que el cerebro (o quizá,
desde este punto de vista, el conjunto cerebro-cuerpo) es un objeto de es­
tudio y de interés definido y genuino. Y lo que hace que sea así es, precisa­
mente, el hecho de que abarque un conjunto central, básico, y transportable25

25. Ei reflejo vestibular-ocular IRVO), por tomar solo un ejemplo de entre varias docenas
de ellos, estabiliza la imagen del mundo en la retina para compensar el movimiento de la ca­
beza (véase, por ejemplo, Churchland y Sejnowski, 1992, págs. 353-365). Naturalmente, esta
operación es crucial para la visión humana. Y la conciencia humana percibe el mundo de una
forma que depende del funcionamiento correcto del RVO. Pero los pasos computacionales
realizados por los circuitos del RVO no figuran entre nuestros contenidos conscientes. Si las
transformaciones computacionales de las que depende el RVO se realizaran empleando algún
dispositivo externo (una versión neuronal de un pulmón de acero o una máquina de diálisis),
la interacción entre los estados conscientes y los cómputos del RVO podría seguir inalterada.
Por tanto, sea cual sea el papel que desempeñe la consciencia (y sea cual sea el significado de
este término) en algún punto del bucle, ese papel mismo no se puede arrogar la potestad de re­
chazar la caracterización de las transformaciones de algunos dalos externos como parte de
nuestro p rocesamiento cognitivo. Algo así sólo tendría sentido si nos liáramos la manta a la ca­
beza y no consideráramos cognitivos los procesos que no pudieran ser objeto de una intros­
pección consciente. (Si el lector cree que el RVO se encuentra en un nivel demasiado bajo para
que se le considere un ejemplo de proceso no consciente pero genuinamente cognitivo, que lo
sustituya por otro que le parezca mejor como, por ejemplo, los procesos de recuerdo dirigidos
por los contenidos o la habilidad, invisible a la introspección, que pueda subyacer a la capaci­
dad para saber la regla que se debe aplicar en el paso siguiente de una deducción lógica).
El lenguaje: un artefacto definitivo I 273

de recursos cognitivos. Estos recursos pueden incorporar acciones corpora­


les como partes integrales de ciertos procesos cognitivos (como cuando, du­
rante un cálculo difícil, utilizamos los dedos para descargar la memoria de
trabajo). Pero no abarcarán los aspectos más contingentes de nuestro entor­
no externo que pueden estar presentes o no, como una calculadora de bolsi­
llo. En última instancia, no creo que la transportabilidad pueda tener un
peso conceptual suficiente, y por dos razones. En primer lugar, existe el ries­
go de incurrir en una petición de principio. Si nos preguntamos por qué ten­
dría que ser importante la transportabilidad para la constitución de ciertos
procesos mentales o cognitivos, parece que la única respuesta es que desea­
mos que estos procesos vengan en un paquete separado y transportable in­
dividualmente. Pero esto sería volver a invocar el límite entre la piel y/o el
cráneo cuando lo que se discute es, precisamente, la legitimidad de este lí­
mite en sí. En segundo lugar, sería fácil (aunque un poco tedioso para el lec­
tor) concebir varios casos problemáticos. ¿Qué ocurriría si alguien siempre
llevara encima una calculadora de bolsillo? ¿Qué pasaría si algún día llevá­
ramos estos dispositivos implantados en el cerebro? ¿Qué pasaría si tuviéra­
mos «acoplamientos corporales» para una variedad de dispositivos como és­
tos y nos «preparáramos» cada día añadiendo dispositivos adecuados para la
actividad de resolución de problemas prescrita para ese día? Tampoco la
vulnerabilidad de estos dispositivos adicionales a ciertos desperfectos o da­
ños concretos sirve para distinguirlos, porque el cerebro biológico también
corre el riesgo de perder capacidades específicas para la resolución de pro­
blemas a causa de lesiones o traumas.
Pero, en el fondo, quizá la causa más profunda de nuestras inquietudes
sea esa entidad extraordinariamente enigmática a la que llamamos yo.26 La su­
puesta extensión de los procesos cognitivos y mentales hacia el mundo, ¿im­
plica una especie de «fuga» correlativa (ciertamente inquietante) del yo hacia
el entorno local? Ahora parece (¡lo siento!) que la respuesta es «Sí y No». No,
porque (como ya se ha admitido) los contenidos conscientes sobrevienen a los
cerebros individuales. Pero Sí, porque estos episodios conscientes son, como
mucho, instantáneas del yo considerado como un perfil psicológico en desa­
rrollo. Estoy dispuesto a admitir que los pensamientos, considerados única­
mente como instantáneas de nuestra actividad mental consciente, se pueden
explicar totalmente mediante el estado del cerebro en cada momento. Pero el
flujo del razonamiento y el pensamiento, y la evolución en el tiempo de las
ideas y las actitudes, están determinados y explicados por la interacción ínti­
ma, compleja y continua entre cerebro, cuerpo y mundo. Nada me impide de­

26. Véase en Várela y otros (1991) una exposición interesante, aunque muy diferente, de
las implicaciones de un enfoque corpóreo y embebido para las concepciones del yo.
274 i Más allá

cir que el hecho de que escriba un libro como éste responde a una caracterís­
tica genuina de mi perfil psicológico, a pesar de que el flujo y la forma de las
ideas expresadas dependerá profundamente de una variedad de interacciones
repetidas entre mi cerebro biológico y un pequeño arsenal de codificaciones,
recodificaciones y recursos estructuradores externos.
Naturalmente, esta perspectiva liberal de los procesos y los perfiles cog-
nitivos se debe equilibrar mediante una buena dosis de sentido común. No
se puede extender la mente hacia el mundo por las buenas. Un análisis que
me atribuyera el conocimiento de todos los datos de la Encyclopaedia Bri-
tannica sólo porque he pagado los plazos y le he encontrado espacio en el ga
raje, carecería de valor. Y tampoco deberíamos dejar que desapareciera la
distinción entre mi mente y la del lector sólo porque se nos vea charlando en
el autobús. Entonces, ¿qué distingue los casos más convincentes de la exis­
tencia de una sólida extensión cognitiva de los otros casos?
Algunas características importantes de los casos convincentes se pue­
den aislar con facilidad, como ocurre con el cuaderno antes mencionado
de la persona con una lesión cerebral. El cuaderno siempre está ahí: no
está encerrado en el garaje ni se consulta de vez en cuando. La informa­
ción que contiene es fácil de encontrar y utilizar. Esta información se
acepta automáticamente: no se somete a un examen crítico a diferencia de
las reflexiones de un compañero en el autobús. Por último, la información
ha sido recopilada y corroborada por el propio usuario (a diferencia de las
entradas de una enciclopedia). Puede que no todas estas condiciones sean
esenciales. Y puede que haya pasado por alto otras. Pero la imagen gene­
ral es la de una relación usuario-artefacto bastante especial donde el arte
facto siempre está presente, se utiliza con frecuencia, está hecho «a medi­
da» del usuario y éste tiene una profunda confianza en él. Como hemos
visto en numerosas ocasiones en capítulos anteriores, los agentes humanos
pueden extraer todo tipo de beneficios cognitivos y computacionales fun­
damentales a partir de interacciones con artefactos que apenas tienen al­
guna - o ninguna- de estas características. Pero, probablemente, sólo po­
dremos argumentar la extensión de las nociones moralmente resonantes
de yo, mente y agente para que incluyan aspectos del mundo más allá de
la piel, si se cumple algo parecido a estas condiciones. Por tanto, los lími­
tes del yo -y no sólo los de computación y del proceso cognitivo general-
sólo amenazan con extenderse hacia el mundo cuando la relación entre el
usuario y el artefacto es casi tan estrecha e íntima como la que existe en­
tre la araña y su tela.27

27. Véase en Dawkins, 1982, un tratamiento biológico especialmente inteligente de este


tipo de casos.
El lenguaje: un artefacto definitivo I 275

En el caso de la persona y el cuaderno, el aspecto crucial es que las en­


tradas del cuaderno desempeñan, en la conducta de la persona como agen­
te, la misma función explicativa2S que una información codificada en la me­
moria a largo plazo. Las condiciones especiales mencionadas (accesibilidad,
refrendo automático, etc.) son necesarias para garantizar este tipo de iso-
morfismo funcional. Sin embargo, aunque admitamos que este isomorfismo
existe (algo que muchos no harán), puede que sea posible evitar la conclu­
sión radical del agente distribuido. Una conclusión alternativa (que conside­
ro igualmente aceptable) sería que el agente continúa encerrado dentro del
envoltorio de la piel y el cráneo, pero que sus creencias, sus conocimientos y
quizá otros estados mentales, ahora dependen de vehículos físicos que (en
ocasiones) se pueden extender para incluir unas características seleccionadas
del entorno local. Esta imagen mantiene la noción del agente como combi­
nación de cuerpo y cerebro biológico y, en consecuencia, nos permite decir
-como seguramente deberíamos hacer- que e! agente, en ocasiones, mani­
pula y estructura esos mismos recursos externos con el fin de reforzar, des­
cargar o transformar aún más sus propias actividades básicas de resolución
de problemas. Pero también permite que, a veces, este «alcanzar» el mundo
suponga la creación de redes cognitivas y computacionales más amplias: re­
des cuya comprensión y análisis requiere aplicar los instrumentos y concep­
tos de la ciencia cognitiva a entidades híbridas más amplias que comprenden
cerebros, cuerpos y una amplia variedad de procesos y estructuras externas.
En resumen, me conformo con dejar que las nociones de yo y de agencia
encajen donde sea. A fin de cuentas sólo afirmo que, como mínimo, tenemos
buenas razones explicativas y metodológicas para aceptar (en ocasiones) una
noción bastante liberal del alcance de los procesos cognitivos y computacio­
nales que permita explícitamente la diseminación de estos procesos por el
cerebro, el cuerpo, el mundo y los artefactos. Entre estos artefactos destacan
las diversas manifestaciones del lenguaje público. El lenguaje es, en muchos
aspectos, el artefacto definitivo: es tan omnipresente que casi es invisible y
su carácter es tan íntimo que no está claro si es un instrumento o una di­
mensión del usuario. Cualesquiera que sean los límites, como mínimo nos
enfrentamos a una economía estrechamente vinculada donde el cerebro bio­
lógico está increíblemente potenciado por algunas de sus creaciones más ex­
trañas y recientes: palabras en el aire, símbolos en páginas impresas.

28. Véase un planteamiento a fondo de esta afirmación en Clark y Chalmers, 1998.


11 Mentes, cerebros y atunes:
un resumen en salmuera

La capacidad para nadar de muchos peces y animales acuáticos, como los


atunes y los delfines, es asombrosa. Estos seres superan de largo cualquier
producto que la ciencia náutica haya podido producir. No sólo son magos de
la maniobrabilidad: al parecer, su propulsión es totalmente paradójica. Por
ejemplo, se estima que el delfín carece de la fuerza suficiente1 para propul­
sarse a las velocidades que llega a alcanzar. En un intento de desenmarañar
este misterio, dos expertos en dinámica de fluidos, los hermanos Michael y
George Triantafyllou, se han visto conducidos a una interesante hipótesis:
que la extraordinaria eficiencia natatoria de ciertos animales se debe a la evo­
lución de una capacidad para explotar y crear fuentes adicionales de energía
cinética en un entorno acuoso. Al parecer, estos animales explotan los remo­
linos, torbellinos y vórtices del agua para «turboalimentar» su propulsión y
ampliar su capacidad de maniobra. En ocasiones, estos fenómenos aparecen
en los fluidos de manera natural {por ejemplo, cuando una corriente de agua
choca contra una roca). Pero la explotación de estas ayudas externas por
parte de estos animales no se acaba aquí. Por ejemplo, también pueden crear
activamente una variedad de vórtices y gradientes de presión (sacudiendo la
cola) que después utilizan para dar velocidad y agilidad a una conducta pos­
terior. Controlando y explotando de esta manera la estructura de su entorno
local, estos animales pueden arrancar y girar con tal rapidez que, en compa-

1. La estimación de que el delfín es unas siete veces más débil de lo que debiera tiene su
origen en el biólogo James Gray. Como indican Triantafyllou y Triantafyllou (1995, pág. 66),
aún no es posible comprobar con rigor esta estimación. Pero realmente parece que los delfines
generan una extraordinaria fuerza de propulsión a partir de unos recursos bastante limitados:
de ahí los intensos esfuerzos de investigación dedicados recientemente a desentrañar los mis­
terios de la propulsión délos animales pisciformes. (VéanseGray, 1968; HoaryRandal!, 1978,
y Wu y otros, 1975, así como los estudios avanzados de los hermanos Triantafyllou.)
278 I Más allá

ración, nuestros transatlánticos parecen torpes, pesados y lentos. «Con la


ayuda de un desfile continuo de estos vórtices» , dicen Triantafyllou y Trian-
tafyllou (1995, pág. 691, «es posible que la eficiencia natatoria de un pez lle­
gue incluso a superar el cien por cien.» Los buques y los submarinos no ob­
tienen estas ventajas: tratan el entorno acuático como un obstáculo que hay
que superar y no buscan transformarlo para sus propios fines controlando y
manipulando la dinámica de los fluidos que rodean el casco.
Este relato sobre los atunes2 nos recuerda que los sistemas biológicos se
benefician profundamente de la estructura de su entorno local. La mejor ma­
nera de concebir el entorno no es viéndolo únicamente como un ámbito de
problemas a superar. El entorno también es, en un sentido fundamental, un
recurso que cabe tener en cuenta en las soluciones. Como hemos visto, esta
simple observación tiene algunas consecuencias de gran alcance.
Antes que nada, debemos reconocer el cerebro por lo que es. No es el ce­
rebro de un espíritu incorpóreo convenientemente anclado a un armazón
ambulante de carne y sangre. Al contrario, en esencia es el cerebro de un
agente corpóreo capaz de crear y explotar estructuras en el mundo. Si con­
cebimos el cerebro como controlador de la acción corpórea, en ocasiones ve­
remos que dedica una considerable cantidad de energía a controlar y explo­
tar estructuras del entorno y no a solucionar un problema directamente y de
una vez. Estas estructuras, moldeadas mediante una secuencia repetida
de interacciones cerebro-mundo, pueden alterar y transformar el problema
original hasta que adopte una forma manejable para los recursos limitados
de una cognición orientada a la compleción de patrones, al estilo de las re­
des neuronales.
En segundo lugar, y como consecuencia de lo anterior, no deberíamos
confundir el perfil de resolución de problemas de la mente corpórea y em­
bebida en el entorno físico y social, con el perfil de resolución de problemas
del cerebro básico. El hecho de que los seres humanos pueden hacer lógica
y ciencia no implica que el cerebro contenga un auténtico instrumento lógi­
co o que codifique teorías científicas con un formato similar a su expresión
habitual mediante palabras y frases.3 En realidad, tanto la lógica como la

2. El atún robot de aluminio anodizado de 1,25 m de largo y con ocho segmentos que
aparece en la lámina 3, está siendo estudiado en un tanque de prueba del Massachusetts Insti-
tute of Technology. Este trabajo se esboza en Triantafyllou y Triantafyllou, 1995. Algunos es­
tudios detallados anteriores se comunican en Triantafyllou y otros, 1993, y en Triantafyllou y
otros, 1994.
3. Aquí, la imagen corpórea y embebida simplemente va en apoyo de la antigua insisten­
cia de los conexionistas en que la codificación neuronal no adopta la forma de frases. Véanse
las versiones conexionistas de este argumento, por ejemplo, en Churchland, 1989, y Clark,
1989.
Mentes, cerebros y atunes: un resumen en salmuera I 279

ciencia se basan en gran medida en el empleo y la manipulación de medios


externos, especialmente los formalismos del lenguaje y la lógica, y las capa­
cidades de almacenamiento, transmisión y refinamiento proporcionadas por
las instituciones culturales y el empleo de textos escritos y hablados. Como
he argumentado, es mejor ver estos recursos como ajenos pero complemen­
tarios al estilo de almacenamiento y computación del cerebro. El cerebro no
necesita malgastar su tiempo duplicando estas capacidades. En cambio, debe
aprender a conectar45con los medios externos para aprovechar al máximo sus
virtudes características.
En tercer lugar, ya es hora de que empecemos a encarar algunas cuestio­
nes bastante desconcertantes (¿o debería decir metafísicas?). Para empezar,
la naturaleza y los límites del agente inteligente parecen ser más borrosos
cada vez. En el cerebro ya no existe un ejecutivo central:3 un verdadero jefe
que organice e integre las actividades de múltiples subsistemas especializa­
dos. Y tampoco existe ya un límite nítido entre el pensador (el ingenio inte­
lectual incorpóreo) y su mundo. En lugar de esta reconfortante imagen de la
mente, nos encontramos con una especie de caja de sorpresas repleta de
agencias internas, cuyos papeles computacionales se suelen describir mejor
incluyendo características del entorno local (tanto en los complejos bucles
de control como en una amplia variedad de manipulaciones y transforma­
ciones de información). En vista de todo esto, en algunos casos quizá sea
conveniente considerar el sistema inteligente como un proceso extendido en
el espacio y en el tiempo que no está limitado por el tenue envoltorio de la
piel y el cráneo.6 Desde una perspectiva menos radical, las divisiones tradi­
cionales entre percepción, cognición y acción7 parecen ser cada vez menos
útiles. Con la desaparición del ejecutivo central, la percepción y la cognición
parecen más difíciles de distinguir en el cerebro. Y la división entre pensa­
miento y acción se hace añicos en cuanto reconocemos que las acciones en el
mundo real suelen desempeñar, precisamente, los tipos de funciones que
más se suelen asociar con los procesos internos de cognición y computación.

4. Curiosamente, la repetición interna de frases (y otras maneras de construir modelos de


medios externos) ocupa un lugar intermedio. En estos casos, realmente nos beneficiamos du­
plicando ¡memamente la dinámica general de un medio externo. Pero, como vimos en el capí­
tulo 10, no necesitamos suponer que esta repetición implique la creación de un recurso compu-
tacional totalmente nuevo. En cambio, podemos utilizar tipos familiares de redes neuronales
completadoras de patrones, entrenados mediante nuestras experiencias de manipulación de
formalismos externos reales. Véanse más comentarios al respecto en el capítulo 10 de Church-
land, 1995, y en Rumelhart y otros, 1986.
5. Dennett (1991) ofrece una extensa y fascinante meditación sobre este tema.
6. Véase otra exposición al respecto en Clark y Chalmers, 1998.
7. Esto se reconoce cada vez más en la psicología del desarrollo. Véanse los trabajos exa­
minados en el capítulo 2, especialmente Thelen y Smith, 1994, y Rutkowska, 1993.
280 I Más allá

En cuarto (y último) lugar, e independientemente de cualesquiera sutile­


zas metafísicas, todo esto implica unas consecuencias metodológicas urgen­
tes e inmediatas. En la medida en que la perspectiva corpórea y embebida
esté bien encaminada, la ciencia cognitiva ya no se podrá permitir los sesgos
individualistas y aislacionistas que caracterizaron los primeros decenios de
su andadura. Ahora necesitamos una visión más amplia que incorpore múl­
tiples enfoques culturales y ecológicos además del núcleo tradicional de la
neurociencia, la lingüística y la inteligencia artificial. Y necesitamos instru­
mentos nuevos con los que investigar efectos que abarcan múltiples escalas
temporales, implican a múltiples individuos e incorporan complejas interac­
ciones ambientales. Es probable que, hoy por hoy, lo mejor sea combinar
hábilmente enfoques basados en los sistemas dinámicos, la robótica en
mundo real y simulaciones a gran escala (de efectos evolutivos y colectivos).
Pero he argumentado que estas investigaciones se deben entrelazar cuida­
dosamente con la investigación neurocientífica en curso y anclarse, siem­
pre que sea posible, en el conocimiento del cerebro biológico. En la bús­
queda de este entrelazamiento, sería una insensatez echar por la borda el
núcleo de la comprensión científica cognitiva -que tanto esfuerzo ha costa­
do construir- basada en las nociones de representación interna y de compu­
tación. La verdadera lección de nuestras investigaciones sobre la cognición
corpórea y embebida no es que tengamos éxito sin representación (o, peor
aún, sin computación), sino que los tipos de representación interna y de
computación que empleamos han sido seleccionados para complementar los
complejos entornos sociales y ecológicos en los que debemos actuar. Así
pues, será conveniente que no ignoremos ni minimicemos la importancia de
estos entornos más amplios.
Y aquí estamos. Al final de un viaje largo y seguramente inacabado. He­
mos encontrado curvas, desvíos y -admitámoslo- uno o dos escollos que no
hemos podido demoler y nos hemos limitado a rodear. Aún queda mucho
por hacer, pero espero haber atado algunos cabos, haber tendido algunos
puentes y haber destacado algunas cuestiones apremiantes. Y aunque puede
ser que -como Humpty Dumpty en la segunda parte de Alicia en el país Je
las maravillas, Alicia a través del espejo- cerebro, cuerpo y mundo tarden un
montón de tiempo en reunirse otra vez, creo que vale la pena perseverar en
este empeño porque hasta que estas piezas no encajen en su sitio, no nos po­
dremos ver tal como somos ni podremos apreciar la compleja confabulación
que subyace al éxito adaptativo
Epílogo: habla un cerebro1

Soy el cerebro de Juan.12 Físicamente no soy más que una masa de células
de color grisáceo y de aspecto más bien mediocre. Mi superficie tiene un re­
lieve muy intrincado y poseo una estructura interna bastante diferenciada.
Juan y yo mantenemos una relación muy íntima; de hecho, en ocasiones es
difícil distinguirnos. Pero, a veces, Juan lleva esta intimidad demasiado lejos
y se siente muy confundido acerca de mi papel y mi funcionamiento. Imagi­
na que organizo y proceso información de maneras que reflejan su propia
perspectiva del mundo. En resumen: piensa que sus pensamientos son, en un

1. Las ideas y los temas presentados en esta pequeña fantasía deben mucho a las visiones
de Paul Churchland, Patricia Churchland, Daniel Dennett, Marvin Minsky, Gilbert Ryle, John
Haugeland y Rodney Brooks. Al reunir estos temas he tratado de conseguir una divergencia
máxima entre los hechos en el nivel del agente y los hechos en el nivel del cerebro. No preten­
do afirmar dogmáticamente que la neurociencia actual postule inequívocamente una diver­
gencia tan radical. Varias de las cuestiones acerca de las cuales permito que el cerebro adopte
una postura siguen siendo objeto de debate científico. (Véase una muestra de este debate en
Churchland y Sejnowski, 1992, y Churchland y otros, 1994.) En vista del concepto literario
adoptado, hacer referencias explícitas me parecía fuera de lugar; sin embargo, si las hiciera, in­
cluiría especialmente las siguientes: Dennett, 1978a; Dennett, 1991; Minsky, 1985; Church­
land, 1989; Haugeland, 1995; el articulo de R. Brooks, «Intelligence without representation».
ArtificialIrtlelltgence, 4 1 (1991), págs. 139-159; la obra de G. Ryle TbcConcepl OfMmd (Hut
chinson, 1949); c! artículo de C. Warrington y R. McCarthy «Categórica of knowledge; further
fractionations and an attempted integración», Bram, 110 (1987), págs. 1.273 1.296 Vease mi
propia exploración de algunos de estos lemas en Clark, 1993, y Clark, 1995
2. O el de María, Mariano o Pepa. La elección de este nombre clásico de varón no pre­
tende ser más que un pequeño homenaje a los antiguos artículos de la revista Renden Digetl
con títulos como «soy el hígado de John» o «soy el riñón de Joc». Estos artículos también da­
ban voz a nuestros diversos órganos internos, permitiéndoles explicar sus estructuras, necesi
dades y patologías directamente al lector.
282 I Estar ahí

sentido muy directo, mis pensamientos. Pero aunque en esto hay algo de ver­
dad, en realidad las cosas son bastante más complicadas de lo que Juan sos­
pecha, como trataré de demostrar.
En primer lugar, Juan es ciego por naturaleza a la mayor parte de mis ac­
tividades cotidianas. Como mucho, capta algunos detalles ocasionales y som­
bras deformadas de mí verdadero trabajo. Hablando en general, estos efíme­
ros detalles sólo representan los productos de mi vasta actividad subterránea
y no los procesos que los originan. Estos productos incluyen el juego de las
imágenes mentales y los pasos en una serie lógica de pensamientos o ideas.
Además, Juan accede a estos productos de una manera bastante impro­
visada. Lo que filtra hacia su consciencia es algo parecido a lo que aparece
en la pantalla de un ordenador. En los dos casos, lo que se muestra es un re­
sumen, hecho a medida, de los resultados de ciertos episodios de actividad
interna: resultados que tienen una utilidad concreta para el usuario. Después
de todo, la evolución no derrocharía tiempo y dinero (búsqueda y energía)
en mostrar a Juan un registro fiel de ese funcionamiento interno, a menos
que pudiera ayudar a Juan a cazar, sobrevivir y reproducirse. Así que, a Juan,
se le hace saber lo mínimo acerca de mis actividades internas. Todo lo que
necesita saberes el significado global del resultado final de algunas activida­
des selectas: que parte de mí se encuentra en un estado asociado con la pre­
sencia de un depredador peligroso y que lo más oportuno es huir, y otras co­
sas por el estilo. Por tanto, lo que Juan (el agente consciente) obtiene de mí
se parece bastante a lo que obtiene un conductor de los indicadores del sal­
picadero: información sobre unos cuantos parámetros internos y externos
que pueden influir productivamente en su actividad general de conducción.
Existe un conjunto de importantes malentendidos en torno a la cuestión
de la procedencia de los pensamientos. Juan me concibe como la fuente de
los productos intelectuales que identifica como sus pensamientos. Pero, ha­
blando en plata, yo no tengo pensamientos de Juan. Juan sí tiene pensa­
mientos de Juan y yo no soy más que un elemento en el conjunto de proce­
sos y sucesos físicos que permiten que se produzca el pensar. Juan es un
agente cuya naturaleza se concreta mediante una compleja interacción en la
que intervienen incontables sucesos internos (incluyendo mi actividad), una
corporeización física particular y una manera de encajar (embeberse) en el
mundo. La combinación de la corporeización y el encaje origina unos aco­
plamientos informativos y físicos persistentes entre Juan y su mundo: estos
acoplamientos dejan gran parte del «conocimiento» de Juan en el mundo ex­
terior, disponible para ser recuperado, transformado y utilizado como y
cuando sea necesario.
Tomemos este sencillo ejemplo: hace unos días, Juan estuvo sentado
en su escritorio durante mucho tiempo y trabajando muy duro. Al final se
Epilogo: habla un cerebro I 283

levantó y salió del despacho, satisfecho con el trabajo del día. «Mi cere­
bro», reflexionaba (porque se precia de su fiscalismo), «ha trabajado
muy bien. Se le han ocurrido varias buenas ideas.» En la imagen que te­
nía Juan de los sucesos del día, yo era la fuente de esas ideas: ideas que él
creía haber plasmado en papel por mera conveniencia y para evitar el ol­
vido. Naturalmente, agradezco que Juan me dé tanto mérito. Me atribu­
ye directamente los productos intelectuales terminados. Pero, al menos
en este caso, el mérito se debería repartir un poco más. Sin duda, mi pa­
pel en el origen de estos productos intelectuales es vital: ¡destruidme y
-ciertamente- esta productividad intelectual se acabará! Pero mi función
está constituida de una manera más delicada de lo que sugiere la sencilla
imagen que tenía Juan. Esas ideas de las que tan orgulloso se sentía no
surgieron totalmente formadas a partir de mi actividad. La verdad sea di­
cha, actué más bien como un factor mediador en algunos bucles comple­
jos de retroalimentación que abarcaban a Juan y a partes seleccionadas de
su entorno local. Dicho claramente, me pasé el día en una variedad de in­
teracciones íntimas y complejas con varios aditamentos externos. Sin
ellos, los productos intelectuales terminados nunca hubieran tomado for­
ma. Si mal no recuerdo, mi papel fue acompañar a Juan mientras repasa­
ba un montón de anotaciones y materiales antiguos, y reaccionar a estos
materiales produciendo unas cuantas críticas e ideas fragmentarias. Estas
pequeñas respuestas se fueron almacenando en forma de más anotaciones
en papeles y márgenes de hojas. Más adelante, intervine en la reorganiza­
ción de estas anotaciones al ponerlas en limpio, añadiendo nuevas reac­
ciones sobre la marcha a esas ideas fragmentarias. Este ciclo de lectura,
respuesta y reorganización externa se repitió una y otra vez. Al final de la
jornada, las «buenas ideas» cuyo mérito me había adjudicado Juan con
tanta rapidez habían surgido como fruto de esas interacciones pequeñas y
repetidas entre los diversos medios externos y yo. Por tanto, el mérito no
fue tanto mío como del proceso extendido en el espacio y en el tiempo en
el que yo había cumplido una función.
Si lo pensara bien, es probable que Juan estuviera de acuerdo con esta
descripción de mi papel aquel día. Pero yo le advertiría que hasta esto pue­
de ser ilusorio. Hasta ahora me he permitido hablar como si fuera un re­
curso interno unificado que conttibuye a estos episodios interactivos. Esto
es una ilusión reforzada por el presente dispositivo literario y que Juan pa­
rece compartir. Pero, una vez más, y en honor a la verdad, yo no soy una voz
interna sino muchas. De hecho, soy tantas voces internas a la vez, que la me­
táfora misma de la voz interna debe ser ilusoria, porque sugiere la existen­
cia de unas subagencias internas bastante sofisticadas y que quizá poseen
una conciencia rudimentaria de sí mismas. En realidad, yo sólo estoy for-
284 I Estar ahí

mado por múltiples corrientes sin conciencia de procesos computacionales


que se ejecutan en paralelo y que suelen ser relativamente independientes.
Más que una masa de agentes minúsculos, soy una masa de «no agentes»
sintonizados y sensibles a unas entradas concretas, hábilmente orquestados
por la evolución para producir una conducta intencional con éxito en la
mayoría de las entornos cotidianos. Por tanto, mi voz única sólo es un arti­
ficio literario.
En el fondo, todos los errores que comete Juan son variaciones del mis­
mo tema. Cree que veo el mundo como él, que empaqueto las cosas como él
y que pienso de la misma manera que él comunicaría sus pensamientos.
Nada de esto es cierto. No soy el eco interno de las conceptualizaciones de
Juan. Más bien soy la fuente, algo extraña, de las mismas. Para ver lo extra­
ño que puedo llegar a ser, basta con que Juan reflexione en las consecuen­
cias extraordinarias e inesperadas que pueden tener mis lesiones en los per­
files cognitivos de seres como él. Por ejemplo, si me lesionara podría
provocar un deterioro selectivo de la capacidad de Juan para recordar los
nombres de objetos manipulables pequeños y, sin embargo, dejar intacta su
capacidad para nombrar objetos grandes. Y es que almaceno y recupero de
una manera diferente la información con una gran carga visual y la infor­
mación que tiene una gran carga funcional; el primer método ayuda a dis­
tinguir objetos grandes y el segundo objetos pequeños. La cuestión es que
esta faceta de mi organización interna es totalmente ajena a Juan: respeta
necesidades, principios y oportunidades de las que Juan es totalmente in­
consciente. Por desgracia, en vez de tratar de comprender mis maneras de
almacenar información tal como son, Juan prefiere imaginar que organizo
mi conocimiento de la misma manera que él organiza el suyo, muy influido
por las palabras particulares de su lenguaje. Así, supone que almaceno in­
formación en grupos que corresponden a lo que él denomina «conceptos»
(en general, nombres que figuran en sus clasificaciones lingüísticas de suce­
sos, estados y procesos del mundo). Aquí, como de costumbre, Juan se da
demasiada prisa en identificar mi organización con su propia perspectiva.
Es indudable que almaceno y accedo a grupos de información que juntos, y
siempre y cuando yo funcione normalmente, apoyan una amplia gama de
empleos productivos de las palabras y una gran variedad de interacciones
con los mundos físico y social. Pero los «conceptos» que tanto ocupan la
imaginación dejuan, no son más que los nombres públicos de unas cajas de
sorpresas que contienen unos conocimientos y unas aptitudes con unas ba­
ses neuronales múltiples y diversas. En lo que a mí respecta, los «concep­
tos» dejuan no se corresponden con nada especialmente unificado. ¿Y por
qué deberían hacerlo? Esta situación se parece a la de una persona que sabe
construir barcos. Hablar de la capacidad de construir un barco es emplear
Epilogo: habla un cerebro I 285

una frase sencilla para denotar un conjunto de aptitudes cuyas bases cogni-
dvas y físicas varían enormemente. Esta unidad sólo existirá en la medida
en que ese conjunto concreto de aptitudes físicas y cognitivas tenga un sig­
nificado especial para una comunidad de agentes (marineros). Me parece
que los «conceptos» de Juan son precisamente eso: nombres para comple­
jos de aptitudes cuya unidad no se basa en hechos sobre mí, sino en hechos
sobre el modo de vida de Juan.
La tendencia dejuan a proyectar ilusoriamente su propia perspectiva en
mí, se extiende a su concepción de mi conocimiento del mundo externo.
Cuando Juan da un paseo, se siente poseedor de una imagen tridimensional
estable de su entorno inmediato. A pesar de las sensaciones de John, yo no
dispongo de nada semejante. Yo me limito a detectar pequeñas regiones de
detalle en rápida sucesión, pasando de un aspecto de la escena visual a otro.
Y no me molesto en almacenar todos esos detalles en un modelo interno que
requiera un mantenimiento y una actualización constantes, porque soy ex­
perto en repasar partes de la escena y volver a crear un conocimiento deta­
llado siempre que sea necesario. Como resultado de este truco y de otros pa­
recidos, la capacidad dejuan para desenvolverse en su entorno local es tan
fluida que se cree poseedor de una visión interna constante de los detalles de
ese entorno. La verdad es que lo que Juan ve está más relacionado con las ca­
pacidades que yo le confiero para interaccionar constantemente, en tiempo
real, con abundantes fuentes externas de información, que con el registro
pasivo y permanente de información en función del cual él concibe su visión.
La verdad, triste pero cierta, es que no tengo casi nada que ver con lo que
Juan cree que soy. Seguimos siendo unos extraños a pesar de nuestra intimi­
dad (o quizá a causa de ella). El lenguaje dejuan, sus introspecciones y su
fiscalismo, lo inclinan a identificar en exceso mi organización con su propia
perspectiva limitada y así no puede ver mi naturaleza fragmentaria, oportu­
nista y, en general, extraña, Se olvida de que, en gran medida, soy un dispo­
sitivo orientado hacia la supervivencia muy anterior a la emergencia de la ca­
pacidad lingüística, y así que mi función de promover la cognición
consciente y linguaforme no es más que una reciente actividad suplementa­
ria. Naturalmente, esta actividad es una raíz básica de sus falsas ideas. Al po­
seer un vehículo tan magnífico para la manipulación y la expresión compac­
ta y comunicable del conocimiento, Juan tiende a confundir las formas y
convenciones de ese vehículo lingüístico con la estructura misma de la acti­
vidad neuronal.
Pero mientras hay vida hay (más o menos) esperanza. Ultimamente me
siento animado por la aparición de nuevas técnicas de investigación, como la
obtención no invasiva de imágenes del cerebro, el estudio de redes neurona-
les artificiales y la investigación de la robótica en mundo real. Estos estudios
286 I Estar ahí

y técnicas auguran una mejor comprensión de las complejas relaciones exis­


tentes entre mi actividad, el entorno local y la construcción del mosaico que
constituye la sensación de yo. Mientras tanto no olvidemos que, a pesar de
nuestra intimidad, Juan sabe realmente muy poco sobre mí. Imaginadme
como un marciano dentro de su cabeza.’

3. Gracias a Daniel Dcnnctt, Joseph Goguen, Keilh Sutherland, Dave Chalmcrs y a un


evaluador anónimo por su apoyo, sus consejos y sus sugerencias.
Bibliografía

Abraham, R y Shaw, C., 1992, Dynamics-The Geometry ofBehevior. Addison-Wesley


Acldey, D. y Littman, D., 1992, «Interacdons between leaming and evolution», en Artificial
U fe íí, C. Langton y otros (comp.), Addison-Wesley.
Adoipb, K., Eppler, E. y Gibson, E.( 1993, «Crawling versus walking: Infants’ perception of affor-
dances for locomodon on slopes», Child Developwent, 64, págs. 1.158-1.174.
Agre, R., 1988, «The Dynamic Structure of Everday Life», tesis doctoral, Department of Electrical
Engineering and Computer Sdence, Massachusetts lnstitute of Technology.
Agre, P. y Chapman, D., 1990, «What are plans for?», en Designing Autonomous Agcn/s, P.
Maes (comp,), M1TPress.
Albus.J. 1971, «A theory of ccrebellar function», Matbematical Biosciettces, 10, págs. 25-61.
Alexopoulos, C. y Mims, C., 1979, Introductory Mycology, 3* ed., Wiley.
Ashby.R, 1952, Destgnfora Brain, Chapman & Hall (trad. cast.: Proyecto para un cerebro, 1965).
Ashby, R , 1956, lutroductron to Cybernetics, Wiley.
Ashworth, J. y Dce, )., 1975, The Btology ofSltme Molds, Edward Arnold.
Ballard, D., 1991, «Anímate visión». Artificial Intelhgence, 48, págs. 57-86.
Baum, C., 1993, «The Effects of Occupation on Behaviors of Persons with Senile Dementia of
the Alzhcimers Type and Their Carers», tesis doctoral, George Warren Brown School of
Social Work, Washington University, St. Louis.
Bechtel, W. y Richardson, R , 1992, Discovering Complexity Decompoution and Locahzalion as
Saentific Research Strategres, Princeton University Press.
Beck, B., 1980, Animal Tool Bebavror The Use and Manufacture of Too/s by Animáis, Garland.
Beckers, R , Holland, O. y Deneubourg, J., 1994, «From local actions to global tasks: Stig-
mergy and collective robotics», en Artificial U fe 4, R. Brooks y P Maes (comps.), MIT
Press.
Beer, R., 1995a, «Computational and dynamical languages for autonomous agents», en Mmd
as Motioii, R. Port y T. van Gclder (comps.), MIT Press.
Beer. R , 1995b, «A dynamical Systems perspecrive on agent-environment interaction», Artifi­
cial Intelhgence, 72, págs. 173-215.
Beer, R. y Chiel, H. 1993 «Simulations of cockroach locomodon and escape», en Brologrcal
Neural Networks tn Invertebrale Neuroetbology and Robotics, R. Beer y otros (comps.l,
Academic Press.
Beer, R y Gallagher, J., 1992, «Evolving dynamical neural networks for adaptive behavior»,
Adaptwe Behavtor, 1, págs. 91-122.
280 I Estar ahí

Bcer, R., Ritman, R. y McKenna, T. (comps.), 1993. BiológicalNeuralNetworksin Invertebra-


te Neuroetbology and Robottcs, Academic Press.
Becr, R., Chiel, H., Quinn, K., Espenschied, S. y Larsson, R., 1992, «A dtstributed neural nct-
work architecture for hexapod robot locomotion», Neural Computation 4, n° 3, págs. 356-
365.
Belew, R., 1990, «Evolución, leaming, and culture: Compucational metaphors for adaptive al-
gorithms», Complex Systems, 4, págs. 11-49.
Bcrk, L., 1994,«WhychiIdren talk co l\iem selves»,Sacntific American, 271, n°5, págs. 78 83.
Berk, L. y Garvín, R., 1984, «Developmcnt of prívate speech among low incomc Appalachian
children», Developmental Psycbology, 20, n° 2, págs. 271-286.
Bickerton, D., 1995, Language and Human Behavior, University of Washington Press.
Bivens, J. y Berk, L., 1990, «A longitudinal study of the dcvelopment of elementary school chil­
dren s prívate speech», Merrill-Palmer Quarlerly, 36, n° 4, págs. 443-463.
Boden, M., 1988, Computer Models o f Mind, Cambridge University Press.
Boden, M., 1996, Oxford Readings in the Philosopby o f Artificial Life, Oxford University Press.
Bratmon, M., 1987, Intentions, Plans and Practical Reason, Harvard University Press.
Bratman, M., Israel, D. y Pollack, M., 1991, «Plans and rcsource-bounded practical reasoning»,
en Philosopby and A l: Essays at the Interface, R. Cummins yJ. Pollock (comps.), MIT Press.
Brooks, R., 1991, «Intelligence without reason», en Proceedtngs of the ¡2tb International joint
Conference on Artificial Intelligence, Morgan Kauffman.
Brooks, R., 1993, «A robot that walks: Emcrgent behaviors from a carefully evolved network»,
en Biological Neural Networks in Inverlebrate Neuroetbology and Robotics, R. Beer y otros
(comps,), Academic Press.
Brooks, R., 1994, «Coherent behavior from many adaptive processes», en From Animáis to
Animáis, 3, D, Cltff y otros (comps.), MIT Press.
Brooks, R. y Maes, P., (comps.), 1994, Artificial U fe, 4, MIT Press.
Brooks, R. y Stcin, L., 1993, «Building Brains for Bodics», memorándum 1.439, Artificial In-
telligence Laboratoty, Massachusctts Institutc of Technology.
Bruner, J., 1968, Processes in Cognitive Growth■ Infancy, Clark University Press.
Bu5emeyer, J . y Townsend, J., 1995, «Decisión field theory», en Mind as Motion, R. Port y T.
van Gelder (comps.), MIT Press.
Buder, K„ Intemal Affairs: A Critique o f Externalism in the Philosopby ofMtnd, Kluwer, 1998.
Campos, J., Hiatt, S., Ramsey, D., Henderson, C. y Svejda, M., 1978, «The emergente of fear
on the visual diff», en The Developmenl of Afject, volumen 1, M. Lewis y R. Rosenblum
(comps.), Plenum.
Carruthers, P. (1996) Language, Thought and Consciousness: An Essay in Philosopbical Psycbo­
logy Cambridge University Press.
Chambers, D. y Reisberg, D., 1985, «Can mental ímages be ambiguous?», Journal of Experi­
mental Psycbology: Human Perceplion and Performance, II, págs. 317-328.
Changeux, J.-P., y Connes, A., 1995, Conversations on Mind, Matter andMathematics, Prince-
ton University Press.
Chapman, D., 1990, «Vision, Instrucción and Acción», informe técnico 1204, Artificial Intelli-
gente Laboratory, Massachusetts Institute of Technology.
Christiansen, M., 1994, «The Evolución and Acquisition of Language», PNP Research Repon,
Washington University, St. Louts.
Churchland, P. M., 1989, A Neurocomputational Perspective, MIT Press.
Churchlond, P. M., 1995, The Engine o f Reason, the Seat o f the Soul, MIT Press.
Churchland, P. S. y Sejnowski, T., 1992, The Computahonal Bratn, MIT Press.
Churchland, P. S., Ramachandran, V. S. y Sejnowski, T. J., 1994, «A critique of puré visión»,
en Large-Scale Neuronal Tbeones o f the Bratn, C. Koch y J. Davis (comps.), MIT Press.
Bibliografía I 289

Clark, A., 1986, «Superman; the image», Analysis, *16, n‘ 4, págs. 221-224.
Clark, A,, 1987, «Beíng therc; why implementation matters to cognitivc scicncc», AI Review l,
n° 4, págs. 231-244.
Clark, A., 1988a, «Superman and theduck/rabbít»,/4fWyrír48, n° 1, págs. 54-57
Clark, A., 1988b, «Being there (again); a reply to Connab, Shiels and Wavish», Artificial hite
lligence Review 66, it"3, págs. 48 51.
Clark, A., 1989, Microcognition: Philosophy, Cogmtive Science and Parallel Distributed Proces­
sing, M1T Press.
Clark, A., 1993 ,Associative Engines■ Connectionism, Concepts and Representational Cbange,
M1T Press.
Clark, A., 1994, «Representational trajectories in connectionist learning», Mtnds and Machi­
nes, 4, págs. 317-332.
Clark, A., 1995, «Movtng minds: Re tlnnking representation in the heat of situated action», en
Pbilosophtcal Perspectivas, 9: AI Connectionism and Philosophical Psycbology, J. Tomber-
lin (compj.
Clark, A., 1996a, «Connectionism, moral cognition and collaborative problem solving», en
Mind and Moráis: Essays on Ethics and Cognitivc Science, L. May y otros (comps.), MIT
Press.
Clark, A. (1996), «Philosophical íoundanons», en Handbook ofPerception and Cognition, vo­
lumen 14: Artificial Intelligence andComputattonal Psycbology, M. Boden (comp.), Aca-
demic Press.
Clark, A. y Chalmers, D., 1998, «The Extended Mind». Analysis, 58, págs. 7-19.
Clark, A. y Karmiloff-Smith, A., 1993, «The cognizer’s innards: A psychological and philosop­
hical perspective on the development of thought», Mind and Langtiage, 8, págs. 487-519.
Clark, A. y Thomton, C. (1997), «Trading spaces: Connectionism and the limits of learning»,
BehavioralandBrain Sciences, 20, págs. 57-90
Clark, A. y Toribio, J., 1995, «Doing without representtng^M.íyn/éeje, 101, págs. 401-431.
Cliff, D., 1994, «Al anda-lifc: Ncvermind the blocksworld», A/SB Qnarierty, 87, págs. 16-21.
Colé, M., Hood, L. y McDermott, R., 1978, «Ecológica! niche picking», en Memory Observad
Remembenng m Natural Contexts, U. Neisser, (comp.) Freeman, 1982.
C o n n e l l ,1989, «A Colony Architecture for an Artificial Creature», informe técnico II 5 1,
MIT AI Lab.
Cottrell, G., 1991, «Extracting features from faces using compressíon networks», en Connec­
tionist Models: Proceedings o f the 1990 Summer Scbool, D. Touretzky y otros (comps.),
Morgan Kauffman.
Crtitchficld, J. y Mitchell, M., 1995, «The evolución of emergent computation», en Proceedings
of tbe National Academy o f Science, 92, págs. 10.742-10.746.
Culicover, R, y Hamish, R., (comps.), Neural Connections, Mental Computation, MIT Press.
Damasio, A., 1994, Descartes' Error, Grosset Putnam (trad. cast.: El error de Descartes, Crítica,
1996).
Damasio, A. y Damasio, H., 1994, «Cortical Systems for retneval of concrete knowlcdgc: The
convergence zone framework», en LargeScale Neuronal Tbeories o f the Braiii, C. Koch y
J. Davis (comps.), MIT Press.
Damasio, A., Tramel, D. y Damasio, H., 1989, «Amnesia caused by herpes stmplex encephalitis,
infarctions in basal forebrain, Alzheímer’s disease and anoxia», en Handbook of Neuropsy-
chology, volumen 3, F Boller y J. Graiman (comps.), Elsevter.
Damasio, A., Tramel, D, y Damasio, H., 1990, «Individuáis with sociopathic behavior caused
by frontal damage fail to respond autonomically to social stimuli», Behavioral and Bratn
Research, 4, págs. 81-94.
Damasio, H,, Grabowski, T., Frank, R., Galaburda, A. y Damasio, A., 1994, «The retum of
290 I Estar ahí

Phineas Gage: Clues about the brain from the skuü oí a famous patient», Science, 264,
págs. 1.102-1.105.
Davidson, C., 1994, «Common sense and the Computer», NetvScientist, 142, Abril 2, págs. 30-33.
Davidson, D., 1986, «Rational animáis», en Actions and Evenls, E. Lepore y B. McLaughlin
(comps.), Blackwell.
Davies, M. y Stone, T., (comps.), 1995, Mental Simnlation: Evaluatiom and Applications,
Blackwell.
Dawkins, R., 1982, The Extended Pbenotype, Oxford Uníversity Press.
Dawkins, R., 1986, TheBlind Watchmaker, Longman (trad. cast.: El relojero dego, RBA, 1993).
Dean, P., Mayhew, J. y Langdon, P., 1994, «Learning and maintaimng saccadtc accuracy: A
model oí brainstem-cerebellum imeractions», Journal of Cognilive Neuroicience, 6, págs.
117-138.
Dennett, D,. 1978a, Brainstorms, MIT Press.
Dennett, D., 1978b, «Why not he whole iguana?», Behavioral and Brain Sciences, 1. págs. 103-
104.
Dennett, D., 1991, Conscíousness Explaincd, Little, Brown (trad. cast.: La consciencia explica­
da, Buenos Aires, Paidós, 1996).
Dennett, D., 1993, «Labeling and learning», Mtndand Language, 8, págs. 540 548.
Dennett, D., 1995, Darwin’s Dangerous Idea: Evolution and the Meanings o f Life, Simón and
Schuster.
Denzau, A. y North, D., 1995, «Shared Mental Models: Ideologies and Insiitutions», inédito.
Díaz, R. y Berk, L. (comps.), 1992, Prívate Speech: From Social ¡nteraction to Self-Regulation,
Erlbaum.
Donald, M,. 1991, Origins o f the Modern Mind, Harvard Univcrsity Press.
Dretske, F., 1988, Explaining Behavior: Reasons in a World o f Causes, MIT Press.
Dretske, F., 1994, «If you can’t make one you don’t know how it works», en Midwest Studies in Pbi-
losophy XIX: Philosophical Naturalism, University of Notre Dame Press.
Dreyfus, H., 1979, What Computen Can’t Do, Harper & Row.
Dreyfus, H., 1991, Being-in-the-World: A Commenlary on Heidegger’s Being and Time, División
l, MIT Press.
Dreyfus, H. y Dreyfus, S., 1990, «What is morality? A phenomenological account of the deve-
lopment of ethical experience», en Universalista vs, Communttananism, D. Rasmussen
(comp.), MIT Press.
Edelman, G., 1987, Neural Darwinism, Basic Books.
Edelman, G. y Mountcastle, V., 1978, The Mindful Brain, MIT Press.
Edwards, D „ Baum, C. y Morrow-Howell, N., 1994, «Home environments of inner city elderly
with dementia: Do they facilítate or inhibit function?», Geroutologist, 34, n° 1, págs. 64.
Elman, J., 1991, «Representation and structure in connectionist models», en Cognilive Models
o f Speech Processing, G. AJtman (comp.), MIT Press.
Elman, J., 1994, «Learning and development in neural networks: The importance of starting
smail», Cognition, 48, págs. 71-99.
Elman, J., 1995, «Language as a dynamical System», en Muid as Molían, R. Port y T. van Gcl-
der (comps.), MIT Press.
Farah, M., 1990, Visual Agnosia, MIT Press.
Farr, M.f 1981, How to Know the True Shme Molds, Wílliam Brown
Feigenbaum, E., 1977, «The art of artificial intelligence: 1. Themes and case studies of know-
ledgc engineering», en Proceedings of the Fífth International Joint Conference on Artifi­
cial Intelligence.
Felleman, D. y Van Essen, D., 1991, «Distributed hierarchial Processing in primate visual cor-
tex», Cerebral Cortex, 1, págs. 1 47.
Bibliografía i 291

Fodor, J., 1975, The Language o/Thought, Crowell (trad. cast.: El lenguaje del pensamiento,
Alianza, 1984).
Fodor, J., 1986, Individualism and supervenience. Proceedtngs o f the Aristotelian Society,
Suppl. 60, págs. 235-263.
Fikes, R. y Nilsson, N., 1971, «STRIPS: A new approach (o the application of theorem proving
to probíem solving», Artificial Intelligence, 2, págs. 189-208.
Fodor, J. y Pylyshyn, Z., 1988, «Connectionism and cognitive architecture», Cogntdon, 28,
págs. 3-71.
Friedman, M., 1953, Essays in Positwe Economics, University of Chicago Press (trad. cast.: En­
sayos sobre economía positiva, Gredos, 1967).
Gallistel, C., 1980, The Organizalion o/Behavior, Erlbaum.
Gauker, C., 1990, «How to leam a language like a chimpanzee», Pkilosophical Psychology, 3,
n° 1, págs. 31-53.
Gauker, C., 1992, «The Lockean theory of communication», Noús, ne 26, págs. 303-324.
Gesell, A., 1939, «Reciprocal interweaving in neuromotor development» Journal of Compara-
tive Neurology, 70, págs. 161-180.
Gibson.J. J., 1979, The Ecologtcal Approach to Visual Perceptton, Houghton Mifflin.
Gibson, J. J., 1982, «Reasons for realism», en Selected Essays o f james ]. Gibson, E. Reed y R.
Jones (comps.), Erlbaum.
Gibson, K. y Ingold, T. (comps.), 1993, Tools, Language and Cognition in Human Evolution,
Cambridge University Press.
Gifford, F., 1990, «Genetic traits», Btology and Philosophy, 5, págs. 327-347.
Giunti, M., 1996, «Is Computationalism the Hard Core of Cognitive Science?», ponencia pre­
sentada en Convego Triennale SILFS, Roma.
Gluck, M. y Rumelhart, D. (comps.), 1990, Neuroscience and Connectionist Theory, Erlbaum.
Gode, D. y Sunder, S., 1992, «Allocative Efficiency of Markets with Zero Intelligence (ZI) Tra-
ders: Markets as a Partía! Substitute for Individual Rationality», Documento de trabajo n°
1992-16, Camegie Mellon Gradúate School of Industrial Administration.
Goldberg, D., 1989, Genetic Algonthms in Search, Optuntzation, and Machine Learnmg, Ad
dison-Wesley.
Goldman, A., 1992, «In defense of the simulation theory», Mmdand Language, 7, n° 1-2, págs.
104-119.
Gopalkrishnan, R., Triantafyllou, M. S., Triantafyllou, G. S. y Barrett, D., 1994, «Active vorticity
control in a shear flow using a flapping foil», Journal o f Fluid Dynamics, 274, págs. 1-21.
Gordon, K , 1992, «The simulation theory: Objections and misconceptions», Mind and Lan­
guage, 7, n° 1-2, págs. 1-33.
Grasse, P. P., 1959, «La Reconstruction du Nid et les Coordinations Inter-Individuelles chez Be-
llicositermes Natalensis et Cubitem/es sp. La Theorie de la Stigmergie: Essai D’interpretation
des Termites Constructeurs», Insect Societies, 6, págs. 41-83.
Gray, J., 1968, Animal Locomoiian, Weidenfeld & Nicolson.
Graziano, M., Anderson, R. y Snowden, R., 1994, «Tuning of MST neurons to spiral motions»,
Journal o f Neuroscience, 14, págs. 54-67.
Greene, P. H., 1972, «Problems of organization of motor systems», en Progress in Theoretical
Biology, volumen 2, R. Rosen y F. Schnell (comps.), Academic Press.
Gregory, R., 1981, Mind in Science, Cambridge University Press.
Grifford, F., 1990, «Genetic traits», Biology and Philosophy, 5, págs. 327-347.
Haken, H., Kelso, J. y Bunz, H., 1985, «A theoretical model of phase transitions in human
hand movements», BiologicalCybernetics,5\, págs. 347-356.
Hallam, J. y Malcolm, C. A. (en prensa), «Behavior, perception, action and intelligence: the
view from situated robots», Philosophical Transcripts o f the Royal Sociely, Londres.
292 I Estar ahí

Hardcastle, V. (1995), «Computationolism», Synthese, 102. págs. 1-15.


Haré, M. y Elman, J., 1995, «Leaming and morphological change», Cogmtion, 56, págs. 61-98
Hamad, S. (comp.), 1994, «Special issue on "What is Compuration?"», Mtnds and Machines,
4, n* 4, págs. 377-488-
Harvey, I-, Husbands, P y Cliff, D., 1994, «Seemg ihe light: Artificial evolution, real visión»,
en From Animan tú Animáis, 3, D. Cliff y otros (comps.), MIT Press.
Haugeland, J „ 1981, «Semantic engines: A iniroduction lo mind design», en MindDesign: Phi-
losophy, Psychology, Artificial Intelligence,]. Haugeland (comp.), MIT Press.
Haugeland,J., 1991, «Representarional general», en Philosophy and Connecttonist Theory, W.
Ramscy y otros (comps.), Erlbaum.
Haugeland, J., 1995, «Mind embodied and embedded», en MindandCogmtion, Y.-H. Houng
y J.-C. Ho (comp ), Taipei: Academia Sínica.
Hayes, P., 1979, «The naive physics manifestó», en Expert Systems in the Microelectronic Age,
D Michie (comp.), Edinburgh University Press.
Hebb, D., 1949, The Organtzalton ofBebavior, Wiley (trad. cast.: Organización de la conducta,
Debate, 1985).
Heidegger, M., 1927, Betng and Time (traducción), Harper and Row, 1961 (trad. cast.: E l ser y
el ¡tempo, FCE, 1980).
Hildiich, D., 1995, «At the Heart of the World: Maurice Merleau-Ponty’s Existentíal Pheno-
menology of Percepción and the Role of Snuated and Bodily Intelligence in Perceptually
Guided Coping», tesis doctoral, Washington University, St. Louis.
Hofstadter, D., 1985, Metamagical Themas: Questing fot the Essence o f Mind and Pattern, Pen -
güín.
Hogan, N., Bizzi, E., Mussa-Ivaldi, F. A. y Flash, T., 1987, «Controlling multijoint motor be-
havior», Exerctse and Sport Science Revietvs, 15, págs. 153-190.
Hotland, J „ 1975, Adaplation in Natural and Artificial Systems, University of Michigan Press.
Hooker, C., Penfold, H. y Evans, R., 1992, «Control, connectionism and cognición: Towards a
new regulatory paradigm», British Journalfor the Philosophy ofScience, 43, n° 4, págs. 517 -
536.
Hutchins, E., 1995, Cogmtion in the Wild, MIT Press.
Hutchins, E. y Hazdhurst, B., 1991, «Leaming in the cultural process», en Artificial Life 11, C.
Langton y otros (comps.), Addison-Westey.
Jackendoff, R. (1996), «How language helps us thmk», Pragmatics and Cognition, 4, págs. 1-
24.
Jacob, E., 1977, «Evolution and tinkertng», Science, 196, n" 4.295, págs-1.161-1.166.
Jacobs, R., Jordán, M. y Barto, A„ 1991, «Task decomposition through competition in a mo­
dular connectionist architccture: The what and where visual tasks», Cognitive Science, 15,
págs. 219-250.
Jacobs, R,, Jordán, M., Nowlan, S. y Hincón, G., 1991, «Adaptive mixtures of local experts»,
Neural Computation,}, págs. 79-87.
Jeffcrson, D. Collins, R., Cooper, C., Dyer, M., Flowers, M., Korf, R., Taylor, C. y Wang, A,,
1991, «Evolution as a theme in artificial life», en Proceedings o f tkeSecond Conference on
Artificial Life, C. Langton y D. Farmer (comps.), Addison-Weslev.
Johnson, M., 1987, The Body in the Mind: The Bodily Basis o f Imagination, Reason and Mea-
ning, University of Chicago Press (trad. cast.: E l cuerpo en la mente: Fundamentos corpo­
rales del significado. la imaginación y la razón. Debate, 1991).
Johnson, M., Maes, P. y Darrell, T., 1994, «Evolving visual routines», en Artificial Life 4, R.
Brooks y P, Maes (comps.), MIT Press.
Jordán, M., 1986, «Serial Orden A Parallel Distributed Processing Approach», informe 8.604,
Insdtutc for Cognitive Science, University of California, San Diego.
Bibliografía I 293

Jordán, M., Flash, T. y Amon, Y., 1994, «A model of ihc leaming of arm trajeciories from spa-
tial deviations», Journal of Cngmtwe Neuroscience, 6, n° 4, págs. 359 376.
Kaelbling, L., 1993, Leaming tn EmbeddedSystems, MIT Press.
Kagel, J., 1987, «Economics according to the rat {and pigeons too)», en Laboralory Experi­
mentarían m Economía Six Points o/Vtew. A. Roth (comp.), Cambridge University Press.
Kandel, E. y Schwarz, J., 1985, Principia of NeuralScience, Elsevier.
Karmiloff-Smith, A., 1979, /I Funcríonal Approacb ¡o Child Language, Cambridge Umversity
Press (trad. cast.: Mas alia de la modernidad, Alianza, 1994)
Karmiloff-Smith, A., 1986, «From meta-process to conscious access», Cogrution, 23, págs. 95-147.
Karmiloff-Smith, A., 1992, Beyond Modularity: A Developmental Perspeclive On Cognitive
Science, MIT Press (trad. cast.: Más allá de la modernidad, Alianza, 1994).
Kauffman, S., 1993, The Origins of Order: Self-Organization and Selection in Evolution, Oxford
University Press.
Kawato, M.py otros, 1987, «A hierarchical neural network model for the control and leaming
of voluntary movement», Biological Cybemetics, 57, págs. 169-185.
Kelso, S., 1995, DynamicPatterns, MIT Press.
Kírsh, D.p 1991, «When is iníormation explicitly represented?», en Information Thought and
Contení, P. Hanson (comp.), UBC Press.
Kirsh, D., 1995, «The intclligent use of space», Artificial Intelligence, 72, págs. 1-52.
Kirsh, D. y Maglio, R., 1991, «Reaction and Reflection in Tetris», informe de investigación D-
015, Cognitive Science Department, University of California, San Diego.
Kirsh, D, y Maglio, P, 1994, «On distinguishing epistemic from pragmatic action», Cognitive
Science, 18. págs. 513-549.
Klein rock, L. y Niisson, A., 1981, «On óptima! scheduling algorithms for timeshared systems»,
Journal of the ACM, 28, pág. 3.
Knierim, J . y Van Essen, D., 1992, «Visual cortcx: Cartography, connectivity and concurrent
Processing», CurrenI Opinión in Neurobiology, 2, págs. 150-155.
Koza, J., 1991, «Evolution and co-evolution of Computer programs to control independently
acting agents», en F rom Animáis to Animáis I, J.-A. Meyer y S. Witson (comps.), MI f
Press.
Koza.J,, 1992, Genetic Programming, MIT Press.
Laird, J „ Newell, A. y Rosenbloom, P., 1987, «SOAR: An architecture for general intelligen­
ce», Artificial Intelligence, }3 , págs. 1-64.
Lakoff, G., 1987, Women, Fireand Dangerous Thtngs. What Categoría Reveal about the Mind,
University of Chicago Press.
Landi, V., 1982, The Great American Countryside, Collier Macmillan.
Le Cun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R., Hubbard, W, y Jackal, L.,
1989, «Back propagaron applicd to handwrittcn zip code recognition», Neural Computa-
tion, 1, págs. 541-551.
Lenat, D. y Feigenbaum, E., 1992, «On the thresholds of knowledge», en Fonndations ofArti­
ficial Intelligence, D. Kirsh (comp ), MIT Press.
Lenat, D, y Guha, R., 1990, Building Large Knowlcdge-BasrdSystems: Representarían and ¡n-
ference in the CYC Project, Addison-Wesley.
Lichtenstein, S. y Slovic, P, 1971, «Reversáis of preferente between bidsand choices ingam
bling decisions», Journal of Experimental Psychoiogy, 101, págs. 16-20.
Lieberman, P., 1984, The Biology and Evolution ofLanguage, Harvard University Press.
Lin, L., 1993, «Reinforcement Lcarning for Robots Using Neural Networks», tesis doctoral,
Camegic Mellon University.
Mackay, D., 1967, «Ways of looking at perception», en Modelsfor tbe Perception ofSpeech and
Visual Form, \V. Wathen-Dunn (comp.), MIT Press.
294 I Estar ahí

Mackay, D., 1973, «Visual stability and voluntary eyc movements», en Handbook o f Sensory
Pbysiology, volumen VII/3a, R. Jung (comp.), Springer-Verlag.
Maes, P., 1994, «Modeling adaptive autonomous agents», Artificial Life, 1, n° 1-2, págs. 135-162.
Magnuson, J. J., 1978, «Locomotion by scobrid fishes: Hydromechanics morphology and beha-
vion>, en Fish Pbysiology, W. Hoar y D. Randail (comps.), Academic Press.
Malone, T., Fikes, R., Grant, K. y Howard, M., 1988, «Enterprise: A markerlike task schedu-
ler for distributed computing environments», en The Ecology o f Computaron, B. Huber-
man (comp.), North-Holland.
Marr, D., 1969, «A tbeory of cerebellar cortex», Journal o f Pbysiology, 202, págs. 437-470.
Marr, D., 1982, Vision, Freeman (trad. cast.: La visión, Alianza, 1985).
Matarte, M., 1991, «Navigating with a rat brain: A neurobiologically inspired model for robot
spatial represemation», en FromAnimáistoAnimáis 1, (comps.),J.-A. MeyeryS. Wtlson,
MIT Press.
Maturana, H. y Varela, F., 1987, The Tree o f Knowledge The Btologtcal Roots o f Human Un-
derstanding, New Science Library (trad. cast.: El árbol de! conocimiento: Las bases biológi­
cas del conocimiento humano, Debate, 1989).
McCauley, J „ 1994, «Finding metrical structure in time», en Procecdings o f the 1993 Connec-
tionist ModelsSummer Scbool, M. Mozer y otros (comps.), Erlbaum.
McCauley, R. (comp.), 1996, The Cburchlands and Their Crttics, Blackweli.
McClamrock, R., 1995, Existential Cognition, University of Chicago Press.
M c C le lla n d ,1989, «Paraüel distributed processing Implications for cognition and develop-
ment», en Parallel Distributed Processing: Implications for Psychology and Neurobiology, R,
Morris (comp.), Clarendon.
McClelland, J., Rumelhart, D. y Hinton, G., 1986, «The appeal of parallel distributed proces­
sing», en Parallel Dtstnbuted Processing: Explorations in the Microstructure o f Cognition,
volumen 1: Foundations, D. Rumelhart y otros (comps.), MIT Press (trad. cast.: «El atrac­
tivo del procesamiento distribuido en paralelo», en Introducáón al procesamiento distri­
buido en paralelo, Alianza, 1992).
McConkie, G., 1979, «On the role and control of eye movements in reading», en Processing of
Visible Language, P. Kolers y otros (comps.), Plenum.
McConkie, G., 1990, «Where Visión and Cognition Meet», ponencia presentada en el HFSP
Workshop on Object and Scene Perception, Leuven, Bélgica.
McConkie, G. y Rayner, K., 1976, «Identifying the span of the effective stimulus in reading: Lite-
rature review and theories of reading», en Theorettcal Models and Processes o f Reading, H.
Singer y R Ruddell (comps.), International Reading Association.
McCulloch, W. y Pitts, W., 1943, «A logical calculus the ideas immanent in nervous activity»,
Ballet in ofMathematical Geophysics, 5, págs. 115-133.
McGraw, M. B., 1945, The Neuromuscular Maturation of the Human Infant, Columbia Uni­
versity Press.
McNaughton, B., 1989, «Neurona! mechanism for spatial computation and Information stora-
ge», en Neural Connections, Mental Computation, L. Nadel y otros (comps.), MIT Press.
McNaughton, B. y Nade!, L., 1990, «Hebb Marr Networks and the neurobiological represen-
tation of action in space», en Neurosaence and Conncctionist Thtory, M. Gluck y D. Ru­
melhart (comps.), Erlbaum.
Menczer, E., y Belew, R., 1994, «Evolving sensors in environments of controlled complexity»,
en Artificial Life, 4, R. Brooks y P. Maes (comps.), MIT Press.
Merleau-Ponty, M., 1942, La Structure du Comportment, Presses Universitaires de France, tra­
ducción al inglés: The Structure ofhehavior (Beacon, 1963) (trad. cast.: La estructura del
comportamiento, Hachette, 1976).
Merleau-Ponty, M., 1945, Phenontenologie de la Perception, París: Gaüimard, traducción al in-
Bibliografía i 295

glés: Phenomenology o f Perceptíon (Routledgc y Kegan Paul. 1962) (trad. cast.: Fenome­
nología de la percepción, Península, 1997).
Michie, D. y Johnson, R., 1984, The Creative Computer, Penguin.
Miller, G. y Cliff, D., 1994, «Protean behavior in dynamic games: Arguments for che co evo-
lution oí pursuit-evasion tactics», en Fro/« Animáis to Animáis, 3, D. Cliff y otros
(comps.), MIT Press.
Miller, G. y Freyd, J., 1993, Dynamic Mental Representations o f Anímate Motion. Cognitive
Science Research Paper 290, University of Sussex.
Millikan, R., 1984, Language, Thougbt and Other Biológical Categortes, MIT Press.
Millikan, R., 1994, «Biosemantics», en Mental Representaron: A Reader, S. Stich y T. Warfield
(comps.), Blackwell.
Millikan, R., 1995, «Pushmi-Pullyu» Representations, en Pbilosophical Perspectives 9: A l, Con•
neclionism and Pbilosophical Psycbology, J. Tomberlin (comps.).
Minsky, M., 1985, TheSociety ofMind, Simón & Schuster (trad. cast.: La sociedad de la mente,
Galápagos, 1986).
Mitchell, M., Crutchfield, J. y Hraber, P., 1994, «Evolving celluiar autómata to perform computa-
tions: Mechanisms and impediments», Physician D, 75, págs. 361-391.
Morrissey, J. H., 1982, «Cell proportioning and panera formation», en The Development of
Dictyostelium discoideum, W. Loomis (comp.), Academic Press.
Motter, B „ 1994, «Neural correlates of attenuve selection for color or luminance in extrastria-
te area V4» ,Journal o f Neuroscience, 14, págs. 2.178-2.189.
Nadel, L., Cooper, L., Culicover, P., y Haraish, R. (comps.), 1989, Neural Connections, Mental
Computations, MIT Press.
Neisser, U., 1993, «Without perceptíon there is no knowledge: Implications for artificial inte-
lligence», en Natural and Artificial Minds, R. Burton (comp.), State University of New
York Press.
Newell, A., 1990, Unified Theories o f Cognition, Harvard University Press.
Newell, A. y Simón H., 1972, Human Problem Solving, Prentice-Hall.
Newell, A. y Simón, H., 1981, «Computer Science as empirical inquiry», en Mind Design, J.
Haugeland (comp.), MIT Press.
Newport, E., 1990, «Maturational constraints on language learning», Cognitive Science, 14,
págs. 11-28.
Nolfi, S., Floreano, D., Miglino, O. y Mondada, F., 1994, «How to evolve autonomous robots:
different approaches in evolutionary robotics», en Artificial Life, 4, R. Brooks y P. Maes
(comp.), MIT Press.
Nolfi, S., Miglino, O. y Parisi, D., 1994, «Phenotypic Plasticity in Evolving Neural Networks»,
informe técnico PCIA-94-05, CNR Instítute of Psychology, Roma.
Nolfi, S. y Parisi, D „ 1991, «Auto-Teaching: Networks That Develop Their Own Teaching In-
put», informe técnico PCIA91 -03, CNR Instítute of Psychology, Roma.
Norman, D., 1988, The Psychology ofEveryday Things, Basic Books.
North, D., 1993, «Economic Performance Through Time», texto del discurso de aceptación
del Premio Nobel de Economía.
Norton, A., 1995, «Dynamics: An introduction», en Mind as Motion, R. Pon y T. van Gelder
(comps.), MIT Press.
O ’Keefe, J., 1989, «Computations the hippocampus might perform», en Neural Connections,
Mental Computations, L. Nadel y otros (comps.), MIT Press.
O’Regan, J., 1990, «Eye movemcnts and reading», en Eye Movements and Their Role in Visual
and Cognitive Processes, E. Kowler (comp.), Elsevier.
O’Regan, K., 1992, «Solving the “real" mystcries of visual perceptíon: The world as an outsi-
de memory», Canadian Journal o f Psychology, 46, págs. 461-488.
296 I Estar ahí

Oyama, S., 1985, The Ontogeny of Information: Developmental Systems and Evolution, Cam­
bridge University Press.
Pearson, K., 1985, «Are there central pattem generators for walking and flight in insects?», en
Feedback and Motor Control in Invertebrates and Vertebrales, W. Bames y M. Gladden
(comps.), Croom Helm.
Petroski, H., 1992, «The evolution of artifacts», American Saenttst, 80, págs. 416-420.
Piaget, J., 1952, The Ongins oflntelligence in Children, International University Press (trad.
cast.: El nacimiento de la inteligencia en el niño, Crítica, 1985).
Piaget, J., 1976, The Grasp of Consciousness Action and Concept tn the Young Child, Harvard
University Press (trad. cast.: La toma de conciencia, Morata, 1981).
Pinker, S., 1994, The Language Instinct Morrow (trad. cast.: El instinto del lenguaje. Alianza,
1995).
Plunkett, K. y Sinha, C., 1991, «Connectionism and developmental theory», Psyhkologisk
Skriflsene Aarhus, 16, págs. 1 34.
Polit, A. y Bizzi, E., 1978, «Processes controlling arm movements in monkeys», Sctence, 201,
págs. 1.235-1.237.
Port, R., Cummins, F y McCauley, J., 1995, «Naive time, temporal pattems and human audi
tíon», en Mindas Motion, R. Port y T. van Gelder (comps.), MIT Press.
Port, R. y van Gelder, T., 1995, Mind as Motion: Explorations in the Dynamics of Cognition,
MIT Press.
Posner, M. y Rothbart, M., 1994, «Constructing neuronal theories of mind», en Large-Scale
Neurona! Theones of the Bratn, C. Koch y J. Davis (comps.), MIT Press.
Presión, B., 1995, «Cognition and Tool Use» (borrador).
Putnam, H., 1975, «The meaning of “meaning”», en Mind, Language and Reality, H. Putnam
(comp.), Cambridge University Press (trad. cast.: «El significado dé “significado"», en L.
M. Valdés Villanueva (comp.) La búsqueda del significado Lecturas defilosofía del lengua­
je, Tecnos, 1991).
Pylyshyn, Z., 1986, Computation and Cognition, MIT Press (trad. cast.: Computación y conoci
miento, Debate, 1988).
Quinn, R. y Espenschied, K., 1993, «Control of a hexapod robot using a biologically inspired
neural network», en Biológical Neural Networks tn ¡nvertebrale Neuroethology and Robo-
tics, R. Beer y otros (comps.), Academíc Press.
Rayncr K., Well, A. y Pollarsek, A., 1980, «Asymmetry of the effective visual field in readtng»,
Perceptual Psychophysics, 27, págs. 537-544.
Resnick, M., 1994a, «Leaming about life», Artificial Life, I, págs. 229-242.
Resnick, M., 1994 b, Turtles, Termites, and Trafficfarns: Explorations in Massively Parallel Mi-
croworlds, MIT Press.
Ritzmann, R., 1993, «The neural organization of cockroach escape and its role in contcxt-de-
pendent orientation», en Biological Neural Networks in ¡nvertebrale Neuroethology and
Robotics, R. Beer y otros (comps.), Academíc Press.
Rosenblatt, E., 1962, Principies of Neurodynamics, Spartan Books.
Rovee-Collier, C., 1990, «The “memory system" of prelinguistic infants», en The Development
and Neural Bases of Higher Cognitive Functions, A. Diamond (comp.), New York Aca-
demy of Sciences.
Rumelhart, D. y McClelland J., 1986, «On leaming the past tenses of English verbs», en Para-
lid Distríbtited Processing: Explorations in the Microstmcture of Cognition, volumen 2: Psy-
chologicaland BiologicalModels,]. McClelland y otros (comps.), MIT Press.
Rumelhart, D., Smolensky, P., McClelland, J. y Hinton, G., 1986, «Schemata and sequential thought
processes in PDP models», en Parallel Distributed Processing: Explorations in theMicmstructu-
reofCognition, D, Rumelhart y otros (comps.), MTT Press (trad. cast.: «Esquemas y procesos
Bibliografía 1 297

de pensamiento secuencia en los modelos PDP», en Introducción al Procesamiento Distri­


buido en Paralelo, Alianza, 1992).
Rutkowska, J., 1984, «Explaining Infam Percepuon: Insights from Artificial Intelligence»,
Cognitive Studies Research Paper 005, University of Sussex.
Rutkowska, J., 1986, «Developmental psychology’s comribution to cognitive science», en v4r-
tificial IntelligenceSociety, K. Gilí (comp.), Wiley.
Rutkowska, J., 1993, The Computational Infant, Harvester Wheatsbeaf.
Saito, F, y Fukuda, T., 1994, «Two link robot brachiation with connectionist Q-leaming», en
From Animáis to Antmats, 3, D. Cliff y otros (comps.), MIT Press.
Saltzman, E., 1995, «Dynamics and coordínate systems in skilled sensorimotor activity», en
Mindas Motion, R. Pon y T. van Gelder (comps.), MIT Press.
Salzman, C. y Newsome, W., 1994, «Ncural mechanísms for forming a perceptual decisión»,
Science, 264, pdgs. 231 237.
Satz, D. y Ferejohn, J., 1994, «Rational choice and social theory», JournalofPhilosophy, 9.102,
págs. 71-87.
Schieber, M., 1990, «How might the motor cortex individúate movements?», Trends in Neu-
rosaence, 13, n" 11, págs. 440-444.
Schieber, M. y Hibbard, L., 1993, «How somatotopic ¡s the motor cortex hand area?», Scien­
ce, 261, págs. 489-492.
Shields, P J y Rovee-ColÜer, C., 1992, «Long temí memory for context-specific category in-
formation at six months», Chtld Development, 63, págs. 245-259.
Shortliffe, E., 1976, Computer Based Medical Consultations: MYCIN, Elsevier.
Simón, H., 1969, «The architecture of complexity», en The Sciences of the Artificial, H. Simón
(comp), Cambridge University Press (trad. cast.. Las ciencias de lo artificial, ATE, 1979).
Simón, H., 1982, Models of Bounded Rationality, Volúmenes 1 y 2, MIT Press.
Skarda, C. y Freeman, W., 1987, «How brains make chaos in order to make sense of the
world», Behavioral and Brain Sciences, 10, págs. 161-195.
Smith, B. C., 1995, «The Foundations of Computation», ponenaa presentada en el AISB95 Works-
hop on the Foundations of Cognitive Science, University of Sheffield.
Smith, B. C., 1996, On the Ongtn of Objects, MIT Press.
Smithers, T., 1994, «Why better robots make n harder», en From Animáis to Animats, 3, D.
Cliff y otros (comps.), MIT Press.
Smolensky, P., 1988, «On the proper treatment of conncctionism», Behavioral and Brain Scien­
ces, 11, págs. 1-74.
Steels, L., 1994, «The artificial life roots of artificial intelligence», Artificial lafe 1, n° 1-2, págs.
75-110.
Stein, B. y Meredith, M., 1993, The Merging of the Senses, MIT Press.
Sterelny, K., 1995, «Understanding life: Recent work in philosophy of biology», British Journal
for the Philosophy ofScience, 46, na 2, págs. 55-183.
Suchman, A., 1987, Plans andSituated Actions, Cambridge University Press.
Sutton, R., 1991, «Reinforcement learníng architecture for animats», en From Animáis toAni
mats 1, J.-A. Meyer y S. Wilson (comps.), MIT Press.
Tate, A., 1985, «A review of knowledge based planníng techniques», Knowledge Engineertng
Review, 1, págs. 4-17.
Thach, W., Goodkin, H. y Keating, J., 1992, «The cerebellum and the adaptive coordination
of movement», Annual Review of Neurosctencc, 13, págs. 403-442.
Thelen, E., 1986, «Treadmill-elicited stepping in scven month oíd infants», Child Develop­
ment, 57, págs. 1.498 1.506.
Thelen, E., 1995, «Time scale dynamtcs and the development of an embodied cognition», en
Mindas Motion, R. Port y T. van Gelder (comps.), MIT Press.
298 I Estar ahí

Thelen, E., Fisher, D. M., Ridley Johnson, R. y Griffin, N., 1982, «The effccts oí body build
and arousal on newborn infanr stepping», Development Psychobtology, 15, págs. 447-453.
Thelen, E. Fisher, D. M. y Ridley-Johnson, R., 1984, «The rclarionship bctvecn physical growih
and a newborn reílcx», Infattt BekaviorandDevelopmentJ , págs. 479-493.
Thelen, E. y Smith, L., 1994, A DynamicSystems Approach lo tbe Development o f Cogrtilion
and Action, MIT Press.
Thelen, E. y Ulrich, B., 1991, «Hidden skills: A dynamic System analysis of treadmill stepping
during the First year», Monographs of theSociety for Research in CbildDevelopment, n” 223.
Thelen, E., Ulrich, B. y Niles, D., 1987, «Bdateral coordination in human infants: Stepping on
a splitbeit treadmill», Journal o f Experimental Psychology: Human Perception and Perfor­
mance, 13, págs. 405-410.
Tomasello, Krugcr,y Ratner, 1993, «Cultural íeaming». BebavioralandBrainSciences, 16, págs.
495-552.
Torras, C., 1985, Temporal-Pattern Leanting in NeuralModels, Springer Verlag.
Touretzky, D. y Pomerleau, D., 1994, «Reconstructing physical Symbol systcms», Cognitive
Science, 18, págs. 345-353.
Triantafyllou, G. S., Triantafyllou, M. S. y Grosenbaugh, M. A., 1993, «Optimal thrust de­
velopment in oscillating foils with application to fish propulsión», Journal o f Pluids and
Structures, 7, n°2, págs. 205-224.
Triantafyllou, M. y Triantafyllou, G., 1995, «An effident swimming machine», Scientific Ame­
rican, 272, n° 3, págs. 64-71.
Turvey, M., Shaw, R., Reed, E. y Mace, W,, 1981, «Ecological laws of perceiving and acting»,
Cognition, 9, págs. 237-304.
Valsiner, A., 1987, Culture and the Development o f Chtldren't Action, Wiley.
Van Essen, D., Anderson, C. y Olshausen, B., 1994, «Dynamic routing strategies in sensory,
motor, and cognitive Processing», en Large-Scale Nenronal Tbeories o f the Braut, C. Koch
y j. Davis (comps.), MIT Press.
Van Essen, D. y Gallant, J., 1994, «Neural mechanisms of form and motion proccssing in the
primate visual system», Neurnn, 13, págs. 1-10.
Van Gelder, T., 1990, «Compositionality: A connectionist variation on a classical theme», Cog
nittve Saence, 14, págs. 355-384.
Van Gelder, T., 1991, «Connectionism and dynamical explanation», en Proceedings of the
13th Annual Conference of the Cognitive Science Society, Chicago.
Van Gelder, T., 1995, «What tnight cognition be, if not computation H , Journal o f Pkilosophy,
92, n°7, págs. 345-381.
Varela, F., Thompson E. y Rosch, E., 1991, The Ernbodied Mind: Cognitive Science and Human
Experience, MIT Press (trad. cast.: De cuerpo presente: Las ciencias cognitivas y la expe­
riencia humana, Gedisa, 1992).
Vera, A. y Simón, H., 1994, «Reply to Touretzky and Pomerleau: Reconstructing physical sym-
hol systems», Cognitive Science, 18, págs. 355-360.
Vogel, S., 1981, «Behavior and the physical svorld of an animal», en Perspectivas in Etbology,
volumen 4, P. Bateson y P. Klopfcr (comps.), Plenum.
Von Foerster, H., (comp.), 1951, Cyberneltcs: Transactions of the Seventb Conference. Josiah
Macyjr. Foundation.
Von Uexkull, J., 1934, A stroll through the worlds on animáis and men, en Instinctive Beha­
vior, K. Lashley (comp.), International Univcrsities Press.
Vygotsky, L. S-, 1986, Thought and Language (traducción al inglés de la edición de 1962), MIT
Press (trad. cast.: Pensamiento y lenguaje, Buenos Aires, Patdos, 1995).
Wason, P., 1968, «Reasoning about a rule», Quarierly Journal o f Experimental Psychology, 20,
págs. 273 281.
Bibliografía I 299

Watkins, C., 1989, «Leaming from Delayed Rcwards», tesis doctoral, Kings College.
Welch, R., 1978, Perceptual Modificatiort: Adapting to AlteredSensory Environments, Acade-
mic Press.
Wertsch, J., (comp), 1981, The Coiicept ofActivüy m Soviet Psychology, Sharpe.
Wheeler, M., 1994, «From activación to activity», /1/5B Quartcrly, 87, págs. 36-42.
Wheeler, M., 1995, «Escaping from the Cartesian mind-set: Heideggcr and artificial Ufe», en
Lecture Notes in Artificial Intelligence 929, Advances in Artificial Life, Granada, España.
Whorf, B., 1956, Language, Thought and Reality, Wiley (trad. cast.. Lenguaje, pensamiento y
realidad, Barra!, 1971).
Wiener, N., 1948, Cybernelics, or Control and Communication in tbe Animal and in the Machi­
ne, Wiley (trad. cast.: Cibernética o el control y la comunicación en animales y máquinas,
Tusquets, 1985).
Wimsatt, W., 1986, «Forms of aggregativity», en Human Nature and Natural Knowledge, A.
Donagan y otros (comps.), Reidel.
Wimsatt, W. (en prensa), «Emergence as non-aggreganvity and the biases of reductionisms, en
NaturalContradicltons: Perspectiveson Ecology and Cbange, P. Taylor yJ. Hada (comps.).
Winograd, T. y Flores, E., 1986, Understanding Computen and Cognition: A New Foundation,
Ablex.
Woolsey, T., 1990, «Pcripheral Alteración and Somatosensory Devclopment», en Development
ofSensory Systems in Wanimals,] Coleman (comp.), Wiley.
Wu, T. Y. T., Brokaw, C. J., Brennen, C., (comps.), 1975, Swimming andFlying in Nature, vo­
lumen 2, Plcnum.
Yamuchi, B. y Beer, R., 1994, «Integrating reactive, sequenrial and leaming behavior using dy-
namical neural networks», en From Animáis to Animáis, 3, D. Cliff (comp,), MIT Press.
Yarbus, A., 1967, Eye Movements and Vision, Plenum.
Zelazo, P. R., 1984, «The devclopment of walktng: New findings and oíd assumptions»,/ottr-
nal of Motor Behavior, 15, págs. 99-137.
Zhang, J. y Norman, D., 1994, «Rcpresentations in distributed cognitive tasks», Cognttive
Science, 18, págs. 87 122.
Indice analítico y de nombres

Abraham, R., 144,161 Véase desarrollo


Acción, cpistémica, 105 109, 124 Buscmeyer, J., 171
Acldey, D., 142,241 Butler, K„ 217
Adaptación, inversa, 268 269
Agentes autónomos, 44,49-60, 71 74 Carruthers, R, 249,251-252,255
Agentes de inteligencia nula, 238 239 Causalidad
Véase también Mobots ^circular, 154
Agre, R, 203 — recíproca continua, 143, 154-155,225
Algoritmos genéticos, 134-139,241-242,244 Véanse también Sistemas dinámicos; Repre­
Véase también Evolución sentaciones
Algoritmo de retropropagación, 97-98 Cerebelo, 78
Véase también Redes neuronales Chalmers, D., 271
Alien, W'oody, 193 Chapman, D., 104
Alzheimcr. enfermedad de, 108 Chiel.H., 44,54-55
Análisis de tareas, 167 Christiansen, M., 268
Andamiaje, 86-88, 102-104, 125 126,233-246, Churchland, P. M„ 203,253,262
248-275 Churchland.PS., 69,70,79
Aprendizaje de descenso por un gradiente, 98, Clip, 267
135,213-214,260 Cognición, corpórea radical, 198-199
Véase también Redes neuronales COG, 58-60
Atún, 277-278 Comunicación, 243-246
Autoorganización, 80,84, 114 Véase también Lenguaje
Véase también Sistemas dinámicos Computación
Véanse también Representación; Sistemas di­
Ballard, D., 67,69,152,200-201 námicos
Bechiel, \V„ 160 — extendida hacia el entorno, 255-262,272
Beckers, R.. 118 — y explicación, 149-175
Beer, R.,44,54-55,135-137,141,145,146,151, — y programas, 204-213
165,169-170,196,199,216 — y representación, 212-213,255-262
Bcrk, L„ 248,250 Conexión adaptativa, 197
Bivcns,J.,250 Conexionismo
Braquiación, 55,57,60 Véase Redes neuronales
Bratman, M„ 257 Consciencia, 253,272
Brooks, R., 51-54, 58-59, 69, 71-72, 189, 199, Contrafactuales, 164
245 Control, centralizado, 80,83-86
Bucles de acción Control ncuronal, 184-191
302 i Estar ahí

Cottrell, G.r 101 Explicación basada en componentes, 150-151,


Creencias, extendidas, 275 188-191,215-219
Cucaracha, 42,43, 135-139
CYC, proyecto, 40-42,43,45.46, 93, 98 Feigenbaum, E., 41,45
Felleman, D., 182
Damasio, A.. 171,172, 186-190 FerejolmJ., 235-238
Damasto, H,, 171,172 F¡kes, R„ 94,105
Dasein, 224 Física ingenua, 94
Dawkins, R., 132 Fodor.J., 190
Dean, P., 62 Freeman, W., 199
Dcnnett, D., 51, 151, 245, 248, 249, 251-253, Freyd.J., 197
256 Friedman, M.,235
Denzau, A., 235-236,238 Fukuda, T„ 57 58
Dependencia de trayectorias, 259-260
Desarrollo, 75 92 Gage, Phineas, 171
— próxima!, 86,249-250 GaUagher.J., 135-137, 165, 199
— sin planes, 79-83 Garvín, R., 250
— y andamiaje, 86-88 Gauker, C., 250-251
— y bucles de acción, 76-79 Gibson.J., 75,91.199,225-226
— y montaje blando, 83-86 Gode, D„ 238
Descomposición, basada en la actividad Graziano, M„ 183
Véase Arquitectura de subsunctón Greene, P.,210
Detectores de características, 183
Díaz, R., 248 Haken, H., 164
Dictyostehumdosccideum, 114 Hallam.J., 158
Dinámica usuario-artefacto, 270-275 Haré, M„ 269
Discurso, privado, 250 Harvey, I., 137
Véase también Lenguaje Haugeland.J., 194-195, 197,220
Donald, M.,261,266 Mayes, P., 94
Dretske, E., 168,196 Hazelhurst, B., 243-244
Dreyfus, H .,44,224,258 Heidegger, M., 199,224
Dreyfus, S., 258 Hibbard, L., 179
Hilditch.D., 129,225
Economía, 235-246 Hinton, G., 253
Edelman, G., 185 Hofstadter, D„ 157158
Efecto del manglar, 263-267 Hongos muciiagínosos, 113-114
Elección, raciona], 233-246 Hooker, C., 203
Elman.J., 213,253,259-260,269 Hutchins, E , 103,119-122,242-246,256
Emergencia, 84 85,127
Véase también Auloorganización Identidad, 124, 126
— directa e indirecta, 116-118, 120-121, 155,
157 Jackendoff, R., 249,265
— en la construcción de termiteros, 117-118 Jacob, E, 133
— y descomposición, 127 Jefferson, D., 135
— y explicación, 149-175,215-219 Jordán, M„ 101,210,213
— y reducción, 150-151
Emulación motriz, 62-63 Kagel, J., 238
Enacción, 227 Kawato, M„ 62
Espenschied, K., 55 Kelso.J.A.S., 154,159,163,169.210
Estígmergta, 118-119,240,245 Kirsh.D., 102 104,105 108, 111,124,258 259,
Etiquetas 271
Véase Lenguaje Knierim.J,, 184
Evolución Koza.J., 135
— biológica, 132-133,146-147
— simulada, 131-139, 141 Le Cun, Y., 101
Véase también Algoritmos genéticos Lenat, D , 41,45
índice analítico y de nombres I 303

Lenguaje Norman, D,, 101


— como adaptado inversamente al cerebro, North.D., 235-236,238
267-269
— como artefacto, 247-275 Oportunidades, 226
— como instrumento para el pensamiento, 234, Osciladores adaptativos, 214
247-275
— como sistema de comunicación, 247-255, Parisi.D., 142,241
259-262 Pearson, K.,54
— del pensamiento, 234 Percepción
— nociones supracomunicativas del, 251,252 — contenidos, 63-71,91-92
— y arención, 264-267 — y acción, 69-70,77-79,241
— y discurso interno, 249-250,254-255 — v cognición, 46,52-53,76-77,91-92
— y dependencia de trayectorias, 259-269 Piaget, J., 75,207
— y etiquetas, 255,256-257 Planificación
— y límite instrumento/usuario, 270-275 — a largo plazo, 101
— y pensamientos sobre pensamientos, 263 - — central, 61,71-72
267 — y acción corpórea, 88-90, 103
Lieberman.R, 133 — y autoorganización, 115,119-123
Littman, O., 142,241 — y lenguaje, 257-259
Port.R., 165,213,214
Maes, R, 84,160,189 Principio 007,235-236,238
Maglio, P„ 105-108, 111, 124,258,259,271 Problemas ávidos de representación, 198,200,
Malcolm, C., 158 219-223,229
Mapa Procesamiento distribuido en paralelo
— como controlador, 90 Véase Redes neuronales
— somatotópico, 179-181 Procesamiento reentrante, 185
Matarte, M-, 88-89 Programas parciales, 204-213
Maturana, H., 199 Pseudoplasmodio, 115
McCauley, R., 214
McCIamrock, R-, 256 Quinn, R., 55-56
McClelland, J., 253
Memoria, 255-256 Ramachnndran, V., 70
Mente Racionalidad,
Véanse también Representaciones; Sistemas limitada, 239-241
dinámicos sustantiva, 235-239
— como controladora de la acción, 45-46, 88- Reconstrucción racional, 123-124,
92,110 Redes neuronales artificíales, 54-55, 58-59, 93-
— extendida en el mundo, 233-246,270-275 11, 127
Merleau-Ponty, M., 199,224-225 Véase también Representaciones
Micromundos, 51,99 — aprendizaje en, 97-99,260
Miglino, O., 142 — como controladoras de la acción, 135-139
Miller, G., 197 — como dispositivos de complcción de patro­
Millikan, R., 91,196 n e s ^ , 100-104, 109,233,239-246,258
Mobots — recurrentes, 253
Véase también Agentes autónomos — ventajas e inconvenientes, 100-103,123-124
Mottcr, B., 184 — y algoritmos genéticos, 135-139
Mountcastle, V., 185 — y cerebros reales, 94-95
Movimientos sacidicos, 61-62,67-68,70 — y estructuras extemas, 100-111,239-246
MYCIN, sistema experto, 50 — y satisfacción de restricciones, 242-243
Redcscripcion representacional, 265
NETtalk, 95-96 Reduccionismo, 150-151
Neurociencia, 171 191 Regulador de Watt, 139,143
Newport, E., 268 Representaciones internas
Newsome, \V., 183 Véanse también Cómputo; Sistemas dinámi­
Nilsson, N ., 94,105 cas; Mente; Problemas ávidos de repre­
Nolfi, S., 142,241 sentación
304 I Estar ahí

— en el cerebro, 177-191 Smith, L., 76-77,169,199,204-207,211-212


-explícitas, 52,72,98, 108-109, 120 Smithers, T., 199, 158,139-140
— orientadas hacia la acción, 76,88 92,200 204 Smolensky, R, 253
■ parciales, 63-65,67,69 70, 85-86, 92 SOAR, sistema, 94
— pushmi-pullyu, 91 Soluciones descentralizadas, 113-123,189-191
— replanteamtemo, 222-223,228-229 Véanse también Planificación, Auioorganiza-
— y cómputo, 142-143 ción
.— y desacoplamiento, 219-223 Steels, L., 155-156,158,160
--y explicación, 142-175,215-219,71-72 Slein, L., 58
— y lenguaje público, 253-275 STR1PS, programa, 94
— y modelos del mundo, 61-71,87-88,92 Subsunción, 52-54,61,72,88
— y símbolos, 40-42,44,71-72 Sunder, S . 238-239
— y tiempo, 213-215
Representación orientada hacia la acción. 76, Tetris, juego, 107, 258
88 92,200-204 Thach.T., 78-79
Resnick, M., 80,116, 142, 157 Thelcn, E., 76 77,79,83 85,168 169.199,204-
Retroalimentauón positiva, 81, 103,114-115 207,211-212
Véase también Auioorganización Thormon, C., 261
Richardson, R., 160 Tiempo, 213-215
Ritzmann, R., 42-43 Véase también Sistemas dinámicos
Robots Torras, C., 214
— Aitila, 54 Townsend.J-, 171
— Herbert, 51-54,63,65 Triantafyllou, G., 277
— hexápodo, 54-55 Triantafyllou, M., 277
Rumelhart, D., 253-254
Umtvell, 64-71
Sano, F„ 57-58
Salzman, C , 183 Van Esscn, D . 182-185
Salzman, E., 166 Van Gelder, T., 143 144, 160, 165, 173, 199,
Satz, D., 236-238 213,216
Schieber, M., 179-180,190 Varcla, E, 199,226-227
Sejnowslu, T., 70 Variables colectivas, 116
Sensación dependiente del nicho, 63-64 Vejiga natatoria, 133
Sensores, 141 Visión, 182 185
Shaw, C-, 144,161 - animada, 67, 69 71, 105, 152-153, 182-183,
Símbolos externos. 243 275 190
Simón, H„ 132,235,239 Vogel, S., 87
Simulación, 139-142 Von Ucxkull, J., 64,66-67
Sinergia, 180-181,204-205 Vygotsky, L„ 75.86,249-250
Véanse también Variables colectivas, Siste­
mas dinámicos Wason, R, 242
Sistemas dinámicos, 143 -147 Wbeeler, M., 151,160,165, 199
— acoplados, 139,144 Wímsatt, \V., 161
— puros, 166-167
— leona de los, 143-147, 161 166 Yamnchi, B., 137
— y comprensión explicativa, 149-175,188-191 Yarbus, A., 69
— y cognición de alto nivel, 165-166 Yo,273-275
— y representación, 198-230
— y tiempo, 213-215 Zeluzo, R, 80-81
Skarda, C., 199 Zonas de convergencia, 186-190,202

También podría gustarte