Está en la página 1de 172

Bajo la dirección de Herbert

A. Simón, una nueva ciencia


nos abre sus puertas. Una cien­
cia difícil, retorcida, contra­
dictoria, pero más actual que
cualquiera de las que la pre­
cedieron: la ciencia de lo ar­
tificial. ¿Pueden los sistemas
artificiales, administración, di­
seños, etc., basarse en unos
supuestos que permitan hacer
de ellos una ciencia?
Herbert A. Simón, resumien­
do las investigaciones de un
grupo de importantes expertos,
y bajo el patrocinio de la pri­
mera institución mundial de
investigación — Massachussets
Institute of Technology — con­
testa a estas preguntas en este
ameno y apasionante libro.
LAS CIENCIAS
DE LO ARTIFICIAL

HERBERT A. SIMON

A.T.E.
Título original: Sciences of the Artificial
Traducido por: Francisco Gironella

©The Massachusetts Institute of Technology


por A.T.E. -1973-1978
Rda. del General Mitre, 90 - Barcelona,21
Depósito Legal: B. 1457 - 1979
I.S.B.N. 84-85047-10-9
Printed in Spain
Impreso en España
Fingraf, S.A.
Pavía, 22 - Sardanyola (Barcelona)
SUMARIO

P r e f a c i o ................................................................. 9

I. Ideas de los mundos naturales y artificiales 15

II. La psicología del pensamiento . . . 43

III. La ciencia del diseño..........................................87

IV. La arquitectura de la complejidad . . 125


PREFACIO

La invitación que se me formuló en la primavera


de 1968 para hacerme cargo de las conferencias Karl
Taylor Compton en el Massachusetts Institute of Tech­
nology me brindó la grata oportunidad de poder explicar
y desarrollar con una cierta amplitud una tesis sobre
la que se han centrado gran parte de mis estudios, al
principio en el campo de la teoría de la organización,
posteriormente en el de la ciencia de la administración
y, últimamente, en el de la psicología.
L a tesis es que hay ciertos fenómenos que son «arti­
ficiales» en un sentido muy específico: son como son
únicamente porque hay un sistema que, por sus obje­
tivos o sus fines, se amolda al medio en que vive. Si
los fenómenos naturales tienen en sí un factor de «ne­
cesidad» a causa de su subordinación a la ley natural,
los fenómenos artificiales poseen un factor de «contin­
gencia», resultado de la maleabilidad que les confiere
el medio.
La contingencia de los fenómenos naturales siempre
ha despertado dudas acerca de si caen o no dentro del
ámbito de la ciencia. Algunas veces estas dudas apun­
tan al carácter teleológico de los sistemas artificiales
y a la consiguiente dificultad de desvincular prescrip­
ción de descripción. Ésta, a mi modo de ver, no es la
dificultad auténtica. El verdadero problema consiste en
demostrar cómo pueden formularse proposiciones empí­
ricas en relación con sistemas que, en circunstancias to­
talmente distintas, serían completamente diferentes de
como son.
Así que inicié mis estudios sobre organizaciones
administrativas — hará de esto unos treinta años — me
encontré de repente con el problema de la artificialidad
casi en estado puro :
«... la administración no se diferencia de la representación
teatral. L a labor del buen actor consiste en conocer e interpretar
su papel, por muy variado que pueda ser su contenido. L a
eficacia de la actuación dependerá de la eficacia de la obra y
de la eficacia con qvfe se interprete. L a eficacia del proceso
administrativo variará de acuerdo con la. eficacia de la orga­
nización y la eficacia en sus funciones de los miembros que la
integran». [Administrativa Beháviar, pág. 252],

¿Cómo, entonces, podrá formularse una teoría de


la administración que abarque algo más que las reglas
normativas de una buena actuación ? Y, más concre­
tamente, ¿cómo podrá formularse una teoría empírica?
Mis escritos sobre la administración, particularmente en
Administrative Behavior y en la parte IV de Models oj
Man, han buscado la respuesta a tales preguntas, de­
mostrando que el contenido empírico de los fenómenos,
las necesidades que aparecen por encima de las con­
tingencias, arrancan de las ineptitudes del sistema de
comportamiento para adaptarse plenamente al medio...
a partir de los límites de la racionalidad, según yo los
llamaba.
Dado que el estudio me condujo a otros campos, se
me hizo evidente que el problema de la artificialidad
no era privativo de la administración ni de las organi­
zaciones, sino que invadía un radio mucho más amplio
de cuestiones. La economía, ya que postulaba la racio­
nalidad en el hombre económico, lo convirtió en el actor
magníficamente dotado cuyo comportamiento podía re­
velar algunas de las exigencias que el medio le adjudi­
caba, aunque nada en relación con su carácter cognos­
citivo. La dificultad debe, pues, desbordar los límites
de la economía e irrumpir en todas aquellas facetas de
la psicología que se relacionan con el comportamiento
racional: pensar, resolver problemas, aprender.
Finalmente, creí vislumbrar en el problema de la
artificialidad una explicación de la dificultad con que
se ha tropezado para dotar a la ingeniería y a otras pro­
fesiones de una sustancia teórica distinta de la esencia
de las ciencias que les servían de base. L a ingeniería, la
medicina, los negocios, la arquitectura y la pintura no se
ocupan de lo necesario sino de lo contingente — no
de cómo son las cosas sino de cómo podrían ser — . En
resumen: del diseño o proyecto. La posibilidad de crear
una ciencia o unas ciencias del diseño es exactamente
equivalente a la de crear una ciencia de lo artificial.
Las dos posibilidades subsisten o se desmoronan al mis­
mo tiempo.
Estos ensayos, pues, tratan de explicar la posibili­
dad de una ciencia de lo artificial y de ilustrar su na­
turaleza. Mis explicaciones al respecto no derivan de la
administración, de la teoría de la organización ni de
la economía, puesto que en otros lugares be tratado ya
ampliamente de estas cuestiones. Por el contrario, mis
ejemplos básicos han sido recogidos — en la segunda
y tercera conferencias, respectivamente — en los cam­
pos de la psicología del conocimiento y del diseño indus­
trial. Ya que Karl Compton fue un distinguido "maestro
de ingenieros al mismo tiempo que un distinguido cien­
tífico, pensé que no sería impropio aplicar mis conclu­
siones acerca del diseño a la cuestión de la reelabora­
ción del programa de la ingeniería.
En el curso de este estudio el lector descubrirá que
la artificialidad interesa principalmente cuando se re­
fiere a sistemas complejos que viven en medios com­
plejos. Las materias de la artificialidad y de la comple­
jidad se encuentran íntimamente ligadas. Por este
motivo he incluido en esta obra un ensayo anterior
— «La arquitectura de la complejidad» —-, que desa­
rrolla ampliamente ciertas ideas acerca de la compleji­
dad, a las que no he podido aludir más que somera­
mente en estas conferencias. Dicho ensayo fue publicado
originariamente en diciembre de 1962, en P r o c e e d in g s
o f th e A m e r ic a n P h ilo s o p h ic a l S o c ie t y .
He procurado reconocer en las notas al pie de pági­
na, localizadas en los lugares oportunos del texto, las
deudas específicas contraídas con otros autores. Una
deuda mucho más cuantiosa es la que tengo con Alien
Newell, a quien por espacio de más de un decenio he
estado asociado para la composición de gran parte de
mi obra y a quien dedico el presente volumen. Si en mi
tesis hay cosas con las que no está de acuerdo, será
probable señal de que estén equivocadas. Pese a ello,
no podrá eludir su considerable carga de responsabili­
dad por lo que respecta al resto de la obra.
Lee W. Gregg reconocerá muchas ideas, sobre todo
del capítulo segundo, como originadas en la labor rea­
lizada conjuntamente. Y muchos colegas, al igual que
tantos estudiantes actuales y de tiempos pasados, han
dejado también sus huellas en diferentes páginas de este
texto. Entre los últimos quiero mencionar específicamen­
te a L. Stephen Coles, Edward A. Feigenbaum, John
Grason, Robert K. Lindsay, Ross Quillian, Laurcnt
Siklossy, Donald S. Williams y Thomas G. Williams,
cuya labor se relaciona particularmente con las cues­
tiones que aquí se tratan.
Las anteriores versiones del capítulo cuarto incor­
poraban valiosos datos y sugerencias aportados por
George W. Córner, Richard H. Meier, John R, Platt,
Andrew Schoene, Warren Wearer y William Wise.
Gran parte de los estudios acerca de psicología ex­
puestos en el segundo capítulo fueron sufragados por
el Public Health Service Research Grant (MH-07722)
de los National Institutes of Mental Health, y parte de
los estudios sobre diseño, expuestos en el tercer capí­
tulo por la Advanced Research Projects Agency del
Office of the Secretary of Defense (SD-146). Estas be­
cas, al igual que la ayuda anteriormente prestada por
la Corporación Carnegie y la Fundación Ford, permi­
tieron que en el Carnegie-Mellon pudiéramos proseguir
a lo largo de un decenio nuestras avanzadas explora­
ciones hacia la comprensión de los fenómenos artifi­
ciales.
Finalmente, quiero agradecer al Massachusetts Ins-
titute of Technology, la oportunidad de preparar y pre­
sentar estas conferencias, así como la ocasión de haber
podido establecer un contacto más próximo con los es­
tudios sobre las ciencias de lo artificial, que en la actua­
lidad se realizan en el M.I.T.

H e r b e r t A . S im ó n
P it is b u r g h , P e n n s y lv a n i a
2 d e a b r il d e 1968
I

IDEAS DE LOS MUNDOS NATURALES


Y A RTIFICIA LES

Transcurridos unos tres siglos después de Newton,


nos encontramos plenamente familiarizados con el con­
cepto de ciencia natural o, más claramente, con las
ciencias físicas y biológicas. Una ciencia natural es un
cuerpo de conocimientos relacionados con una cierta
clase de cosas — obj etos o fenómenos — del mundo:
características y propiedades que poseen, cómo se com­
portan y actúan en sus mutuas relaciones.
L a labor básica de una ciencia natural consiste en
convertir lo desusado en corriente: demostrar que la
complejidad, correctamente enfocada, no enmascara
más que la simplicidad, encontrar la pauta que se ocul­
ta en el caos aparente. El antiguo físico holandés Simón
Stevin demostró, por medio de un elegante dibujo (figu-

F igitra 1. L a ley del plano inclinado.


L a viñeta concebida por Simón Stevin para
ilustrar su deducción de la ley.
ra 1), que la ley del plano inclinado se desprende en
«forma evidente por sí misma» de la imposibilidad
del movimiento continuo, puesto que la experiencia y
la razón nos dicen que la cadena de bolas que apa­
rece en el dibujo no giraría ni hacia la derecha ni ha­
cia la izquierda, sino que permanecería estática. (Como
la rotación no alteraría nada en la figura, de moverse la
cadena, se movería continuamente.) Como la parte col­
gante de la cadena lo es en forma simétrica, podemos
cortarla sin alterar el equilibrio. Pero ahora las bolas
del lado largo del plano equilibran las del lado corto y
más empinado; y sus números respectivos están en
razón inversa de los senos de los ángulos según los cua­
les se inclinan los planos.
Stevin estaba tan encantado con su construcción que
formó con ella una viñeta, sobre la cual escribió: WON-
D ER, EN IS GHEEN WONDER, que quiere decir:
«Maravilloso, pero no incomprensible.»
Esta es la función de la ciencia natural: demos­
trar que lo maravilloso no es incomprensible, demostrar
cómo puede ser comprendido... sin anular lo que tiene
de maravilloso. Puesto que, así que hemos explicado lo
maravilloso, desvelando su pauta escondida, surge un
nuevo objeto de maravilla al ver en qué forma la com­
plejidad se entretejía con la simplicidad. La estética de
la ciencia natural y de las matemáticas se da la mano
con la estética de la música y de la pintura: ambas se
apoyan en el descubrimiento de una pauta parcialmen­
te oculta.
El mundo en el que actualmente vivimos es más un
mundo creado por el hombre, un mundo artificial, que
un mundo natural. Casi todos los elementos que nos
rodean dan testimonio del artificio humano. La tem­
peratura en la que pasamos la mayor parte del tiempo
se mantiene artificialmente a 21°, el aire que respira­
mos es empobrecido o enriquecido con una cantidad
de humedad y las impurezas que inhalamos son pro-
elucidas — y filtradas — en gran parte por el hombre.
Además, para la mayor parte de nosotros — los que
llevamos cuello blanco — la parte importante del medio
consiste principalmente en hileras de artificios, apoda­
dos «símbolos», que recibimos a través de ojos y oídos
bajo la forma de lenguaje escrito y hablado y que, por
nuestra parte, como hago yo ahora, vertemos al am­
biente por medio de la boca o de la mano. Las leyes
que rigen estas hileras de símbolos, las leyes que rigen
las ocasiones en que los emitimos y los recibimos, las
determinantes de su contenido son, todas ellas, conse­
cuencia del artificio colectivo.
Se me podrá objetar que exagero la artificialidad
de nuestro mundo. El hombre debe obedecer la ley de
la gravedad con la misma seguridad que una piedra,
y él es un organismo vivo que, para su alimentación y
muchos otros aspectos, depende del mundo de los fe­
nómenos biológicos. Me confesaré culpable de exage­
ración, aunque puntualizando que la exageración es
leve. Decir que un astronauta, o incluso un piloto de
avión, obedece la ley de la gravedad, es decir, un fe­
nómeno perfectamente natural, es una verdad; si bien
esta verdad exige cierta sofisticación por lo que se re­
fiere a «obedecer» una ley natural. Aristóteles no tenía
por hecho natural que las cosas pesadas subiesen o que
las ligeras cayesen (F í s i c a , Libro IV ); pero considera­
mos que nuestro concepto de lo «natural» es más pro­
fundo que el suyo.
Debemos tener, además, buen cuidado de no equi­
parar lo «biológico» con lo «natural». Un bosque puede
ser un fenómeno de la naturaleza; en tanto que una
granja no lo es. Las mismas especies de las que el hom­
bre depende para su alimentación — el trigo y el ga­
nado — son artificios de su ingenio. Un campo labrado
no es más elemento de la naturaleza que una calle as­
faltada... ni tampoco lo es menos.
Estos ejemplos fijan las cotas de nuestro problema,
ya que lo que llamamos artificio no es nada ajeno a la
naturaleza. Son cosas que no están en posesión de una
dispensa para ignorar ni violar la ley natural. Al mismo
tiempo, se adaptan a los objetivos y propósitos del hom­
bre. Son como son para satisfacer sus deseos de volar
o de bien comer. Así que varían los objetivos del hom­
bre, varían también sus artificios. Y viceversa.
Si la ciencia debe abarcar estos objetos y fenóme­
nos en los que está englobada la finalidad del hombre,
así como la ley natural, es porque debe contar con unos
medios para relacionar estos componentes dispares. El
carácter de estos medios y sus implicaciones en ciertos
campos del conocimiento — psicología e ingeniería, par­
ticularmente — constituye el tema central de los tres
primeros capítulos.

L o a r t ific ia l

La ciencia natural es conocimiento de los objetos


y fenómenos naturales. Nos preguntamos si no podría
existir también una ciencia «artificial» : conocimiento
de los objetos y fenómenos artificiales. Por desgracia, el
término «artificial» tiene un matiz peyorativo del que
debemos prescindir antes de seguir adelante.
El diccionario que yo tengo define por «artificial» :
«Producido por el arte más que por la naturaleza; no
genuino ni natural; afectado; ajeno a la esencia de la
cuestión.» Como sinónimos de la palabra, propone:
afectado, ficticio, simulado, espurio, engañoso, no na­
tural. Como antónimos, enumera: verdadero, genuino,
honrado, natural, real, verdadero, no afectado. Hasta
nuestro mismo lenguaje parece reflejar la profunda des­
confianza que nos inspiran nuestros propios productos.
No trataré de afirmar la validez de tal evaluación ni
tampoco explorar sus posibles raíces psicológicas. No
obstante, habrá que entenderse el sentido en que em­
pleo el término «artificial» como el más neutro posible:
para indicar algo hecho por el hombre, opuesto a na­
tural.1
En ciertos contextos hacemos una distinción entre
«artificial» y «sintético». Una gema, por ejemplo, que
fuese un vidrio teñido de un color semejante al del za­
firo, se llamaría artificial, mientras que una gema hecha
por el hombre y que, químicamente, no pudiese distin­
guirse del zafiro se diría que es sintética. Suele hacerse
una distinción similar entre goma «artificial» y «sinté­
tica». Así pues, algunas cosas artificiales son imitacio­
nes de cosas existentes en la naturaleza, y la imitación
puede servirse tan pronto de los mismos materiales bá­
sicos que posee el objeto natural como de materiales
completamente diferentes.
Así que introducimos la «síntesis» y el «artificio»,
penetramos en el reino de la ingeniería. Porque «sinté­
tico» se suele utilizar en el sentido más amplio de «di­
señado» o «compuesto». Hablamos de ingeniería como
de algo que se ocupa de la «síntesis» en tanto que cien­
cia se ocupa del «análisis». Los objetos sintéticos o arti­
ficiales y, más específicamente, los objetos artificiales
previstos, con unas propiedades determinadas, consti­
tuyen el objeto básico de las actividades y habilidades
de la ingeniería. El ingeniero se ocupa de cómo d e b ie ­
r a n ser las cosas. Es decir, de cómo debieran ser para
c o n s e g u ir u n o s fin e s y fu n c io n a r . De ahí que una ciencia
de lo artificial sea tan afín a una ciencia de la ingenie­
ría, si bien al mismo tiempo tan diferente — como se
1 Rechazo toda responsabilidad por esta particular selección de términos.
L a frase «inteligencia artificial», que me indujo a ella, creo que fue acuñada
en el River Charles, del M.I.T. Nuestro equipo de estudios del RA.ND y de
la Carnegie-Mellon University ha optado por frases como «elaboración com­
pleja de la información» y «simulación de los procesos cognoscitivos». Pero,
en tales casos, nos vimos abocados a nuevas dificultades en la terminología,
ya que el diccionario dice también que «simular» significa «asumir ó tener
la simple apariencia o forma de algo, sin su realidad; im itar; falsificar'; en­
gañar». Sea como fuere, «inteligencia artificial» parece haberse consolidado
y tal vez resulte más fácil depurar la frase que pasarse de ella. Con el
tiempo será lo bastante corriente para dejar de ser objeto <lc la retórica barata.
verá en el tercer capítulo — de lo que se entiende nor­
malmente con el nombre de «ciencia de la ingeniería».
Con ios «fines» y con el «cómo debe ser algo» pre­
sentamos en escena la dicotomía entre normativo y des­
criptivo. La ciencia natural ha encontrado un camino
para excluir lo normativo y ocuparse únicamente de
cómo son las cosas. ¿Podemos o debemos mantener
esta exclusión al pasar de fenómenos naturales a arti­
ficiales, del análisis a la síntesis ? 2
Ahora bien, hemos identificado cuatro indicios que
distinguen lo artificial de lo natural; de ahí que poda­
mos fijar los límites de las ciencias de lo artificial:
1. Las cosas artificiales están sintetizadas por el
hombre (aunque no siempre ni normalmente
con plena premeditación).
2. L as cosas artificiales pueden imitar la aparien­
cia de las naturales y carecer, a un tiempo, de
la realidad de las últimas, ya sea en un aspecto
o en muchos.
3. L as cosas artificiales pueden caracterizarse se­
gún sus funciones, objetivos y adaptación.
4. Las cosas artificiales suelen considerarse, espe­
cialmente al ser diseñadas, como imperativas y
como descriptivas.

E l m e d io a m b ie n te c o m o m o ld e

Examinemos un poco más de cerca el aspecto fun­


cional u objetivo de las cosas artificiales. El alcance de
2 Este aspecto será también tratado con amplitud en el capítulo tercero.
Para no tener a los lectores en suspenso, diré que me mantengo en la prístina
postura positivista de la irreductibilidad del «debiera» al «es», como decía en ei
capítulo III de mi Administrative Behavior (Nueva York: Macmillan, 1947).
Tal postura es totalmente consecuente en el tratamiento de sistemas naturales
o artificiales tendentes a un objetivo como fenómenos, sin ningún compromiso
con dichos objetivos. Ibid. , Apéndice. Véase también el conocido trabajo de
A, Rosenbluth, N. Wiener y J . Bigeíow, «Behavior, Purpose. and Teleology»,
Philosophy oj Science, 10: 18-24 (1943).
I d e a s d e ¡o s m u n d o s n a tu r a le s y a r tific ia le s

un fin o la adaptación a un objetivo supone una relación


entre tres factores: el propósito o finalidad, el carácter
del artificio y el medio en el que dicho artificio deba
actuar. Cuando pensamos, por ejemplo, en un reloj en
cuanto al propósito que cubre, podemos servirnos de
la definición infantil: «el reloj sirve para decir qué hora
es». Si centramos nuestra atención en el reloj, podemos
describirlo atendiendo a la disposición de sus engrana­
jes, a la aplicación de las fuerzas de los muelles o a la
gravedad que actúa sobre un peso o un péndulo.
Pero podemos también considerar los relojes en re­
lación con el ambiente en que deben utilizarse. Los re­
lojes de sol funcionan como relojes en aquellos países
donde hay sol, son más útiles en Phoenix que en Bos­
ton y de ninguna utilidad durante el invierno ártico.
Idear un reloj capaz de medir el tiempo en un barco
moviéndose a merced del oleaje y con la precisión ne­
cesaria para determinar la longitud constituyó una de
las grandes hazañas de la ciencia y de la técnica del
siglo x v iii . Para funcionar en un ambiente tan adverso,
el reloj debe reunir muchas propiedades sutiles, algu­
nas de ellas totalmente ajenas al funcionamiento de un
reloj corriente.
La ciencia natural incide en un artificio a través de
dos de los tres factores de la relación que lo caracteriza:
la estructura del artificio propiamente dicho y el medio
en que actúa. Que un reloj mida realmente el tiempo
depende de su construcción interior y del lugar en don­
de esté situado. Que un cuchillo corte depende del ma­
terial de que esté hecha su hoja y de la dureza de la
sustancia a la que se aplique.

El artificio como contacto

Podemos enfocar la cuestión de forma simétrica.


Es posible imaginar un artificio como punto de unión

21
— «contacto» en términos actuales — de un medio «in­
terior», sustancia y organización del artificio propia­
mente dicho, y un medio «exterior», las proximidades
donde actúa. Cuando el medio interior está adecuado
al medio exterior, o viceversa, el artificio cubre la fina­
lidad a la que se le destina. Así, pues, si el reloj es
inmune al cabeceo, podrá servir como cronómetro en
un barco. (Y a la inversa, si no lo es, podremos salvarlo
colocándolo en la repisa de la chimenea de nuestra casa.)
Obsérvese que esta forma de ver los artificios es
también válida para muchas cosas no hechas por el hom­
bre; de hecho, para todas aquellas cosas que pueden
considerarse «adaptadas» a una situación y, de modo
particular, a aquellos sistemas vivos que han evolucio­
nado a través de las fuerzas de la evolución orgánica.
Hay una teoría del avión que se aproxima a la ciencia
natural para una explicación de su medio interno (la
instalación eléctrica, por ejemplo), de su medio externo
(el tipo de atmósfera a diferentes alturas) y la relación
existente entre sus medios interno y externo (el movi­
miento de una capa de aire a través de un gas). No
obstante, una teoría del pájaro podría dividirse exacta­
mente de la misma forma.3
D a d o un avión, o d a d o un pájaro, podemos anali­
zarlos con los métodos de la ciencia natural sin tener
para nada en cuenta su propósito o adaptación, sin
referencia ninguna al contacto entre lo que he llama­
do los medios interno y externo. Después de todo, su
comportamiento está tan regido por la ley natural
como el comportamiento de otra cosa cualquiera (o,

J Una generalización del razonamiento que aquí se hace en favor de la


di sociabilidad de «exterior» e «interior» referidos a los medios, demuestra que
cabría encontrar esta disociabilidad, en mayor o menor grado, en todos los
sistemas grandes y complejos, ya fuesen artificiales o naturales. En su for­
m a generalizada, es una argumentación con respecto a que toda la naturaleza
deberá estar organizada por «niveles». Al i ensayo «La arquitectura de ia com­
plejidad)), incluido eu este volumen, desarrolla con cierto detalle la argumen­
tación de carácter más general.
cuando menos, todos nosotros así lo pensamos con res­
pecto al avión y, la mayoría, con respecto al pájaro).

Explicación funcional

Por otra parte, si bien la división entre medio inter­


no y externo no es necesaria para el análisis de un
avión o de un pájaro, por lo menos resulta muy con­
veniente. Existen varias razones que abonan este punto
y que se harán evidentes con los ejemplos.
Muchos animales del Ártico tienen pelo blanco. Por
lo general, nos explicamos este detalle diciendo que el
blanco es el mejor color para el medio ártico porque
los seres de color blanco se detectan mucho más difí­
cilmente que aquellos cuyo color no es éste. Ésta, por
supuesto, no es una explicación propia de la ciencia
natural, sino una explicación referida al propósito o
función.' Afirma simplemente que éste es el género de
criaturas que «actuarán», es decir, que sobrevivirán en
este tipo de medio. Para transformar esta manifesta­
ción en explicación habría que añadirle una idea de la
selección natural o de un mecanismo equivalente.
Un hecho notable relacionado con este tipo de ex­
plicación e s .que exige sobre todo una idea del medio
exterior. Si observamos el medio, cubierto de nieve,
que nos rodea, podremos predecir cuál será el color
predominante de los seres que probablemente vayamos
a encontrar; muy poco será preciso conocer acerca de
la biología de dichos seres, aparte de que acostumbran a
mostrarse mutuamente hostiles, de que se sirven de pis­
tas visuales para modificar su comportamiento y de que
son adaptables (a través de la selección o de algún otro
mecanismo).
Análoga a la función desempeñada por la selección
natural en la biología evolutiva es la función ejercida
po: la racionalidad en las ciencias del comportamiento
humano. Si de una empresa comercial lo único que sa­
bemos es que consiste en un sistema de obtención de
máximos beneficios, podremos predecir cómo variará
su comportamiento si variamos eí medio: cómo modi­
ficará los precios si se gravan sus productos con un
impuesto ¡sobre las ventas. Esta predicción puede hacer­
se — y los economistas la hacen repetidamente — sin
supuestos precisos relacionados con el mecanismo de
adaptación, el aparato que sirve para tomar las deci­
siones y que constituye el medio interior de la firma
comercial.
Así pues, la primera ventaja que se desprende de
deslindar el medio exterior del interior, al estudiar un
sistema adaptable o artificial, es que a menudo nos es
dado predecir el comportamiento a partir del conoci­
miento de los objetivos del sistema y de su medio exte­
rior, con unos presupuestos mínimos en relación con el
medio interior. Corolario inmediato es que es frecuente
encontrar medios interiores totalmente distintos que
cumplen fines idénticos o parecidos en medios externos
idénticos o parecidos: aviones y pájaros, delfines y
atunes, relojes accionados por pesas y relojes acciona­
dos por muelles, relés eléctricos y transistores.
Suele existir una considerable ventaja en la división
desde el punto de vista del medio interior. En gran
número de casos, que un sistema particular alcance un
determinado objetivo o adaptación depende únicamente
de unas pocas características *del medio externo y en
ningún modo del detalle de dicho medio. Los biólogos
conocen muy bien esta propiedad de los sistemas adap­
tables, que etiquetan con el nombre de homeostasis.
Se trata de una importante propiedad de la mayor
parte de los buenos diseños, ya sean biológicos ya arte-
factuales. En una u otra forma, el proyectista aisla el
sistema interior del medio, a fin de mantener una rela­
ción invariable entre el sistema interior y el objetivo,
independiente de las variaciones sobre un amplio cam­
po en la mayor parte de parámetros que caracterizan
el medio externo. E l cronómetro del barco reacciona
ante el cabeceo sólo en sentido negativo para mantener
una relación invariable de las manecillas de la esfera
con el tiempo, aparte de los movimientos del barco.
Puede mantenerse una casi total independencia del
medio exterior a través de varias formas de aislamiento
pasivo, de la realimentación reactiva negativa (la for­
ma de aislamiento discutida con mayor frecuencia), de
la adaptación pronosticadora o por diversas combina­
ciones de las mismas.

D e s c r ip c ió n y s ín te s is f u n c i o n a l

En el mejor de todos los mundos posibles — al


menos para un proyectista — podríamos incluso espe­
rar combinar los dos grupos de ventajas descritas que
derivan de confeccionar un sistema adaptable a unos
objetivos, a un medio externo y a un medio interno.
Podríamos esperar ser capaces de caracterizar las pro­
piedades primordiales del sistema y su comportamien­
to sin elaborar el detalle de los medios externo ni inter­
no. Podríamos tender a una ciencia de lo artificial que
dependiese de la relativa simplicidad de la interfaz como
su fuente principal de abstracción y generalidad.
Consideremos el diseño de un aparato físico que
deba servir como contador. Si queremos que dicho apa­
rato pueda contar hasta mil, por ejemplo, tiene que
poder adoptar, como mínimo, cada uno de los mil esta­
dos, mantenerse en un estado dado y pasar de un es­
tado al «siguiente». Existen docenas de diferentes me­
dios internos que podrían utilizarse (y se han utilizado)
para un aparato de este tipo. Una rueda con una mues­
ca a cada veinte minutos de arco, provista de una pie­
za dentada giratoria que se agarrase a ella, solucionaría
el caso. Lo mismo ocurriría con una sucesión- de diez
conmutadores eléctricos, conectados de forma que re­
presentasen números binarios. En lugar de conmutado­
res, en la actualidad es probable se utilizasen mejor
transistores o cualquier otro artilugio de tipo sólido.4
El contador estaría impulsado por un tipo cualquie­
ra de vibración, mecánica o eléctrica según el caso, que
actuaría desde el medio externo. Sin embargo, con la
construcción de un conectador apropiado entre los dos
medios, el carácter físico de la pulsación interior podría
hacerse independiente del carácter físico de la pulsa­
ción exterior: el contador podría contar algo.
L a descripción de un artificio atendiendo a su organi­
zación y funcionamiento — su contacto entre los medios
interno y externo — constituye uno de los principales
objetivos de la actividad de inventar y diseñar. Los
ingenieros considerarán familiar el léxico de la siguiente
demanda, transcrita de una patente de 1919 y proce­
dente de un controlador de un motor rectificado:
«Lo que reclamo como cosa nueva y quiero proteger con
la patente es lo siguiente:
1. En un control de motor, en combinación, los medios
inversores, los medios normalmente efectivos, reductores
del campo, y los medios asociados con ios dichos me­
dios inversores para hacer inefectivos los citados medios
reductores del campo durante la puesta en marcha del
motor y, a partir de aquí, efectivos a diferentes grada­
ciones, determinables por el engarce de los dichos me­
dios inversores...» 5

Dejando aparte el hecho de que sabemos que el pro­


yecto se relaciona con el control de un motor eléctrico,
apenas si encontramos aquí ninguna referencia a obje­
4 _ L a teoría de la equivalencia funcional de las máquinas de calcular se
ha visto considerablemente ampliada en años recientes. Véase Marvin L.
Minsky, Computation: Finite and Infinite Machines (Englewood Cliffs, N. J . :
Prentice-Haílj 1967), Capítulos 1-4.
5 Patente de E E.U U . 1,307,636, concedida a Arthur Simón, 24 de junio
de 1919.
tos o fenómenos específicos y concretos. Las referencias
tienen que ver más bien con los «medios inversores» y
los «medios reductores del campo», cuya finalidad últi­
ma queda aclarada en un párrafo que precede a la de­
manda de la patente:
«Las ventajas del tipo especial de motor ilustrado y el control
del mismo serán perfectamente comprendidas por los expertos
en la materia. Entre las mencionadas ventajas, puede citarse
la aportación de un impulsor rotatorio de puesta en marcha y la
posesión de rápidas inversiones de motor.» 6

Supongamos ahora que el motor en cuestión está


incorporado a un cepillo mecánico (véase figura 2). El
inventor describe su funcionamiento del siguiente modo:
Refiriéndose ahora a la figura 2, el controlador queda expli­
cado en la conexión con un cepillo mecánico (100), impulsado
por un Motor M, encontrándose el controlador adaptado para
gobernar el Motor M y ser accionado automáticamente por el
soporte alternador (101) del cepillo. El eje principal del con­
trolador está provisto de una leva (102) conectada por un
tirante (103) a una leva (104), montada en la estructura del
cepillo y en el paso de los estribos (105) y (106) del soporte
del cepillo. Como se comprenderá, la disposición está situada
de tal modo que los movimientos opuestos del soporte del ce­
pillo, gracias a las conexiones descritas, impulsará hacia atrás
y hacia adelante, entre sus posiciones extremas, al eje princi­
pal del controlador y, en consecuencia, efectuará la operación
selectiva de ios conmutadores de inversión (1) y (2) y la opera­
ción automática de los restantes conmutadores de la manera
expuesta más arriba.7

De ese modo, las propiedades de que se ha dotado


el medio interno son puestas al servicio de los objetivos
del medio externo. El motor se invertirá periódicamente
bajo el control de la posición del soporte del cepillo mc-
6 ¡bul.
7 Ibid.
F ig u r a 2.

Ilustraciones de una patente para el control de un motor.

cánico. L a aforma» de dicho funcionamiento — la tra­


yectoria del tiempo, podríamos decir, de una variable
asociada con el motor — será una función de la «forma»
del medio exterior: en este caso, la distancia entre los
estribos del soporte del cepillo.
El aparato que acabamos de describir explica, como
en un microcosmos, la naturaleza de los artificios. Un
extremo básico para su descripción lo constituyen los
objetivos que conectan el sistema interior con el exte­
rior. El sistema interior consiste en una organización
de fenómenos naturales capaces de llegar a los fines
previstos en determinada esfera de medios; con todo,
normalmente habrá muchos sistemas naturales, funcio­
nalmente equivalentes, capaces de comportarse de igual
modo.
El medio exterior determina las condiciones favora­
bles a la consecución del fin propuesto. Si el sistema
interno está adecuadamente diseñado, se adaptará al
medio externo, de forma que su comportamiento que­
dará determinado en gran parte por el comportamiento
de este último, exactamente como ocurría en el caso del
«hombre económico». Para predecir cómo se compor­
tará, lo único que tenemos que preguntar es: « ¿Cómo
funcionaría en estas circunstancias un sistema diseñado
racionalmente?» El funcionamiento adopta la forma
del medio en que se mueve.8

L ím it e s d e la a d a p t a c ió n

La cuestión, sin embargo, debe ser algo más com­


pleja que lo que dejan suponer estas explicaciones. «Si
los deseos fuesen caballos, todos los mendigos irían
montados.» Y si nos fuera dado detallar siempre un
sistema interior proteico que adoptase exactamente la
forma del medio en que se mueve, proyectar sería si­
nónimo de desear. «Medios de rayar diamantes», define
un objetivo-proyecto, un objetivo que p o d r í a alcanzar­
se gracias al uso de muy diferentes sustancias. Pero
no se consigue el proyecto más que cuando se descubre,
como mínimo, un sistema interno realizable que se do-

8 Con respecto al papel fundamental que tiene la adaptación o la racio­


nalidad — y sus límites — para la economía y la teoría de la organización,
véase la introducción a la Parte IV, «RationaLity and Administrative Decisión
Making», de mi obra Models of Man (Nueva Y ork: Wiley, 1957), y las
págs. 38-41, 80-81 y 240-244 de Administrative Behavior, op. cit.
L a s c ie n c ia s d e lo a r t if ic ia l

ble a las leyes naturales corrientes: en este caso, un


material lo bastante duro para poder rayar diamantes.
Será frecuente que debamos contentarnos con alcan­
zar los objetivos planeados de forma sólo aproximada.
E s entonces cuando se entrevén las propiedades del sis­
tema interior. E s decir, el comportamiento del sistema
no responde más que en parte al medio en que se mue­
ve, ya que, en parte también, responderá a las propie­
dades limitadoras del sistema interior.
Así, pues, los controles de motor descritos anterior­
mente tienen como finalidad conseguir una «rápida»
inversión del motor. Pero el motor debe obedecer unas
leyes electromagnéticas y mecánicas y nos sería fácil
poner a prueba el sistema frente a una labor en que el
medio fuera solicitado para realizar una inversión más
rápida que la que el motor pudiese efectuar. En un me­
dio favorable obtendríamos del motor únicamente lo
que está llamado a realizar; en un medio compulsivo,
nos informaríamos de alguna cosa relacionada con su
estructura interna, sobre todo, con aquellos aspectos~de
la estructura interna, principales instrumentos de la li­
mitación de su funcionamiento.9
Un puente, para su uso normal, se comporta sim­
plemente como una superficie plana relativamente re­
gular sobre la cual pueden moverse los vehículos. Sólo
en el momento en que esté sometido a una sobrecarga
podremos enterarnos de las propiedades físicas de los
materiales que entraron en su construcción.

9 Compárese la proposición correspondiente al proyecto de las organiza­


ciones administrativas: «La racionalidad, pues, no determina el comporta­
miento. Dentro del área de la racionalidad el comportamiento es perfecta­
mente flexible y adaptable a la capacidad, objetivos y conocimientos. En
cambio, el comportamiento se ve determinado por los elementos irracionales
que limitan el área de la racionalidad... ia teoría administrativa debe ocu­
parse de los limites de la racionalidad y de la forma en que la organización
afecta a estos límites para la persona que toma una decisión.» Adminislrative
Behavior, op. cit., pág. 241.
C o m p r e n s ió n a t r a v é s d e l a sim u la c ió n

La artificialidad connota una similitud perceptible


pero una diferencia esencial, un parecido más externo
que interno.. Valiéndonos del léxico empleado anterior­
mente diremos que el objeto artificial imita al real en
el hecho de ofrecer la misma cara al sistema externo
y en el de adaptarse, en relación con los mismos obje­
tivos, a campos comparables de tareas externas. L a
imitación es posible porque pueden organizarse sistemas
físicos diferentes para exponer un comportamiento casi
idéntico. El muelle húmedo y el circuito húmedo obe­
decen a la misma ecuación diferencial lineal de segundo
orden; de ahí que podamos utilizar cualquiera de los
dos para imitar al otro.

T é c n ic a s d e l a sim u la c ió n

A causa de su carácter abstracto y de su generali­


zación en la manipulación de símbolos, la computadora
digital ha ampliado notablemente el radio de sistemas
cuyo comportamiento permite la imitación. Por lo ge­
neral, llamamos ahora «simulación» a la imitación y
tratamos de comprender el sistema imitado poniendo
a prueba la simulación dentro de una gran variedad de
medios simulados o imitados.
Como técnica para la comprensión y predicción del
comportamiento de unos sistemas, la simulación se anti­
cipa, por supuesto, a la computadora digital. L a presa
modelo y el túnel de viento constituyen ejemplos valio­
sos para el estudio del comportamiento de grandes sis­
temas gracias a amoldarlos en lo pequeño ; es indudable
que al descubridor de la ley de Ohm se le ocurrió ésta
por su analogía con fenómenos hidráulicos de tipo sen­
cillo.
La simulación puede incluso adoptar la forma de
un experimento intelectual, jamás llevado a la realidad
de forma dinámica. Uno de mis recuerdos más preci­
sos de la Gran Depresión se relaciona con un enorme
gráficp multicolor que figuraba en el despacho de mi
padre y que representaba un modelo hidráulico de un
sistema económico (con fluidos diferentes para el dine­
ro y para las mercancías). Dicho gráfico creo que había
sido concebido por uu ingeniero de inclinación tecno-
crática llamado Dahlberg. Este modelo no superó nunca
el estadio de la pluma y el pincel, pero servía para ras­
trear las consecuencias imputadas a particulares medi­
das o hechos de carácter económico... siempre, por su­
puesto, que la teoría estuviese en lo cierto.
A medida que iban ampliándose mis convencimien­
tos en el campo de la economía, sentía crecer un cierto
desdén por aquella simulación tan ingenua, sólo para
descubrir, al terminar la Segunda Guerra Mundial, que
un distinguido economista, el Profesor Abba Lerner,
había construido un Moniaco, modelo hidráulico que
simulaba una economía Keynesiana. La simulación del
Profesor Lerner presuponía, indudablemente, una teo­
ría más correcta que la anterior y había sido elaborada
y manipulada en forma real: dos detalles que aboga­
ban en su favor. Con todo, el Moniaco, pese a ser útil
como herramienta de formación, nada de nuevo apor­
taba que no pudiera deducirse inmediatamente de sen­
cillas versiones matemáticas de la teoría Keynesiana y
pronto hubo de ser desbancado por el creciente número
de simulaciones de computadora existentes en la eco­
nomía.

L a s im u la c ió n c o m o fu e n te d e n u e v o c o n o c im ie n to

Esto me lleva a la crítica pregunta relacionada con


la simulación: ¿ C ó m o p u e d e l a s im u la c ió n in fo r m a r n o s
d e a l g o q u e n o s u p ié r a m o s y a ? L a respuesta corriente
a la pregunta es que no puede. A propósito de ello,
existe un importante paralelismo, del que pienso sacar
partido en este momento, entre dos aserciones relacio­
nadas con las computadoras y la simulación que se
escuchan con frecuencia:
1.. Una simulación no es mejor que los supuestos
que entraña.
2. Una computadora no puede hacer más que lo
que tiene programado hacer.
No pienso negar ninguna de las dos afirmaciones,
porque las tengo a ambas por ciertas. Pero, a pesar de
ambas afirmaciones, la simulación puede decirnos cosas
que no sabemos.
Existen dos formas vinculadas en que la simulación
es capaz de aportar un nuevo conocimiento: una, obvia;
la otra, un tanto sutil. El detalle obvio es que, incluso
cuando contamos con premisas correctas, puede resul­
tar difícil descubrir lo que suponen. Todo razonamien­
to correcto consiste en un gran sistema de tautologías,
pero sólo Dios es capaz de hacer un uso directo de aquel
hecho. Al resto de nosotros no nos queda sino rastrillar
laboriosa y faliblemente las consecuencias de nuestras
afirmaciones.
Así pues, cabría esperar que la simulación fuera una
poderosa técnica capaz de deducir de nuestros conoci­
mientos acerca de los mecanismos que gobiernan el com­
portamiento de los gases, una teoría sobre el tiempo
atmosférico y un medio de predicción meteorológica.
De hecho, como consta a muchas personas, a lo largo
de varios años se han venido realizando intentos para
aplicar esta técnica. Enormemente simplificada, la idea
es que ya conocemos las afirmaciones básicas correctas,
las ecuaciones atmosféricas locales; sin embargo, nece­
sitamos la computadora para elaborar las deducciones
de las acciones cruzadas de un gran número de varia­
bles que arrancan de unas condiciones iniciales compli­
cadas. Esto no es sino una extrapolación a la escala
de las computadoras modernas de la idea de que echa­
mos mano al resolver, en álgebra, dos ecuaciones si­
multáneas.
Este enfoque de la simulación tiene numerosas apli­
caciones en el diseño propio de la ingeniería. E s carac­
terístico de muchos tipos de problemas de diseño que
el sistema interior cpnsiste en componentes cuyas leyes
fundamentales de comportamiento — mecánicas, eléc­
tricas o químicas — son bien conocidas. L a dificultad
que entraña el problema del diseño suele estribar en
predecir cómo se comportará un grupo de tales compo­
nentes.

S i m u l a c ió n d e s is t e m a s e s c a s a m e n t e c o m p r e n d id o s

La duda más interesante y sutil se refiere a si la


simulación puede sernos de alguna ayuda cuando, ini­
cialmente, no sabemos demasiado acerca de las leyes
naturales que gobiernan el comportamiento del sistema
interior. Permítaseme demostrar por qué esta duda
puede también resolverse en sentido afirmativo.
Primero voy a hacer un comentario preliminar que
simplifica la cuestión: raras veces estamos interesados
en explicar o predecir fenómenos en todos sus detalles:
en general, lo único que nos importa son unas cuan­
tas propiedades extraídas de su compleja realidad. Así,
por ejemplo, un satélite lanzado por el hombre es sin
duda un objeto artificial, si bien no solemos pensar en
él como en algo que «simula» a la luna o a un plane­
ta. De hecho, no hace sino obedecer aquellas mismas
leyes de física que se relacionan únicamente con la masa
de su inercia y gravitación, haciendo abstracción de
la mayor parte de sus demás propiedades. E s una luna.
De modo similar, la energía eléctrica que entra en mi
casa, procedente de la estación generadora atómica de
Shippingport, no «simula» la energía que generaría una
central de carbón o un molino de viento. Las ecuacio­
nes de Maxwell apoyan a ambas.
Cuanto más dispuestos estamos a hacer abstracción
de los detalles de un conjunto de fenómenos, tanto má9
fácil resulta simular dichos fenómenos. Además, no
tenemos por qué conocer, o adivinar, toda la estructura
interna del sistema, sino únicamente aquella parte del
mismo, básica para la abstracción.
E s de agradecer que sea así porque, de ser de otro
modo, la estrategia que elaboró las ciencias naturales
durante los últimos tres siglos hubiera resultado imprac­
ticable. Sabíamos ya gran número de cosas acerca del
comportamiento en general, físico y químico, de la ma­
teria antes de poseer unos conocimientos en relación
con las moléculas, sabíamos muchas cosas acerca de la
química molecular antes de contar con una teoría ató­
mica y conocíamos un gran conjunto de cosas en rela­
ción con los átomos antes de tener una teoría de las
partículas elementales... suponiendo que la tengamos
en realidad.
Esta gigantesca edificación de la ciencia, desde el
tejado hasta los cimientos, aún por construir, fue po­
sible porque el comportamiento del sistema a cada uno
de sus niveles dependía solamente de una muy aproxi­
mada, simplificada y abstracta caracterización del sis­
tema que estaba en el nivel inmediatamente por de­
bajo.10 Es una suerte, porque de otro modo la seguridad
10 E ste punto se desarrolla de forma más completa en «La Arquitectura
de la Complejidad», que aparece en este volumen. Hace más de cincuenta
años que Bertrand Russell desarrolló este mismo punto refiriéndose a la.
arquitectura de las matemáticas. Véase el «Prefacio» a Principia Mathema-
tica: «... la razón principal en favor de una teoría cualquiera sobre los prin­
cipios de las matemáticas debe ser siempre inductiva,. es decir, debe apoyarse
en el hecho de que la teoría en cuestión nos permite deducir las matemá­
ticas corrientes. En matemáticas, es corriente que el mayor grado de evi­
dencia no figure al principio sino más adelante; de ahí que las primeras
deducciones, basta llegar a dicho punto, aportan razones más bien para
creer en las premisas porque de ellas se derivan consecuencias verdaderas,
que para creer en las consecuencias porque derivan de las prmisas». L as
preferencias simultáneas en los formalismos deductivos acostumbran a cerrar­
nos los ojos frente a este importante hecho, no menos cierto en la actualidad
que en 1910
de puentes y aviones dependería acaso de lo acertado
del «óctuplo medio» de ver las partículas elementales.
Los sistemas artificiales y los sistemas adaptables
reúnen propiedades que los hacen particularmente sus­
ceptibles de simulación a través de unos modelos sim­
plificados. La caracterización de tales sistemas, en la
sección anterior de este capítulo, explica los motivos.
Las similitudes en el comportamiento de sistemas sin
identidad con los sistemas internos resnlta particular­
mente factible si los aspectos en que estamos interesados
se desprenden de la o r g a n iz a c ió n de las partes, indepen­
dientemente de casi todas las propiedades de los com­
ponentes individuales. Así, para muchos aspectos, po­
demos estar interesados únicamente en determinadas
características de un material, como sn tirantez y su
fuerza de comprensión. Podemos mostrarnos totalmen­
te indiferentes en relación con sus propiedades químicas
o incluso frente al hecho de tratarse de madera o de
hierro.
L a patente del control de un motor que citábamos
anteriormente es un ejemplo de esta abstracción frente
a las propiedades organizadoras. Aquel ingenio se com­
ponía de una «combinación» de «medios inversores»,
de «medios reductores del campo», lo que equivale a
decir: de componentes especificados de acuerdo con su
funcionamiento dentro del todo organizado. ¿Cuántas
formas existen de invertir un motor o de reducir la am­
plitud de su campo ? Podemos simular bajo muchas for­
mas el sistema descrito en la demanda de la patente sin
reproducir ni siquiera aproximadamente el aparato fí­
sico auténtico que se describe. Añadiéndole algo más
de abstracción, la demanda de la patente hubiera po­
dido abarcar tanto el aspecto eléctrico como el mecá­
nico. Me parece que cualquier estudiante de ingeniería
de la Carnegie-Mellon University o del M.I.T. sería
capaz de diseñar un sistema mecánico que abarcase la
reversibilidad y el impulso rotatorio de la variabilidad
para simular el sistema que describe la patente.

L a c o m p u ta d o ra com o a r t e ja d o

No existe artefacto concebido por el hombre que


más convenga a esta descripción funcional que una com­
putadora digital. Es verdaderamente proteica, puesto
que casi las únicas propiedades que pueden detectarse
en su comportamiento ( ¡siempre que funcione como es
debido !) son las propiedades organizadoras. La rapidez
con que efectúa sus operaciones básicas puede darnos
una ligera idea de sus componentes físicos y sus leyes
naturales; los datos de rapidez, por ejemplo, nos per­
mitirían desestimar unos determinados tipos de compo­
nentes (lientos». Por lo demás, apenas si podría hacerse
una sola afirmación interesante acerca de una computa­
dora que tuviese una determinada relación con la espe­
cífica naturaleza de su carrocería. Una computadora es
una organización de componentes funcionales elementa­
les en que, de modo muy aproximado, únicamente la
función realizada por aquellas componentes es apropia­
da al comportamiento de todo el sistema.11

L a s c o m p u t a d o r a s c o m o o b je t o s a b s t r a c t o s

Esta cualidad eminentemente abstracta de las com­


putadoras facilita la introducción de las matemáticas
en el estudio de su teoría y es la que ha inducido a algu­
nos a la errónea conclusión de que, ya que está nacien­
do una ciencia de la computadora, deberá tratarse ne-1
11 Con respecto a este punto y a los párrafos siguientes, véase M. L.
Minsky, op. c i t también, John von Neumann, «Probabilistic Logies and
the Synthesis of Reliable Organisms from Unreliablc Components», en C. E.
Shannon y J . SfcCarthy (ecls.). Autómata Studies (Princeton: Prínceton
Unhersity Press, 1956).
cesariamente de una ciencia matemática más que de
una ciencia empírica. Permítaseme tratar de estos dos
puntos sucesivamente: la adecuación de las matemá­
ticas a las computadoras y la posibilidad de estudiar
empíricamente las computadoras.
Se han hecho ciertas importantes teorizaciones, ini­
ciadas por John yon éíeumann, basadas en el tópico
de la precisión de la computadora. La duda que se
ofrece es, ¿cómo construir un sistema seguro partiendo
de partes no seguras? Obsérvese que esta duda no se
plantea como perteneciente a la ingeniería física ni tam­
poco a la física. Se da por sentado que el ingeniero ha
actuado con los componentes lo mejor que ha sabido...
j pero las partes siguen siendo inseguras! La única for­
ma de salir a! paso de esta inseguridad estriba en nues­
tra forma de organizarías.
Para transformarlo en un problema que tenga sen­
tido, habrá que decir algo más acerca de la naturaleza
de aquellas partes inseguras. A este fin, nos ayuda el
conocimiento de que c u a lq u ie r computadora puede for­
marse con un pequeño conjunto de simples elementos
básicos. Podemos tomar, por ejemplo, como primor­
diales las llamadas neuronas Pitts-McCulloch. Como
indica su nombre, tales componentes fueron concebidos
como análogos a las neuronas del cerebro por sus su­
puestas características anatómicas y funcionales; sin
embargo, son eminentemente abstrusas. Formalmente,
son isomórficas de los tipos más sencillos de circuitos
de conexión. Postulamos ahora que vamos a construir
un sistema a partir de estos elementos que cada parte
elemental goza de una concreta probabilidad de funcio­
nar indebidamente. El problema estriba en disponer los
elementos y sus mutuas conexiones de forma que el sis­
tema completo funcione con seguridad.
El detalle importante, en el estudio que nos ocupa,
es que las partes tanto podrían ser neuronas como relés,
tanto relés como transistores. Las leyes naturales que
rigen ]os relés son conocidas de todos, en tanto que las
leyes naturales que rigen las neuronas son mucho me­
nos conocidas. Pero esto no tiene importancia, puesto
que lo que cuenta para la teoría es que los componentes
tengan el grado concreto de inseguridad y estén conec­
tados de una forma determinada.
Este ejemplo demuestra que la posibilidad de elabo­
rar una teoría matemática de un sistema o de simular
dicho sistema no depende de poseer una adecuada mi-
croteoría de las leyes naturales que rigen los componen­
tes del sistema. Dicha microteoría puede ser simplemen­
te ajena a la cuestión.

Las computadoras como objetos empíricos

Pasemos-ahora a la posibilidad de una ciencia e m p í­


de las computadoras, como algo distinto de la fí­
r ic a
sica normal o de la fisiología de los elementos que las
componen. En el aspecto empírico, casi todas las com­
putadoras que se han ideado poseen ciertos rasgos de
organización comunes. Casi todas ellas pueden descom­
ponerse en un operador activo (el «taller» de Babbage)
y en un memorizador (el «almacén» de Babbage), com­
binados con unos mecanismos de entrada y otros de
salida. (Ciertos sistemas más complejos, un poco a la
manera de las colonias de algas, son ensamblajes de
sistemas más pequeños con algunos o todos estos com­
ponentes. Sin embargo, permítaseme simplificar de mo­
mento.) Son capaces de almacenar símbolos (progra­
ma), que pueden ser interpretados y ejecutados por un
componente de control del programa. Todas ellas gozan
de una capacidad extremadamente limitada para la
actividad simultánea, y paralela: son básicamente sis­
tema de cada-cosa-a-su-tiempo. Los símbolos por lo ge­
neral deben ser llevados desde los componentes me-
morizadores más grandes al operador central antes de
poder ser ejecutados. Los sistemas no son capaces más
que de simples actos básicos: recompilar símbolos, co­
piar símbolos, trasladar símbolos, eliminar símbolos y
comparar símbolos.
Puesto que en el mundo existen muchos de tales apa­
ratos en la actualidad y puesto que las propiedades que
los describen resultan compartidas por el sistema nervio­
so central humano, nada puede impedirnos desarrollar
una historia natural de los mismos. Podemos estudiarlos
como estudiaríamos los conejos o las ardillas y descubrir
así cómo se comportan al someterse a diferentes géne­
ros de estímulos ambientales. Partiendo de la base de
que su comportamiento refleja en gran medida las am­
plias características funcionales que hemos descrito y
que nada tiene que ver con los detalles de sus piezas
metálicas, nos será dado elaborar una teoría general,
pero empírica, de las mismas.
L as investigaciones llevadas a cabo durante los últi­
mos cinco años en el campo del diseño de sistemas de
computadora de participación de tiempo constituyen un
buen ejemplo del estudio del comportamiento de una
computadora como fenómeno empírico. Para dirigir el
diseño de un sistema de participación de tiempo no se
cuenta más que con fragmentos de teorías, al igual que
para predecir cómo se comportará en realidad un sis­
tema de diseño específico en un medio de usuarios, cada
uno con unas exigencias diferentes. La mayoría de estos
ingenios han presentado inicialmente serias deficiencias ;
y la mayoría de predicciones en relación con su funcio­
namiento han resultado flagrantemente inexactas.
En tales circunstancias, la salida principal que se
ofrece para el desarrollo y perfeccionamiento de siste­
mas de participación de tiempo consiste en construirlos
y ver cómo se comportan. Y esto es lo que se ha hecho.
Se han construido, modificado y mejorado a través de
sucesivos estadios. Tal vez la teoría hubiera podido anti­
ciparse a tales experimentos y hacerlos innecesarios. De
hecho, no fue así; y no conozco íntimamente a nadie,
familiarizado con estos sistemas tan extremadamente
complejos que tenga unas ideas muy específicas en re­
lación con la forma en que hubiera podido procederse.
Para poderlos entender, los sistemas exigen ser cons­
truidos y estudiado su comportamiento.12
De modo parecido, los programas de computadora
destinados a jugar a algo o a descubrir pruebas de teo­
remas matemáticos dejan transcurrir sus vidas en am­
bientes de laboriosas y complicadas tareas. E incluso
cuando los propios programas no son sino relativamen­
te extensos y complejos (comparados, por ejemplo, con
el monitor y los sistemas operadores de las grandes
computadoras), se sabe poquísimo acerca de los am­
bientes de su labor para poder predecir con exactitud
la calidad de su funcionamiento, el grado de selectividad
de que serán capaces para dar con las soluciones de un
problema.
También en este caso el análisis teórico debe ir acom­
pañado de gran cantidad de trabajo experimental. Una
literatura, de día en día más considerable, informándo­
nos de tales experimentos, comienza ya a proporcio­
narnos unos conocimientos precisos en relación con el
grado de capacidad que poseen determinados aparatos
para reducir los límites del problema a resolver. Para
las pruebas de los teoremas, por ejemplo, se han dado
un conjunto de pasos por el camino de esta facultad
descubridora, basados y dirigidos por la exploración
empírica: el uso del teorema de Herbrand, el principio
de la resolución, el principio de la sustentación, etc.13
12 El sabor empírico y- exploratorio del estudio de las computadoras está
perfectamente captado por la exposición de Maurice V. Wilkes en su 1967
Turing Lecture, «Computers Then and New», Journal of ihe Association fot
Cornpuling Machinery, 15: 1-7 (enero 196-$).
13 Obsérvese, por ejemplo, los datos empíricos de Latvrence Wos, Geor-
ge A. Robinson, Daniel F. Carson y León Shalla, «The Concept .of Demo-
dulation in Theorem Proving», Journal of ihe Association for Computing
Machinery, 14 : 698-709 (octubre 1967), y en varios de los ensayos anteriores,
allí citados. Véase también la colección de programas de Edward Feigenbaum
L a s c o m p u t a d o r a s y el p e n s a m ie n to

A medida que logramos ampliar y ahondar nues­


tros conocimientos — teóricos y empíricos — acerca de
las computadoras, descubrimos que su funcionamiento
está regido, en gran parte, por simples leyes generales,
que lo que a primera yista se nos antojaba complejo en
el programa de una computadora obedecía principal­
mente a la complejidad del medio a que el programa
debía adaptar su funcionamiento.
Dentro de los límites en que cabe desarrollar esta hi­
pótesis, permite una labor extremadamente importante
para la simulación de la computadora como instrumen­
to para llegar a una más profunda comprensión del
comportamiento humano. Puesto que si es la organiza­
ción de los componentes, y no sus propiedades físicas,
lo que determina en gran parte una forma de actuar, y
si las computadoras en cierto modo están organizadas
a imagen del hombre, entonces la computadora se con­
vierte en un instrumento evidente para explorar las con­
secuencias de las afirmaciones organizadoras alternati­
vas para el comportamiento del hombre. La psicología
puede seguir adelante sin aguardar a que la neurología
aporte las soluciones a los problemas del diseño de los
componentes, por muy interesantes e importantes que
resulten, ser tales componentes. Dedicaré el próximo ca­
pítulo al más interesante de todos los sistemas artificia­
les, la mente humana, y al tópico que reconoce en la
mente humana la simulación de una computadora.

y Julián Feldman (eds.), Comjmters and Thought (Nueva Y ork: McGraw-


Hill, 1963). E s corriente en este campo que los trabajos relacionados con
programas de descubrimiento se titulen : «Experimentos con un nrogra-
ma X Y 2».
II

LA PSICOLOGIA DEL PENSAMIENTO

Situación del artificio en la n atu raleza

Observemos a una hormiga labrarse laboriosamente


un camino a través de una playa moldeada por el vien­
to y las olas. Avanza, tuerce a la derecha para hacer
más fácil su ascensión por un empinado montículo, da
un rodeo para sortear un guijarro, se detiene un mo­
mento para un cambio de impresiones con una compa­
ñera. De ese modo efectúa su titubeante, sinuoso regre­
so a casa. Para no antropomorfizar en relación con sus
intenciones, voy a trazar su camino sobre un trozo de
papel. Consiste en una sucesión de segmentos irregula­
res y en ángulo, si bien no se trata de una trayectoria
al azar, puesto que va dirigida por un oculto sentido
de la orientación, por la persecución de un objetivo.
Muestro el esbozo a un amigo, sin darle explicacio­
nes. ¿Quién recorre este camino ? Un esquiador experto,
tal vez, sorteando los obstáculos que le presenta una
pendiente muy pronunciada y pedregrosa. O acaso
una chalupa, navegando contra viento por un río salpica­
do de islas y bajíos. Quizá sea un camino por un espa­
do más abstracto: el curso que sigue un estudiante en
busca de la prueba de- un teorema geométrico.
Sea quien fuere el que recorrió el camino y donde­
quiera que éste se encuentre: ¿por qué no es recto, por
qué su trayectoria no va directamente desde el punto
de origen al de destino? En el caso de la hormiga (y,
por las mismas razones, en los demás casos), conoce­
mos la respuesta. Tiene un sentido general del lugar
donde se encuentra su casa, pero no puede prever todos
los obstáculos que le separan de ella. Una vez y otra,
debe adaptar su camino a las dificultades con que tro­
pieza y, a menudo, rodear barreras infranqueables. Sus
horizontes están muy próximos, por lo que tiene que
habérselas con cada obstáculo a medida que lo encuen­
tra ; sondea la forma de rodearlo o de sortearlo sin pa­
rarse a considerar cuáles serán los obstáculos futuros.
Resulta fácil cogerla en la trampa de señalados rodeos.
Juzgado como una figura geométrica, el camino de
la hormiga es irregular, complejo, difícil de describir.
Pero su complejidad, de hecho, es una complejidad en
la superficie de la playa, no una complejidad en la hor­
miga. En la misma playa, otra diminuta criatura, con
su casa en el mismo sitio que la hormiga, acaso siguiese
un camino parecido.
Hace años, Grey Walter construyó una atortuga»
electromecánica capaz de explorar una superficie y de
buscar periódicamente su nido, donde se recargaban
sus baterías. Últimamente, se han construido en varios
laboratorios, entre ellos el del Profesor Marvin Minskv
en Cambridge, Massachnsetts, autómatas en pos de un
objetivo. Supongamos por un momento que nos lanzá­
semos al diseño de uno de tales autómatas, que tuviera
las dimensiones aproximadas de una hormiga, medios
.similares de locomoción y una agudeza sensorial com­
parable. Supongamos que pudiésemos dotarlo de unas
cualidades de adaptación muy sencillas: al encontrarse
con una pendiente muy empinada, trataría de subir por
ella en línea oblicua; al enfrentarse con un obstáculo
insuperable, trataría de rodearlo, etc. (A excepción de
los problemas de miniaturización de los componentes,
es casi seguro que el actual estado de la técnica saldría
al paso de un proyecto de esta clase.) ¿En qué diferiría
su comportamiento del de una hormiga ?
Estas especulaciones apuntan una hipótesis, hipótesis
que igualmente podría presentarse como corolario de
nuestras previas argumentaciones en torno a los objetos
artificiales:
Una hormiga, vista como un sistema de comporta­
miento, resulta muy simple. L a aparente complejidad
de su comportamiento a lo largo del tiempo es, en gran
parte, reflejo de la complejidad del medio en que se
encuentra.
Inicialmente podemos encontrar esta hipótesis plau­
sible o no plausible. Se trata de una hipótesis empírica,
que puede ponerse a prueba al ver si, atribuyendo unas
propiedades muy simples al sistema adaptador de la
hormiga, nos es dado explicar su comportamiento en
el medio dado o en otros similares. En virtud de las
razones ampliamente expuestas en mi capítulo anterior,
la verdad o falsedad de la hipótesis debería ser inde­
pendiente de si las hormigas, juzgadas en forma más
microscópica, son sistemas simples o complejos. A nivel
de células o moléculas, puede demostrarse que las hor­
migas son complejas, si bien estos detalles microscópicos
del medio interior tal vez nada tengan que ver con el
comportamiento de la hormiga en relación con el medio
externo. Esto explica por qué un autómata, pese a ser
completamente diferente a nivel microscópico, podría
simular a grandes rasgos el comportamiento de la hor­
miga.
Quisiera explorar esta hipótesis a lo largo de este
capítulo, aunque sustituyendo la palabra «hormiga» por
«hombre».
Un hombre, visto como un sistema de comporta­
miento, resulta muy simple. L a aparente complejidad
de su comportamiento a lo largo del tiempo es, en gran
parte , reflejo de la complejidad del medio en que se
encuentra.
Ahora quisiera acotar un poco mis afirmaciones. En
lugar de tratar de considerar al «hombre entero», con
todas sus glándulas y visceras, querría limitar la argu­
mentación al Homo sapiens, «el hombre pensante». Yo
creo que la hipótesis es válida para el hombre entero,
pero acaso sea más prudente dividir las dificultades a
partir del principio y analizar sólo el entendimiento más
que el comportamiento en general.1
Las razones para asignar alguna probabilidad a prio-
ri a la hipótesis han sido ya expuestas en el último ca­
pitulo. Un hombre, como ser pensante, es un sistema
adaptable: sus objetivos definen el contacto entre sus
medios interno y externo. En la medida en que es de
hecho adaptable, su comportamiento reflejará caracte­
rísticas principalmente del medio externo (a la luz de
sus objetivos) y revelará únicamente unas pocas propie­
dades limitadoras de su medio interno, del mecanismo
fisiológico que le permite pensar.
No trato de repetir esta argumentación teórica hasta
la saciedad sino que busco mejor la verificación empí­
rica de la misma dentro del reino de los procesos del
pensamiento humano. Quisiera señalar específicamente
hasta la evidencia que existen sólo unas pocas carac­
terísticas «intrínsecas» del medio interno del hombre pen­
sante que limitan la adaptación de su pensamiento a la
forma que tiene el medio del problema. Todo cuanto,
además, figura en su pensamiento y en su comporta­
miento resolutorio del problema es artificial: es algo
aprendido y sometido' a perfeccionamiento a través de
la concepción de otros proyectos más perfeccionados.

L a p sico lo gía com o ciencia de lo artificial

L a resolución de nn problema suele describirse como


una búsqueda a través de un laberinto de posibilidades,
laberinto que describe el medio. L a acertada resolución1
1 He esbozado una ampliación de esta hipótesis a los fenómenos de
emoción y motivación en «Motivational and Emotional Controls of Cognition»,
Psychological Review, 74: 29-39 (1967) y a ciertos, aspectos de la percep­
ción en «cAn Information-Processing Explanation of Some Perceptual Pheno-
mena», Britisk Journal of Psychology, 58: 1-12 (1967). Estos dos campos,
sin embargo, parecen exigir ima mayor especificación en cuanto a su estruc­
tura fisiológica que la requerida por los fenómenos cognoscitivos considerados
en este volumen.
del problema supone rebuscar selectivamente en el la­
berinto y reducirlo a unas proporciones manejables.
Tomemos, a modo de ejemplo específico, un rompeca­
bezas del género conocido bajo el nombre de problemas
criptaritméticos: 2
D O N A L O
+ G E R A L D
-------- — — --- - D = 5
RO BERT
La tarea consiste en sustituir las letras que se dan
por numerales, del cero al nueve, de forma que todos
los ejemplos de la misma letra sean sustituidos por el
mismo numeral, letras diferentes sean sustituidas por
diferentes numerales y el resultado numérico constituya
un problema aritmético correctamente elaborado. Como
dato adicional en este problema específico, la letra D
debe ser sustituida por el numeral 5.
Una forma de enfocar la labor consiste en conside­
rar todos los 10, diez factoriales, formas en que diez
numerales pueden ser asignados a diez letras. ¡El nú­
mero 10 !, no es tan grande como para provocar el pá­
nico en el corazón de una computadora moderna; ex­
cede en muy poco a los 3 millones (3.628.800, para ser
exactos). Un programa destinado a generar todas las
asignaciones posibles en forma sistemática y que ne­
cesitase una décima de segundo para generar y com­
probar cada una de ellas, exigiría como máximo unas
diez horas para realizar el trabajo. (Con el dato D = 5,
no se precisaría más de una hora.) No he escrito el
2 L a actividad criptaritmética fue utilizada por vez primera en el estu­
dio de la resolución de problemas por F. Bartlett en su Thinking (Nueva
Y ork: Basic Books, 1958). E n el presente estudio me he informado en su
obra, a través de un trabajo de mi colega Alien Newell, Studies in Problem
Solving: Subject 3 on the Cryptp-aritkmetic Task DON ALD -f GE R ALD —
R O B ER T (Pittsburgh: Camegie Institute of Technology, Ju ly 1966, ciclos-
tilado) y de un próximo análisis, realizado entre Newell y yo, de un nú­
mero de protocolos de resolución de problemas por este procedimiento.
programa, pero imagino que una décima de segundo
supera en mucho el tiempo que necesitaría una compu­
tadora grande para examinar ■ cada una de las posibi­
lidades.
No hay pruebas de que un ser humano fuera capaz
de hacer cosa parecida. Necesitaría un minuto para
generar y probar cada asignación y le costaría mucho
saber en qué punto se encontraba y qué asignaciones
había probado ya. Podría utilizar papel y lápiz, en
última instancia, como eñcaz ayuda, pero esto todavía
haría sn trabajo más lento. La tarea, llevada a cabo de
esta forma, exigiría años de trabajo a varios hombres
que trabajasen cuarenta horas por semana.
Téngase presente que, al excluir la búsqueda exhaus­
tiva y sistemática como un camino posible para que un
ser humano pudiera resolver el problema, no hacemos
sino un cálculo aproximado de las facultades humanas.
Damos por sentado que las operaciones aritméticas de
tipo sencillo exigen períodos de tiempo del orden de los
segundos, que las operaciones se efectúan esencialmente
en serie, más que en paralelo, y que no se dispone de
grandes dosis de memoria, donde acumular nueva in­
formación con una rapidez de fracciones de segundo.
Estas suposiciones dicen algo, pero no mucho, acerca
de las fisiología del sistema nervioso central humano.
Una modificación del cerebro que consistiese, por ejem­
plo, en incorporarle un nuevo subsistema dotado de to­
das las propiedades de una máquina de calcular de
oficina sería una gran hazaña de la cirugía cerebral...
o una evolución. Pero incluso una alteración tan radi­
cal no variaría más que ligeramente las suposiciones
pertinentes a fines de explicar o predecir el comporta­
miento frente a este problema.
Los seres humanos resuelven a menudo el problema
D O N A L D + G E R A L D = R O B E R T . ¿Cómo lo hacen?
¿Cuáles son las formas alternativas de representar el
medio y llevar a cabo la búsqueda ?
E s t r a t e g i a s d e la b ú s q u e d a

Una forma de reducir drásticamente dicha búsqueda


consiste en atribuir las asignaciones en forma sistemá­
tica, al igual que se hacía antes, pero asignando nume­
rales a las letras una tras otra, de forma que los erro­
res puedan detectarse antes de finalizar la asignación
y, en consecuencia, todos los tipos de asignaciones po­
sibles puedan desecharse al primer paso. Permítaseme
demostrar el mecanismo:
Supongamos que partimos de la derecha, probando
asignaciones sucesivas para las letras D , T_, L , A , E , N ,
B , 0 , y G , y sustituyendo numerales por el orden 1, 2,
3, 4, 5, 6, 7, 8, 9, 0. Sabemos ya que D = 5, por tanto,
suprimiremos el 5 de entre los números posibles. Pro­
bemos ahora T = 1. Probando a partir de la columna
de la derecha, advertimos una contradicción, ya que
D + D = T + c, donde c es 10 ó 0. De aquí que, puesto
que no es factible lo siguiente: D = 5 , T = 1, será posible
desechar las 8 restantes asignaciones de los ocho nume­
rales restantes para las ocho letras restantes. Del mismo
modo, todas las asignaciones posibles para T , salvo
T — 0, podrán .desecharse igualmente sin pararse a
considerar las asignaciones para las letras restantes.
El esquema podrá perfeccionarse gracias al recurso
de calcular directamente, por medio de la adición, qué
asignación deberá darse a la suma de una columna
cuando se' conocen los dos sumandos. Con esta mejora,
no será ya preciso buscar la asignación para T , puesto
que T — 0 es algo que puede inferirse directamente sa­
biendo que D ~ 5. Utilizando este esquema, el problema
D O N A L O + G E R A L D = R O B E R T puede resolverse
rápidamente con papel y lápiz. Bastarán diez minutos.
La figura 8 muestra la búsqueda 3 de forma ligera­
mente simplificada. Cada rama se prolonga hasta el
punto en que se detecta una contradicción. Por ejem­
plo: después de las asignaciones [D = 5 , T = 0], la
Z >= 5 T= O L =1 R = 30 C< □
L 2 = R= S 0 G— ri
L = 3 = R =r
7 A 2 n
A 2 £= 4 □
1= 4 £= 8 □
A = 6 E= 2 □
A = 8 £= 6 a
A = 9 £= 8 u
L - 4 R —9 A = 1 E —2 [.!
A = 2 £= 4 (1
A = 3 £ —6 U
A = 6 E —2 [1
A= 7 £= 4 n
A = 8 £= 6 □
L =6 R = 3 c 0 □
L = 7 R = 5 1i
L = 8 R = 7 a= I £= 3 □
A = 2 £ —5 □
a = 3 £= 7 □
a = 4 £ = 9 7V = 1 ^=8 n
AT= 2 B= 9 II
•V = 3 C= O [|
JV = 6 0=2 0=1
F ig u r a 3. P o sib le á r b o l p a r a el e stu d io de
DONALO + GERALD = ROBERT

asignación L = 1 lleya a inferir R = 3 , lo cual entraña,


una contradicción puesto que, partiendo de la columna
izquierda del planteamiento del problema, R = 3 im­
plicaría que G es negativo.
La figura 3, en cierto sentido, está muy simplificada.
Cada una de' las ramas que termina con una contra­
dicción después de la asignación de un valor a E debe­
ría, en realidad, ramificarse un paso más. Puesto que
la contradicción surge al observar que no presenta cohe­
rencia ninguna asignación para la letra O . En cada
caso, habrá que estudiar cuatro asignaciones para de­
terminarlo. Así pues, la búsqueda completa formará un
árbol de 68 ramas... ¡largo camino desde las 10... o las
9 de que antes hablábamos !
Un enorme espacio ha sido reducido a un espacio
muy pequeño gracias a relativamente pequeños arran­
ques de una búsqueda sistemática y exhaustiva. Debo
confesar que dichos arranques no son tan sencillos como
los he presentado. Un paso en el esquema propuesto
exige descubrir las contradicciones q.ue implica una asig­
nación. Nos referimos, desde luego, a las contradiccio­
nes arelativamente directas», puesto que si contáramos
con un proceso rápido capaz de detectar t o d a s las im­
plicaciones erróneas, directas o indirectas, daría con la
solución del problema de forma casi inmediata. Ya
que, en este problema, cualquier conjunto de asigna­
ciones, aparte de la única correcta, supone una contra­
dicción .
Lo que se quiere indicar al hablar de buscar con­
tradicciones directas es algo así como: Después de haber
probado una nueva asignación, se examinan aquellas
columnas en que aparece la letra recién sustituida. Se
resuelve cada una de estas columnas, si es posible, para
una letra todavía sin asignar, y se comprueba la solu­
ción para ver si este numeral sigue sin asignar. De no
ser así, existe una contradicción.
En lugar de una búsqueda exhaustiva, hemos utili­
zado un sistema combinado de búsqueda y «razona­
miento». ¿Dicho proceso puede llevarse más lejos? ¿Es
posible eliminar del método de resolución todas las prue­
bas y errores ? L a respuesta es que en este problema es
posible, pero no en todos los problemas criptaritméticos.3
La idea básica que nos permite eliminar gran parte
del proceso de búsqueda de pruebas y errores en la re­
solución del problema que se nos plantea es partir de
la asignación sistemática de derecha a izquierda en los
numerales. En lugar de ello, procederemos a buscar co­
lumnas lo suficientemente determinadas para darnos
pie a nuevas asignaciones, o a lo menos nuevas infe­
rencias en relación con las propiedades de las asigna­
ciones.
Permítaseme revisar brevemente el proceso. Par­

3 E l método que va a describirse no elimina, por ejemplo, tanto trabajo


de rebusca en el problema criptaritmético CROSS + ROADS = DAXGER.
tiendo de D = 5 , inferimos inmediatamente qne T = 0,
como ocurría antes. Inferimos también que llevamos
1 a la segunda columna, de aquí que R = 2L 4- 1 será
impar, En la extrema izquierda, basándonos en que
D = 5, inferimos que R es más grande que 5 (puesto
que R ~ 5 + G). Reuniendo estas dos inferencias, te­
nemos que R = 7 o que R — 9, pero no ponemos a
prueba estas asignaciones. Descubrimos ahora que la
segunda columna a partir de la izquierda tiene la pecu­
liar estructura O + E — O , es decir, un número más
otro igual a sí mismo (aparte del número que pueda
llevarse a O de la columna). Nuestros conocimientos
matemáticos, o nuestra experiencia, nos dicen que esto
no puede ser cierto más que si E = 0 ó E — 9. Puesto
que tenemos ya que T — 0, se desprende que E — 9.
Esto elimina una de las alternativas de R, de ahí que
R = 7.
Puesto que E = 9, se sigue que A = 4 y que debe
haber una unidad llevada a la tercera columna par­
tiendo de la derecha; de ahí que 2L + 1 = 17 o L = 8.
No falta ya sino asignar 1, 2, 3 y 6, en el orden que
sea, & N, B , O y G. Nos enteramos de que G = 1 al
observar que, sea cual fuere la asignación para O , hay
un número que se lleva a la columna situada más a la
izquierda. No nos quedan más que ¡3 ! = 6 posibilida­
des, que podremos eliminar cómodamente por el pro­
cedimiento de ir probando: N = 6, B — 3 y, por con­
siguiente, 0 = 2 .
Hemos trazado un camino en pos de la solución a
través del laberinto del problema basándonos en tres
supuestos diferentes en relación con la estrategia de la
búsqueda. En cierto sentido, cuanto más sofisticada se
hacíala estrategia menos era preciso buscar. Pero.es im­
portante observar que, una vez elegida la estrategia, el
curso que emprendía la búsqueda no dependía sino de
la estructura del problema, no de las características
que pudiera reunir la persona dedicada a resolverlo.
Observando a un hombre, o a un autómata, actuar en
el medio de este problema, ¿qué sabríamos de él? Es
muy posible que infiriésemos la estrategia que utilizaba.
Por las equivocaciones que cometiera y por lo acertado
de sus enmiendas, seguramente podríamos detectar los
límites de su capacidad o la precisión de su memoria
y la exactitud de sus procesos elementales. Nos ente­
raríamos de la velocidad con que realizaba tales pro­
cesos. En circunstancias favorables, acaso llegásemos
a saber cuál de entre las estrategias posibles era la que
realmente adoptaría y en qué circunstancias era proba­
ble la adoptase. No es probable que captásemos algún
dato específico referente a las características neuroló-
gicas de su sistema nervioso central ni tampoco los da­
tos específicos de aquel sistema tendrían nada que ver
con su comportamiento, salvo en poner límites a lo po­
sible.

Los límites de la realización

Vamos a establecer de forma positiva cuáles son,


en nuestra opinión, tales límites y acotaciones, de acuer­
do con lo que revela el comportamiento en problemas de
este estilo. Al hacerlo, consideraremos tanto la eviden­
cia experimental como la evidencia procedente de las
simulaciones del comportamiento humano a cargo de
una computadora. La evidencia se relaciona con varie­
dad de tareas de carácter cognoscitivo, que van desde
las relativamente complejas (criptaritméticas, ajedrez,
pruebas de teoremas), pasando por las intermedias (for­
mación de conceptos) hasta las más sencillas, favoritas
de los laboratorios de psicología (repeticiones verbales,
memorización a corto plazo). Es de importancia que en
esta gran variedad de funciones no se revela sino un
número reducido de limitaciones en la adaptabilidad
del sistema interno... y son esencialmente los mismos
límites en todas las tareas. Así pues, la afirmación de
lo que son tales limitaciones implica una única y cohe­
rente explicación de la función humana en todo el cam­
po de medios en que se desarrollan tareas de lo más
heterogéneo.

L ím ites a la rap idez de form ulación de conceptos

Se han venido realizando amplios estudios psicoló­


gicos de la formulación de conceptos dentro del siguien­
te paradigma general.4 Los estímulos están constituidos
por una colección de tarjetas en las que aparecen dibu­
jos geométricos muy simples que varían, entre tarjeta
y tarjeta, según un cierto número de dimensiones: for­
ma (cuadrado, triángulo, círculo), color, tamaño, situa­
ción de la figura en la tarjeta, etc. Un «concepto» queda
extensivamente definido por un conjunto de tarjetas:
las que representan muestras de aquel concepto. El con­
cepto queda definido intensivamente por una propiedad
que todas las muestras tienen en común, pero que no
posee ninguna de las tarjetas restantes. Ejemplos de
conceptos son «amarillo» o «cuadrado» (conceptos sim­
ples), «triángulo verde» o «grande, rojo» (conceptos
conjuntivos), «pequeño o amarillo» (concepto disyun­
tivo), etc.
En estas consideraciones me referiré a experimentos
que se sirven de un estímulo N-dimensional, con dos
valores posibles para cada dimensión y con una única
dimensión apropiada (conceptos simples). En cada
prueba se presenta al sujeto un ejemplo (positivo o ne­

4 E sta exposición de la adquisición de conceptos se basa en el trabajo


de mi colega Lee Gregg, «Process Models and Stoch as-tic Theories oí Sim­
ple Concept Formation», Journal of Mathematical Psychology, 4: 246-276
(Juny 1967). Véase también A. Newell y H. A. Simón, «OverView: Memory
and Process in Concept Formulation», Capítulo II de B. Kleinimintz (ed.),
Concepts and tke Slvucture oj Memory (Nueva Y ork: Wiley, 1967), pági­
nas 241-262.
gativo); él contesta «Positivo» o «Negativo» ; y os ase­
verado con las palabras «Acertado» o «Equivocado»,
según el caso. En los experimentos clásicos de este
género, la información sobre la actuación del sujeto se
basa en el número de pruebas o en el número de res­
puestas erróneas hasta lograr una tanda sin errores.
Algunos de estos experimentos, no todos, piden tam­
bién al sujeto que manifieste periódicamente el concepto
intensivo (de existir éste) del que se sirve como base
para sus respuestas.
Esta situación es tan sencilla que, al igual que en
el problema criptaritmético, podemos estimar a priori
cuántas pruebas, por término medio, necesitará un su­
jeto para descubrir el concepto propuesto siempre que
se sirva de la estrategia más apta para descubrirlo. En
cada prueba, independientemente de la respuesta que
dé el sujeto, se puede determinar por la aseveración del
experimentador si el estímulo es o no realmente un
ejemplo del concepto. Si lo es, se sabe que uno de los
valores atribuidos del estímulo — su color, tamaño o
forma, por ejemplo — define el concepto. Si no lo es, se
sabe que el c o m p le m e n to de uno de los valores atribui­
dos define el concepto. En cualquier caso, cada prueba
desecha la mitad de los conceptos simples posibles y,
en una sucesión desordenada de estímulos, cada nuevo
estímulo elimina, por término medio, aproximadamente
la mitad de los conceptos que no se desecharon previa­
mente. De ahí que el número promedio de pruebas exi­
gidas para dar con el concepto exacto varíe con el lo­
garitmo del número de dimensiones del estímulo.
De dejar el tiempo suficiente para cada prueba (di­
gamos un minuto, para ser generosos) y de permitir al
sujeto que utilizase papel y lápiz, podría enseñarse a
cualquier persona de inteligencia normal que siguiera
esta eficaz estrategia, lo cual lograría sin grandes dificul­
tades. Estos experimentos, en realidad, se realizan de
forma que los sujetos no saben cuál es la estrategia
eficaz, no disponen de papel ni lápiz y tienen muy poco
tiempo — corrientemente, cuatro segundos — para reac­
cionar ante cada estimulo sucesivo. Utilizan muchas
más pruebas para descubrir el concepto correcto que
las que se calculan para la estrategia eficaz. Pese a
que no se ha realizado el experimento, que yo sepa,
puede afirmarse que, ni siquiera entrenado, a un su­
jeto que se le pidiese reaccionar en cuatro segundos, sin
facilitarle papel ni lápiz, no le sería posible aplicar la
estrategia eficaz.
¿Qué nos dicen estos experimentos en relación con
la mente humana ? Lo que nos dicen, en primer lugar,
es que los seres humanos no siempre descubren por sí
solos estrategias inteligentes que aprenderían con facili­
dad (contemplando jugar al ajedrez a un maestro, un
necio podría convencernos de lo mismo), lista es una
conclusión que apenas sorprende pero que puede ser
instructiva. Insistiremos otra vez sobre este punto.
En segundo lugar, los experimentos nos dicen que
los seres humanos no poseen medios suficientes para
acumular la información en la memoria, lo cual les
permitiría aplicar la estrategia eficaz, a no ser que la
presentación de estímulos se realizase de forma mucho
más lenta o que a los sujetos se les autorizasen medios
de ayuda memorística, o ambas cosas a la vez. Puesto
que sabemos por otras pruebas que los seres humanos
son capaces virtualmente de un almacenamiento ilimi­
tado semipermanente (según se ve por su capacidad de
seguir acumulando hechos dispares en la memoria a lo
largo de gran parte del tiempo que dura una vida), el
atasco del experimento acaso estribe en lo reducido del
rápido acceso de lo almacenado (la llamada memoria
a corto plazo) y en el tiempo que se necesita para tras­
ladar cosas del almacenamiento limitado a corto plazo
al almacenamiento a gran escala y a largo plazo.5
5 L a monografía original de J . S. Eruner. J. J . Goodnow y G. A.. Alis­
tín, A Study of Thinking (Nueva Y ork: Witey, 1956) fue quizá la primera
Por comprobaciones obtenidas con otros experimen­
tos, se ha calculado que en la memoria rápida y a cor­
to plazo no pueden retenerse más de siete cosas (y a
veces únicamente dos) y que se necesitan cinco segun­
dos para trasladar algo del sector de almacenamiento
a corto plazo al sector de almacenamiento a largo plazo.
Para que estas afirmaciones pasen a ser operantes, de­
beremos ser más precisos al referirnos a «cosa». De
momento, admitamos que un concepto simple sea una
«cosa».
Incluso sin papel ni lápiz, cabe esperar que un su­
jeto aplique la estrategia apropiada s i : 1) se le instruye
en dicha estrategia y 2) se le conceden de veinte a trein­
ta segundos para responder y procesar el estímulo en
cada prueba. Dado que no he probado el experimento,
tal afirmación subsiste como predicción, para poner a
prueba de acuerdo con ella la teoría.
Una vez más, es posible que el resultado pudiera
parecer obvio, por no decir trivial. De ser así, voy a
recordar que es obvio únicamente en el caso de acep­
tar mi hipótesis general: que en gran parte el compor­
tamiento humano, dirigido hacia un objetivo, no hace
sino reflejar la forma del medio en que aquél se desen­
vuelve ; para poderlo predecir sólo es preciso un cono­
cimiento superficial de las características del sistema
de información-proceso. En este experimento, las carac­
terísticas apropiadas resultan ser: 1) la capacidad de
la memoria a corto plazo, medida según el número
de cosas a integrar (o «tramos», como yo los llamaré);
2) el tiempo exigido para fijar una cosa, o «tramo» en
la memoria a largo plazo. En la próxima sección inda­
garé acerca de lo compatibles que puedan ser estas
características en un medio de tareas a realizar. Antes

obra que . destacó la función de los límites de la memoria a corto plazo


(el término utilizado era «tensión cognoscitiva») al actuar en funciones de
adquisición de conceptos. Dicha obra aportaba también descripciones bas­
tante concretas de ciertas estrategias de los individuos.
de proceder adelante, quiero hacer un comentario con­
cluyente acerca del conocimiento que de las estrategias
puedan tener los sujetos y de los efectos que pueden
resultar de sujetos entrenados.
Que las estrategias puedan aprenderse es un hecho
que no sorprende a nadie, ni tampoco que las estrate­
gias aprendidas puedan modificar profundamente una
actuación y aumentar su eficacia. Todas las institucio­
nes educativas han sido fundadas basándose en estos
supuestos. Su alcance total, sin embargo, no siempre
ha sido valorado plenamente por los psicólogos que
realizan experimentos en el campo de la actividad cog­
noscitiva. Dado que un comportamiento constituye una
función de una técnica aprendida más que unas carac­
terísticas «innatas» del sistema humano referido a pro­
cesar información, nuestro conocimiento del comporta­
miento debe ser considerado más sociológico por su na­
turaleza que psicológico, es decir, revelador de lo que
en realidad aprenden los seres humanos al desarro­
llarse en un determinado medio social. El hecho de
cuándo y cómo aprenden determinadas cosas pudiera
ser una cuestión difícil, si bien no debemos confudir
las estrategias aprendidas con las cualidades integran­
tes del sistema biológico.
Los datos recogidos por Bartlett y en nuestro labo­
ratorio sobre la labor criptaritmética ilustran este mis­
mo punto. De hecho, diferentes sujetos aplican diferen­
tes estrategias a aquella labor: tanto el abanico de
estrategias que señalaba en apartados anteriores como
otras distintas. Cómo las aprenden o cómo las descu­
bren al realizar la tarea es cosa que ignoramos, pese a
saber que la sofisticación en la estrategia varía en rela­
ción con la exposición previa de la misma al sujeto y
con su propia familiarización con las matemáticas. Pero,
dejando aparte las estrategias, la única característica
humana que se pone de manifiesto en forma muy mar­
cada en la tarea criptaritmética es la limitada dimen­
sión de la memoria a corto plazo. L a mayor parte de
las dificultades con que tropiezan los sujetos al echar
mano de las estrategias más combinatorias (y acaso
también la aversión general que experimentan frente
a tales estrategias) arrancan de la importancia que di­
chas estrategias conceden a la memoria a corto plazo.
El sujeto se siente molesto simplemente porque olvida
dónde se encuentra, cuáles son las asignaciones que ha
probado ya, qué es lo que demuestran tales asigna­
ciones y las que hizo condicionalmente. Éstas son las
dificultades que surgirían necesariamente ante un pro­
cesador que no pudiese retener más que unos pocos
«tramos» en la memoria a corto plazo y que exigiese
más tiempo del disponible para trasladarlos a la memo­
ria a largo plazo.

L o s p arám etro s de la m em o ria: cinco segundos


p o r «tram o»

Si hay unos pocos parámetros del género de los que


hemos expuesto que constituyen los principales límites
del sistema interior y que son los que se ponen de ma­
nifiesto en el comportamiento cognoscitivo humano, en­
tonces para la psicología experimental pasa a conver­
tirse en importante labor la de estimar los valores de
tales parámetros y determinar hasta qué punto son
variables o constantes para diferentes sujetos y frente
a diferentes tareas.
Salvo por lo que respecta a ciertos campos de la
psicología sensorial, los paradigmas experimentales tí­
picos de la psicología se ocupan más de probar hipóte­
sis que de valorar parámetros. En los informes relativos
a experimentos, es corriente encontrar muchas afirma­
ciones acerca de que un determinado valor parámetro
es — o no es — «significativamente distinto» de otro,
pero, en cambio, se encuentran escasos comentarios so-
bre los valores propiamente dichos. A propósito de esto,
práctica tan perniciosa va seguida en ocasiones de un
informe acerca de los niveles de importancia o de los
resultados del análisis de las desigualdades, sin infor­
mar en absoluto acerca de todos los valores numéricos
de los parámetros en los que se apoyan tales deduc­
ciones.
Si bien soy contrario a las prácticas de divulgación
en materia de psicología experimental, paso a exponer
una queja más. Es comente que no se cuide de elegir
las medidas de comportamiento más adecuadas a la
teoría. Así, pues, en los experimentos de memoria, la
«tasa de captación» se da, casi ordinariamente, en for­
ma de «número de p r u e b a s a criterio», «número total
de e r r o r e s », «tiempo t o t a l a criterio» y a veces otros
tipos de mediciones. Concretamente, la práctica de in­
formar acerca de las tasas de captación a través de
pruebas más que de tiempo, que prevaleció durante la
primera mitad de este siglo, e incluso hasta la época
actual, no ocultaba ya sólo la extraordinaria constancia
del parámetro de que me ocupo, sino que, además, con­
ducía a muchas discusiones carentes de sentido acerca
de la «única prueba» contra la captación ([incremen­
tada» 6
Ebbinghaus conocía mejor lo que tenía entre ma­
nos. En sus clásicos experimentos relacionados con el
aprendizaje de sílabas sin sentido, tomándose a sí mis­
mo como sujeto, registraba tanto el número de repeti­
ciones como la cantidad de tiempo exigido para aprender

6 L a evidencia de la constancia del parámetro de fijación es estudiada


en L . W Gregg y H. A. Simón, «An Information-Processing Explanation
of One-Trial and Tncremental Learning», Journal oj Verbal JLearning and
Verbal Behaviorj 6 : 780-787 (1967]; H. A. Simón y E . A. F.eigenbaum,
«An Information-Procesing Theory in Verbal Learning», ibid., 3 : 385-396
(1964); Feigenbauxn y Simón, «A Theory of the Serial Position Effect»,
British Journal o/ Psychology, 53 : 307-320 (1962); E . A. Feigenbaum, «An
Information-Processing Theory of Verbal Leaming», disertación doctoral no
publicada, Pittsburgh: Camegie Institute of Technology, 1959; y las refe­
rencias citadas en estos trabajos.
sucesiones de sílabas de diferente longitud. Si uno se
toma la molestia de calcularlo, descubrirá que el tie m ­
p o p o r s í l a b a en sus experimentos equivale a diez o doce
segundos.7
No veo de qué serviría calcular la cifra con dos
decimales, ni siquiera con uno. La constancia en este
caso es una constancia a un orden de magnitud, o acaso
a un factor de dos, más comparable a la constancia de
la temperatura diaria, que en la mayor parte de sitios
oscila entre los 263° y los 333° Kelvin que a la cons­
tancia de la velocidad de la luz. No hay motivos para
mostrarse desdeñoso ante una constancia a un factor de
dos. La estimación de la velocidad del sonido realizada
originariamente por Newton daba un factor con un 30
por ciento de engaño (eliminado únicamente cien años
más tarde) y, en la actualidad, algunas de las más re­
cientes «constantes» físicas de las partículas elementa­
les resultan todavía más vagas. Por debajo de cualquier
constancia aproximada, por vaga que sea, cabe espe­
rar encontrar un parámetro genuino cuyo valor pueda
definirse exactamente una vez enterados de cuáles se­
rán las condiciones que hay que controlar durante las
mediciones.
• Si la constancia no reflejara más que un parámetro
de Ebbinghaus — si bien éste se mantuvo vigente du­
rante varios años — constituiría un dato más interesan­
te para la biografía que para la psicología. Pero no es
éste el caso. Si estudiamos algunos de los experimentos
Hull-Hovlan realizados en los años treinta, según se
exponen, por ejemplo, en el capítulo de Cari Hovlan
del M a n u a l de S. S. Stevens, volvemos a encontrar unos
tiempos (después de calcularlos, puesto que se informa
acerca de las pruebas en lugar de informar sobre los
tiempos) que rondan los diez o quince segundos obteni­

7 Hermán Ebbinghaus, Memory (Nueva York: Dover Pubücaticms, 1964),


traducido de la edición alemana de 1885, especialmente las págs. 35-36, 40, 51.
dos con estudiantes universitarios, para la captación de
sílabas disparatadas, de escaso significado, por el mé­
todo de anticipación seriada. Cuando aumenta la velo­
cidad del repetidor (pasando, por ejemplo, de los cua­
tro segundos por sílaba a los dos segundos), el número
de pruebas a criterio aumenta proporcionalmente, si
bien el tiempo total, de captación sigue siendo en esen­
cia constante.
Estas cuestiones son de gran importancia. Si se ana­
lizan desde este ángulo los experimentos realizados con
silabas inconexas, aparecen muchos casos en los que el
parámetro básico de captación ronda los quince segun­
dos por s í l a b a . Haga usted mismo el cálculo con los
experimentos expuestos, por ejemplo, por J . A. Mc-
Geoch en su obra P s y c h o l o g y o f H u m a n L e a r n i n g . Con
todo, parece ser que fue B. R. Bugelski quien estable­
ció esta constancia de parámetro como una cuestión de
marca pública y quien realizó experimentos con la in­
tención directa de establecerla.8
He procurado no exagerar hasta qué punto es cons­
tante «la constante». Por otra parte, los pasos encami­
nados a depurar las mediciones del parámetro apenas
si acaban de empezar a darse. Sabemos de diversas va­
riables que tienen un importante efecto sobre el valor y
estamos en posesión de una explicación teórica de estos
efectos que, hasta ahora, se ha mantenido en pie.
Sabemos que el sentido constituye una variable de
considerable importancia. Las sílabas disparatadas pero
con un elevado índice de asociación y las palabras in­
conexas de una sola sílaba se aprenden en un tercio
aproximadamente del tiempo necesario para las sílabas
disparatadas de escaso índice de asociación. La prosa
seguida se aprende en un tercio del tiempo — por pala­
bra — que es exigido para frases de palabras inconexas.

8 B . R. Bugelski, «Presentation Time, Total Time, and Mediation in


Paired-Associate Learning», Journal of Experimental Psychology, 63: 409-412
(1962).
(La última cifra se obtiene también a través de los
experimentos de Ebbinhaus para memorizar el D o n
J u a n . Los tiempos p o r s ím b o lo son aproximadamente
del 10 por ciento de los correspondientes a la captación
de sílabas disparatadas.)
Sabemos que la similitud — sobre todo la similitud
entre estímulos — posee un efecto sobre el parámetro
de fijación algo menor que el efecto del sentido o sig­
nificado, y podemos también estimar sus dimensiones
en el terreno de la teoría.
L a teoría que mejor ha sabido explicar estos y otros
fenómenos de entre las que han aparecido en la litera­
tura acerca de la captación de una repetición maquinal
de palabras es una teoría del proceso de la información,
programada como la simulación' que hace la computado­
ra del comportamiento humano y denominada EPAM.
Y a que EPAM es una teoría sobradamente expuesta,
no voy a tratar de ella en este, lugar, salvo en un pun­
to relacionado con nuestras consideraciones. L a teoría
EPAM aporta una base para la comprensión de lo que
es un «tramo». Un «tramo» es una subestructura fami­
liar máxima del estímulo. Así, pues, una sílaba al azar
como «QUV b se compone de los «tramos» «Q», «U»,
«V », pero la palabra «CAT» se compone de un único tra­
mo, puesto que constituye una unidad eminentemente
familiar. EPAM postula la constancia dentro del tiempo
exigido para fijar un «tramo». Empíricamente, la cons­
tante parece ser de unos cinco segundos por «tramo»,
o quizás algo menos. Virtualmente, todas las prediccio­
nes cuantitativas que hace EPAM en relación con los
efectos que tiene el significado, la familiaridad y la si­
militud en la rapidez de la captación derivan de este
concepto de lo que es un «tramo» y de la constancia del
tiempo necesario para fijar un solo «tramo».9
9 L a mayoría de los experimentos en los que se ha puesto a prue­
b a EPAM utilizan la función del recuerdo más que el simple reconocimiento.
EPAM contiene dos subprocesos implicados en la fijación: un proceso para
L o s p arám etro s de la m e m o ria: siete airam o s*
o, ¿ta l vez d os?

La segunda propiedad limitadora del sistema inte­


rior que se pone de manifiesto una y otra vez en los
experimentos de captación y de resolución de proble­
mas es la cantidad de información que la memoria a
corto plazo es capaz de retener. También en este terre­
no la unidad importante parece ser el atramos, donde
este término tiene exactamente el mismo significado
que en la definición de la constante de la captación.
George Miller en su justamente célebre trabajo sobre
«El mágico número siete, más o menos dos» 10 centraba
la atención sobre este parámetro, previamente conocido
como algo aparte de las tareas del espacio dígito, con­
sideración de la numerosidad y discriminación. En la
actualidad no resulta ya tan plausible como cuando
escribió el trabajo que en los tres tipos de tarea figure
un solo parámetro, más que tres diferentes parámetros;
vamos a considerar aquí únicamente tareas de la varie­
dad del espacio dígito. Además, tampoco queda total­
mente claro si el valor correcto del parámetro es siete
o dos... constituye una esfera demasiado amplia para
que resulte cómoda.
Los hechos que parecen resultar de los últimos ex­
perimentos realizados en relación con la memoria a
corto plazo son los siguientes. Si se pide a un sujeto
que lea una lista de números dígitos o de letras y que
la repita, por lo general sabrá hacerlo correctamente
cuando la lista no excede de siete o incluso de diez

aprender a diferenciar y un proceso de acumulación de imágenes. Dado que


el reconocimiento se sirve mucho más del primero que del último,-es posible
que un estudio de las tareas de reconocimiento ponga de manifiesto un
parámetro de fijación inferior a los cinco segundos por «tramo». En realidad,
los experimentos que me facilitaron Walter Jíeitman y la Dra. Mary iPotter
(a título privado) parecen indicar que el tiempo necesario para captar el
hecho simple de ver objetos 'familiares o dibujos de los mismos puede ser
del orden de uno o dos segundos.
10 Psychological Reviem, G3 : 81-97 (1956)
números o letras. Si entre la tarea de escuchar lo que
debe recordar y la de repetirlo se interpone una labor
cualquiera, por simple que sea, el número de las cosas
que recordará baja a dos. Por la familiaridad que pre­
sentan con la vida cotidiana, podríamos llamar a estos
números los «constantes del listín telefónico». Por lo
general, somos capaces de retener siete números de la
lista telefónica siempre que no nos veamos interrumpi­
dos... ni siquiera por nuestros propios pensamientos.
En los experimentos que parecen demostrar que se
retienen más de dos «tramos» después de una interrup­
ción, estos fenómenos pueden casi siempre explicarse
someramente gracias a mecanismos de los que ya tra­
tamos anteriormente. En algunos de dichos experimen­
tos, la explicación — como ya señalaba Miller — es que
el sujeto reelabora el estímulo, descomponiéndolo en
un número más pequeño de «tramos», antes de alma­
cenarlo en la memoria a corto plazo. Si hay diez cosas
que pueden registrarse como dos «tramos», entonces
pueden retenerse diez cosas. En aquellos experimentos
en que resultaba que en la memoria a corto plazo podía
retenerse «demasiado», en realidad el tiempo concedido
a los sujetos les permitía fijar el exceso de cosas a recor­
dar en la memoria a largo plazo.
Voy a citar solamente dos ejemplos de entre los
que ofrece la literatura del género. N. C. Waugh y
D. A. Norman informan de experimentos, tanto pro­
pios como ajenos,11 que demuestran que únicamente los
dos primeros elementos de una sucesión a recordar se
retienen con una cierta seguridad tras una interrupción,
pero que existe una cierta retención residual por lo que
respecta a los restantes elementos. El cálculo de los
tiempos de fijación de que disponen los sujetos en estos
experimentos demuestra que una evaluación del paso1

11 N. C. Waugh v D. A. Norman, i.Primary Memory», Psychological Re­


men!, 7 2 : 89-104 ( 1965).
a la memoria a largo plazo, calculada en cinco segun­
dos, podría explicar la mayor parte de los residuales.
(Esta explicación es perfectamente consecuente con el
modelo teórico que proponen los mismos Waugh y
Norman.)
Recientemente, Roger Shepard manifestaba que si
a unos sujetos se les muestra una sucesión muy larga
de fotografías — principalmente paisajes — pueden re­
cordar con gran seguridad cuáles han visto,12 al pedír­
seles que las seleccionen entre un grupo más nutrido
de fotografías. Cuando advertimos que se trata de una
labor de reconocimiento, que no precisa sino de un al­
macenamiento de detalles diferenciadores, y que el
tiempo que se concede por elemento a recordar es del
valor de unos seis segundos, los fenómenos se hacen
perfectamente comprensibles -— predecibles incluso —
dentro del marco de la teoría que presentamos.

L a organización de la memoria

No he agotado ni de lejos la lista de experimentos


que podría aportar en apoyo del parámetro de fijación
y del parámetro de capacidad a corto plazo y en apoyo
de la hipótesis de que estos parámetros son las caracte­
rísticas principales —- las únicas, casi — del sistema de
procesar información que se revelan, o podrían reve­
larse, a través de estos experimentos psicológicos mo­
delo.
Esto no supone que no existan otros parámetros y
que no podamos encontrar experimentos en los que se
revelen 37 a través de los cuales puedan ser valorados.
Lo que supone, en cambio, es que no deberíamos buscar
una gran complejidad en las leyes que gobiernan el

12 Roger N. Shepard, oRecognition Memory íor Wordp, Sentonces, and


Picturesu, Journal o} Verbal Leaming and Verbal Behavior, 6: 156-163 (1957).
comportamiento humano, en las situaciones en que
el comportamiento, de hecho, es simple, y lo único- com­
plejo es el medio.
En nuestro laboratorio, por ejemplo, hemos descu­
bierto que las tareas aritméticas mentales preparan un
medio útil para rastrear otros parámetros posibles. Los
trabajos realizados por Dansereau demuestran que los
tiempos exigidos para operaciones aritméticas elemen­
tales y para la fijación de resultados intermedios jus­
tifican únicamente una parte — tal vez la mitad — del
tiempo total requerido para realizar las multiplicaciones
mentales de cuatro dígitos por dos. Una gran parte del
tiempo restante parece se dedica a recuperar números
grabados en la memoria, en la que quedaron temporal­
mente fijados, y a «situarlos» en su lugar en la memoria
a corto plazo, donde sea posible operar con ellos. Abri­
gamos la esperanza, con la labor de Dansereau, de lle­
gar a unas valoraciones de estos nuevos parámetros y
a una cierta comprensión de los procesos que se desa­
rrollan por debajo de ellos.13

Descomposición del estímulo en «tramos»


Quisiera referirme ahora a otro género de caracte­
rística del sistema interno — más «estructuráis y tam­
bién menos cuantitativa —, que se pone de manifiesto
en ciertos experimentos. Por lo general se concibe la
memoria como algo organizado de forma «asociativa»,
si bien resulta menos claro lo que este término parece
significar. Una de las cosas que significa queda revela­
da por McLean y Gregg. Éstos facilitan a los sujetos
unas listas que tienen que aprender: concretamente,

13 Los primeros resultados de esta labor, en relación con el tiempo total


preciso para las tareas aritméticas mentales, se exponen en Donald F. Dan-
sereau y Lee W. Gregg, «An Information Processing Analysis of Mental
Multiplication», Psychonomic Science, 6: 71-72 (1966).
24 letras del alfabeto sin orden ninguno. Incitan o indu­
cen a los sujetos a reducir a tramos las listas, presen­
tando las letras ya sea a razón de una cada vez o de
tres, cuatro, seis u ocho en una sola cartulina. De entre
todo el grupo de situaciones, los sujetos captaban en
la mitad aproximadamente del tiempo requerido en el
caso de una letra cada vez.11
McLean y Gregg quisieron averiguar también si la
sucesión aprendida se fijaba en la memoria como una
larga lista única o como una lista jerarquizada de «tra­
mos» , cada uno de los cuales constituía una lista más
corta. Determinaron este punto al medir en qué forma
agrupaban temporalmente los elementos a recordar
cuando los sujetos recitaban la lista, especialmente cuan­
do la recitaban a la inversa. El resultado puso las co­
sas en claro: los alfabetos eran almacenados como su­
cesiones de cortas subsucesiones; las subsucesiones
solían corresponder a «tramos» presentados por el ex­
perimentador, o subespacios de aquellos «tramos» ;
cuando se lo abandonaba a su propia iniciativa, el
sujeto solía preferir atramos» de tres o cuatro letras.
(Recuérdese la función de «tramos» de esta medida en
los experimentos sobre los efectos que tiene el significa­
do en la captación de una repetición maquinal de pa­
labras.)

M em oria v isu al

Los materiales de qne se componían los experimen­


tos de McLean-Gregg consistían en hileras de símbolos.
Pueden hacerse preguntas similares en relación con la
forma de acumular información con estímulos visuales

M R S. McLean y L. W. Gregg, «Effects of Induced Chunking on


Temporal Aspects oí Serial Recitation», Journal o¡ Experimental Psycho-
logy, Ti: 455-459 (1967).
(lo dos dimensiones.15 ¿En qué sentido representan la
memoria y el pensamiento las características visuales de
los estímulos ? No quisiera resucitar el debate acerca del
«pensamiento sin imágenes» o, cuando menos, no en la
misma forma en que se desarrolló entonces al debate. Si
bien tal vez ahora los resultados pudieran hacerse más
operativos que en la época del cambio de siglo.
A medida que me adentro por tan peligroso terreno,
me siento confortado por el pensamiento de que, hasta
los más fervientes opositores del mentalismo me han pre­
cedido con sus pasos. Voy a citar, por ejemplo, un frag­
mento de S c ie n c e a n d H u m a n B c h a v i o r (1953, pág.
de B. F. Skinner:

«Un hombre puede ver u oír “estímulos que no están pre­


sentes” en virtud del condicionamiento de reflejos: puede ver
una X no sólo cuando hay una X sino también cuando un
estímulo que ha acompañado frecuentemente a una X se pre­
senta a sus ojos. El timbre que anuncia la comida no sólo
contribuye a que se nos haga la boca agua sino que hace que
veamos la comida.»

Ignoro lo que quiere decir exactamente el Profesor


Skinner al hablar de «ver la comida», si bien esta afir­
mación me anima a decir qué podría significar una teoría
del proceso de la información. Describiré en forma sim­
plificada un tipo de experimento utilizado para aclarar
la cuestión. Supongamos que dejamos que un sujeto ate­
morice los siguientes estímulos visuales: un cuadrado
mágico de este tipo.

15 L as lettras de los estímulos del experimento de McLean-C»regg cons­


tituyen, desde Luego, también estímulos visuales bidimensiónales. LVso a ello,
por tratarse de «tramos» de tipo íamiliar, que pueden ser inmediatamente
reconocidos y recopilados, no hay motivos para suponer (pie su carácter bidi-
mensional juegue ningún papel en el comportamiento del sujeto durante el
curso del experimento. Esto es «obvio», lina vez más, pero únicamente si
poseemos ya una teoría general acerca de cómo se procesan «interiormeiiD'>
los estímulos.
4 9 2
3 5 7
8 1 6

A continuación retiramos el estímulo y hacemos al


sujeto una serie de preguntas sobre el mismo, registrando
el tiempo que tarda en contestar. ¿Cuál es el numeral
que se halla a la derecha de 3 ? ¿ Y a la derecha de 1 ?
¿Cuál es el numeral que está debajo de 5? ¿Cuál es el
numeral situado diagonalmente, más arriba y a la dere­
cha de 3 ? Las preguntas no ofrecen la misma dificultad.
De hecho, las he enumerado por orden de dificultad cre­
ciente y, en consecuencia, cabría esperar de un sujeto
que se tomase más tiempo para contestar la última pre­
gunta que la primera.
¿Por qué motivo ? Si la imagen fijada en la memoria
fuera isomórfica de una fotografía del estímulo, podría
esperarse que no surgirían grandes diferencias por lo que
respecta a los tiempos necesarios para contestar las dife­
rentes preguntas. Debemos admitir que la imagen fijada
está organizada de una forma que nada tiene que ver con
una fotografía. Una hipótesis alternativa es que se tra­
tase de una estructura de una lista, hipótesis consecuen­
te, por ejemplo, con los datos aportados por el experi­
mento McLean-Gregg, plenamente dentro del espíritu de
los modelos de captación cognoscitiva de los procesos de
información.
Si lo que se captase fuese, por ejemplo, una lista de
listas: «ARRIBA», «CENTRO», «ABAJO», en que
«ARRIBA» fuera 4-9-2. «CENTRO» fuera 3-5-7 y
«ABAJO» 8-1-6, los resultados empíricos serían fáciles
de comprender. La pregunta : « ¿Qué numeral se encuen­
tra a la derecha de 3 ?» se contesta rebuscando en las lis­
tas. La pregunta: «¿Qué numeral se encuentra debajo
de 5 ?» se contesta, en cambio, por comparación de dos
listas, elemento por elemento, proceso enormemente más
complejo que el anterior.
No hay duda, por supuesto, que un sujeto podría
ap ren d er las relaciones arriba-abajo o las relaciones dia­
gonales tan bien como las relaciones izquierda-derecha.
I ína teoría del tipo EPAM podría predecir que al sujeto
le costaría alrededor de doble cantidad de tiempo apren­
der las relaciones izquierda-derecha y arriba-abajo jun­
tas que las primeras únicamente. Esta hipótesis puede
demostrarse muy fácilmente pero, que yo sepa, todavía
no se ha demostrado.
La evidencia en relación con la naturaleza de la acu­
mulación de imágenes «visuales», apuntando en la mis­
ma dirección que el ejemplo que acabo de dar, es la que
ofrecen los famosos experimentos de A. de Groot sobre
la percepción en materia de ajedrez.16 De Groot presenta
a unos sujetos durante, por ejemplo, cinco segundos unas
posiciones ajedrecísticas tomadas de partidas auténticas;
pasado el tiempo, retira las piezas y pide al sujeto que
reconstruyala jugada. Los grandes maestros y los maes­
tros sabrían reconstruir la situación (incluso quizá con
20 y hasta 24 piezas sobre el tablero) y casi sin errores,
en tanto que los profanos no llegarían seguramente ni a
colocar en su sitio una sola pieza, en tanto que los juga­
dores de mediana habilidad se situarían entre los maes­
tros y los profanos. Con todo, el detalle digno de consi­
deración es que cuando a los maestros y grandes maes­
tros se les mostraban otros tableros sobre los cuales se
d is p o n ía n a l a z a r igual número de piezas que en el caso
anterior, sus facultades para reconstruir la jugada no se
situaban por encima de las facultades de los profanos
cuando trataban de reconstruir jugadas auténticas, en
tanto que éstos se catalogaban en la misma situación
anterior.
¿ Qué conclusión se desprende de este experimento ?
¿Es que los datos son inconsecuentes con la hipótesis de
16 /Vdriaan D. de Groot, «Perception and Memory versus Thought:
Fomv Uld Ideas and Recent Findings», en B. Kleinmuntz (ed.), Pvoblem
Sülving (Nueva York; Wiiey, 1966), págs. 19-50.
que los maestros poseen unas dotes especiales por lo
que respecta a imagen visual... o bien con el empeora­
miento de su actuación ? Lo que aclaran los datos es que
la información relativa al tablero se almacena en forma
de r e la c io n e s entre las piezas más que en forma de una
«imagen televisiva» de 64 cuadros. Sería inconsecuente
con los parámetros previamente propuestos — siete
«tramos» para la memoria a corto plazo y cinco segun­
dos para captar un «tramo» — suponer que nadie, ni
siquiera tratándose de un gran maestro, pudiese ser ca­
paz de captar 64 piezas de una formación (o 24) en un
espacio de diez segundos. E s perfectamente plausible
que supiera captar (en la memoria a corto plazo y en
la memoria a largo plazo) una información acerca de
las suficientes relaciones (suponiendo que cada una de
ellas constituía un «tramo» familiar) como para permi­
tirle reproducir el tablero de la Figura 4:
1. L as negras han enrocado en el lado de K, con
un alfil defendiendo el caballo de K.
2. Las blancas han enrocado en el lado de Q, te­
niendo a la reina colocada delante del rey.
3. Un peón negro en su K5 y un peón blanco en
su O5 son atacados y defendidos por sus respecti­
vos caballos K y Q, en tanto que la reina de las
blancas ataca también en diagonal al peón de
las negras.
4. El alfil Q de las blancas ataca al caballo des­
de KNS.
5. L a reina de las negras ataca la posición K de las
blancas desde QN3.
6. Un peón de las negras está situado en su QB4.
7. Un peón de las blancas situado en K3 bloquea el
avance de su oponente peón negro.
8. Cada uno de los bandos ha perdido un peón y un
caballo.
9. El alfil blanco K está situado en K2.
F ig u r a 4. S itu a c ió n de u n a p a r t id a d e a je d r e z u tiliz a d a
p a r a un e x p e rim e n to de m e m o ria .

L as piezas que no se mencionan se supone se encuen­


tran en su punto de partida. Dado que aigunas de las
relaciones presentan una complejidad en la forma en
que se citan, será preciso aportar motivos para conside­
rarlas «tramos» unitarios. Soy de la opinión que la ma­
yor parte de los jugadores de ajedrez las considerarían
de este modo. Dicho sea de paso, anoté dichas relacio­
nes fiándome en mi memoria por lo que respecta a la
situación y por el orden en que se me ocurrieron. Los
datos aportados por el movimiento de los ojos en el caso
de un jugador de ajedrez experto que estudiase esta ju­
gada confirmarían este análisis de la forma en que tales
relaciones son valoradas y almacenadas en la memoria.17
Los datos aportados por el movimiento de los ojos mues­
tran de forma especialmente clara las relaciones 3 y 5.
Lo que implica este análisis de la memoria visual,
por lo que respecta a lo que estoy considerando, es que
muchos de los fenómenos de la visualización no depen­
den para sus detalles de las características neurológicas
sino que pueden explicarse y predecirse de acuerdo con
los rasgos generales y abstractos de la organización de
la memoria, rasgos que son esencialmente los mismos
que se postularon para elaborar las teorías referentes al
proceso- de información de captación de palabras y a los
fenómenos de adquisición de conceptos^
De forma más específica, llegamos a la hipótesis de
que la memoria es una organización de estructuras de
listas (listas cuyos componentes pueden también conver­
tirse en listas), que abarcan listas de componentes des­
criptivos (relaciones de dos términos) y listas de unos
pocos componentes (tres o cuatro elementos). Un tipo de
memoria que poseyese este género de organización sería
la adecuada para explicar fenómenos relacionados con la
acumulación de estímulos visuales y auditivos al igual
que estímulos «simbólicos».

E l proceso del lenguaje natural

Una teoría de la actividad mental humana no podría


dejar de referirse a la facultad cognoscitiva más carac­
terística de los seres humanos: el uso del lenguaje.
¿Cómo encaja el lenguaje dentro del esquema general de
los procesos cognoscitivos que he esbozado hasta aquí
y en mi tesis general sobre que la psicología es una cien­
cia de lo artificial ?
17 O. K . Tijomirov y E. D. Poznyanskaya, «An Investigador! oí Visual
Search as a Means oí Analysing Henristics», traducción inglesa de Vaprosy
psijologui, 1966, Vol. 12, <*n. Soviet Psychology. Vol. 2, N.° 2 (Invierno
1966-1967), págs. 3-15.
Desde el punto de vista histórico, la teoría moderna
de la lingüística de transformación y la teoría cognosci­
tiva relacionada con el proceso de la información nacie­
ron de una misma matriz: la matriz de ideas producida
por el desarrollo de la moderna máquina de calcular di­
gital y con la comprobación de que, a pesar de que la
envoltura de la computadora estaba constituida por un
armazón metálico, su alma era en realidad un progra­
ma. Uno de los primeros trabajos profesionales relacio­
nados con la lingüística de transformación y uno de los
primeros trabajos profesionales sobre la psicología del
proceso de la información fueron presentados, sucesiva­
mente, en una reunión celebrada en el M.I.T. en sep­
tiembre de 1956.18Así pues, estos dos ámbitos de una teo­
ría han venido manteniendo cordiales relaciones desde
una remota fecha. Y no en virtud del azar, sino por ba­
sarse conceptualmente en una misma forma de juzgar la
mente humana.
Ahora bien, habrá quien objete que no es cierta tal
cosa y que se basa en enfoques diametralmente opues­
tos de lo que es la mente humana. No obstante, he insis­
tido en el carácter artificial del pensamiento humano:
en cómo se adapta, a través de la captación individual
y de la transmisión social del conocimiento, a las exi­
gencias que le presenta un medio de trabajo. Los más
destacados exponentes de las teorías de lingüística for­
mal han adoptado, por otra parte, lo que a veces se ha
dado en llamar postura «nativista». Argumentaban que
un niño jamás podría adquirir una habilidad tan com­
pleja como la de hablar y entender lo que se le dice si
no poseyera ya en él, de una forma innata, el mecanis­
mo básico para poner en marcha tales habilidades.
Tal conclusión recuerda en cierto modo el debate
acerca de los universales del lenguaje: si existen o no
18 N. Chomshy, «Three MorltJs for the Description o£ Language», y
A. Newell y H. A. Simón, «The Logic Theory Machine», ambos en IR E
Transactions on Ivjormution Theory, IT-2, N.° 3 (Septiembre 1956).
ciertas características comunes compartidas por todas las
lenguas. Sabemos que los elementos comunes que pre­
sentan las lenguas no son en absoluto específicos sino
que tienen que ver, por el contrario, con amplísimas
características estructurales que todas las lenguas pare­
cen compartir de una u otra forma. En toda lengua hu­
mana se halla presente una equivalencia de distinción
entre, el nombre y el verbo: entre el objeto y la acción
o la relación. Todas las lenguas parecen tener este rasgo
de una-caja-dentro-de-otra-caja que se ha venido en lla­
mar estructura de la frase. Todas las lenguas parecen
derivar de otras, por transformación, unas ciertas coor­
dinaciones.” Ahora bien, si aceptamos esto como algo
típico de los universales, a los que .apela la argumenta­
ción nativista, existen todavía como mínimo dos posi­
bles interpretaciones diferentes de dicha argumentación.
Una es que la competencia del lenguaje es p u r a m e n te
lingüística, que el lenguaje es s u i g e n e r is y que las facul­
tades humanas a que recurre no se utilizan todas ellas
para otras aplicaciones.
Otra interpretación de la postura nativista es que la
emisión de unos sonidos y la comprensión de los sonidos
que emiten otras personas depende de ciertas caracte­
rísticas del sistema nervioso central humanó, comunes a
todas las lenguas pero esenciales también a otros aspec­
tos del pensamiento humano aparte de hablar o de es­
cuchar.
No la primera, pero sí la segunda interpretación, ex­
plica el notable paralelismo existente entre las suposicio­
nes acerca de las facultades humanas, encajadas en la
moderna teoría lingüística, y las suposiciones encajadas
en las teorías de los procesos de información de la mente19

19 Para jos- universales del lenguaje véase Joseph H. Greenberg (ed.),


Univcrsals oj Lnnguage (Cambridge: M .I.T, Press, 1963). especialmente rí
capítulo de Greenberg, págs. 58-90. Sobre la postura «nativista». véase Jerróle 1
J . Katz, The Pkilosophy of Langnage (Nueva York: Harper & Ro'vv, 1966),
págs. 240-282.
humana. El tipo de supuestos que expuse anteriormente
con referencia a la estructura de la memoria humana es
precisamente el mismo tipo de supuestos que quisiera
hacer en relación con un sistema de proceso capaz de
manejar el lenguaje. De hecho, se ha producido un in­
tenso intercambio entre ambos campos. Los dos pos­
tulan unas estructuras de lista jerárquicamente organi­
zadas como principio básico de la organización de la
memoria. Los dos se ocupan de cómo el elemento que
procesa podría transformar, operando en serie, conjun­
tos de símbolos en estructuras de listas o estructuras de
listas en conjuntos de símbolos. En ambos campos se han
demostrado convenientes para modelar y simular los
fenómenos unos mismos tipos generales de lenguaje de
programación de computadora.

L a s e m á n t ic a en el p r o c e s o d e l le n g u a je

Séame permitido apuntar una forma en que la rela­


ción entre las teorías lingüísticas y las teorías de proceso
de la información en cuanto al pensamiento va a hacer­
se todavía más íntima que en épocas pasadas. Hasta
ahora la teoría lingüística ha sido primordialmente una
teoría de la sintaxis, de la gramática. En su aplicación
práctica a tareas como la traducción automática, ha tro­
pezado con dificultades cuando la traducción, más que
depender de unos elementos sintácticos, se basaba en el
contexto y en el «significado». Parece perfectamente cla­
ro que una de las principales orientaciones que deberá
emprender el progreso en el campo de la lingüística será
la de tender al desarrollo de una semántica adecuada
para complementar la sintaxis.
L a teoría del pensamiento que he bosquejado puede
ya aportar una parte importante de tal componente se­
mántico. Los principios de la organización de la memo­
ria que he descrito pueden utilizarse como base, tanto7
para estudiar la representación interna de ramas lin­
güísticas, como para estudiar la representación interna
de estímulos visuales tridimensionales u otros estímulos
no lingüísticos. Sentadas dichas bases, comparables para
la organización de diversos géneros de estímulos, se hace
más fácil conceptualizar la cooperación de elementos
sintácticos y semánticos en la interpretación del len­
guaje.
En el M.I.T. se han llevado a cabo varios proyectos
de estudio y varios también en la Carnegie-Mellon Uni-
versity, durante estos últimos años, que se relacionan
con este punto. Quisiera exponer únicamente dos de
entre todos ellos, que ilustran la forma en que podría
utilizarse este enfoque para explicar la resolución de am­
bigüedades sintácticas por medio del uso de elementos
semánticos.
L. Stephen Coles, en una disertación finalizada en
1967,20 describía un programa de computadora que utili­
za dibujos en un tubo de rayos catódicos para resolver
ambigüedades sintácticas. Voy a glosar dicho procedi­
miento con un ejemplo más fácil de visualizar que nin­
gún otro de los que en realidad utilizó. Considérese la
frase: «Vi al hombre en la colina con el telescopio.»
Esta frase tiene, como mínimo, tres interpretaciones
aceptables; y no hay duda que un lingüista sabría des­
cubrir otras más. L a que elijamos de entre las tres más
obvias depende del lugar donde pensamos puede hallar­
se el telescopio: ¿Lo tengo yo ? ¿Lo tiene el hombre que
está en la colina? ¿O, simplemente, está en la colina,
no en sus manos ?
Supongamos ahora que la frase va acompañada de
la Figura 5. La interpretación no ofrece entonces duda
ninguna. Está claro que soy yo quien tiene el telescopio.
El programa de Colé es capaz de reconocer los obje-

20 L . Stephen Coles, Syntax Directed Interpreta ¿ion of Natural Languagc,


tesis doctoral, Carnegie Institute of Technology, IS67.
F ig u r a 5. U n a ír a s e sin tá c tic a m e n te a m b ig u a : «V i a i h o m b re
en la c o lin a con el te le sc o p io » .

tos de un dibujo y las relaciones entre dichos objetos,


y es también capaz de representar el dibujo como una
estructura de lista que, en el ejemplo que tenemos ante
nosotros, podría describirse de este modo :
VI [YO, CON (telescopio)], [(hombre, EN (colina)]
No he querido reproducir los detalles auténticos del
esquema por él utilizado, sino que he demostrado sim­
plemente que un dibujo, representado de esta forma,
podría fácilmente ser equiparado con unos análisis al­
ternados de una rama verbal y, de ese modo, utilizarse
para resolver la ambigüedad de la misma.
Otro programa, ultimado recientemente por Laurent
Siklossy (comunicación personal), ilustra ert qué forma
la información semántica podría contribuir a la a d q u i ­
s ic ió n de una lengua. Acaso el lector esté familiarizado
con los libros titulados «Language Through Pictures»,
concebidos por el Profesor I.A . Richards y colaborado­
res. Tales libros se han ideado para gran número de len-79
guas. En cada página hay un dibujo y, debajo del mis­
mo, una o varias frases que dicen algo acerca del dibujo
en la lengua que se quiere aprender. L a sucesión de di­
bujos y frases correspondientes está dispuesta de tal
forma que parte de situaciones muy sencillas («Estoy
aquí», «Esto es un hombre») y avanza hacia otras más
complicadas («El libro está en la estantería»).
El programa de Siklossy toma como punto de parti­
da un término análogo a uno de los libros «Language
Through Pictures». Se supone que el dibujo ya ha sido
transformado en una estructura de lista (igual a la ilus­
trada anteriormente en el sistema de Colé) equivalente a
su representación interna. La labor del programa con­
siste en aprender a articular la frase apropiada en el len­
guaje natural que se está aprendiendo al ver el corres­
pondiente dibujo, frase que explica lo que representa el
dibujo. En el caso de la frase relacionada con el teles­
copio (algo más complicada que cualquiera de aquéllas
con las que en realidad se puso a prueba el sistema),
cabría esperar que el programa respondiera al dibujo
con: «I saw the man on the hill with the telescope», de
ser inglés lo que se estaba aprendiendo, o «Ich habe den
Mann auf dem Berg mit dem Fernglass gesehen», de
tratarse de alemán.
E s lógico que el programa no pudiera responder co­
rrectamente más que en el caso de conocer el vocabula­
rio y la gramática necesarios para la traducción. En otro
caso, utilizaría la frase asociada con el dibujo para am­
pliar su vocabulario y su sintaxis.
No pretendo profundizar en ciertos experimentos de
tipo pionero en pro de una amplia teoría semántica. La
peculiaridad de estos ejemplos es que demuestran que
el tipo de estructura de la memoria que se ha postulado,
por otras razones, para explicar el comportamiento hu­
mano en tareas cognoscitivas más simples resulta con­
veniente para explicar cómo podrían representarse in­
ternamente unas ramas lingüísticas, cómo podrían re­
presentarse en forma similar otros tipos de estímulos
y cómo los elementos comunes de la representación — el
uso de estructuras de listas organizadas jerárquicamen­
te para ambos — puedan tal vez explicar en qué forma
el lenguaje y su «significado» acuden ambos conjunta­
mente a la mente humana.
No existe contradicción, pues, entre la tesis de que
un ser humano posee, al nacer, competencia para asimi­
lar y utilizar el lenguaje y la tesis de que el lenguaje es
la más artificial y, por ello, la más humana de todas las
construcciones humanas. L a primera tesis es la afirma­
ción de que e x iste un medio interno y que éste marca
unos límites a los tipos de proceso de la información de
que es capaz el organismo. L a estructura del lenguaje
pone de manifiesto tales límites; y dichos límites, a su
vez, explican la comunidad existente entre esta Babel
que son las lenguas del mundo.
L a última tesis, la que hace referencia a la artificia-
lidad del lenguaje, es una afirmación de que los límites
de la adaptación, de las lenguas posibles, impuestos por
el medio interno constituyen unos amplísimos límites
puestos en la organización y no unos límites específicos
de la sintaxis. Además, de acuerdo con la tesis, existen
unos límites impuestos no sólo al lenguaje sino también
a cualquier otra forma de representar internamente la
experiencia aportada por unos estímulos externos.
Esta forma de enfocar la relación entre el lenguaje
y el pensamiento marca una nueva impronta en la hipó­
tesis «Whorfiana» que — expuesta en forma tajante —
afirma que sólo puede pensarse aquello 'que se puede
expresar. De ser válido el punto de vista, sería igualmen­
te correcto decir: «Sólo puede expresarse aquello que se
puede pensar», opinión que, supongo, Kant hubiera en­
contrado acertada.
C o n c lu sió n

La tesis con que inicié esta charla era la siguiente:


U n h o m b r e , v is t o c o m o u n s is t e m a d e c o m p o r ta ­
m ie n to , r e s u lt a m u y s im p le . L a a p a r e n t e c o m p l e jid a d
d e s u c o m p o r ta m ie n to a lo la r g o d e l tie m p o e s , en g r a n
p a r t e , r e fle jo d e l a c o m p l e jid a d d e l m e d io en q u e se
e n cu e n tra .
Esta hipótesis se basa, a su vez, en la tesis del capí­
tulo anterior: que el comportamiento se adapta a unos
objetivos, de ahí que sea artificial, de ahí que revelo
únicamente aquellas características de un sistema de
comportamiento que ponen límite a la adaptación.
Para ilustrar en qué forma hemos empezado a poner
a prueba estas tesis y, al mismo tiempo, construido una
teoría de los principios sencillos que se ocultan debajo
del comportamiento humano, he examinado parte de
esas pruebas desde el ángulo de la actuación humana, y
más especialmente de aquellas formas de actuar estu­
diadas en el laboratorio de psicología.
El comportamiento del ser humano al resolver pro­
blemas criptaritméticos, al adquirir unos conceptos, al
memorizar, al captar información para acumularla en la
memoria a corto plazo, al procesar unos estímulos vi­
suales y al realizar unas tareas en las que se sirve de las
lenguas naturales, brinda amplia base en apoyo de tales
tesis. La artificialidad — o sea la variabilidad — del
comportamiento humano apenas si exige una evidencia
que vaya más allá de la observación de la vida cotidia­
na. Los experimentos son, por consiguiente, de lo más
significativo porque manifiestan los amplios campos co­
munes que existen en la organización del sistema huma­
no de procesar información al aplicarse a diferentes ta­
reas.
Son abrumadoras las pruebas que demuestran que
el sistema es, básicamente, seriado en su funcionamien­
to : que no puede procesar más que unos pocos símbo­
los a un tiempo y que los símbolos procesados deben
retenerse en especiales y limitadas estructuras de !<*. me­
moria cuyo contenido puede variar con rapidez. Las
limitaciones más sorprendentes que pesan sobre las fa­
cultades de los individuos en el momento de servirse de
estrategias eficaces surgen de la reducidísima capacidad
de la estructura de su memoria a corto plazo (siete «tra­
mos») y del tiempo relativamente largo (cinco segun­
dos) necesario para trasladar un «tramo» informativo
de la memoria a corto plazo a la memoria a largo plazo.
Cuando pasamos de tareas que ejercitan principal­
mente la memoria a corto plazo y las facultades de pro­
cesar en serie que posee el sistema nervioso central a
tareas que entrañan la recuperación de la información
almacenada, tropezamos con nuevos límites de adapta­
ción y, por medio de dichos límites, nos hacemos con
una nueva organización en relación con la organización
de la mente y del cerebro. Los estudios de percepción
visual y de las tareas que exigen el uso del lenguaje
natural demuestran con claridad creciente que la me­
moria está, de hecho, organizada en forma asociativa,
pero que las «asociaciones» reúnen las propiedades de
lo que, en el gremio de las computadoras, suelen llamar­
se «estructuras de lista». Y a he indicado someramente
cuáles son dichas propiedades.
Éstas son las generalizaciones en relación con el com­
portamiento humano que surgen de la evidencia expe­
rimental. Son sencillas, tal como nos dejaba suponer
ya nuestra hipótesis. Además, por mucho que el dibujo
siga ampliándose y detallándose, no cabe esperar que se
convierta en algo esencialmente más complejo. Sólo la
vanidad humana alegará que las aparentes complica­
ciones del derrotero que seguimos provienen de una
fuente que nada tiene que ver con la complejidad del
camino seguido por la hormiga.
Una de las curiosas consecuencias de mi punto de
enfoque — de mi tesis — es que nada he dicho sobre83
psicología. Sin embargo, suele considerarse que el pen­
samiento se localiza en el cerebro. He hablado de la
organización de la mente sin decir una palabra con
respecto a la estructura del cerebro.
La razón principal en favor de esta desincorporación
de la mente es, por supuesto, la tesis que acabo de ex­
poner. L a diferencia entre el armazón metálico de una
computadora y «el armazón metálico» del cerebro no
ha bastado para impedir a las computadoras simular un
amplio espectro de formas de pensamiento humano, sim­
plemente porque tanto la computadora como el cerebro,
al lanzarse a pensar, se convierten en sistemas adapta­
bles que intentan amoldarse a la forma del medio en que
actúan.
Sería equivocado tergiversar esta conclusión hasta el
punto de creer que la neuroñsiología no tiene que con­
tribuir en nada a la explicación del comportamiento
humano. Esta sería, sin duda, una ridicula doctrina.
Con todo, nuestro análisis de lo artificial nos lleva a un
enfoque particular de la forma que debe adoptar la ex­
plicación fisiológica del comportamiento. L a neurofisio­
logía es el estudio del medio interno de este sistema
adaptable llamado Homo sapiens. E s a la fisiología a la
que debemos dirigirnos en busca de una explicación de
los límites de la adaptación: ¿Por qué la memoria a
corto plazo se ve limitada a siete atramos» ? ¿En qué
consiste esta estructura fisiológica que corresponde a un
«tramo» ? ¿Qué ocurre en estos cinco segundos en que
se fija un «tramo» ? ¿Cómo se efectúan en el cerebro las
estructuras asociativas ?
A medida que se amplía nuestro conocimiento, la
relación entre las explicaciones fisiológicas y las referen­
tes al proceso informativo se convierte en algo exac­
tamente igual a la relación entre las explicaciones de la
mecánica cuántica y las fisiológicas en biología (o la re­
lación entre las explicaciones de la física de los cuer­
pos sólidos y de aquéllas relacionadas con la programa­
ción en la ciencia de las computadoras). Constituyen dos
estadios de una explicación vinculados (en el caso que
nos ocupa) con las propiedades limitadoras del sistema
interior manifestado en la conexión situada entre los
mismos.
Finalmente, podemos esperar que al vincular la psi­
cología del proceso informativo a la fisiología por lo que
respecta al campo interior, vincularemos también la psi­
cología a la teoría general de la búsqueda a través de
grandes espacios combinatorios por lo que se refiere al
campo exterior: el sector del medio de trabajo. Pero ello
me lleva de la mano a la materia de mi tercer capítulo,
puesto que la teoría del diseño e s la teoría general de la
búsqueda de que ahora hablaba.85

85
III

LA CIENCIA D EL DISEÑO

C r e a c ió n d e lo a r t if ic ia l

Histórica y tradicionalmente, ha venido correspon­


diendo a las disciplinas científicas enseñar cuanto hace
referencia a las cosas naturales: cómo son y cómo fun­
cionan. En tanto que correspondía a las escuelas de in­
geniería enseñar cuanto hace referencia a las cosas arti­
ficiales : cómo hacer artefactos que reuniesen unas de­
terminadas propiedades, cómo diseñar.
Los ingenieros no son los únicos diseñadores profe­
sionales. Diseña todo aquel que concibe unos actos desti­
nados a transformar situaciones existentes en otras, más
dentro de sus preferencias. L a actividad intelectual que
produce artefactos materiales no es fundamentalmente
diferente de la que receta medicamentos para un pacien­
te enfermo ni de la que imagina un nuevo plan de ventas
para una compañía o una política de mejoras sociales
para un estado. El diseño, interpretado de ese modo,
constituye la esencia de toda preparación profesional, es
la marca distintiva que separa las profesiones de las
ciencias. Las escuelas de ingeniería, al igual que las de
arquitectura, comercio, cultura, leyes y medicina se cen­
tran sobre todo en el proceso del diseño o proyecto.
Visto el papel clave que desempeña el diseño en la
actividad profesional, resulta irónico que en este siglo
las ciencias naturales hayan barrido a las ciencias de lo
artificial de los programas de las escuelas profesionales.
Las escuelas de ingenieros se han convertido en escuelas
de física y matemáticas; las escuelas de medicina, en
escuelas de ciencias biológicas; las escuelas de enseñan­
zas comerciales, en escuelas de matemáticas finitas. El
empleo de adjetivos como «aplicadas» oculta, pero no87
modifica, la realidad. Quiere decir ni más ni menos que
en las escuelas profesionales se seleccionan aquellas ma­
terias de las matemáticas y ciencias naturales por creer
que son las que más se aproximan a lo que es necesario
para la práctica profesional. No quiere decir que se
enseñe el diseño, como algo aparte del análisis.
El movimiento que apunta a las ciencias naturales
y se aleja de las ciencias de lo artificial se ha intensifi­
cado más y se ha acelerado más en el campo de la
ingeniería, comercio y medicina que en los otros terre­
nos profesionales que he mencionado, pese a no haber
hecho acto de presencia en las escuelas de leyes, perio­
dismo y escuelas de bibliotecarios.
Las universidades más importantes se ven más afec­
tadas por este estado de cosas que las menos importan­
tes y los programas de licenciatura más que los de los
estudiantes. Pocas tesis doctorales de escuelas profesio­
nales de primera fila tratan en la actualidad de auténti­
cos problemas de diseño, como algo aparte de los pro­
blemas de la física de los cuerpos sólidos o de los
procesos «stochastic». Debo hacer algunas excepciones
— por las razones que expondré — en relación con las
tesis sobre ciencia de las computadoras y ciencia de ad­
ministración de empresas, aparte de otras, sin duda al­
guna, como por ejemplo en el terreno de la ingeniería
química.
Un fenómeno tan universal debe tener una causa bá­
sica. Y la tiene muy obvia. A medida que las escuelas
profesionales, contando entre ellas las escuelas indepen­
dientes de ingeniería, se ven más absorbidas por la
cultura general de la universidad, más ambicionan la
respetabilidad académica. De acuerdo con las normas
vigentes, la respetabilidad académica exige aquellas ma­
terias que son, intelectualmente, arduas, analíticas, sus­
ceptibles de formalizarse o de enseñarse. En otros tiem­
pos, muchas, por no decir la mayor parte, de las cosas
que sabíamos acerca del diseño y acerca de las ciencias
■irtificiales. eran, intelectualmente, sencillas, intuitivas,
nada formales y facilonas. Un profesor o alumno de uni­
versidad, ¿por qué debería rebajarse hasta el punto de
ocuparse de máquinas de proyectar o de estrategias de
planeamiento de mercados pudiendo dedicarse a la físi­
ca de los cuerpos sólidos ? L a respuesta es muy sencilla:
prefiere lo último.
El problema está plenamente reconocido por lo que
toca a ingeniería y medicina en la actualidad y, en me­
nor medida, al terreno comercial. Hay quien no lo con­
sidera un problema, por tener a las escuelas de ciencias
aplicadas como una alternativa superior de las escuelas
de comercio de otras épocas. Si tal fuera el cambio, nada
tendríamos que decir.1 Pero la alternativa no es satisfac­
toria. La escuela profesional a la antigua usanza no sa­
bía cómo educar a la gente en el diseño profesional a un
nivel intelectual apropiado a la universidad; el nuevo
tipo de escuela ha abdicado ya casi de la responsabili­
dad para formar a la gente en lo que es la esencia de la
habilidad profesional. Así pues, nos enfrentamos con el
problema de crear una escuela profesional capaz de lle­
gar simultáneamente a dos objetivos: la enseñanza tan­
to de las ciencias artificiales como naturales a un nivel

1 Éste era, en efecto, el cambio en nuestras escuelas de ingeniería de


una generación atrás. L as escuelas debían ser purgadas de vocacionalismo y
no existía una genuina ciencia del diseño, ni siquiera como rudimentaria
alternativa. De aquí que, para seguir camino adelante había que proceder
a dar más ciencia fundamental. K ail Taylor Compton era uno de los des­
tacados líderes de esta reforma, que constituyó el tema fundamental de su
discurso presidencial inaugural en el M.I.T. en 1930
«Tengo la esperanza... de que en el Instituto se prestará una creciente
atención a las ciencias fundamentales; que estas puedan llegar, como en
ningún otro momento, al espíritu y resultados del estudio; que se examinen
cuidadosamente todas las disciplinas que constituyen la enseñanza para ver
si se ha concedido una indebida, importancia al estudio de los detalles a
expensas del estudio más profundo de unos principios fundamentales más
generales.»
Obsérvese que el Presidente Compton hacía hincapié en lo «fundamental'»,
hincapié tan vigente en la actualidad como pudiera serlo en 1930. En este
ensayo yo insto no a un arranque de lo fundamental sino a una inclusión
en. el programa de lo que es fundamental en ingeniería junto con lo que es
fundamental en la ciencia natural. Esto no era posible en. 1930, pero sí hoy.'89
intelectual elevado. También éste es un problema de
diseño : diseño de organización.
El meollo del problema reside en la denominación
de «ciencia artificial». En mis dos anteriores capítulos
he demostrado que una ciencia de fenómenos artificiales
se encuentra siempre en inminente peligro de disolverse
o esfumarse. Las propiedades peculiares del artefacto
estriban en la estrecha conexión entre las leyes naturales
que hay en él y las leyes naturales fuera de él. ¿Qué
diremos al respecto? ¿Qué otra cosa hay que estudiar
aparte de las ciencias limítrofes, las que rigen el medio
y el ambiente de trabajo ?
El mundo artificial se centra precisamente en esta
conexión, colocada entre los medios interno y externo;
se ocupa de conseguir objetivos adaptando el primero al
último. El estudio apropiado de los que tienen que ver
con lo artificial es la forma en que se realiza aquella
adaptación del medio al ambiente, y en la raíz de ello
figura el proceso del diseño en sí. Las escuelas profe­
sionales volverán a hacerse cargo de sus responsabilida­
des profesionales en función de si saben o no descubrir
una ciencia del diseño, un cuerpo de doctrina intelec­
tualmente ardua, analítica, parcialmente susceptible de
ser formalizada, parcialmente empírica, que permita ser
enseñada en relación con el proceso del diseño.
L a tesis del presente capítulo es que tal ciencia del
diseño es no sólo posible sino que, en la actualidad, está
ya naciendo. Que ha comenzado ya a penetrar en las
escuelas de ingeniería, sobre todo a través de programas
de la ciencia de las computadoras y de «ingeniería de
sistemas», y en las escuelas de comercio a través de la
ciencia de administración de empresas. E s posible que
tenga más puntales en otros programas profesionales,
pero estos dos son los que me resultan más familiares.
Comenzamos ya a vislumbrar bastante de su forma para
poder predecir algunas de las diferencias importantes
que mañana desvincularán las escuelas de ingeniería de
los departamentos de física y las. escuelas de comercio
de los departamentos de economía y psicología. Permí­
taseme ahora desviarme de las cuestiones relacionadas
con la organización universitaria para pasar al quid de
la cuestión.

L a ló g ic a d e l d is e ñ o . L a s a l t e r n a t iv a s e s t a b le c id a s

Debemos empezar por ciertas cuestiones de lógica.2


Las ciencias naturales se ocupan de cómo son las cosas.
Los. sistemas corrientes de lógica — los cálculos prepo­
sicionales y predicativos de tipo normal, por ejemplo —
sirven a estas ciencias. Dado que la preocupación de la
lógica corriente se centra en las aseveraciones declara­
tivas, se ajusta a las afirmaciones sobre el mundo y a las
inferencias que se desprenden de tales afirmaciones.
El diseño, por otra parte, se ocupa de cómo debie­
ran ser las cosas, de idear artefagtos para conseguir
unos fines. Podríamos preguntar si las formas de razo­
nar apropiadas a la ciencia natural son también las ade­
cuadas al diseño. Podría bien suponerse que la intro­
ducción del verbo en condicional pudiese exigir otras
reglas de inferencia o una modificación de las reglas
inherentes ya a la lógica declarativa.

P a r a d o j a s d e la ló g ic a i m p e r a t iv a

Se han construido varias «paradojas» para demostrar


la necesidad de una diferente lógica de imperativos, o
lógica normativa y deóntica. En la lógica ordinaria, de

2 He tratado con mayor amplitud la cuestión del formalismo lógico en


el diseño en dos trabajos de fecha anterior: «The Logic of Rational Decisión).,
British Journal for the Philosophy of Science, 16: 169-186 (1965) y «The
Logic of Heuristic Decisión Making», en Nicholas Rescher (ed.), The Logic
of Decisión and Action (Pittsburgh: University of Pittsburgh Press, 1967),
págs. 1-35. L as presentes consideraciones se'basan en estos dos trabajos. 91
«Los perros son animales domésticos» y «Los gatos son
animales domésticos», puede inferirse «Los perros y los
gatos son animales domésticos». Pero de «Los perros
son animales domésticos», «Los gatos son animales do­
mésticos» y «Tenga animales domésticos», ¿puede infe­
rirse, acaso, «Tenga gatos y perros» ? Y de « ¡Dame
aguja e hilo!», ¿es que, por analogía con la lógica
declarativa, acaso puede deducirse « ¡Dame aguja o
hilo !» ? Fácil es que haya indigentes que menos tengan
aguja ni hilo que una de las dos cosas, al igual que gen­
te pacífica que menos que perros o gatos no tenga nin­
guno de los dos animales.
En respuesta a estas exigencias de la paradoja visi­
ble, se han formado unas construcciones de lógica mo­
dal que manejan los condicionales, subjuntivos y fu­
turos en diferentes formas. Creo que ninguno de estos
sistemas se ha desarrollado lo bastante ni se ha aplicado
con suficiente amplitud para demostrar su validez sa­
liendo al paso de las exigencias lógicas del proceso del
diseño.
Por fortuna, tal demostración no es en realidad esen­
cial, puesto que puede demostrarse que las exigencias
del diseño permiten ser cubiertas con una modesta adap­
tación de la lógica declarativa corriente. Así pues, es
innecesaria una especial lógica de imperativos.3

R ed u cció n a la ló gica d eclarativa

La forma más fácil de descubrir qué tipo de lógica

5 Quisiera subrayar la palabra «innecesario». Al afirmar algo parecido


en otro lugar (el segundo trabajo citado en la nota anterior), un lógico
hábil, especializado en lógica modal, me acusó de asegurar que la lógica
modal era «imposible». Esto es una paladina falsedad: puede demostrarse
que existe la lógica modal de igual forma que puede demostrarse la exis­
tencia de las jirafas: simplemente, mostrando unos cuantos ejemplares. No
se trata de si existe o no, sino de saber para qué sirve. Un lógico modal
no debiera tener dificultad ninguna en distinguir «no-necesidad» de «impo­
sibilidad».92
se precisa para el diseño consiste en examinar qué tipo
de lógica utilizan los diseñadores cuando se preocupan
de razonar. De nada serviría proceder de este modo si
los diseñadores no fueran sino gente chapucera que ra­
zonase torpemente, a base de vaguedades, y se sirviese
únicamente de la intuición. En ese caso podríamos decir
que, fuera cual fuera la lógica de que echaban mano,
no era la lógica que d e b ie r a n utilizar.
Pese a ello, existe una gran zona de la práctica del
diseño en que las normas de rigor, por lo que se refiere
a la inferencia, son del máximo nivel deseable. Me estoy
refiriendo al dominio de los llamados «métodos de opti­
mización», desarrollados en muy alto grado en la teoría
estadística de la decisión y en la ciencia de la adminis­
tración de empresas pero que están adquiriendo tam­
bién creciente importancia en la teoría del diseño en
ingeniería. Las teorías de la probabilidad y de la utili­
dad, así como su intersección, han venido recibiendo la
constante atención no sólo de los diseñadores prácticos
y de los encargados de tomar decisiones sino también
de un número considerable de los más distinguidos lógi­
cos y matemáticos de las presentes y últimas generacio­
nes. F. P. Ramsey, B. de Finetti, A. Wald, J. von Neu-
mann, J . Neyman, K. Arrow y L. J . Savage constitu­
yen representativos ejemplos de lo dicho.
L a lógica de los métodos de optimización puede es­
bozarse del siguiente modo: El «medio interno» del pro­
blema del diseño está representado por un conjunto de
unas dadas alternativas de una acción. Las alternativas
pueden darse in e x t e n s o : lo más corriente es que se es­
pecifiquen según v a r i a b l e s d e m a n d o , con dominios de­
finidos. El «medio externo» está representado por un
conjunto de parámetros que, o bien pueden conocerse
con certeza, o bien según una distribución de la probabi­
lidad. Los objetivos para la adaptación del medio inter­
no al externo se definen por una función de utilidad
— una función, generalmente escalonada, de las varia-93
bles de mando y parámetros de ambiente — tal vez su-
plementada por un número de compulsiones (desigual­
dades, podríamos decir, entre las funciones de las va­
riables de mando y los parámetros de ambiente). El
problema de optimización consiste en encontrar un con­
junto admisible de valores de las variables de mando,
compatible‘con las compulsiones, que maximizan la fun­
ción de utilidad para los valores dados de los paráme­
tros ambientales. (En el caso probabilístico diríamos,
por ejemplo, que «maximizan el valor esperado de la
función de utilidad», en lugar de que «maximizan la
función de utilidadi).

Ejemplo:
Términos lógicos El problema de la dieta
v a r ia b le s de m an d o («m e d io s» ] c a n tid a d e s d e a lim e n to
f p re cio s d e lo s a lim e n to s
p a r á m e tr o s fija d o s («le y e s»)
j c o n te n id o alim e n tic io
co m p u lsio n e s í e x ig e n c ia s alim e n tic ia s
| («fin e s»)
fu n c ió n d e u tilid a d ( — c o ste de la d ie ta

L a s c o m p u lsio n e s c a r a c te r iz a n el m ed io in te rn o ;
lo s p a r á m e tr o s c a r a c te r iz a n e l m ed io e x tern o .

Problema: D a d a s la s c o m p u lsio n e s y lo s p a r á m e tr o s fija d o s,


e n c o n tra r v a lo re s d e la s v a r ia b le s d e m an d o q u e m axim i-
c e n la u tilid a d .

F ig u r a 6. E l p a r a d ig m a d e la ló g ic a im p e ra tiv a .

Una aplicación de este paradigma consiste en el lla­


mado «problema de la dieta», expuesto en la Figura 6.
Se da una lista de alimentos donde las variables de
mando son las cantidades de diferentes alimentos que
deben incluirse en la dieta. Los parámetros ambientales94
son los precios y el contenido alimenticio (calorías, vi­
taminas, sales minerales, etcétera) de cada uno de los
alimentos. L a función de utilidad es el coste de la dieta
(presentado junto a un signo menos), sujeto a unas obli­
gaciones, es decir, a no sobrepasar las 2.000 calorías
diarias, a cubrir las necesidades mínimas señaladas por
lo que respecta a vitaminas y sales minerales y a no
comer nabos más que una vez por semana. Dichas obli­
gaciones pueden verse como algo característico del me­
dio interno. E l problema consiste en seleccionar las can­
tidades de alimentos para que cubran las necesidades
alimenticias y las condiciones secundarias a los precios
dados para el coste mínimo.
El problema de la dieta constituye un ejemplo sen­
cillo de un tipo de problemas fácilmente manejables, in­
cluso en el caso de que el número de variables sea extre­
madamente grande, por medio de este formalismo ma­
temático conocido como programación lineal. Volveré a
hablar de esta técnica algo más adelante. Mi actual preo­
cupación se centra en la lógica de la cuestión.
Dado que el problema de optimización, una vez for­
malizado, constituye un problema matemático corriente
— maximizar una función sujeta a unas obligaciones —
es evidente que la lógica utilizada para deducir la res­
puesta es la lógica corriente del cálculo predicado sobre
el que descansan las matemáticas. ¿Cómo hace el for­
malismo para evitar hacer uso de una especial lógica
de imperativos ? Pues manejando conjuntos de m u n d o s
p o s i b l e s : En primer lugar se considerarán todos los
mundos posibles que cubren las obligaciones del medio
externo ; después se encontrará el mundo particular den­
tro del conjunto que cubra las restantes obligaciones del
objetivo y maximice la función de utilidad. La lógica
es exactamente la misma que si fuésemos a asociar las
obligaciones del objetivo y las exigencias de maximiza-
ción, como nuevas «leyes naturales», a las leyes natu­
rales existentes, inherentes a las condiciones ambienta-95
lesd No vamos a preguntar sino qué valores te n d r ía n
las variables,.de mando en un mundo que cubriese todas
estas condiciones y concluir que éstos son los valores que
te n d r ía n las variables de mando.

E l c á lc u lo d e lo ó p tim o

Estas consideraciones nos han proporcionado hasta


ahora dos cuestiones básicas para el programa de la
ciencia del diseño:
1. T e o r ía d e l a u t ilid a d y te o r ía e s t a d ís t i c a d e la
d e c is ió n , ló g ic a a r m a z ó n p a r a u n a e le c c ió n ló g i­
c a e n tre d iv e r s a s a l t e r n a t i v a s .
2. E l c o n ju n to d e té c n ic a s p a r a d e d u c ir r e a lm e n te
c u á l d e la s p o s ib le s a l t e r n a t iv a s e s l a ó p tim a .
Unicamente en casos triviales el cálculo de cuál pue­
de ser la alternativa óptima resulta una cuestión sencilla.
Si la teoría de la utilidad debe aplicarse a problemas de
diseño de la vida real, debe ir acompañada de los ins­
trumentos necesarios para poder hacer realmente los
cálculos. El dilema del jugador racional de ajedrez es de
todos conocido. En ajedrez, la estrategia óptima se de­
muestra fácilmente: asígnese simplemente un valor de
+ 1 a una victoria, 0 a tablas, —l a una derrota; con-*
* El uso del concepto de «mundos posibles» para recubrir la lógica de
los imperativos en la lógica declarativa se remonta como mínimo a Jorgen
jergensen, «Imperadves and Logic», E-yftenntnis, 7 : 288-296 (1937-1938). Véase
también mi Admimstrative Behavior (Nueva York: Macmillan, 1947), C a­
pítulo III. Más recientemente, varios lógicos se han servido de esta misma
idea para construir un puente formal entre el cálculo predicado y la lógica
modal por medio de los llamados métodos semánticos o modelo-teoréticos.
Véase, por- ejemplo, Richard Montague, «Logical Necessity, Physical Neces-
sity, Ethics, and Quantifiers», Tnquiry, 4 : 259-269 (1960), donde se hacen
referencias a la obra de Stig Kanger y Saúl K ripke; y Jaakko Hintikka,
«Modality and Quantificátion», Theoria, 27.: 119-128 (1961). Aun cuando
estas propuestas modelo-teóricas son básicamente adecuadas, ninguna de ellas
ha concedida, sin embargo, la debido atención a la función especial desem­
peñada en la teoría por las variables rio mando y por las exigencias de
criterio.
sidérense todos los lances posibles del juego; aminima-
ximícese» hacia atrás a partir del resultado de cada uno,
dando por sentado que cada jugador adoptará el movi­
miento más favorable, sea cual fuere el punto en que se
encuentre. Este procedimiento determinará cuál es el
movimiento que hay que hacer. La única dificultad es
que se requieren unos cálculos astronómicos (en este
contexto se cita a menudo el número 10,2°), imposibles
de realizar... por hombres, ni por las computadoras
existentes ni por las computadoras previsibles.
Una teoría del diseño aplicada al juego del ajedrez
encerraría no solamente el utópico principio «minimax»
sino además algunos procedimientos practicables para
dar con buenos movimientos en jugadas auténticas y en
un tiempo real, dentro de las posibilidades de calcular
que puedan tener verdaderos hombres y verdaderas
computadoras. En la actualidad no existen procedimien­
tos de este género que puedan calificarse de auténtica­
mente buenos aparte de los registrados en la memoria
de los grandes maestros, pero existe como mínimo un
programa de computadora, cuyo autor es principalmen­
te Greenblatt,5 capaz de desarrollar una partida respeta­
ble en torneos de fin de semana y que se ha clasificado
en la Clase C según estimación de la Federación de Aje­
drez Americana. En otros tipos de trabajo existen pro­
cedimientos análogos que tal vez tengan una importan­
cia más práctica que el ajedrez.
La cuestión que se sitúa en segundo lugar en el pro­
grama de la ciencia del diseño consiste, pues, en las
eficaces técnicas de cálculo disponibles para encontrar
los procedimientos óptimos en situaciones reales. Dicha
cuestión está formada hoy en día por un cierto número
de componentes importantes, la mayoría de ellos desa­
rrollados durante los últimos veinticinco años, por lo
5 Richard D. Greenblatt, con Donald E . Eastlake III y Stephen D.
Crocker, «The Greenblatt Chess Program», Proceedings of the Fall Jcint
Computer Conference, 1967 (Anaheim, California), págs. 801-810.
meaos en cuanto a su aplicación práctica. Comprenden
la teoría de la programación lineal, la programación di­
námica, ía programación geométrica, la teoría apendicu-
lar y la teoría del control.

E l descubrim iento del m ovim iento adecu ado

L a materia de que se ocupan las técnicas de cálculo


no debe limitarse necesariamente a la optimización. Los
métodos de diseño en la ingeniería tradicional utilizan
mucho más las desigualdades — pormenorización de
funciones satisfactorias — que los máximos y mínimos.
Las llamadas «figuras de mérito» permiten la compara­
ción entre diseños en términos de «mejor» y «peor»,
pero rara vez facilitan el juicio de «el mejor». Puedo
citar, por ejemplo, los métodos de raíz-lugar utilizados
en el diseño de servomecanismos.
Puesto que, al parecer, no existía en inglés ninguna
palabra para los métodos de decisión que buscan solu­
ciones buenas o satisfactorias en vez de soluciones ópti­
mas, hace algunos años que incorporé el término «satis-
ficing» para referirme a tales procedimientos. Ahora
bien, nadie que esté en sus cabales se satisfará cuando
puede en realidad optimizar; nadie se contentará con lo
bueno o con algo mejor cuando puede obtener lo mejor.
Pero ésta no es la forma en que el problema suele plan­
tearse en las verdaderas situaciones que presenta el di­
seño.
En el mundo real no acostumbra a brindársenos
la elección entre soluciones satisfactorias y óptimas,
puesto que sólo rara vez contamos con un método para
encontrar lo óptimo. Considérese, por ejemplo, el famo­
so problema combinatorio conocido corno problema del
viajante de comercio: Dada la localización geográfica
de un conjunto de ciudades, encontrar la ruta que se­
guirá el viajante para visitar todas las ciudades reco-98
rriendo el menor número posible de kilómetros. Exis­
te para este problema un algoritmo directo optimizador
(análogo al algoritmo minimax en el caso del ajedrez):
tantear todos los caminos posibles y elegir el más corto.
Pero cuando se trata de un número considerable de
ciudades, el algoritmo es impracticable por lo que al
cálculo respecta ( ¡el número de caminos por N ciudades
será N !). Pese a haberse encontrado varios medios de
reducir la duración de la búsqueda, no se ha descubierto
ningún algoritmo lo bastante eficaz para resolver el pro­
blema del viajante de comercio por medio de un número
tolerable de cálculos para un conjunto de, por ejemplo,
cincuenta ciudades.
Antes que dejar al viajante sentado en su casa, pre­
feriremos, por supuesto, encontrarle una ruta que, si no
es la óptima, por lo menos sea satisfactoria. En la mayor
parte de las circunstancias, el sentido común dará pro­
bablemente con una ruta bastante buena, si bien podría
encontrarse siempre otra mejor siguiendo algunos de los
varios métodos heurísticos.6
Una marca distintiva de todas estas situaciones en
las que encontramos lo satisfactorio por incapacidad
de encontrar lo óptimo es que, pese a que el conjunto de
alternativas posibles se «da» en un cierto sentido abs­
tracto (puede definirse un generador que las genere to­
das ellas, en última instancia), no se «da» en el único
sentido prácticamente factible. Dentro de los límites
practicables del cálculo, no nos es posible generar todas
las alternativas admisibles ni comparar sus méritos res­
pectivos. Tampoco nos es posible reconocer la mejor al­
ternativa hasta haberlas examinado todas, aun cuando
hayamos tenido la suerte de generarla al principio. El
procedimiento que seguimos para encontrar un camino

6 «El problema del viajante de comercio» y otros problemas combina­


torios análogos a éste — tales como el «problema de la localización de alma­
cenes» — tienen una considerable importancia práctica, por ejemplo, para
instalar estaciones de fuerza en una red interconectada.9
satisfactorio es que, por lo general, elegimos uno acep­
table después de una búsqueda moderada.
Ahora bien, en muchas de estas situaciones, la pre­
visible duración de la búsqueda de una alternativa que
.cubra unas determinadas exigencias de aceptabilidad
depende de la dificultad que puedan presentar tales exi­
gencias y casi nada de las totales dimensiones del uni­
verso en el que se realiza la búsqueda. El tiempo nece­
sario para buscar en un pajar una aguja lo bastante fina
para poder coser con ella depende de la densidad de
distribución de las agujas finas pero no del tamaño del
pajar.
De ahí que, de utilizar métodos satisfactorios, por lo
general no importe mucho que se dé o no el conjunto
total de alternativas admisibles a través de un algoritmo
formal pero impracticable. A menudo no importan si­
quiera las dimensiones que pueda tener aquel conjunto.
Por este motivo, los métodos satisfactorios pueden ha­
cerse extensibles a los problemas de diseño en aquel
amplio radio en que no se «da» el conjunto de alterna­
tivas incluso en el sentido quijotesco que se «da» en el
caso del problema del viajante de comercio.

L a ló gica del diseño. L a b ú sq u ed a de la s altern ativ as

Cuando nos encontramos ante el caso en que no se


dan las alternativas de diseño en un sentido constructivo
sino que deben sintetizarse, debemos preguntar una vez
más si en la síntesis figuran nuevas formas de razona­
miento o si, una vez más, todo cuanto necesitamos es la
lógica corriente de las aseveraciones declarativas.
En el caso de la optimización, preguntábamos: «De
todos los mundos posibles (los alcanzables para ciertos
valores admisibles de las variables de la acción), ¿cuál
es el mejor (produce el valor más alto de la función de
criterio)?» Según veíamos, ésta es una pregunta pura­
mente empírica que, para que pueda contestarse, no
exige sino hechos v un razonamiento declarativo co­
rriente.
En tai caso, al buscar una alternativa satisfactoria,
una vez encontrada una candidata, podemos preguntar:
¿Satisface esta alternativa todos los criterios del diseño ?
Es evidente que ésta es también una pregunta de hecho,
que no suscita nuevas conclusiones de lógica. Pero,
¿qué decir con respecto al proceso de buscar candida­
tos ? ¿Qué tipo de lógica es preciso para la búsqueda ?

Análisis me dios-fin

La condición que tiene cualquier sistema dirigido en


pos de un objetivo es la de encontrarse conectado al
medio exterior a través de dos clases de canales: los
canales aferentes o sensoriales, a través de los cuales
recibe la información relativa al medio, y los canales
eferentes o motores, por medio de los cuales actúa en el
medio.7 El sistema debe contar con algún procedimiento
para almacenar en la memoria la información relativa
a estados del mundo —■ información aferente o senso­
rial — y la información con respecto a las acciones —
información eferente o motora. La capacidad de conse­
guir objetivos depende de elaborar asociaciones, simples
o muy complejas, entre particulares cambios de estados
del mundo y particulares actos que provocarán (posi­
blemente) tales cambios.
Dejando aparte unos pocos reflejos innatos, el niño
carece de base para correlacionar su información senso­
rial con sus actos. Una parte muy importante de sus
primeras enseñanzas consiste en que unos actos determi­

7 Obsérvese que no decimos que los dos tipos de canales operan inde­
pendientemente, ya que seguramente no es así entre los organismos vivos,
sino que podemos distinguir conceptualmentc, y basta cierto punto neuroló-
gicamente, entre ias corrientes entrante y saliente.
nados o una determinada sucesión de actos provoca
unos determinados cambios en el estado del mundo se­
gún él lo acepta. Hasta que no ha elaborado este cono­
cimiento, el mundo sensorial y el mundo motor son dos
mundos totalmente separados, totalmente desvincula­
dos. Sólo cuando empieza a acumular experiencia con
respecto a cómo los elementos de uno se relacionan con
los elementos del otro, comienza a actuar intencionada­
mente en el mundo.
El programa de computadora destinado a la resolu­
ción de programas llamado GPS, destinado a modelar
algunos de los principales rasgos de la resolución huma­
na de problemas, expone en forma completa cómo la
acción encaminada hacia unos objetivos depende de ten­
der este tipo de puente entre los mundos aferente y efe­
rente. En el aspecto aferente o sensorial, el GPS debe
ser capaz de representar unas situaciones deseadas o
unos objetos deseados al mismo tiempo que la situación
que se dé en el momento presente. Debe ser capaz tam­
bién de representar d if e r e n c ia s entre lo deseado y lo pre­
sente. En el aspecto eferente, GPS debe ser capaz de re­
presentar a c c io n e s que cambian objetos o situaciones.
Para funcionar de forma efectiva, el GPS debe ser capaz
de seleccionar, de vez en cuando, aquellos actos deter­
minados que probablemente reducirán o eliminarán las
diferencias concretas entre lo que se desea y lo que se
tiene, de acuerdo con lo que el sisteme detecte. En el
mecanismo del GPS, esta selección se efectúa por medio
de una t a b la d e c o n e x io n e s , que asocia a cada tipo de
diferencia detectable los actos adecuados para reducir
aquella diferencia. Estas son sus asociaciones: las que
relacionan el mundo aferente con el eferente. Puesto
que la consecución de un objetivo exige generalmente
una sucesión de actos y puesto que ciertos intentos pue­
den ser ineficaces, el GPS debe tener también medios
para detectar el avance que realiza (las variaciones en
las diferencias entre lo real y lo deseado) y para poner a
prueba caminos alternados.

L a ló g ic a d e la b ú s q u e d a

El GPS es, pues, un sistema que busca, a través de


un procedimiento selectivo, en un medio (a ser posible,
grande), a fin de descubrir y ensamblar sucesiones de
actos que conduzcan de una situación dada a una situa­
ción deseada. ¿Cuáles son las normas lógicas que go­
biernan dicha búsqueda? ¿Figura en ella alguna otra
cosa aparte de la lógica de tipo corriente ? ¿Precisamos
de una lógica modal para racionalizar el progreso ?
Al parecer bastará con la lógica corriente. Para re­
presentar la relación entre los mundos aferente y eferen­
te, imaginamos el GPS moviéndose en medio de una
gran confusión. Los nodulos que hay en esta confusión
representan situaciones, descritas en forma aparente;
los caminos que unen un nodulo con otro son las accio­
nes, descritas como sucesiones motoras, que' transforma­
rán una situación en otra. En un momento dado cual­
quiera, el GPS se encuentra siempre enfrentado con una
pregunta única: « ¿Qué probaré después ?» Y a que GPS
tiene unos conocimientos incompletos acerca de las re­
giones que presentan las acciones con los cambios de
situación, pasa a convertirse en una cuestión de elec­
ción sometida a una incertidumbre de un tipo ya exami­
nado en un apartado anterior.
Una característica de la búsqueda de alternativas es
que la solución, la acción terminada que representa el
diseño final, se elabora a partir de una secuencia de
acciones componentes. Las dimensiones enormes del
abanico de alternativas surge de las innumerables for­
mas en que las acciones componentes, no necesariamente
muy numerosas, pueden combinarse en secuencias.
Mucho se gana considerando las acciones componen­
tes en lugar de las sucesiones que constituyen acciones
completas, porque la situación vista en forma aferente
por lo general pasa los factores a componentes que se
emparejan, a lo menos de forma aproximada, con las
acciones componentes derivadas de una factorización
eferente. El razonamiento implícito en GPS es que si
una situación deseada difiere de la situación presente
por unas diferencias Di, D2..., D„ y si una acción Ai eli­
mina diferencias del tipo Di, la acción A2 elimina dife­
rencias del tipo D2, etcétera, y entonces la situación
presente puede transformarse en la situación deseada lle­
vando a cabo una secuencia de acciones Ai A 2... Aa.
Este razonamiento es indudablemente válido, de
acuerdo con la lógica de tipo corriente, en todos los
mundos posibles. Su validez exige unas aseveraciones
más bien enérgicas en cuanto a la independencia de los
efectos de las diferentes acciones sobre las varias dife­
rencias. Podría decirse que el razonamiento es válido
en mundos que son «aditivos» o «factorizables» en cier­
to sentido. (El sabor de paradoja de los ejemplos perro-
gato y aguja-hilo, citados anteriormente, surge precisa­
mente de la no aditividad de las acciones en aquellos
dos casos. El primero es, en el lenguaje propio de los
economistas, un caso de correspondencia decreciente y el
segundo, un caso de correspondencia creciente).
Ahora bien, los mundos reales a los que se dirigen los
que resuelven y proyectan problemas son raramente
aditivos totalmente en este sentido. Las acciones tienen
consecuencias secundarias (pueden crear nuevas diferen­
cias) y a veces no pueden ser emprendidas más que
cuando se satisfacen ciertas condiciones secundarias
(exigen la eliminación de otras diferencias antes de ha­
cerse aplicables). En estas circunstancias nunca se puede
estar seguro de que una sucesión parcial de acciones,
que cumple c ie r to s objetivos, puede aumentarse para
brindar una solución que satisfaga t o d a s las condiciones
y consiga to d o s los objetivos (incluso satisfactorios) del
problema.
Por este, motivo, los sistemas de resolución de pro­
blemas y los procedimientos para proyectar en el mundo
real no se limitan simplemente a r e u n ir soluciones al
problema a partir de unos componentes sino que deben
b u s c a r las asociaciones adecuadas. Al realizar dicha
búsqueda, lo más conveniente es no persistir por el mis­
mo camino hasta que dé el resultado apetecido o falle
definitivamente, sino empezar a explorar diversos cami­
nos de tanteo y seguir por aquellos pocos que, en un mo­
mento dado, puedan parecer más prometedores. Si uno
de estos caminos activos empieza a fallar, podrá ser
reemplazado por otro al que ya previamente se le había
concedido una menor prioridad.
Nuestras consideraciones acerca del diseño cuando
no se presentan unas alternativas han suscitado como
mínimo otras tres cuestiones a tener en cuenta en la en­
señanza de la ciencia del diseño:
3. A d a p t a c ió n d e la ló g ic a de tip o c o r r ie n te a la
b ú s q u e d a d e u n a s a l t e r n a t i v a s . Las soluciones
del diseño constituyen sucesiones de actos que
llevan a mundos posibles capaces de satisfacer
unas exigencias específicas. Con unas metas sa­
tisfactorias, los posibles mundos que se buscan
rara vez son únicos; la búsqueda tiende a unas
acciones s u fic ie n t e s , no necesarias, dirigidas a
unos fines.
4. L a e x p lo t a c ió n d e f a c t o r iz a c io n e s p a r a l e l a s , o
c a s i p a r a l e l a s , d e u n a s d if e r e n c ia s . El análisis
medios-fin constituye un ejemplo de una técnica
de resolución de problemas, ampliamente apli­
cable, que explota dicha factorización.
5. L a a s ig n a c ió n d e r e c u r s o s p a r a la b ú s q u e d a a
a l t e r n a t iv a s s e c u e n c ia s d e a c t o s p a r c ia lm e n t e e x ­
Quisiera especular algo sobre la cues­
p lo r a d o s.
tión últimamente citada.

E l d is e ñ o c o m o a s ig n a c ió n d e r e c u r s o s

Hay dos formas en las que los procesos de diseño


se centran en la asignación de recursos. En primer lu­
gar, la conservación de unos recursos escasos puede ser
uno de los criterios para un diseño satisfactorio. En se­
gundo lugar, el proceso del diseño en sí supone el ma­
nejo de los recursos de que dispone el proyectista, para
que su dedicación no se disperse inútilmente siguiendo
unas directrices que después resulten estériles.
No es preciso decir aquí nada especial en relación
con la conservación de recursos racerca de la reducción
del coste a un mínimo, por ejemplo, como criterio del
diseño. La minimización de los costes ha constituido
siempre una consideración implícita en el diseño de las
estructuras de ingeniería, si bien hasta hace unos pocos
años no era por lo general más que implícita en lugar
de explícita. Cada vez más, la estimación del coste ha
pasado explícitamente a formar parte del procedimiento
de diseño y, en la actualidad, el aprendizaje de los in­
genieros en materia de diseño incorpora aquel conjunto
de técnicas y teorías que los economistas conocen con el
nombre de aanálisis del beneficio-coste».

U n e je m p lo t o m a d o d el p r o y e c to d e c a r r e te r a s

El concepto de que los costes, en materia de diseño,


es algo a tener en cuenta para dirigir el proceso del dise­
ño ha sido incorporado mucho más recientemente y to­
davía no ha tenido aplicación práctica, a no ser a nivel
intuitivo. Un buen ejemplo de lo que trato de explicar
lo constituye el procedimiento desarrollado por Marvin
L. Manheim como tesis doctoral en el M.I.T. para la
resolución de los problemas relacionados con la ubica­
ción de las carreteras.8
El procedimiento de Manheim incorpora dos concep­
tos importantes: primero, la idea de especificar progre­
sivamente un diseño a partir del nivel de unos planes
muy generales hasta la determinación de la construcción
propiamente dicha; segundo, la idea de dar unos valo­
res a los planes a niveles más altos como base para deci­
dir qué planes seguir a niveles de una mayor especifica­
ción.
En el caso del diseño de carreteras, la investigación a
nivel más alto va dirigida al descubrimiento de «zonas
de interés», en las cuales las perspectivas de encontrar
una carretera específicamente buena resultan promete­
doras. En cada zona de interés, se selecciona uno o
varios lugares para estudiarlos con más detenimiento.
Entonces se realizan proyectos específicos destinados a
localizaciones específicas. El esquema, por supuesto, no
se limita a esta división concreta a tres niveles sino que
puede generalizarse según convenga.
El esquema de Manheim para decidir qué alternati­
vas hay que tomar desde un nivel al siguiente se basa en
asignar costes a cada una de las actividades del diseño
y en estimar los costes de las carreteras para cada uno
de los planes a más alto nivel. El coste de la carretera
asociado con un plan constituye una predicción de cuál
sería el coste para la carretera propiamente dicha si di­
cho plan fuera particularizado con la actividad del sub­
siguiente diseño. En otras palabras, representa una me­
dida de cuán prometedor puede ser un plan. Dichos
planes se siguen después hasta el final por lo que respec­
ta a los más prometedores, una vez establecidos los pre­
visibles costes que les correspondan.

8 Marvin L. Manheim, Hievarchicál S truc ture: A Model of Design and


Phnuiing Processes (Cambridge: The M.I.T. Press, 1966).
En el método particular que describe Manheim, la
«promesa» de un plan, está representada por una distri­
bución de probabilidades de los resultados que se obten­
drían si aquél fuera seguido hasta el final. La distribu­
ción debe ser estimada por el ingeniero — grave punto
débil de este método — pero, una vez estimada, puede
utilizarse dentro del ámbito de la teoría bayesiana de la
decisión. El específico modelo de probabilidades utiliza­
do no es lo importante del método; existen otros métodos
de valoración, prescindiendo de la superestructura ba­
yesiana, que pueden resultar igualmente satisfactorios.
Dentro del procedimiento de ubicación de carrete­
ras, la valoración de los planes a más alto nivel cumple
con dos cometidos. Primero, contesta a la pregunta:
«¿Dónde buscaré a continuación?)). Segundo, contesta
a la pregunta: « ¿Cuándo suspenderé la búsqueda y ten­
dré a una solución por satisfactoria?». Así pues, cons­
tituye un mecanismo orientador en la búsqueda y un
criterio de satisfacción qne indica la conclusión de la
búsqueda.

E sq u e m a s p a ra orientar la b ú sq u ed a

Permítasenos generalizar el concepto de los esque­


mas para orientar la actividad de la búsqueda más allá
de la aplicación específica de Manheim a un problema de
ubicación de carreteras y más allá de su esquema con­
creto de orientación basado en la teoría bayesiana de
la decisión. Considérese la estructura típica de un pro­
grama de resolución de problemas. El programa co­
mienza a indagar por los caminos posibles, almace­
nando en la memoria un «árbol» de los caminos ya
explorados. Al final de cada rama — cada uno de los
caminos truncados — figura un número que se supone
expresa el «valor» de dicho camino.
Pero el término «valor» es, en realidad, un término
equivocado. Un camino truncado no es una solución del
problema y un camino tiene un «verdadero» valor de
cero a menos que lleve a una solución. De aquí que sea
más útil pensar en los valores como estimaciones del
beneficio que cabe esperar, después de una ulterior bús­
queda por el mismo camino, que pensar en ellos como
«valores» en un sentido más directo. Puede ser desea­
ble, por ejemplo, conceder un valor relativamente alto
a una exploración parcial que puede ll e v a r a una solu­
ción muy buena pero de escasa probabilidad. Si se des­
vanece la perspectiva en una posterior exploración, no
se habrá perdido más que el coste de la búsqueda. El
resultado insatisfactorio no precisa ser aceptado, sino
que puede emprenderse, como sustitución, otro camino
posible. Así pues, el esquema para dar valores a cami­
nos truncados puede ser totalmente diferente de la fun­
ción de valorar las soluciones completas propuestas.9
Cuando comprendemos que la finalidad de asignar
unos valores a caminos truncados consiste en orientar
la elección hacia el siguiente a explorar, es natural ge­
neralizar aún más. Toda la información recopilada en el
curso de la búsqueda debe servir para valorar la elección
del siguiente paso a dar en la búsqueda. No necesitamos
limitarnos a valoraciones de caminos exploratorios trun­
cados.
En un programa de ajedrez, por ejemplo, la explora­
ción puede originar una jugada distinta de cualquiera
de las propuestas inicialmente por el generador. Cual­
quiera que sea el contexto — la rama del árbol ex­
ploratorio — en que realmente se originara el movi­
miento, puede ahora eliminarse de aquel contexto y
considerarse dentro del contexto de otras secuencias de
movimiento. Dicho esquema, sobre base limitada, fue
9 Que esta cuestión no es evidente puede verse por el hecho de que
la mayoría de programas para jugar ai ajedrez se han servido de similares
o idénticos procedimientos de valoración, tanto para dirigir la investigación
como para valorar las posturas a que se haya llegado al final de los cami­
nos recorridos.
incorporado por Baylor a MATER, programa tendente
al descubrimiento de combinaciones para el jaque-mate
en ajedrez; y pudo probarse que aumentaba grande­
mente la fuerza del programa.10
Así pues, los procesos exploratorios pueden verse
—• como ha ocurrido en la mayor parte de considera­
ciones acerca de la resolución de problemas —- como
procesos para dar con una solución del problema. Pero,
en un sentido más general, pueden verse como procesos
para reunir información acerca de la estructura del pro­
blema que, en última instancia, tenga un valor para el
descubrimiento de la solución del problema. Este últi­
mo punto de vista es más general que el primero en un
aspecto muy significativo, porque señala que la infor­
mación obtenida en una rama determinada de un ár­
bol exploratorio puede utilizarse en muchos otros con­
textos aparte de aquél en que se recogió. Actualmente
únicamente existen unos pocos programas resolutorios
de problemas que es posible considerar se mueven, aun­
que a modesta distancia, del punto de vista primitivo
y más limitado al nuevo. He aquí una dirección impor­
tante a seguir en la teoría del diseño.

L a forma del diseño. L a jerarquía

En mi primer capítulo exponía algunas razones del


porqué cabe esperar que los sistemas complejos se cons­
truyan dentro de una jerarquía de niveles o según la
forma de una-caja-dentro-de-otra. L a idea básica es que
los diversos componentes de cualquier sistema complejo
realizarán particulares subfunciones que contribuyan a
la función total. Así como podía definirse el «medio in­
ternos de todo el sistema con la descripción de sus
10 George W. Baylor v Herbert A. Simón, «.\ Chess Mating Combinations
Programa, Proceedings of the Spring Joint Computer Conference, 1966, 28:
431-447 (Boston, Abril 26-28) (Washington: Spartan Books, 1966).
funciones, sin una detallada pormenorización de su me­
canismo, el «medio interno» de cada uno de los subsiste­
mas puede definirse describiendo las funciones de aquel
subsistema, sin una detallada pormenorización de s u
submecanismo.11
Para diseñar una estructura tan compleja, una téc­
nica eficaz consiste en descubrir caminos viables para
descomponerla en componentes semi-independientes que
correspondan a sus muchas partes funcionales. Puede
realizarse entonces el diseño de cada uno de los com­
ponentes con un cierto grado de independencia del di­
seño de los demás, puesto que cada uno ^afectará
ampliamente a los demás a través de su función e inde­
pendientemente de los detalles de los mecanismos que
realizan la función.12
No hay motivos para esperar que la descomposición
del diseño completo en sus componentes funcionales pue­
da ser única. En casos importantes existirán unas des­
composiciones alternativas factibles de géneros radical­
mente diferentes. Dicha posibilidad es muy conocida de
los proyectistas de organizaciones administrativas, don­
de el trabajo puede dividirse en subfunciones, subproce­
sos, subáreas y otros tipos de divisiones. Parte de la
clásica teoría de la organización se ocupaba, de hecho,
precisamente de este resultado de las descomposiciones
alternativas de un conjunto de tareas relacionadas en­
tre sí.

E l c ic lo g e n e r a d o r d e p r u e b a s

Una forma de considerar la descomposición que, sin


11 He desarrollado con mayor amplitud esta cuestión en mi ensayo «La
arquitectura de la complejidad», que va a continuación del presente capítulo.
12 Este enfoque del diseño de estructuras complejas fue explorado por
Christopher Alexander en Notes on the Synthesis o] Fortn (Cambridge:
Harvard University Press, 1967). En su libro presenta también algunos pro­
cedimientos automatizados para encontrar descomposiciones plausibles una
vez especificada la matriz de interconexiones de las funciones componentes.
embargo, tiene en cuenta que las relaciones entre los
componentes no pueden ser totalmente ignoradas, es
pensar en el proceso del diseño como en algo que entra­
ña primero la producción de alternativas y, después, la
prueba de tales alternativas, medidas teniendo en cuen­
ta todo un abanico de exigencias y compulsiones. No
necesitará ser simplemente un único ciclo productor de
pruebas sino que pueden existir toda una serie entrela­
zada de tales ciclos. Los generadores definen implícita­
mente la descomposición del problema del diseño y las
pruebas garantizan que van a observarse y sopesarse
importantes consecuencias indirectas. Las descomposi­
ciones alternativas corresponden a diferentes formas de
dividir las responsabilidades para el diseño final entre
generadores y pruebas.
Para exponer un ejemplo enormemente simplificado,
una serie de generadores pueden ofrecer una o varias
formas posibles y esquemas para la abertura de ventanas
en un edificio, mientras que las pruebas pueden aplicar­
se a determinar si se cubren las necesidades de determi­
nadas habitaciones con las formas propuestas. Alter­
nativamente, los generadores pueden utilizarse para
transformar la estructura de las habitaciones, en tanto
que las pruebas se aplican a ver si concuerdan con una
forma conjunta y un diseño aceptables. L a casa puede
proyectarse de fuera adentro o de dentro afuera.13
Al organizar el proceso del diseño, se ofrecen tam­
bién alternativas por lo que respecta al límite a que pue­
de llevarse el desarrollo de posibles subsistemas antes de
que el total diseño de coordinación se desarrolle con de­
talle ; o, por el contrario, hasta dónde puede llevarse el
diseño total antes de desarrollar los diversos o posibles
componentes. Estas alternativas del diseño resultan fa­

13 E stoy en deuda con John Grason por muchas ideas referentes al tema
de este apartado. Mr. Grason está trabajando en un sistema apto para diseñar
mediante computadora que ofrecerá un medio de expLorar más hondamente
estas materias.
miliares a los arquitectos. Son familiares también a los
compositores, que deben decidir hasta qué punto deberá
llevarse la arquitectura de una estructura musical antes
de que sean concebidos algunos de los temas mnsicales
que la componen y demás elementos.
Los programadores de las computadoras se encuen­
tran ante las mismas posibilidades, debiendo elegir en­
tre tener que descender de las rutinas ejecutivas para
trabajar en las subrutinas o bien subir a partir de las
subrutinas componentes para trabajar en la función de
coordinar.
Una teoría del diseño abarcará principios — la ma­
yor parte de los cuales no existen todavía — para deci­
dir estas cuestiones de precedencia y sucesión en el pro­
ceso del diseño.

El proceso como una determinante del estilo

Cuando recordamos que el proceso se ocupará gene­


ralmente de encontrar un diseño satisfactorio, más que
un diseño óptimo, vemos que la secuencia y división del
trabajo entre. generadores y pruebas puede afectar no
sólo a la eficiencia con que se utilicen los recursos para
diseñar sino igualmente a la naturaleza del diseño final.
Lo que corrientemente llamamos «estilo» puede derivar
tanto de estas decisiones con respecto al proceso del di­
seño como de la alternativa importancia que se conceda
a los objetivos a alcanzar por medio del diseño final. El
arquitecto que diseña edificios de fuera adentro cons­
truirá edificios totalmente diferentes de aquel que diseñe
de dentro afuera, pese a que ambos puedan tener las
mismas ideas en relación con las características que debe
reunir un edificio para que cubra unas necesidades.
Cuando procedemos al diseño de sistemas tan com­
plejos como ciudades o edificios, debemos renunciar al
objetivo de crear sistemas que optimicen una hipotética
función de utilidad y pasar a considerar si las diferen­
cias de estilo que antes describía no constituyen varian­
tes altamente deseables en el proceso del diseño más que
unas alternativas a valorar en el sentido de «mejor» o
«peor». La variedad, dentro de los límites de las obli­
gaciones satisfactorias, puede constituir un fin deseable
en sí mismo, entre otras razones porque nos permite
conceder un valor tanto a la búsqueda como a su resul­
tado, a considerar el proceso del diseño en sí como una
actividad valorada por los que toman parte en ella.
Normalmente hemos pensado en el planeamiento de
la ciudad como un medio según el cual la actividad
creadora del proyectista podría construir un sistema ca­
paz de satisfacer las necesidades de una población. Po­
demos quizá pensar en el planeamiento de la ciudad
como una valiosa actividad creadora en la que muchos
miembros de una comunidad tendrán la oportunidad de
participar... caso de que nos venga en gana organizar
el proceso de dicha forma.
Comoquiera que pueda ser, espero haber ilustrado
suficientemente que tanto la forma del diseño como la
forma y organización del proceso del diseño son com­
ponentes esenciales de una teoría del diseño. Tales cues­
tiones constituyen el punto sexto del programa que pro­
pongo para el diseño:

6. La organización de estructuras complejas y su


implicación e n la organización de los procesos
del diseño.

Representación del diseño

No he estudiado, ni mucho menos, todas las facetas


de la naciente ciencia del diseño. Particularmente, he
hablado poco acerca de la influencia de la representa­
ción del problema sobre el diseño. Pese a que en la ac­
tualidad se reconoce la importancia de la cuestión, po­
seemos un escaso conocimiento sistemático acerca de la
misma. Citaré un ejemplo para aclarar lo que entiendo
por «representación».
Voy a presentar las reglas de un juego que llamaré
revoltillo de números. Participan en el juego dos perso­
nas con nueve cartas; por ejemplo: el as entre las
nueve cartas de corazones. Las cartas se colocan en hi­
lera, boca arriba, entre ambos jugadores. Los jugado­
res van cogiéndolas alternativamente, una cada vez, se­
leccionándolas de entre las colocadas en el centro. La
finalidad del juego es que cada jugador componga un
«libro», es decir, un grupo de tres cartas exactamente,
cuyos puntos sumen 15, antes que su contrincante. El
primer jugador que logre hacer un libro,. gan a; si se
han retirado las nueve cartas sin que ninguno de los dos
jugadores haya podido hacer un libro, el resultado es
empate.
¿Cuál es la buena estrategia en este juego ? ¿Cómo
se conseguirá dar con una ? Si el lector no la ha descu­
bierto por sí mismo, permítaseme que le demuestre que
un cambio en la representación facilitará el resultado
del juego. El cuadrado mágico que doy a continuación
y que presenté en el segundo capítulo está compuesto
de los nueve primeros numerales:

4 9 2
3 5 7
8 1 6

Cada hilera, columna o diagonal suma 15.


De lo que se deduce que «hacer un libro» en el re­
voltillo de números equivale a lograr «tres en línea» en
el juego correspondiente. La mayor parte de la gente
sabe jugar bien al «tres en línea» por lo que ha de resul­
tarle fácil aplicar la estrategia que tenga por habitual
en dicho juego al del revoltillo de números.14

R eso lu ció n de p ro b lem as cuando cam bia


su representación

Que la representación hace que varíen las circuns­


tancias es ya cuestión sabida. E s de todos conocido que
la aritmética se ha hecho más fácil desde que los núme­
ros arábigos sustituyeron a los números romanos, pese
a que no conozco ninguna teoría que pueda explicarme
el motivo.15
Que la representación hace que varíen las circuns­
tancias es cosa evidente por otro motivo. Las matemáti­
cas exponen en sus conclusiones lo que está ya implícito
en sus premisas, según decía en el capítulo anterior. De
aquí que toda la derivación matemática pueda ser con­
templada pura y simplemente como un cambio en la
representación que ponga de manifiesto aquello que pre­
viamente era cierto pero oscuro.
Este punto de vista puede ampliarse a toda la reso­
lución de problemas: resolver un problema significa
sencillamente representarlo de forma que quede trans­
parentada la solución.16 De poder organizarse en tales
condiciones la resolución de problemas, la cuestión de
la representación se convierte de hecho en básica. Pero
aún en el caso de que no se pudiera — de ser un punto

14 E l revoltillo de números no es ei único isomorfo del «tres en línea».


John A. Machón describe otro, el JAM, dual del tres en línea en el sentido
de la geometría proyectiva. E s decir: las hileras, columnas y diagonales del
«tres en línea» se convierten en puntos en el JAM y los cuadrados del primero
pasan a ser segmentos que unen ios puntos. El juego da la victoria al que
consigue hacer pasar todos los segmentos por un punto; una jugada con­
siste en trazar un solo segmento. Se conocen también otros isomorfos del
«tres en línea».
15 Mi colega. Alien Newell, se ha dedicado a estudiar esta cuestión. No
voy a anticiparme a sus resultados.
Saúl Amare!, «On the Mechanization oí Creative Processes», IE E E
Spectfum 3 {N.° 4): 112-114 (Abril 1966).
de vista exagerado en exceso una comprensión más hon­
da" de cómo hay que crear las representaciones y de
cómo contribuyen a la solución de problemas pasará a
convertirse en componente esencial de la futura teoría
del diseño.

R ep resen tación esp acial

Como sea que una gran parte del diseño, y más es­
pecialmente el diseño en el campo de la arquitectura y
de la ingeniería, se ocupa de los objetos o de la dispo­
sición en un auténtico espacio euclidiano bi- o tridimen­
sional, la representación del espacio y de las cosas en
el espacio deberá constituir necesariamente una cuestión
básica en la ciencia del diseño. En nuestras considera­
ciones anteriores acerca de la percepción visual se hacía
ya evidente que el «espacio» en la cabeza del proyectista
o en la memoria de una computadora podía tener unas
propiedades muy diferentes que el dibujo sobre papel o
el modelo tridimensional.
Estas cuestiones relacionadas con la representación
han llamado ya la atención de aquellos que se interesan
por el diseño con la colaboración de la computadora: la
cooperación hombre-máquina en el proceso del diseño.
Como ejemplo único, voy a citar el programa SKETCH-
PAD, que permite representar formas geométricas y
condicionar dichas formas a unas exigencias a las que
aquéllas se amoldan.17
Las consideraciones geométricas tienen también una
gran importancia en los pocos intentos hechos hasta aho­
ra para automatizar completamente el diseño, por ejem­
plo, de circuitos impresos o grabados o de edificios. En
un sistema para diseñar los planos de pisos en una casa,
17 X. E. Sutherland, «Sketchpad, A. Man-Machine Graphical Commu-
nication System», Proceedings, A FIP S Spring Joint Computer Conferen-
ce, 1963 (Baltim ore: Spartan Books), págs. 3^9-346.
por ejemplo, Grason idea una representación interna
de la distribución que contribuye a que uno decida si
un determinado conjunto de comunicaciones entre las
habitaciones, seleccionadas para salir al paso de los cri­
terios del diseño por lo que respecta a la comunicación,
etcétera, son factibles de realizarse en el plano (comu­
nicación privada).

L a taxo n om ía de la representación

Un primer paso hacia la comprensión de un conjun­


to cualquiera de fenómenos consiste en aprender qué
tipo de cosas hay en el conjunto: desarrollar una taxo­
nomía. Este es un paso que todavía está por dar en el
campo de la representación. No poseemos más que un
conocimiento esquemático e incompleto de las diferentes
formas en que pueden representarse los problemas y un
conocimiento mucho más reducido aún de la importan­
cia de las diferencias.
En un aspecto totalmente pragmático sabemos que
los problemas pueden ser descritos verbaimente, en un
lenguaje natural. A menudo pueden ser descritos en
sentido matemático, utilizando para ello formalismos
corrientes de álgebra, geometría, teoría de los conjun­
tos, análisis o topología. Si los problemas se relacionan
con objetos físicos, aquéllos (o sus soluciones) pueden
representarse por medio de planos de pisos, dibujos de
ingeniería, reproducciones o modelos tridimensionales.
Los problemas que tienen que ver con los actos pueden
resolverse mediante diagramas y programas.
E s probable que hubiera que añadir otros elementos
a la lista y es posible que existan formas más fundamen­
tales y significativas de clasificar sus miembros. Pero,
pese a que nuestra clasificación pueda ser incompleta
y acaso superficial, será posible empezar a elaborar una
teoría de las propiedades de tales representaciones. Cier-
tas cuestiones de las nacientes teorías de la máquina y
del lenguaje de la programación pueden darnos alguna
idea con respecto a las direcciones que seguramente em­
prenderá una teoría de las representaciones, por lo me­
nos en su aspecto más formal.18 Estas cuestiones pueden
aportar, en principio, una parte de la materia del tema
final de nuestro programa relativo a la teoría del diseño:

7. R e p r e s e n t a c io n e s a l t e r n a t iv a s p a r a lo s p r o b le ­
m a s d e d ise ñ o .

S u m a r i o : m a t e r ia s d e l a te o r ía d e l d ise ñ o

El principal objetivo que he perseguido en este ca­


pítulo es demostrar que existe ya en la actualidad un nú­
mero de componentes de una teoría del diseño y un
cuerpo sustancial de conocimientos, teóricos y empíri­
cos, relacionados con cada uno de ellos. Al elaborar
nuestro programa de diseño — dentro del campo de la
ciencia de lo artificial — para ocupar su puesto al lado
de la ciencia natural dentro del programa total de las
materias de ingeniería, incluimos en él las siguientes
cuestiones:

LA EVALUACION DE DISEÑOS

1. Teoría de la evaluación: teoría de la utilidad,


teoría estadística de la decisión.
2. Métodos de cálculo:
a) Algoritmos para elegir alternativas ó p tim a s
tales como cálculos de programación lineal,
teoría de control, programación dinámica.
18 Véase, a título de ejemplo, Marvin L. Minsky, Computation: Finile
md Injinite Machines (Englewood Cliffs, N. J . ; Fren tice-lía 11, 1967), y
Yenneth E . Iversou, A Programming Language (Nueva Y ork: WiLey, 1962).
b) Algoritmos y heurísticas para elegir alterna­
tivas s a t i s f a c t o r i a s .
3. LA LOGICA FORMAL D EL DISEÑO : Lógica
imperativa y declarativa.

LA BUSQUEDA DE ALTERNATIVAS

4. Búsqueda heurística: factorización y análisis


medios-fin.
5. Asignación de recursos para la búsqueda.
6. TEORIA DE LA ORGANIZACION DE LA
ESTRUCTURA Y D EL DISEÑO: Sistemas je­
rárquicos.
7. REPRESENTACION DE LOS PROBLEMAS
D EL DISEÑO.

En pequeños sectores del programa — por ejemplo:


teoría de la evaluación y lógica formal del diseño — se
hace posible organizar la enseñanza dentro de una es­
tructura de teoría sistemática y formal. En muchos
otros sectores el enfoque sería más pragmático, más
empírico.
Pero en ningún caso debiéramos volver o retirarnos
a aquellos métodos, más propios de los libros de cocina,
que cubrían al diseño de oprobio y lo eliminaban del
programa de ingeniería. Porque en la actualidad se
cuenta con un número considerable de ejemplos de ver­
daderos procesos de diseño, de muy diferentes tipos, que
se han djefinido plenamente y vaciado en metal, para
decirlo d^ algún modo, en forma de programas corrien­
tes de cdmputadora: algoritmos de optimización, pro­
cedimientos de búsqueda y programas especialmente
destinados al diseño de motores, al equilibrio de líneas
de montaje, a la selección de pliegos de inversión, a la
localización de almacenes, al proyecto de carreteras, et­
cétera.
Dado que tales programas describen complejos pro­
cesos de diseño en forma completa y hasta el mínimo
detalle, están sujetos a plena inspección y análisis, o a
prueba por simulación. Constituyen un cuerpo de fenó­
menos empíricos a los que el estudiante de diseño puede
dirigirse y que tratará de entender. Puesto que estos
programas existen, no es el caso de que el proceso del
diseño se oculte debajo de la capa del ajuicio» o de la
«experiencia». Cualquiera que sea el juicio o experien­
cia utilizados en la creación de los programas, ahora es­
tán ya incorporados en los mismos y, por ello, resultan
observables. Los programas constituyen el testimonio
tangible de la variedad de esquemas imaginados por el
hombre para explorar el complejo medio exterior que
le rodea y descubrir en dicho medio los caminos que se
dirigen a los objetivos que persigue.

L a función del diseño en la vida mental

He llamado al tema «teoría del diseño» y al plan


«programa del diseño». He hecho hincapié en su fun­
ción de complemento del programa de ciencia natural
en la formación total de un ingeniero profesional... o de
cualquier profesional cuya labor consista en resolver
problemas, en seleccionar, sintetizar, decidir.
Pero existe otra forma de enfocar la teoría del dise­
ño en relación con otros conocimientos. Mi segundo ca­
pítulo era un capítulo de psicología, específicamente re­
lacionado con los vínculos que el hombre establecía con
su medio biológico interno. El presente capítulo puede
interpretarse también como un capítulo acerca de psi­
cología : acerca de la relación del hombre con su com­
plejo medio exterior en el que busca sobrevivir y rea­
lizarse.
Ambos capítulos, elaborados de esta forma, tienen
un sentido que desborda la labor profesional de este
hombre al que dábamos el nombre de «proyectista». A
muchos de entre nosotros no les ha complacido la frag­
mentación de nuestra sociedad en dos culturas. Hay
quien sigue creyendo aún que no existen únicamente
dos culturas, sino un gran número de culturas. Si la­
mentamos aquella fragmentación, deberemos buscar un
núcleo común de conocimientos que puedan ser com­
partidos por todos los miembros de todas las culturas,
núcleo que abarque cuestiones de mayor importancia
que el tiempo, los deportes, los coches, el cuidado y ali­
mentación de los niños o incluso quizá la política. Una
comprensión común de nuestras relaciones con los me­
dios interno y externo, que defina el espacio en que vi­
vimos y hemos elegido, proporcionará al menos en parte
el núcleo importante de que hablábamos.
Esto puede parecer una pretensión extravagante.
Permítaseme utilizar el reino de la música para ilustrar
lo que quiero decir. L a música es una de las más anti­
guas ciencias de lo artificial, y así lo reconocieron los
griegos. Todo cuanto he dicho en relación con lo artifi­
cial se aplica igualmente a la música, a la composición
y goce de la misma, que a las cuestiones de ingeniería
de que me he servido para la mayor parte de mis con­
sideraciones.
La música comprende una pauta formal. Tiene po­
cos — aunque importantes — contactos con el medio in­
terno, es decir, puede provocar fuertes emociones, sus
esquemas pueden ser detectados por los oyentes huma­
nos y a algunas de sus relaciones armónicas puede dár­
seles una interpretación física y fisiológica (si bien es
discutible su importancia estética). Por lo que respecta
al medio externo, al juzgar la composición como un
problema de diseño, nos encontramos exactamente con
las mismas tareas de evaluación, búsqueda de alternati­
vas y representación con que tropezábamos al enfren­
tarnos con otros problemas de diseño. De desearlo así,
podemos incluso aplicar a la música algunas de las
mismas técnicas de diseño automático por medio de
computadora utilizadas en otros campos del diseño. Si
la música creada por computadoras no ha alcanzado
todavía unas elevadas cotas de excelsitud estética, cuan­
do menos merece — y está recibiendo ya — la sincera
atención de compositores y analistas profesionales, que
no la consideran escrita en un lenguaje extraño.19
No hay duda que existen ingenieros con un pésimo
oído al igual que compositores ignorantes en matemáti­
cas. Pocos ingenieros y compositores, ya sean duros
de oído, ignorantes, o no, serán capaces de sostener una
conversación mutuamente provechosa con respecto a la
labor profesional de su interlocutor. Lo que yo quiero
decir es que p o d r ía ti sostener una conversación acerca
del diseño, podrían empezar a percibir la común activi­
dad creadora en la que ambos están comprometidos,
podrían comenzar a compartir sus experiencias acerca
del proceso del diseño creador, profesional.
Los que hemos vivido en íntimo contacto con el de­
sarrollo de la computadora moderna, durante su gesta­
ción y su infancia, hemos pasado ante una gran varie­
dad de campos profesionales, entre los cuales se cuenta
la música. Hemos advertido la creciente comunicación
entre disciplinas intelectuales que se efectúa en torno a
la computadora. L a hemos acogido con agrado porque
nos ha puesto en contacto con nuevos mundos de cono­
cimiento, porque nos ha ayudado a combatir nuestro
aislamiento multicultural. Se ha comentado mucho este
derrumbamiento de los antiguos confines disciplinarios,
advirtiéndose su vinculación con las computadoras y las
ciencias de la información.
Pero es seguro que la computadora, como máquina,

19 L . A. HiUier y 3L. M. Isaacson, Experimental Music (Nueva York:


McGraw-Hill, 1959), que refiere experimentos iniciados hace más de diez
años, contiene pese a todo una buena introducción al tema de la compo­
sición musical, juzgada como diseño. Véase también Walter R. Reitman,
Cognition and Thought (Nueva Y ork: Wiley, 1965), Capítulo 6, «Creative
Problem Solving: Notes from the Autobiography of a Fugue».
o incluso como pieza de un programa, no tiene partici­
pación directa en la cuestión. Yo he apuntado ya otra
explicación diferente. L a posibilidad de comunicarse a
través de unos campos — en un terreno común — pro­
viene del hecho de que todos cuantos utilizan computa­
doras de forma compleja están, de hecho, sirviéndose
de computadoras para diseñar o para participar en el
proceso del diseño. En consecuencia, nosotros, como
diseñadores o, mejor, como diseñadores de los procesos
de diseño, hemos tenido que ser explícitos, como nunca
lo fuimos, con respecto a lo que entraña crear un dise­
ño y a lo que ocurre en tanto se produce la creación.
Las verdaderas cuestiones que son objeto del nuevo
comercio líbre intelectual entre las muchas culturas son
nuestros propios procesos mentales, nuestros procesos de
juzgar, decidir, elegir y crear. Importamos y exporta­
mos ideas de una a otra disciplina intelectual, en rela­
ción con la forma en que un sistema de procesar infor­
mación organizado en serie, cual es el hombre — o una
computadora o un conjunto formado por hombres y
computadoras en cooperación organizada —, resuelve
problemas y llega a unos objetivos en medios externos
de gran complejidad.
Se ha dicho que el estudio auténtico de la humanidad
se basa en el hombre. Pero argumentaba yo que el
hombre — o, por lo menos, el componente intelectivo
del hombre — puede ser relativamente sencillo; que la
mayor parte de la complejidad de su comportamiento
puede derivar del ambiente en que está inmerso, de su
búsqueda de diseños adecuados. De haber demostrado
lo que me proponía, podemos llegar a la conclusión de
que, en gran parte, el verdadero estudio de la humani­
dad consiste en la ciencia del diseño, no sólo como com­
ponente profesional de una educación técnica sino como
disciplina sustancial para todo hombre educado iibe-
ralmente.
IV

LA ARQUITECTURA D E LA COMPLEJIDAD *

En los últimos años se han avanzado algunas pro­


puestas para el desarrollo de una «teoría general de
los sistemas» que, haciendo abstracción de las propie­
dades peculiares de los sistemas físicos, biológicos o so­
ciales, fuera aplicable a todos ellos.1Cabría pensar que,
pese a que el objetivo es laudable, una tal diversidad
de sistemas difícilmente podría esperarse tuviese unas
propiedades no triviales en común. L a metáfora y la
analogía pueden ser de utilidad o pueden desorientar.
Todo depende de si las similitudes que capta la metáfo­
ra son significativas o superficiales. '
Acaso no sea totalmente vano, sin embargo, buscar
unas propiedades comunes entre diversos géneros de
sistemas complejos. Las ideas que se agrupan bajo el
nombre de cibernética constituyen, si no una teoría, por
lo menos un punto de vista que ha demostrado ser fruc­
tífero en un amplio abanico de aplicaciones.2 Ha sido
útil contemplar el comportamiento de sistemas adapta­
bles según los conceptos de realimentación y homeosta-
sis y analizar la adaptabilidad de acuerdo con la teoría

* Reimpreso con la debida autorización; anterior impresión: Proteo*


divgs of thc American Pililo sofihical Society, 106: 467-482 (Diciembre 1962).
1 Véase específicamente los anuarios de la Society for General Systems
Research. Destacan entre los exponentes de la teoría de los sistemas gene­
rales: L . von Bertalanffy, K. Boulding, R. W. Gerard y J . G. Miller. Para
un punto de vista más escéptico — tal vez excesivamente escéptico a la luz
ele las presentes consideraciones — véase H . A. Simón y A. Newell, «Models:
Their Uses and Lim ita tions», en L . D. White (ed.), The State oj the Social
Sciences (Chicago: University of Chicago Press, 1956), págs. 66-83.
2 N. Wiener, Cybernetics (Nueva York: Wiley, 1948). Como presagio
imaginativo, consúltese A. J. Lotka, Elements of Mathematical Biology
(Nueva York: Dover Publications, 1951), publicado por primera vez en 1924
con el título Elements oj Physical Biology.
de la información selectiva.3 Las ideas de la realimen­
tación y de la información proporcionan un marco de
referencia para situar un amplio despliegue de situacio­
nes, al igual que ocurre con las ideas de la evolución, el
relativismo, el método axiomático y el operacionalismo.
En este ensayo quisiera hablar de algunas cosas que
hemos ido sabiendo acerca de determinados tipos de
sistemas complejos con los que hemos tropezado en las
ciencias del comportamiento. Los desarrollos que pa­
saré a estudiar surgen en el contexto de los fenómenos
específicos, si bien las formulaciones teóricas en sí hacen
escasas referencias a los detalles de estructura. En cam­
bio, se refieren primordialmente a la complejidad de los
sistemas estudiados sin especificar el contenido exacto
de aquella complejidad. Debido a su abstracción, las teo­
rías pueden tener relación — aplicación sería un térmi­
no demasiado fuerte — con otros tipos de sistemas com­
plejos que se observan en las ciencias sociales, biológi­
cas y físicas.
Al referirme a estos desarrollos, evitaré los detalles
técnicos que, por lo general, pueden encontrarse en otros
lugares. Describiré cada teoría dentro del contexto par­
ticular en que surgió. Después, citaré algunos ejemplos
de sistemas complejos, procedentes de terrenos científi­
cos ajenos a la aplicación inicial, con la que parece
relacionarse el armazón teórico. Al hacerlo, me referiré
a campos de conocimientos en los que no soy experto,
ni mucho menos. Tengo por seguro que el lector no
tendrá ninguna dificultad en distinguir ejemplos basados
en la ociosa fantasía, o en la flagrante ignorancia, de
aquellos otros que proyectan algo de luz sobre las for­
mas en que se hace patente la complejidad dondequiera
que figure en la naturaleza.
No me lanzaré a una definición formal de los «siste­
3 C. Shan non y W. Weaver, The Mathematical Theory oj Communi-
catión (Urbana: Uníversity oí Illinois Press, 1949); W. R. Ashby, Design
jor a Brain (Nueva York: Wiley, 1952).
mas complejos».4 En términos aproximados, entiendo
por sistema complejo el compuesto de gran número de
partes que actúan entre sí de una forma no sencilla. En
dichos sistemas, es más el todo que la suma de las par­
tes, no ya en sentido último y metafísico sino en el im­
portante sentido pragmático de que, dadas las propie­
dades de las partes y las leyes de su acción cruzada, no
es materia trivial inferir las propiedades del conjunto.
Frente a la complejidad, un reduccionista en principio
puede ser al mismo tiempo un holista pragmático.5
Los cuatro apartados que siguen a continuación con­
sideran cuatro aspectos de la complejidad. El primero
brinda algunos comentarios sobre la frecuencia con que
la complejidad adopta la forma de jerarquía: el sistema
complejo está compuesto de subsistemas que, a su vez,
tienen sus propios subsistemas, etcétera. E l segundo
apartado teoriza acerca de la relación entre la estructu­
ra de un sistema complejo y el tiempo que necesita para
emerger a través de procesos evolutivos; de modo es­
pecial, arguye que los sistemas jerárquicos evoluciona­
rán con mucha mayor rapidez que los sistemas no jerár­
quicos de dimensiones comparables. El tercer apartado
explora las propiedades dinámicas de sistemas organi­
zados jerárquicamente y demuestra cómo pueden ser
descompuestos en subsistemas para analizar su compor­
tamiento. El apartado cuarto examina la relación entre
sistemas complejos y sus descripciones.
4 W. Weaver, en «Science and Complexity», American Scientist, 36:
536 (1948), distingue dos tipos de complejidad: desorganizada y organizada.
Nosotros nos ocuparemos primordialmente de la complejidad organizada.
5 Véase también John R. Platt, «Properties of Large Molecules That
Go beyond the Properties of Their Chemical Sub-groups», Journal of Theo-
retical Biology, 1 : 342-358 (1961). Dado que el reduccionismo-holismo cons­
tituye una importante cause de guerre entre científicos y humanistas, tal
vez cabría esperar fuese posible negociar la paz entre las dos culturas
siguiendo las directrices del compromiso apuntado. A medida que vaya
avanzando, añadiré alguna cosa más acerca de la complejidad en el arte
al igual que en el terreno de las ciencias naturales. Debo insistir en el
pragmatismo de mi holismo para distinguirlo de la postura adoptada por
W. M. Elsasser en The Physical Foundation of Biology (Nueva Y ork: Per-
gamon Press, 1958).
Así pues, el tema que aquí tengo por central es que
la complejidad adopta a menudo la forma de jerarquía
y que los sistemas jerárquicos tienen ciertas propiedades
independientes de su contenido específico. L a jerarquía,
argüiré, es uno de los esquemas estructurales básicos
que utiliza el arquitecto de la complejidad.

S i s t e m a s je r á r q u i c o s

Por s is te m a je r á r q u i c o , o jerarquía, entiendo nn sis­


tema compuesto de subsistemas relacionados entre sí,
en el que cada uno es jerárquico, dentro de la estructura,
del que le sigue a continuación, hasta llegar al nivel más
bajo del subsistema elemental. En la mayoría de los
sistemas de la naturaleza, resulta algo arbitraria la frag­
mentación y la adopción de unos subsistemas como ele­
mentales. La física hace un gran uso del concepto de
«partícula elemental», pese a que las partículas poseen
una desconcertante tendencia a no permanecer elemen­
tales durante mucho tiempo. No hace más que un par de
generaciones que los mismos átomos eran partículas ele­
mentales; hoy, a ojos del físico nuclear, constituyen
sistemas complejos. Para determinados fines, en astro­
nomía, estrellas enteras, galaxias incluso, pueden ser
consideradas como subsistemas elementales. En cierto
tipo de investigación biológica, una célula puede ser
tratada como un subsistema elemental; en otro, como
una molécula proteína; en otro más, como un residuo
aminoácido.
El porqué un científico tiene el derecho a tratar
como elemental un subsistema que, de hecho, es extraor­
dinariamente complejo constituye una de las cuestiones
que pasaremos a tratar. Por el momento, aceptaremos el
hecho de que los científicos proceden constantemente de
esta forma y que, si son científicos concienzudos, saben
salirse con la suya.
Etimológicamente, la palabra «jerarquía» ha tenido
un sentido más restringido que el que le doy en este
lugar. El término se ha utilizado en forma generalizada
para referirse a un sistema complejo en el que cada uno
de los subsistemas está subordinado por una relación de
autoridad al sistema al que pertenece. Más exactamente,
en una organización jerárquica formal, cada sistema
consiste en un «patrón» y en todo un conjunto de sub­
sistemas subordinados. Cada uno de los subsistemas tie­
ne un «patrón», que es el subordinado inmediato del
patrón del sistema. Queiemos considerar sistemas en los
que las relaciones entre los subsistemas sean más com­
plejas que en la jerarquía formal organizada que aca­
bamos de describir. Queremos abarcar sistemas en los
que no exista la relación de subordinación entre los sub­
sistemas. (En realidad, incluso en las organizaciones
humanas, la jerarquía formal no existe más que en teo­
ría; la verdadera organización en carne y huesos pre­
senta muchas relaciones entre sus diferentes partes que
nada tienen que ver con las líneas de la autoridad for­
mal). A falta de un término mejor, utilizaré la palabra
«jerarquía» en el sentido más amplio, según la presen­
taba en los párrafos anteriores, para referirme a todos
los sistemas complejos analizables en sucesivos conjun­
tos de subsistemas y hablaré de «jerarquía formal» cuan­
do quiera referirme al concepto más especializado.6
*

Sistemas sociales

He expuesto ya un ejemplo de un tipo de jerarquía


que suele darse en las ciencias sociales: una organiza­

6 E l término matemático «división» no puede aplicarse aquí a lo que


yo llamo una jerarquía; puesto que el conjunto de subsistemas y los sub­
conjuntos siguientes de cada uno de ellos define la división, en forma
independiente de cualquier sistema de relaciones entre los subconjuntos. Por
«jerarquía» quiero indicar la división en conjunción con las relaciones que
se establecen entre sus partes.
ción formal. Las empresas comerciales, el equipo gu­
bernamental, las universidades cuentan con una estruc­
tura visible de piezas-dentro-de-piezas. Pero las organi­
zaciones formales no son las únicas, ni siquiera las más
corrientes de entre las jerarquías sociales. Casi todas
las sociedades poseen unas unidades elementales llama­
das familias, que pueden agruparse en aldeas o tribus
y éstas en agrupaciones más grandes y así sucesivamen­
te. Si confeccionamos una carta en la que aparezcan las
interacciones sociales, una carta que reproduzca los con­
tactos que se establecen, las acumulaciones de densa in­
teracción de la carta ofrecerán una estructura jerárquica
perfectamente definida. L as agrupaciones de esta estruc­
tura pueden definirse en forma operativa de acuerdo
con una cierta medida de frecuencia de interacción en
esta matriz sociométrica.

S i s t e m a s b io ló g ic o s y f ís ic o s

La estructura jerárquica de los sistemas biológicos


constituye un hecho corriente. Si tomamos a la célula
como ladrillo del edificio, encontramos células organi­
zadas en tejidos, tejidos en órganos, órganos en siste­
mas. Si procedemos por debajo de la célula, encontra­
mos en las células animales unos subsistemas claramente
definidos, por ejemplo : núcleo, membrana celular, mi-
crosomas, mitocondria, etcétera.
La estructura jerárquica de muchos sistemas físicos
está igualmente diferenciada. He citado ya las dos se­
ries principales. A nivel de microscopio tenemos partí­
culas elementales, átomos, moléculas y macromolécu-
las. A nivel macroscópico tenemos sistemas de satélites,
sistemas planetarios, galaxias. L a materia se encuentra
distribuida en el espacio de una forma marcadamente
irregular. Las distribuciones más fortuitas que encontra­
mos, los gases, no son distribuciones fortuitas de partí­
culas elementales sino distribuciones fortuitas de siste­
mas complejos, es decir, moléculas.
Un número considerable de tipos estructurales que­
da agrupado’bajo el término de «jerarquía», según yo
lo definía anteriormente. De acuerdo con esta definición,
un diamante es jerarquía, puesto que es una estructura
en cristal de átomos de carbono, que puede descompo­
nerse en protones, neutrones y electrones. Con todo, se
trata de una jerarquía muy «plana», en la que el núme­
ro de subsistemas de primer orden pertenecientes al
cristal podría ser infinitamente grande. Un volumen de
gas molecular constituye una jerarquía plana en el mis­
mo sentido. En el uso corriente, tendemos a reservar la
palabra «jerarquía» para un sistema dividido en un n ú ­
m e r o p e q u e ñ o o m o d e r a d o de subsistemas, cada uno de
los cuales podría ser subdividido. De aquí que, normal­
mente, no pensemos ni nos refiramos a un diamante o a
un gas como estructura jerárquica. De igual modo, un
polímero lineal es simplemente una cadena, a veces muy.
larga, de subpartes idénticas: los monómeros. A nivel
molecular es una jerarquía muy plana.
Al tratar de organizaciones formales, el número de
subordinados relacionados directamente con un único
patrón se llama su r a d io d e c o n tr o l. Hablaré análoga­
mente del r a d io de un sistema, con lo que querré indi­
car el número de subsistemas en que se encuentra dife­
renciado. Así pues, un sistema jerárquico puede ser pla­
no a un determinado nivel si posee un amplio radio a
dicho nivel. Un diamante tiene un amplio radio a nivel
de cristal, pero no al nivel que se encuentra inmediata­
mente por debajo: el nivel molecular.
En gran parte de la elaboración de nuestra teoría,
en el curso de los próximos apartados, centraremos la
atención en jerarquías de radio moderado, si bien algu­
na vez pueda comentar hasta qué punto las teorías se­
rán o no aplicables a jerarquías muy planas.
Existe una importante diferencia entre jerarquías
físicas y biológicas, por un lado, y jerarquías sociales,
por otro. L a mayoría de jerarquías físicas y biológicas
se describen en términos espaciales. Detectamos los ele­
mentos de una célula del mismo modo que detectamos
las pasas en un pastel: son subestructuras kvisiblemen­
te diferenciadas, localizadas espacialmente dentro de
la estructura más grande. Por otro lado, nos propone­
mos identificar jerarquías sociales ño a través de la ob­
servación de quién vive cerca de quién, sino observando
a quién interactúa con quién. Pueden reconciliarse estos
dos puntos de vista definiendo la jerarquía en términos
de intensidad de la interacción, pero observando que
en la mayoría de sistemas biológicos y físicos una inter­
acción relativamente intensa implica una proximidad
espacial relativa. Una de las interesantes características
propias de las células nerviosas y de los cables de te­
léfono es que permiten unas específicas interacciones
intensas a grandes distancias. En la medida en que se
canalizan las interacciones a través de comunicaciones
especializadas y sistemas de transporte, la proximidad
espacial se hace menos determinativa de la estructura.

Sistemas simbólicos

En los ejemplos que he expuesto hasta aquí he omi­


tido una clase muy importante de sistemas: los sistemas
de producción simbólica humana. Un libro es una jerar­
quía en el sentido en que yo utilizo el término. Por lo
general, está dividido en capítulos, los capítulos en apar­
tados, los apartados en párrafos, los párrafos en ora­
ciones, las oraciones en cláusulas y frases, las cláusulas
y frases en palabras. Podemos tomar las palabras como
unidades elementales o seguir subdividiéndolas, como
suele hacer el lingüista, en unidades más pequeñas. Si
el libro tiene carácter narrativo, puede dividirse en
«episodios» en lugar de apartados, pero siempre podrán
hacerse divisiones.
L a estructura jerárquica de la música, basada en
unidades tales como los movimientos, las partes, los te­
mas, las frases, es de todos conocida. L a estructura je­
rárquica de los productos de las artes pictóricas es más
difícil de caracterizar, si bien diré más adelante algunas
cosas a este respecto.

L a e v o lu c ió n de lo s s is t e m a s c o m p le jo s

Permítaseme presentar la cuestión de la evolución


por medio de una parábola. Había una vez dos reloje­
ros, cuyos nombres eran Hora y Tempus, que hacían re­
lojes de gran belleza. Ambos eran tenidos en muy alta
estima y los teléfonos de sus talleres sonaban con mu­
cha frecuencia: siempre tenían nuevos clientes que acu­
dían a ellos con sus llamadas. Pese a ello, Hora iba
prosperando en tanto que Tempus era cada vez más po­
bre, más pobre, hasta que acabó por perder incluso el
taller. ¿Cuál era el motivo ?
Los relojes que hacían aquellos dos hombres se com­
ponían de unas 1.000 piezas cada uno. Tempus tenía
un modo de trabajar que si, por ejemplo, tenía un reloj
a medio montar y debía dejarlo — para contestar al
teléfono, pongamos por caso — se le desmontaba inme­
diatamente, con lo que se veía obligado a comenzar por
el principio para reunir todos los elementos. Cuanto
más éxito tenían sus relojes entre los clientes, más le
telefoneaban éstos y más difícil le resultaba disponer
del tiempo necesario para poder realizar su labor sin in­
terrupción .
Los relojes que hacía Hora no eran menos complejos
que ios de Tempus. Pero había concebido su montaje
de forma que agrupaba subconjuntos formados por diez
elementos cada uno y que incorporaba separadamente.
Diez de estos subconjuntos constituían un subconjunto
más grande. El reloj completo estaba formado por un
sistema de diez de estos últimos subconjuntos. De esta
forma, cada vez que Hora debía abandonar un reloj
a medio montar para contestar al teléfono no perdía
más que una pequeña parte de trabajo, por lo que mon­
taba los relojes en sólo una fracción del tiempo que in­
vertía Tempus.
Resulta bastante fácil hacer un análisis cuantitativo
de la relativa dificultad del trabajo de Tempus y de
Hora. Supongamos que la probabilidad de que se pro­
dujese una interrupción mientras se incorporaba una
pieza a un conjunto a medio montar es p . Entonces la
probabilidad de que Tempus pudiese terminar un reloj
empezado sin que mediase una interrupción sería (1 -
p ) i#0°, número pequeñísimo puesto que p equivale a
0,001 o menos aún. Cada interrupción costaría, por tér­
mino medio, el tiempo necesario para montar í / p pie­
zas (el número que se tenía montado antes de producir­
se la interrupción). Por otro lado, Hora debía comple­
tar 111 subconjuntos, formados cada uno por diez pie­
zas. La probabilidad de no ser interrumpido al formar
cada uno de ellos equivale a (1 -p) 10, por lo que cada
interrupción no le costaría aproximadamente más que
el tiempo exigido para reunir cinco piezas.7

7 L as especulaciones acerca de la rapidez de la evolución fueron sus­


citadas por vez primera por la aplicación realizada por H. Jacob son de la
teoría de la información a la estimación del tiempo necesario para la evolu­
ción biológica. Véase su trabajo «Information, Reproduction, and the Origin
of Lite», en American Scientist, 43: 119-127 (enero 1955). Apoyándose en
consideraciones termodinámicas puede estimarse la cantidad de aumento en la
entropía que se produce cuando un sistema complejo se descompone en sus
elementos. Véase, por ejemplo, R. B. Setlow y É. C. Pollard, Molecular
Biophysics (Reading, M ass.: Addison-Wesley, 1962), págs. 63-65 y las refe­
rencias allí citadas). Pero la entropía es el logaritmo de una probabilidad,
de ahí que la información, negativo de ia entropía, pueda ser interpretada
como el logaritmo del recíproco de la probabilidad: la «improbabilidad)),
por así decirlo. L a idea esencial en el modelo de Jacobson es que el tiempo
que se espera exigirá el sistema para llegar a un estado particular es inver­
samente proporcional a la probabilidad del estado, de aquí que aumente
exponencial mente con la cantidad de información (negentropía) del estado.
Siguiendo esta línea de argumentación, aunque sin introducir el concepto
Ahora bien, si p equivale más o menos a 0,01 — es
decir, que existe una probabilidad entre cien de que
cada relojero sea interrumpido al incorporar una parte
a un conjunto, entonces un cálculo directo demostraría
que Tempus, por término medio, necesitaba unas 4 .0 0 0
veces más tiempo para montar un reloj que Hora.
Llegamos a este resultado de la forma siguiente:
1. Hora debe formar 111 veces tantos grupos com­
pletos para cada reloj como Tempus; pero
2. Tempus, por término medio, perderá 20 veces
tanto trabajo por cada agrupación interrumpida
como Hora (un promedio de 100 partes con­
tra 5); y
3. Tempus terminará un montaje sólo 44 veces por
cada millón de intentos (O,99100° = 44 X 10~6),
en tanto que Hora lo terminará nueve de cada
diez veces (O,99)0 = 9 X lO-1). De aquí que
Tempus tenga que hacer 20.000 intentos por
agrupación montada que Hora. (9 X 10-1)/
(44 X 10-6) = 2 X 104. Multiplicando estas tres
razones, tenemos:
1 / 111 X 100 / 5 X 0 ,9 9 10 / O ,9910o°
= 1 / 111 X 20 X 2 0 .0 0 0 ^ 4.000

E v o lu c ió n b io ló g ic a

¿Qué enseñanzas podemos recoger de la parábola


por lo que respecta a la evolución biológica ? Interpre­
temos un subconjunto, parcialmente terminado, forma­
do por k partes elementales, como la coexistencia de k

(le niveles y subconjuntos estables, Jacobson llegó a unas estimaciones del


tiempo exigido para la evolución tan grandes que resultaban improbables.
Nuestro análisis, conducido por los mismos caminos, pero atentos a las
formas intermedias estables, produce unas estimaciones mucho más bajas.
partes en un pequeño volumen, ignorando sus orienta­
ciones respectivas. El modelo admite que las partes en­
tran en el volumen a un ritmo constante, si bien subsiste
una constante probabilidad, p , de que se disperse una
de las partes antes de añadir la siguiente, a menos que
el agrupamiento alcance un nivel estable. Estas supo­
siciones no son particularmente realistas. No hay duda
que subvaloran la disminución de la probabilidad de
conseguir el agrupamiento al aumentar sus dimensiones.
De aquí que los supuestos disminuyan — probablemen­
te por un gran factor — la relativa ventaja de una es­
tructura jerárquica.
Pese a que no sea posible tomar en serio la valora­
ción numérica, las enseñanzas que de ella se desprenden
para la evolución biológica son tan claras como directas.
El tiempo exigido para la evolución de una forma com­
pleja a partir de unos elementos simples depende exacta­
mente de los números y distribución de formas potencia­
les intermedias estables. De modo particular, si existe
una jerarquía de «subconjuntos» potenciales estables,
con el mismo radio aproximadamente, s, a cada nivel
de la jerarquía, entonces el tiempo exigido para un sub­
conjunto puede suponerse será aproximadamente el
mismo a cada nivel, es decir, proporcional a 1/(1— p)s.
El tiempo necesario para el montaje de un sistema de n
elementos será proporcional a log3 n, es decir, al número
de niveles del sistema. Podría decirse — con intención
más ilustrativa que literal — que el tiempo exigido para
la evolución de organismos multicelulares a partir de
organismos unicelulares podría ser del mismo orden de
magnitud que el tiempo exigido para la evolución de
organismos unicelulares a partir de macromoléculas. Po­
dría aplicarse la misma argumentación a la evolución
de las proteínas a partir de los aminoácidos, de las mo­
léculas a partir de los átomos, de los átomos a partir de
partículas elementales.
Estoy seguro de que a cualquier biólogo, químico o
físico han de ocurrírsele toda una caterva de objeciones
a esquema tan simplificado. Antes de pasar a materias
que conozco mejor, citaré tres de estos problemas, de­
jando el resto a la atención de los especialistas.
En primer lugar, pese a las subidas de tono de la pa­
rábola del relojero, la teoría no adopta ningún mecanis­
mo teleológico. Las formas complejas pueden surgir de
las simples en virtud de procesos fortuitos. (Más adelan­
te expondré otro modelo que demuestra esta aseveración
con toda claridad). Se orienta el esquema gracias a la
estabilidad de las formas complejas, una vez éstas se
producen. Pero esto no es otra cosa que la superviven­
cia de lo más ajustado, es decir, de lo estable.
En segundo lugar, no todos los grandes sistemas se
presentan en forma jerárquica. La mayoría de los polí­
meros, como por ejemplo el nylon, son simplemente ca­
denas lineales de grandes números de componentes idén­
ticos: los monómeros. No obstante, por lo que respecta
al caso presente, consideraremos tal estructura como una
jerarquía con un espacio de uno: el caso limitado. Para
una cadena, sea cual fuere su longitud, representa un
estado de relativo equilibrio.8
En tercer lugar, la evolución de sistemas complejos
a partir de elementos simples no supone nada, de un
modo u otro, en relación con el cambio en entropía de
todo el sistema. Si el proceso absorbe energía libre, el
sistema complejo tendrá una entropía más pequeña que
los elementos; si libera energía libre, se producirá lo
contrario. La primera alternativa es la válida para la
mayor parte de sistemas biológicos, y la entrada neta de
energía libre debe ser adoptada por el sol o alguna otra

8 Existe una teoría muy bien desarrollada de la dimensión polímera,


basada en modelos de reunión fortuita. Véase, por ejemplo, P. J . Flory,
Principies oí Polytner Chemistry (Ithaca: Cornell University Press, 1953),
Capítulo 8. Dado que todos los subconjuntos de la teoría de la polimerización
son estables, la limitación del crecimiento molecular depende de «envenenar»
los grupos terminales con impurezas o formación de ciclos más que en la
ruptura de cadenas parcialmente formadas.
fuente, en el caso que la segunda ley de termodinámica
no tenga que ser violada. Por lo que se refiere al pro­
ceso evolutivo que acabamos de describir, los equili­
brios de los estados intermedios necesitan contar única­
mente con una estabilidad local y no global y pueden
ser estables solamente en estado de continuidad, es de­
cir, mientras existe una fuente externa de energía libre
susceptible de ser aportada.9
Puesto que los organismos no son sistemas activa­
mente cerrados, no hay forma de deducir el rumbo, y
mucho menos el ritmo de la evolución partiendo de con­
sideraciones termodinámicas. Las estimaciones indican
que la cantidad de entropía, medida en unidades físicas,
que entraña la formación de un organismo biológico uni­
celular es insignificantemente pequeña: alrededor de
—ÍCT11 grado/cal.10*La «improbabilidad» de la evolución
no tiene nada que ver con esta cantidad de entropía
que produce toda célula bactérica, cada generación. En
este sentido, la cantidad de información inadecuada en
relación con la rapidez de la evolución aparece también
con el hecho de que se necesita exactamente tanta in­
formación para «copiar» una célula por el proceso re­
productivo como para producir la primera célula por
medio de la evolución.
El efecto de la existencia de formas estables interme­
dias ejerce un poderoso efecto en la evolución de formas
complejas que pueden ser comparadas a los sorprenden­
tes efectos de los catalizadores sobre tasas de reacción
y distribución constante de productos de reacción en

9 Este punto se ha expuesto repetidamente con anterioridad, si bien


no puede insistirse demasiado en él. Para un posterior análisis, véase Setlow
y Pollard, op cit., ^págs. 49-64; 7. Scrodinger, What is Lije? (Cambridge:
Cambridge University Press, 1945); y H. Linschitz, «The Information Con-
tent oí a Bacterial Cell», en H. Quastler (ed.), Information Theory in Biology
(U rbana: University of Illinois Press, 1953), págs. 251-262.
10 Véase Linschitz, op. cit. E sta cantidad, 10_u grado/cal, corresponde
aproximadamente a 1013 fragmentos de información.
sistemas abiertos." En ningún caso el cambio de la en­
tropía nos brinda una orientación para el comporta­
miento del sistema.

R e s o lu c ió n d e l p r o b le m a c o m o se le c c ió n n a t u r a l

Pasemos ahora a ciertos fenómenos que no presentan


una vinculación evidente con la evolución biológica:
procesos humanos de resolución de problemas. Consi­
deremos, por ejemplo, la tarea de descubrir la prueba de
un teorema difícil. El proceso puede ser descrito — y a
menudo éste es el caso — como una búsqueda a través
de un laberinto. Partiendo de axiomas y de teoremas
previamente demostrados, se intentan varias transfor­
maciones autorizadas por las reglas de los sistemas mate­
máticos a fin de obtener nuevas expresiones. Estas son
modificadas a su vez hasta que, gracias a la persistencia
y a la buena suerte, se da con una secuencia o un cami­
no de transformaciones que conduce al objetivo.
El proceso normalmente entraña muchas pruebas y
errores. Se intentan varios caminos, algunos se abando­
nan, otros se prosiguen. Antes de dar con una solución,
pueden explorarse muchos caminos de este laberinto.
Cuanto más difícil y original es el problema, más grande
será la cantidad de pruebas y errores exigidos para dar
con una solución. Al mismo tiempo, las pruebas y erro­
res no son totalmente fortuitos ni hechos a ciegas; de
hecho, se trata de un procedimiento extremadamente
selectivo. Las nuevas expresiones que se obtienen trans­
formando las que se dan, se estudian para ver si repre­
sentan un avance hacia el objetivo que se persigue. Los
indicios de avance motivan la continuación del avance
en la misma dirección; la ausencia de avance marca el1

11 Váase H. Kacser, «Somc IMiysico-chemical Aspects of Biological Orga­


niza fion», Apéndice, págs. 191-249, en C. H . Waddington, The Stralegy of
Hia Cenas (Londres: George Alien & Umvin, 1957).
ab an d o n o de uno de los cam in o s intentados. L a resolu­
ción de p ro b lem as exige p ru e b as y errores de carácter
selectivo'2
U n a cierta reflexión revela qu e lo s indicios rev e lad o ­
res del avan ce realizado cum plen la m ism a función en el
proceso de resolución de prob lem as que ¡a s fo rm as esta­
bles in term edias en el pro ceso biológico evolutivo. De
hecho, p o d em o s con siderar la p a rá b o la del relojero y
a p licarla a la resolución de pro b lem as. E n la resolución
de- p ro b lem as, un resu ltad o p a rc ial qu e rep resen ta un
av a n c e detectable h acia u n a m eta d esem peñ a el papel
de un subconjunto estab le.
Supongamos que la tarea consiste en abrir una caja
fuerte cuya cerradura tiene 10 discos, cada uno de ellos
con 100 combinaciones posibles, numeradas del 0 al 99.
¿Cuánto tiempo se tardará en abrir la caja por el proce­
dimiento de ir probando y equivocándose en pos de la
combinación adecuada? Puesto que hay ICO10 combina­
ciones posibles, cabe esperar que se examinarán alrede­
dor de la mitad de las mismas, por término medio, antes
de encontrar la correcta, es decir, 50 billones de billo­
nes de cambinaciones. Supongamos, sin embargo, que la
caja está averiada, de forma que se escucha un chas­
quido cada vez que se hace girar el disco hasta dar con
la combinación adecuada. Ahora bien, cada disco puede
ajustarse independientemente y no necesita volver a to­
carse cuando se opera con los demás. E l número total
de combinaciones que deben intentarse es de 10X 50=
500. L a tarea de abrir la caja fuerte ha experimentado
una variación, gracias a las pistas ofrecidas por los chas-12

12 Véase A. Newell, J . C. Shaw y H. A. ^imon, «Empirical Explorations


of the Logic Theory Machine», Proceedirtgs of the 1957 Western Joiiit
Computer Conference, febrero 1957 (Nueva York: Institute of Radio Engi-
neers); «Chess-Playing Programs and the Problem of CompLexity», IBM
Journal of Research and Development, 2 : 320-335 (Octubre 1953); y para,
un enfoque similar de la resolución de problemas, W. R, Ashby, «Pcsign
for an Intelligence Amplifier», págs. 215-233 en C. E . Shannon y J . McCarthy,
Autómata Studies (Princeton: Princeton University Press, 1956).
quidos, pasando de ser algo prácticamente irrealizable
a un trabajo totalmente banal.13
Durante los últimos cinco años se han aprendido mu­
chas cosas acerca de la naturaleza de estos laberintos
que representan tareas humanas corrientes encaminadas
a la resolución de problemas, como demostración de
teoremas, solución de «puzzles», partidas de ajedrez, in­
versiones, compensación de líneas de montaje, para ci­
tar sólo algunos de ellos. Cuanto hemos sabido en rela­
ción con estos laberintos apunta a una misma conclu­
sión: que la resolución de problemas a nivel humano,
desde la más disparatada a la más perspicaz, no supone
otra cosa más que una variación de combinaciones de
intentos y errores y una actividad de selección. L a selec­
ción se basa en una cierta heurística, que sirve para in­
dicar qué caminos habrá que intentar primero y cuáles
son los filones más prometedores. No necesitamos postu­
lar procesos más sofisticados que los que supone la evo­
lución orgánica para explicar qué laberintos enormes se
recortan hasta quedar reducidos a unas dimensiones per­
fectamente razonables.14

Las fuentes de la selección

Cuando examinamos las fuentes de las que el sistema

13 Este contundente ejemplo fue facilitado por D. P. Simón. Ashby,


op. cit.j pág. 230, denominó a la selectividad que entrañan situaciones de
este género: «selección por componentes». L a reducción de tiempo todavía
más grande, resultado de la jerarquización en este ejemplo, comparado con
la metáfora del relojero, se debe al hecho de que una búsqueda fortuita
de la correcta combinación se encuentra formando parte del primer caso, en
tanto que en el último las partes se reúnen en el orden adecuado. No está
claro cuál de estas metáforas proporciona el mejor modelo para la evolución
biológica, pero podemos tener la seguridad de que la metáfora del relojero
aporta una estimación enormemente conservadora de los ahorros resultado
de la jerarquización. E l ahorro puede dar una estimación excesivamente alta
porque adopta todas las combinaciones posibles de los elementos que reúnen
una igual probabilidad.
14 A. Newell y H. A. Simón,-.«Computer Simulation of Human Thinking»,
Science» 134: 2011-2017 (22 de diciembre de 1961).
de resolución de problemas, o el sistema desarrollado,
según el caso, deriva sus procedimientos de selección,
descubrimos que ésta puede equipararse siempre a cier­
to tipo de realimentación de informaciones a partir del
medio.
Consideremos primero el caso de la resolución de
problemas. Existen dos procedimientos básicos aplica­
dos a la selectividad. Uno de ellos ha sido ya menciona­
do: se intentan diversos caminos, se anotan las conse­
cuencias de haberlos seguido y se utiliza la información
para dirigir la prosecución de la búsqueda. Del mismo
modo: en la evolución orgánica, se materializan varios
complejos, aunque sólo sea de forma evanescente, y los
que permanecen estables aportan los nuevos ladrillos
para seguir construyendo. Esta es la información acerca
de configuraciones estables, y no la libre energía ni la
negentropía proveniente del sol, la que dirige el proceso
de la evolución y aporta aquella selectividad esencial que
explica su rapidez.
La segunda fuente de la selectividad en la resolución
de problemas es la experiencia previa. Esto se revela de
forma particularmente clara cuando el problema a resol­
ver es parecido al que se ha resuelto anteriormente. En­
tonces, gracias di procedimiento de volver a intentar los
mismos caminos que condujeron a la primera solución,
u otros análogos, se reduce enormemente .— por no de­
cir que se elimina totalmente — el sistema de intentos
y equivocaciones.
¿Qué es lo que en la evolución orgánica corresponde
a este último género de información? Su análogo más
próximo es la reproducción. Una vez alcanzado el nivel
de los sistemas autorreproductores, puede -multiplicarse
indefinidamente un sistema complejo, una vez obtenido.
La reproducción, en efecto, permite la herencia de unas
características adquiridas, aunque por supuesto en rela­
ción con el material genético; es decir, únicamente pue­
den heredarse aquellas características que fueron adqui­
ridas por los genes. Volveremos a insistir en la cuestión
de la reproducción en el apartado final de este ensayo.

Sobre los imperios v la construcción de los imperios

No hemos agotado las categorías de sistemas com­


plejos a las que la argumentación del relojero podría
aplicarse. Filipo formó un imperio macedónico y lo ce­
dió a su hijo; más adelante se combinó con el subcon­
junto pérsico y otros hasta formar el sistema más grande
perteneciente a Alejandro. A la muerte de Alejandro, su
imperio no se desmoronó para convertirse en polvo sino
para fragmentarse en aquellos subsistemas importantes
que anteriormente lo habían formado.
La argumentación referente al relojero supone que
Alejandro nació en un mundo en el que existían previa­
mente unos importantes sistemas políticos estables. Allí
donde no se cumplía esta condición, como por ejemplo
en las fronteras escita e india, Alejandro encontró difícil
la tarea de construir un imperio. De igual modo, T. E.
Lawrence, al organizar la revuelta árabe contra los tur­
cos, se encontró maniatado por el carácter de los ladri­
llos estables más importantes: las aisladas y suspicaces
tribus del desierto.
El arte histórico concede mayor importancia al hecho
particular válido que a la generalización tendenciosa.
No voy, pues, a seguir los derroteros por los que me
guíe mi fantasía, sino que dejaré esta cuestión en manos
de los historiadores para que sean ellos quienes decidan
si pueden ganar algo en favor de la interpretación de la
historia partiendo de una teoría abstracta de sistemas
jerárquicos complejos.
Conclusión: la explicación evolutiva de la jerarquía

Hemos demostrado hasta aquí que los sistemas com­


plejos evolucionarán mucho más rápidamente a partir
de sistemas simples cuando existen unas formas inter­
medias estables que cuando no figuran éstas. Las formas
complejas resultantes serán jerárquicas en el primer
caso. No tenemos sino que dar la vuelta a la argumen­
tación para explicar el observado predominio de unas
jerarquías entre los sistemas complejos que la naturaleza
nos ofrece. Entre las formas complejas posibles, las je­
rarquías son las únicas que tienen tiempo de evolucio­
nar. La hipótesis de que la complejidad será jerárquica
no hace ninguna distinción entre jerarquías muy planas,
como cristales, tejidos y polímeros, y sus formas inter­
medias. En realidad, en los sistemas complejos que en­
contramos en la naturaleza, destacan ejemplos de ambas
formas. Lina teoría más completa que la desarrollada
aquí tendría seguramente algo que aportar en relación
con los determinantes de la amplitud del alcance de estos
sistemas.

Sistemas casi descomponibles

En los sistemas jerárquicos podemos distinguir entre


las interacciones entre subsistemas, por Una parte, y las
interacciones dentro de subsistemas — es decir, entre
las partes de aquellos subsistemas — por otra. Las inter­
acciones a diferentes niveles pueden ser — y a menudo
lo sofi — de diferentes órdenes de magnitud. En una
organización formal, generalmente se producirá más in­
teracción entre dos empleados adscritos a un mismo de­
partamento que entre dos empleados de diferentes de­
partamentos. Entre las sustancias orgánicas, las fuerzas
intermoleculares serán por lo general más débiles que
las fuerzas moleculares y las fuerzas moleculares más
débiles que las fuerzas nucleares.
En un gas. enrarecido, las fuerzas intermoleculares
serán negligibles comparadas con las que unen las mo­
léculas; en muchos aspectos, pueden tratarse las par­
tículas individuales como si fueran mutuamente indepen­
dientes. Será posible describir este sistema como d e s ­
c o m p o n ib le en los subsistemas formados por partículas
individuales. A medida que el gas va haciéndose más
denso, las interacciones moleculares se hacen más consi­
derables. Pero hasta cierto punto, podemos tratar el caso
descomponible como límite y como primera aproxima­
ción. Podemos utilizar una teoría de gases perfectos, por
ejemplo, para describir aproximadamente el comporta­
miento de verdaderos gases, caso de que no sean dema­
siado densos. Como segunda aproximación podemos pa­
sar a una teoría de sistemas c a s i d e s c o m p o n ib le s , donde
las interacciones entre los subsistemas son leves pero no
negligibles.
Ciertos tipos de sistemas jerárquicos por lo menos
pueden ser enfocados acertadamente como sistemas casi
descomponibles. Las principales consecuencias teóricas
de este enfoque pueden resumirse en dos proposiciones:
a ) en un sistema casi descomponible, el comportamiento
a corto plazo de cada uno de los subsistemas componen­
tes es más o menos independiente del comportamiento a
corto plazo de los demás componentes; b ) a largo plazo,
el comportamiento de cada uno de los componentes de­
pende, en forma conjunta únicamente, del comporta­
miento de los componentes restantes.
Permítaseme exponer un ejemplo sencillo y muy con­
creto de un sistema casi descomponible.15 Considérese

15 La argumentación de la casi descomponibilidad se base en H. A. Simón


y A. Ando, «Aggregation of Variables in Lynam ic Systems», Econome-
trica, 29: 111-158 (abril 1961). E l ejemplo procede de la misma fuente,
pág. 117-118. L a teoría se ha desarrollado posteriormente y aplicado a una
gran variedad de fenómenos económicos y políticos por parte de Ando y
EL M. Fisher. Véase F . M. Fisher, «On the Cost of Approximat Specifi-
un edificio cuyas paredes exteriores permiten un perfec­
to aislamiento térmico del medio ambiente. Tomaremos
dichas paredes como confines de nuestro sistema. El edi­
ficio se encuentra dividido en muchos apratamentos y
las paredes que separan a los mismos son buenos, aun­
que no perfectos, aislantes. Las paredes entre los apar­
tamentos son los límites de nuestros principales subsiste­
mas. Cada apartamento está dividido por medio de unos
tabiques en varios compartimentos, si bien dichos tabi­
ques apenas si aíslan los compartimentos mencionados.
En cada uno de estos compartimentos hay un termó­
metro-. Supongamos que en el momento de realizar
nuestra primera observación del sistema existe una gran
diferencia de temperatura entre compartimento y com­
partimento y entre apartamento y apartamento: los di­
ferentes cubículos del edificio se hallan en un estado de
desequilibrio térmico. Al efectuar nuevas lecturas de la
temperatura, ¿qué descubrimos? Habrá una diferencia
de temperatura muy escasa entre los compartimentos
situados en un mismo apartamento, pese a que subsis­
tirá todavía una gran diferencia de temperatura e n tre
los apartamentos. Al realizar una nueva lectura al cabo
de unos cuantos días, encontramos una temperatura casi
uniforme en todo el edificio, las diferencias de tempera­
tura entre los apartamentos han desaparecido virtual­
mente.
Este proceso tendente al equilibrio se describe for­
malmente estableciendo las acostumbradas ecuaciones
de flujo calórico. L as ecuaciones pueden representarse
por la matriz de sus coeficientes, r,y, donde r,¡ representa
el ritmo de la corriente calórica al pasar del comparti­
mento ith al },h por diferencia en grados de sus tempera­
turas. Si los compartimentos i y j tienen un tabique co-

cation in Simultaneous Equation Estimation», Econometrica, 29: 139-170


(abril 1961) y F, M. Fisher y A. Ando, «Two Theorems on Ceicris Paribiis
in the Analysis of Dynamic Systems», American Political Science Review, 61-
103-113 (marzo 3962).
mún, r,j será cero. Si los compartimentos i y j están sepa­
rados por la pared de un apartamento, r¡¡ no será cero
pero sí un número-pequeño. De aquí que, al agrupar
todos los compartimentos del mismo apartamento, se
puede disponer la matriz de los coeficientes de forma que
todos sus elementos grandes se encuentren dentro de una
hilera de submatrices cuadradas a lo largo de la dia­
gonal principal. Todos los elementos situados fuera de
estos cuadrados en diagonal serán cero o un número muy
pequeño (véase Figura 7). Tómese un número pequeño
cualquiera, e, como límite superior de los elementos ex­
teriores a la diagonal. Una matriz que posea estas pro­
piedades será la que llamemos matriz casi descompo­
nible.
Ahora bien, se ha demostrado que un sistema diná­
mico que puede describirse por medio de una matriz casi
descomponible posee las propiedades, mencionadas an­
teriormente, de un sistema casi descomponible. En el
sencillo ejemplo que hemos presentado para ilustrar la
corriente calórica esto significa que, a la corta, cada
apartamento llegará a una temperatura de equilibrio
(término medio de las temperaturas iniciales de sus com­
partimentos) de forma casi independiente de los dem ás;
y que cada apartamento permanecerá aproximadamente
en un estado de equilibrio a lo largo de aquel período
más largo durante el cual se establece un equilibrio tér­
mico total en todo el edificio. Una vez se ha llegado ai
equilibrio entre las habitaciones, un solo termómetro en
cada habitación permitirá registrar el comportamiento
dinámico de todo el sistema: de nada serviría .mantener
un termómetro en cada compartimento.

La casi descomponibilidad de los sistemas sociales

Según demuestra una ojeada a la Figura 7, la casi


descomponibilidad constituye una eficaz propiedad para
Al A2 A3 BL B2 Cl C2 C3

AI 100 ....
2 —

— —

A2 100 —
J00 ! 1 —

A3 — 100 —
— 2 —
— —

Bi 2 1 — — 100 2 I —

B2 — 1 2 J00 — — I

O
ó
CE —

— 2 — — —

C2 — — — - i 1 100 —
100

C3 — — — — 2 — 100 —

F ig u r a 7. U n siste m a h ip o té tic o c a si d e sc o m p o n ib le .

A te n ié n d o n o s a l e je m p lo d e in te r c a m b io d e c a lo r q u e fig u ra en
el te x to , A l , A 2 y A3 p u e d en se r in te r p re ta d o s co m o c o m p a r­
tim e n to s d e un a p a r ta m e n to , B1 y B 2 co m o c o m p a rtim e n to s
d e u n se g u n d o a p a r ta m e n to y C l , 0 2 y C 3 co m o c o m p a r tim e n ­
t o s d e un te rce ro . L a s e n tr a d a s m a tric e s so n , p u e s, los coeficien ­
te s d e d ifu sió n d e l c a lo r e n tre los c o m p a rtim e n to s.

una matriz, por lo que las matrices en posesión de dicha


propiedad describirán sistemas muy especiales: poquí­
simos sistemas de entre todos los que pueden imaginarse.
Su escaso número dependerá, por supuesto, de cuál sea
la buena aproximación en la que insistamos. Si exigimos
que épsilon sea muy pequeña, pocos sistemas dinámicos
encajarán con la definición. Pero hemos visto ya que en
el mundo natural los sistemas casi descomponibles no
son raros ni muchísimo menos. Por el contrario, son
mucho más raros y menos típicos los sistemas en que
cada variable está vinculada con casi igual fuerza a casi
todas las demás partes del sistema.
En la dinámica económica, las principales variables
son los precios y cantidades de los géneros. Es cierto
empíricamente que el precio de un género cualquiera y la
frecuencia con que se intercambia depende en gran me­
dida únicamente de los precios y cantidades de unos
pocos géneros más, junto con algunas cifras adicionales,
como el nivel medio de los precios u otras medidas con­
juntas de actividad económica. Los grandes coeficientes
de conexión se relacionan, en general, con las grandes
aportaciones de materias primas y productos semi-ma-
nufacturados dentro de las industrias y entre las mismas.
Una matriz económica de las entradas y salidas, que
refleja la magnitud de estas corrientes, revela la estruc­
tura casi descomponible del sistema... con una condi­
ción. Existe en la economía un subsistema de consumo
fuertemente vinculado a variables de la mayor parte de
los demás subsistemas. Por consiguiente, debemos modi­
ficar ligeramente nuestros conceptos de la descomponi-
bilidad para acomodar la función especial del subsistema
de consumo en nuestro análisis del comportamiento di­
námico de la economía.
En la dinámica de los sistemas sociales, donde los
miembros de un sistema comunican con otros miembros
y los influencian, suele ser muy marcada la casi descom-
ponibilidad. Esto es obvio en extremo en las organiza­
ciones formales, donde la relación de autoridad formal
conecta a cada miembro de la organización con otro
inmediato superior y con un número reducido de subor­
dinados. Desde luego que, en las organizaciones, figu­
ran otras muchas comunicaciones que siguen otros ca­
nales distintos que los marcados por las líneas de la auto­
ridad formal. Sin embargo, la mayoría de estos canales
conducen de un individuo particular a un número muy
limitado de superiores suyos, subordinados y asociados.
De aquí que los límites entre los departamentos desem­
peñen el mismo papel que las paredes en aquel ejemplo
relacionado con la propagación del calor.
Sistemas físico químicos

En los sistemas complejos habituales en la química


biológica, se evidencia claramente una estructura simi­
lar. Tómense los núcleos atómicos de un sistema de este
género como partes elementales del sistema y elabórese
una matriz de las fuerzas de enlace entre los elementos.
Habrá elementos de la matriz de órdenes de magnitud
enteramente distintos. El más grande corresponderá ge­
neralmente a los enlaces covalentes, el siguiente a los
enlaces iónicos, el tercer grupo a los enlaces de hidróge­
no y todavía habrá otras uniones más pequeñas que co­
rresponderán a las fuerzas Van der Waals.16 Si separa­
mos una épsilon un poco más pequeña que la magnitud
de un enlace covalente, el sistema se descompondrá en
subsistemas: las moléculas integrantes. Los enlaces más
pequeños corresponderán a los enlaces intermoleculares.
E s cosa sabida que las vibraciones de alta energía, de
alta frecuencia se relacionan con los subsistemas físicos
más pequeños, las vibraciones de baja frecuencia con
los sistemas más grandes en que se reúnen los subsiste­
mas. Por ejemplo: las frecuencias de radiación asocia­
das con las vibraciones moleculares son mucho más bajas
que las asociadas con las vibraciones de los electrones
planetarios de los átomos; estos últimos, a su vez, son
más bajos que los asociados con los procesos nucleares.17

16 Para una revisión de las varias clases de fuerzas moleculares e inter­


moleculares y sus energías de disociación, véase Setlow y Pollard, op. cit.,
Capítulo G. L as energías de los típicos enlaces covalentes son del orden de
80-100 k cal/mole. Los enlaces iónicos suelen encontrarse entre estos dos
niveles; los en Laces provocados por las tuerzas Van der Waals tienen Una
energía más baja.
13 Característicos números de onda para las vibraciones, asociados con
varios sistemas (el número de onda es el recíproco de la longitud de onda,
de aquí que sea proporcional a la frecuencia):
cable de acero sometido a tensión — 10~10 a 10’9 e n r 1
rotaciones moleculares — 10° a 101 cm~l
vibraciones moleculares— 102 a 103 cm -1
electrones planetarios — 10* a 105 cm-1
rotaciones nucleares — 109 a 1010 cm-1
vibraciones superficiales nucleares — I0U a 1012 cm-1.
Los sistemas moleculares son sistemas casi descomponi­
bles, en los que la dinámica a corto plazo se relaciona
con las estructuras internas de los subsistemas y la diná­
mica a largo plazo con las interacciones de estos sub­
sistemas.
Un número de aproximaciones importantes utiliza­
das en física depende, para su validez, de la casi des-
componibilidad de los sistemas estudiados. La teoría de
la termodinámica de los procesos irreversibles exige, por
ejemplo, el supuesto de un desequilibrio macroscópico
pero también de un equilibrio microscópico,18 que es
exactamente la situación descrita en nuestro ejemplo
relacionado con el intercambio de calor. De igual modo,
los cálculos que se hacen en la mecánica de los qnanta
suelen realizarse tratando las interacciones débiles como
productoras de perturbaciones en un sistema de marca­
das interacciones.

Algunas observaciones acerca del alcance 'jerárquico

Para entender por qué a veces el alcance de las je­


rarquías es muy amplio — como ocurre en el caso de los
cristales — mientras que en otras es muy reducido, hay
que analizar las interacciones con más detenimiento. Ge­
neralmente, la consideración básica es la medida en que
la interacción entre dos (o unos pocos) subsistemas ex­
cluye la interacción de estos subsistemas con los demás.
Examinemos primero algunos ejemplos físicos.
Considérese un gas de moléculas idénticas, cada una
de las cuales es capaz de formar enlaces covalentes, en
determinada forma, con otras. Supongamos que es posi­
ble asociar a cada átomo un número específico de enla­
ces que puede mantener simultáneamente. (Es evidente
que este número está relacionado con el número que
1S S. R. de Groot, Thermodynamics oj Irreversible Processes (Nueva
York: Intersc'ience Publishers, 1951), págs. 11-12.
solemos llamar su valencia). Supongamos ahora que se
unen dos átomos y que es posible también asociar a la
combinación un número específico de enlaces externos
que es capaz de mantener. Si este número es el mismo
que el asociado con los átomos individuales, el proceso
de enlace puede proseguir indefinidamente: los átomos
formarán cristales y polímeros de extensión indefinida.
Si el número de enlaces de que es capaz la composición
es menor que el número asociado con cada una de las
partes, el proceso de aglomeración debe entonces llegar
a un punto de parada.
Citaremos únicamente algunos ejemplos elementa­
les. Los gases ordinarios no muestran tendencia a la
aglomeración porque los múltiples enlaces de los átomos
«agotan» su capacidad de interactuar. Mientras que
cada átomo de oxígeno posee una valencia dos, las mo­
léculas de O2 tienen una valencia cero. Inversamente,
las cadenas indefinidas de átomos de carbono con un
solo enlace son posibles puesto que una cadena de un
número cualquiera de tales átomos, cada uno de ellos
con dos grupos secundarios, posee una valencia exacta­
mente de dos.
Ahora bien, ¿qué ocurre si tenemos un sistema de
elementos que posee capacidad de interacción débil y
fuerte a la vez y cuyos enlaces fuertes son susceptibles
de agotamiento a través de la combinación ? Se forma­
rán subsistemas hasta que toda la capacidad para una
enérgica interacción sea utilizada en su construcción.
Estos subsistemas quedarán entonces vinculados por los
enlaces más débiles de segundo orden en unos sistemas
más grandes. Una molécula de agua, por ejemplo, tiene
esencialmente una valencia de cero ; todos los enlaces
covalentes potenciales se encuentran totalmente ocupa-,
dos por la interacción de las moléculas de hidrógeno y
oxígeno. Pero le geometría de la molécula crea un di­
polo eléctrico que permite una interacción débil entre
el agua y las sales en ella disueltas; de ahí que aparez­
can fenómenos tales como sil conductibilidad electrolí­
tica.19
De igual modo, se ha observado que, aunque las
fuerzas eléctricas son mucho más fuertes que las fuerzas
de gravitación, estas últimas spn mucho más importan­
tes que las primeras para los sistemas a escala astronó­
mica. La explicación consiste, como es lógico, en que las
fuerzas eléctricas, por ser bipolares, se «agotan» todas
en los enlaces de los subsistemas más pequeños y que.
los equilibrios importantes netos de cargas positivas o
negativas no suelen encontrarse generalmente en regio­
nes de dimensiones macroscópicas.
En los sistemas sociales, como en los físicos, suele
haber límites para la interacción simultánea de gran
número de subsistemas. En el caso social, estos límites
se relacionan con el hecho de que un ser humano es
más bien un sistema de proceso de información en serie
que en paralelo. No puede mantener más que una con­
versación a un tiempo y pese a que ello no limita las pro­
porciones del auditorio al que puede dirigirse la comuni­
cación en masa, sí limita el número de personas que
pueden tomar parte a un mismo tiempo en la mayor
parte de las demás formas de interacción social. Aparte
de las exigencias que presentan las interacciones direc­
tas, la mayoría de funciones imponen tareas y responsa­
bilidades que consumen tiempo. Una persona puede ac­
tuar, por ejemplo, de «amiga» de gran número de per­
sonas.
Probablemente sea cierto que tanto en los sistemas
sociales como físicos, la dinámica de más alta frecuencia
esté asociada con los subsistemas y la dinámica de baja
frecuencia con los sistemas más grandes. Es cosa gene­
ralmente admitida, por ejemplo, que las posibles pers­
pectivas de los ejecutivos son tanto más amplias cuanto

19 Véase, por ejemplo, L. Pauling, Geneuü Chemistry (San Francisco:


W. H. Freeman, 2.a ed., 1953), Capítulo 15.
más elevada es su jerarquía dentro de la organización.
También es probablemente cierto que tanto la duración
media de una interacción entre los ejecutivos como el
intervalo medio entre las interacciones sea más grande
a alto nivel que a bajo nivel.

Sumario: la casi descomponibilidad

Hemos visto que las jerarquías gozan de la cualidad


de la casi descomponibilidad. Las vinculaciones intra-
componentes suelen ser más fuertes que las vinculacio­
nes intercomponentes. Esta circunstancia tiene por re­
sultado separar la dinámica de alta frecuencia de una
jerarquía — que abarca la estructura interna de los com­
ponentes — de la dinámica de baja frecuencia — que
comprende la interacción entre componentes. Pasare­
mos ahora a tratar de las importantes consecuencias que
entraña esta separación para la descripción y compren­
sión de los sistemas complejos.

La descripción- de la complejidad

Si pedimos a una persona que dibuje un objeto com­


plejo — por ejemplo, el rostro de un ser humano— - casi
siempre procederá de una forma jerárquica.20 Primero,
trazará el perfil. A continuación añadirá o incorporará
unos rasgos: los ojos, la nariz, la boca, las orejas, el
pelo. Si se le pide que añada más detalles, añadirá otros
pormenores a cada uno de los rasgos — las pupilas, los
párpados, las pestañas, etcétera — hasta llegar a los
límites máximos de sus conocimientos anatómicos. La
20 George A. MiJier ha reunido protocolos de varios sujetos a quienes
se les encomendó la labor de dibujar rostros y opina que su comportamiento
fue el que aquí se describe (información dada a título privado). Véase tam­
bién E . H. Gombrich, Árt and IIlusión (Nueva York: Pantheon Books, 1960),
págs. 291-296.
información que posee acerca del objeto está ordenada
jerárquicamente en su memoria, al igual que un pro­
grama concreto.
Cuando la información se dispone en forma orde­
nada, resulta fácil añadir más información con respecto
a las relaciones internas de las diferentes partes de cada
uno de los subgrupos. La información detallada referen­
te a las relaciones de los subgrupos pertenecientes a las
diferentes partes no tiene un lugar dentro del programa
y corre el probable riesgo de perderse. L a pérdida de
dicha información y la conservación relacionada con el
orden jerárquico constituye una característica sobresa­
liente que distingue los dibujos de un niño o de una per­
sona profana en dibujo de los dibujos realizados por
un artista. (Me refiero a un artista interesado en la re­
presentación.)

La casi descomponibilidad y comprensibilidad

De nuestras consideraciones acerca de las propieda­


des dinámicas* de los sistemas casi descomponibles, he­
mos deducido que, en comparación, se pierde poca in­
formación representándolos como jerarquías. Las sub­
partes pertenecientes a las diferentes partes no hacen
sino actuar de forma m asiva: los detalles de su interac­
ción pueden permanecer ignorados. Al estudiar la in­
teracción de dos grandes moléculas, por lo general no
necesitamos considerar con detalle las interacciones de
los núcleos de los átomos pertenecientes a una molécula
con los núcleos de los átomos pertenecientes a la otra.
Al estudiar la interacción de dos naciones, no necesita­
mos estudiar con detalle las interacciones de cada ciuda­
dano de la primera nación con cada ciudadano de la
segunda.
El hecho, pues, de que muchos sistemas complejos
posean una estructura jerárquica casi descomponible
constituye un importante factor que nos permite com­
prender, describir e incluso «ver» tales sistemas y sus
partes. Acaso debiera exponerse esta proposición en
forma totalmente inversa. Si en el mundo hay importan­
tes sistemas que son complejos sin ser jerárquicos, es
posible que hasta cierto punto escapen a nuestra ob­
servación y a nuestra comprensión. El análisis de su
comportamiento supondría unos conocimientos y unos
cálculos tan detallados de las interacciones de sus par­
tes elementales que puede afirmarse que, sin duda, están
fuera del alcance de nuestra capacidad de recordar o
de calcular.2*
No trataré de establecer si fue primero la gallina o el
huevo: si estamos en condiciones de comprender el mun­
do porque es jerárquico o si se nos aparece como jerár­
quico porque aquellos aspectos del mismo que no lo son,
escapan a nuestra comprensión y a nuestra observación.
He dado ya algunas razones en apoyo de que lo primero
es, cuando menos, una verdad a medias, de que la com­
plejidad al evolucionar tiende a ser jerárquica, pero que
tal vez esto no sea toda la verdad.21

21 Creo que la falacia de la tesis básica de W. M. Elsas-ser, en The


Physical Foundation oj Biology, citada anteriormentemente, estriba en su
ignorancia de la simplificación en la descripción de sistemas complejos que
deriva de su estructura jerárquica. Así pues (pág. 155):
«Si. aplicamos similares argumentos al acoplamiento de reacciones enzi-
máticas con el sustrato de moléculas proteínas, observamos que al cabo de
un período suficiente de tiempo, la información correspondiente a los detalles
estructurales de estas moléculas se comunicará a la dinámica de la célula, a
niveles más altos de organización por asi decirlo y que puede influir en
aquélla dinámica. Mientras este razonamiento no es más que cualitativo,
presta crédito a la aseveración de que en el organismo viviente, al revés
de lo que ocurre en el cristal inorgánico, los efectos de la estructura micros­
cópica no pueden ser tanteados; a medida que avanza el tiempo, esta influen­
cia llega a invadir el comportamiento de la célula " a todos los niveles".»
Sin embargo, de nuestras argumentaciones referentes a la casi descom-
ponibilidad se deduce que aquellos aspectos de la microestructura que con­
trolan los lentos aspectos del desarrollo en la dinámica de los organismos
pueden separarse de los aspectos que controlan los procesos metabólicos,
más rápidos, en las células. Por esta razón, no desesperamos de llegar a
desenmarañar la trama de aquellas causas. Véase también J . R. Platt en
su recensión del libro de Elsasser, publicada en Perspectivas in Biology and
Medicine, 2 : 243-245 (1959).
D e s c r ip c io n e s s im p le s d e s is t e m a s c o m p le jo s

Cabría suponer que la descripción de un sistema


complejo consistía en una estructura compleja de sím­
bolos y, de hecho, acaso no fuese más que esto. Pero no
existe ley de conservación que exija que la descripción
sea tan enfadosa como el objeto descrito. Un ejemplo
banal demostrará cómo puede describirse económica­
mente un sistema. Supongamos que el sistema consiste
en una ordenación bidimensional como la siguiente :

A B M N R s H /
C D 0 P T u J K
M N A B H I R S
0 P C D J K T U
R S H I A B M N
T ü I K C D 0 P
H I R S M N A B
J K T u 0 P C D

AB
Llamemos a la formación a, a 1a, formación
CD
MN RS HI
m, a la formación y y a la formación h.
OP TU ' JK
ja m rh
Llamemos a la formación w , y a la formación
|m a Jir í

En ese caso, la formación completa consistirá simple


wx
mente en Mientras que la estructura original con­
XIV
sistía en 64 símbolos, no son precisos más que 35 para
exponer su descripción:
wx
s =
xw

_a m rh
w = x =
ma hr

AB MN RS 7 HI
a ~C D m OP r ~ TU h = ] K

Esta reducción se consigue gracias a utilizar la redun­


dancia en la estructura original. Dado que el grupo
, por ejemplo, aparece cuatro veces en el grupo com­
pleto, resulta económico representarlo por medio del
símbolo aislado a .
Si una estructura compleja resulta totalmente irre­
ductible — si en su estructura no hay ningún aspecto
que pueda inferirse de otro — entonces es que constitu­
ye su descripción más simple. Podemos exponerla, pero
no describirla, por medio de una estructura más simple.
Las estructuras jerárquicas que hemos estado estudian­
do poseen un grado elevado de redundancia, de aquí
que a menudo puedan describirse en términos económi­
cos. L a redundancia adopta diferentes formas, de las
que citaré tres:
1. Los sistemas jerárquicos acostumbran a estar
compuestos únicamente de unas pocas clases di­
ferentes de subsistemas, dentro de varias com­
binaciones y formaciones. Un ejemplo conocido
lo constituyen las proteínas, la inmensa varie­
dad de las mismas, resultado únicamente de las
combinaciones de sólo veinte aminoácidos dife­
rentes. De igual modo, los noventa y pico de
elementos aportan todos los tipos de ladrillos ne­
cesarios para una infinita variedad de molécu­
las. De aquí que podamos elaborar nuestra des­
cripción partiendo de un alfabeto restringido de
términos elementales correspondientes al conjun­
to básico de subsistemas elementales con los que
se genera el sistema complejo.
2. Los sistemas jerárquicos suelen ser, según hemos
visto, casi descomponibles. De aquí que única­
mente las propiedades colectivas de sus partes
entren en la descripción de las interacciones de
dichas partes. Una generalización del concepto
de la casi descomponibilidad es la que podría
denominarse «la hipótesis del mundo vacío» : la
mayoría de las cosas se encuentran conectadas
únicamente de forma débil a la mayoría de las
demás cosas; para una tolerable descripción de
la realidad no es preciso tener en cuenta más
que una insignificante fracción de todas las in­
teracciones posibles. Gracias a la adopción de
un lenguaje descriptivo que impide que nada
quede sin mencionar, se puede describir de for­
ma perfectamente concisa un mundo casi vacío.
La señora Hubbard no tenía por qué repasar la
lista de posibles contenidos para afirmar que su
armario estaba vacío.
3. Con la «recodificación» apropiada, la redundan­
cia que se encuentra presente sin ser obvia en la
estructura de un sistema complejo, llega a po­
nerse de manifiesto. La recodificación más co­
rriente para la descripción de los sistemas diná­
micos consiste en sustituir una descripción del
recorrido del tiempo con una descripción de una
ley diferencial que genera dicho recorrido. Es
decir, la simplicidad estriba en una constante re­
lación entre el estado del sistema en un momento
dado y el estado del sistema al cabo de algún
tiempo después. Así pues, la estructura de la
sucesión 1 3 5 7 9 11... se expresa de forma más
sencilla al observar que cada uno de sus miem­
bros se obtiene al añadir 2 al anterior. Esta es la
sucesión que encontró Galileo al describir la ve­
locidad al final de intervalos sucesivos de tiempo
de una pelota deslizándose por un plano incli­
nado.
Constituye un propósito corriente la afirmación de
que la tarea de la ciencia consiste en utilizar la redun­
dancia del mundo para describir simplemente dicho
mundo. No voy a analizar aquí la cuestión general me­
todológica, pero sí voy a estudiar más de cerca dos
tipos principales de descripción que parecen estar a
nuestro alcance al ir en pos de la comprensión de los
sistemas complejos. Los llamaré respectivamente des­
cripción de estado y descripción de proceso.

Descripciones de estado y descripciones de proceso

«Una circunferencia es una figura cuyos puntos son


equidistantes de un punto dado.» «Para trazar una cir­
cunferencia, se hará girar un compás sobre un brazo
fijo hasta que el otro brazo haya regresado al punto de
partida.» Queda implícito, según Euclides, que de lle­
var a cabo el proceso detallado en la segunda frase, se
obtendrá un objeto que cumple con la definición de la
primera. L a primera frase constituye una descripción de
estado de una circunferencia, mientras que la segunda
es una descripción de proceso.
Así pues, estas dos formas de aprehender estructu­
ras constituyen la trama y el fundamento de nuestra ex­
periencia. Los fotografías, las fotocopias, la mayoría de
los diagramas y las fórmulas químicas estructurales son
descripciones de estado. Las fórmulas, las ecuaciones
diferenciales y las ecuaciones de las reacciones químicas
son descripciones de proceso. Las primeras caracterizan
al mundo según se experimenta; aportan los criterios
para identificar los objetos, a menudo gracias a mode­
lar los propios objetos. Las últimas caracterizan al mun­
do según se actúa sobre él; aportan los medios para
producir o generar objetos que posean las característi­
cas deseadas.
L a distinción entre el mundo según se experimenta
y el mundo según se actúa sobre él define la condición
básica para la supervivencia de ios organismos adapta­
bles. El organismo debe desarrollar correlaciones entre
los objetivos en el mundo experimentado y actos en el
mundo en estado de proceso. Así que se hacen cons­
cientes y se verbalizan, estas correlaciones corresponden
a lo que solemos llamar análisis medio-fin. Dado un de­
seado estado de una cuestión y un estado existente de
una cuestión, la tarea de un organismo adaptable con­
siste en encontrar la diferencia entre estos dos estados y
descubrir después el proceso correlativo que eliminará la
diferencia.22
Así pues, la solución de los problemas exige el con­
tinuo traslado de la descripción de estado a la descrip­
ción de proceso de la misma realidad compleja. Platón,
en su M e n ó n , argumentaba que aprender es recordar.
No sabía explicar de otro modo cómo llegamos a des­
cubrir o reconocer la respuesta a un problema a menos
de conocer de antemano dicha respuesta.23 Nuestra re­
lación dual con el mundo constituye la fuente y la solu­
ción de la paradoja. Planteamos un problema dando la
descripción de estado de la solución. L a tarea consiste
en dar con una secuencia de procesos que produzcan el
estado objetivo a partir de un estado inicial. El traslado
de la descripción de proceso a la descripción de estado
nos permite reconocer cuándo lo hemos conseguido. La
solución es genuinamente nueva para nosotros y no
precisamos de la teoría de Platón en relación con el re­
cuerdo para explicar cómo la reconocemos.
22 Véase H. A. Simón y A. Newell, «Sirmilation of Human Thinking»,
en M. Greenberger (ed.), Management and the Computer of the Fu ture (Nue­
va York: Wiley, 1962), págs. 95-124, esp. págs. 110 y sig,
23 The Works of Plato, B. Jowett, traductor (Nueva Y ork: Dial
Press, 1936% Vol. 3, págs. 26-35.
Cada vez resulta mas evidente que esta actividad
humana llamada resolución de problemas es básicamen­
te una forma de análisis medio-fin que tiende a encon­
trar una descripción de proceso que lleve hasta dar con
el objetivo deseado. El paradigma general e s : dada una
fotocopia, encontrar la fórmula correspondiente. Gran
parte de la actividad de la ciencia consiste en la apli­
cación de aquel paradigma: dada la descripción de
ciertos fenómenos naturales, encontrar las ecuaciones
diferenciales para los procesos que producirán los fenó­
menos.

L a descripción de la complejidad en los sistemas


auto-reproductores

El problema de encontrar descripciones relativamen­


te simples para sistemas complejos no sólo resulta de
interés para una comprensión del conocimiento humano
del mundo, sino también para una explicación de cómo
un sistema complejo puede reproducirse a sí mismo. En
mi estudio de la evolución de los sistemas complejos,
abordé superficialmente la función de la auto-reproduc­
ción.
Los átomos de un elevado peso atómico y las molécu­
las inorgánicas complejas testimonian el hecho de que la
evolución de la complejidad no implica auto-reproduc­
ción. Si la evolución de la complejidad a partir de la
simplicidad es lo bastante probable, se producirá en
forma repetida; el equilibrio estadístico del sistema en­
contrará un gran sector de partículas elementales parti­
cipantes en sistemas complejos.
Si, pese a ello, la existencia de una determinada
forma compleja aumentase la probabilidad de la crea­
ción de otra forma exactamente como ella, el equilibrio
entre complejos y componentes se vería grandemente
modificado en favor de los primeros. Si tenemos la des­
cripción de un objeto, lo bastante clara y completa, nos
es posible reproducir el objeto a partir de la descrip­
ción. Cualquiera que sea el mecanismo exacto de la
reproducción, la descripción nos proporciona la infor­
mación necesaria.
Ahora bien, hemos visto que las descripciones de
los sistemas complejos pueden adoptar muchas formas.
Podemos tener específicamente descripciones de estado
o descripciones de proceso: fotocopias o fórmulas. Los
procesos reproductivos podrían elaborarse en torno a
cualquiera de estas fuentes de información. Tal vez la
posibilidad más sencilla para el sistema complejo con­
sista en servir como descripción de sí mismo: un patrón
de acuerdo con el cual puede hacerse una copia. Una de
las teorías corrientes más plausibles, por ejemplo, para
la reproducción del ácido deoxyribonucleico (DNA) pro­
pone que una molécula de DNA, bajo la forma de una
doble hélice de partes encajadas (cada una de ellas esen­
cialmente un <¡negativo» de la otra), se desdoble para
permitir que cada mitad de la hélice sirva como pauta
según la cual pueda formarse una nueva mitad enca­
jada.
Por otra parte, nuestros conocimientos comunes con
respecto a cómo el DNA controla el metabolismo del
organismo indican que la reproducción a través de un
patrón no es más que uno de los procesos que se efec­
túan. De acuerdo con la teoría predominante, el DNA
sirve como pauta tanto para sí mismo como para el áci­
do de sustancia ribonucleica relacionado con aquél
(RNA). RNA, a su vez, sirve de pauta para la proteína.
Sin embargo, las proteínas — de acuerdo con los cono­
cimientos corrientes — dirigen el metabolismo del orga­
nismo no a través del método de un patrón sino actuan­
do como catalizadores que gobiernan los ritmos de reac­
ción en las células. Mientras que el RNA es una fotoco­
pia para la proteína, 3a proteína es una fórmula para el
metabolismo.24

La ontogenia recapitula la filogenia

El DNA de los cromosomas de un organismo contie­


ne alguna — acaso la mayor parte — de la información
necesaria para determinar su desarrollo y actividad. He­
mos visto que, de ser aproximadamente correctas las
teorías corrientes, la información queda registrada no
como una descripción de estado del organismo sino como
una serie de «instrucciones» para la elaboración y man­
tenimiento del organismo a partir de unos materiales que
lo nutren. Me he servido ya de la metáfora de una fórmu­
la ; podría hacer igualmente la comparación con un pro­
grama de computadora, que es también una sucesión de
normas que gobiernan la elaboración de unas estructu­
ras simbólicas. Permítaseme enumerar algunas de las
consecuencias de la última comparación.
Si el material genético es un programa — visto en su
relación con el organismo — es un programa de propie­
dades especiales y peculiares. En primer lugar, es un
programa auto-reproductor; hemos considerado ya su
posible mecanismo como copiadora. En segundo lugar,
es un programa que se ha desarrollado a través de la
evolución darwiniana. Basándonos en nuestra argumen­
tación a propósito del relojero, podemos afirmar que
muchos de sus antecesores constituían también progra­
mas viables: programas para los subgrupos.
¿Podemos hacer otras conjeturas acerca de la estruc­
tura de este programa ? En biología hay una conocida

24 C. B . Anfmsen, The Molecular Basts oj Evolution (Nueva. Y ork:


Wiley, 1959), Capítulos 3 y 10, ampliará estas consideraciones esquema ticas
y excesivamente simplificadas. Para una discusión imaginativa de ciertos
mecanismos de la descripción de proceso que podrían gobernar la estructura
molecular, véase H. H. Pattee, «On the Grigin of Macromolecular Sequen-
ces». Biophysical Journal, / : 683-710 (1961).
generalización, verbalmente tan clara, que sería contra­
producente negarla aun cuando los hechos no vinieran
en apoyo de la m ism a: la ontogenia recapitula la filo­
genia. El organismo individual pasa, durante su desarro­
llo, por unos estadios que se asemejan a algunas de sus
formas ancestrales. El hecho de que el embrión humano
desarrolle unos arcos cartilaginosos para las branquias,
que después modifica con otros fines, constituye un de­
talle corriente perteneciente a la generalización. Los bió­
logos gustan en la actualidad resaltar las cualidades del
principio, es decir, que la ontogenia recapitula única­
mente las facetas más burdas de la filogenia y éstas aún
de forma imperfecta. Dichas cualidades no deben hacer­
nos perder de vista el hecho de que la generalización se
mantiene de forma muy apropiada, que compendia un
conjunto de hechos muy importante en relación con el
desarrollo del organismo. ¿Cómo interpretar estos he­
chos ?
Una forma de resolver un problema complicado con­
siste en reducirlo a un problema resuelto previamente,
demostrar cuáles son los pasos que llevan de la solución
primera a la solución del nuevo problema planteado. Si,
alrededor de principios de siglo, hubiésemos pensado en
enseñar a un obrero cómo construir un automóvil, segu­
ramente la forma más sencilla hubiera consistido en ex­
plicarle cómo podía modificar un vagón a base de sa­
carle el árbol y sustituirlo por un motor y un sistema
de transmisión. De igual modo podría modificarse un
programa genético en el curso de su evolución añadiendo
nuevos procesos que transformarían una forma más sen­
cilla en otra más compleja. Para construir una gástrula
no hay que hacer otra cosa que tomar una blástula y
modificarla.
L a descripción genética de una sola célula puede
adoptar, pues, una forma totalmente diferente de la des­
cripción genética que reúne células en un organismo
multicelular. La multiplicación por división de la célula
exigiría, como mínimo, una descripción de estado (el
DNA, pongamos por caso) y un simple «proceso inter­
pretativo» — para utilizar el término propio del lenguaje
relacionado con las computadoras — que copiase esta
descripción como un aspecto de aquel proceso más am­
plio, consistente en copiar, de la división celular. Pero
dicho mecanismo está claro que no bastaría para la dife­
renciación de las células en su desarrollo. Resulta más
natural conceptualizar dicho mecanismo basándolo en
una descripción de proceso y en un proceso interpreta­
tivo algo más complejo que produce el organismo adul­
to a lo largo de una sucesión de estadios, de los cuales
cada nuevo estadio en desarrollo representa el efecto de
un operador sobre el anterior.
Resulta arduo conceptualizar la interrelación de es­
tas dos descripciones. Dicha interrelación debe existir,
puesto que ya se conoce bastante acerca de los mecanis­
mos de genes y enzimas para demostrar que cumplen
una importante función tanto en el desarrollo como en el
metabolismo celular. La única pista obtenida de nues­
tras anteriores consideraciones es que la descripción pue­
de ser en sí jerárquica, o casi descomponible, en su es­
tructura, donde los niveles más bajos gobiernan la rápi­
da dinámica de «alta frecuencia» de la célula individual
y las interacciones de más alto nivel gobiernan la lenta
dinámica de «baja frecuencia» del organismo multice­
lular que se está desarrollando.
Contamos únicamente con unas pocas pruebas, de­
jando aparte el hecho de la recapitulación, acerca de que
el programa genético está organizado de esta forma, si
bien dicha evidencia, según se ofrece, resulta compa­
tible con este concepto.25 Partiendo dé la base de que

25 Existen pruebas evidentes de que genes sucesivos en un mismo cro­


mosoma suelen dar por resultado enzimas que controlan estadios sucesivos
de síntesis de proteínas. Para revisar parte de tales pruebas, véase P. E . Hart-
man, «Transduction: A Comparative Review», en W. D. McElroy y B. Glass
(eds.), The Chemical Basis of Heredity (Baltimore: Johns Hopkins Press,
1957), págs. 442-454. Las pruebas que evidencian una actividad diferencial
podemos diferenciar la información genética que gobier­
na el metabolismo celular gracias a la información ge­
nética que gobierna el desarrollo de células diferenciadas
en la organización multicelular, resulta enormemente
simplificada — como hemos visto ya — nuestra labor de
descripción teórica. Pero acaso haya llevado demasiado
lejos mis especulaciones.
Tiene aplicaciones fuera del reino de la biología la
generalización según la cual, en los sistemas en evo­
lución cuyas descripciones quedan acumuladas en un
lenguaje de proceso, cabría esperar que la ontogenia re­
capitulase parcialmente la filogenia. Puede aplicarse
igualmente, por ejemplo, a la transmisión de los conoci­
mientos en el proceso educativo. En la mayoría de los
sujetos, sobre todo tratándose de ciencias en rápido
avance, el progreso desde el estadio elemental al avanza­
do constituye en gran medida un progreso a través de la
historia conceptual de la propia ciencia. Por fortuna, la
recapitulación raras veces es literal, como tampoco lo es
en el caso biológico. En química no enseñamos la teoría
del flogisto para enmendarla más tarde. (No estoy seguro
de no poder citar ejemplos de otras cuestiones en las que
hagamos exactamente lo mismo). Pero las revisiones que
nos liberan de las acumulaciones pasadas son tan infre­
cuentes como laboriosas. Tampoco son recomendables
en todos los casos porque una recapitulación parcial en

de los genes en los diferentes tejidos y a diferentes estadios de desarrollo


son estudiadas por J . G. Gall, «Chromosomal Difíerentiation», en W. D,
McElroy y B. Glass (eds.), The Chemical Btxsis of Development (Baltimore:
Johns Hopkins Press, 1958), págs. 103-135. Y , finalmente, un modelo muy
parecido al aquí propuesto es el que, independientemente y de forma mu­
cho más exhaustiva, señala J . R. Platt, «A wBook Modei" of Genetic Infor-^
mation Transfer in Ce lis and Tissues», en M. Kasha y B. Pullman (eds.),
Horizons in Biochemistry (Nueva Y ork: Academic Press, en vías de publi­
cación). Por supuesto que éste no es el único tipo de mecanismo en el que
podría controlarse el desarrollo mediante una descripción de proceso. L a
inducción, en la forma imaginada en la teoría del organizador de Spemann,
se basa en la descripción de proceso, donde los metabolitos, ya en el tejido
formado, controlan los subsiguientes estadios del desarrollo.
muchos casos puede ofrecer el camino más expedito ha­
cia un avance de conocimientos.

Sumario: la descripción de la complejidad

L a complejidad o simplicidad de una estructura de­


pende básicamente de nuestra forma de describirla. La
mayoría de las estructuras complejas que encontramos
en el mundo son enormemente redundantes y es posible
servirnos de esta redundancia para simplificar su des­
cripción. Pero para utilizarla, para conseguir la sim­
plificación, debemos dar con la representación adecuada.
El concepto de sustituir una descripción de proce­
so por una descripción de estado en la naturaleza ha
desempeñado una función básica en el desarrollo de la
ciencia moderna. Las leyes dinámicas, expresadas bajo
la forma de sistemas de ecuaciones diferenciales o de
diferencia, en gran número de casos han proporcionado
la pista para la descripción simple de lo complejo. En
los párrafos anteriores he tratado de demostrar que esta
característica de la indagación científica no es accidental
ni superficial. L a correlación entre descripción de estado
y descripción de proceso es básica para el funcionamien­
to de cualquier organismo adaptable, para su capacidad
de actuar intencionadamente dentro del ambiente en que
se mueve. Nuestra comprensión actual de los mecanis­
mos genéticos indica que incluso al describirse a sí mis­
mo el organismo multicelular tiene a la descripción de
proceso — programa cifrado genéticamente — por la re­
presentación útil y estricta.

Conclusión

Nuestras especulaciones nos han llevado a través de


un gran abanico de cuestiones, si bien éste es el precio
que hay que pagar cuando se quieren buscar propieda­
des comunes a muchos géneros diversos de sistemas com­
plejos. L a tesis que he expuesto es que un camino hacia
la elaboración de una teoría no trivial de los sistemas
complejos se conseguirá a través de una teoría de la je­
rarquía. Empíricamente, una gran proporción de siste­
mas complejos de entre los que observamos en la natu­
raleza muestran una estructura jerárquica. En el terreno
teorético, cabría esperar que los sistemas complejos fue­
sen jerarquías en un mundo en que la complejidad tu­
viese que evolucionar a partir de la simplicidad. En su
dinámica, las jerarquías poseen una propiedad, la casi
descomponibilidad, que simplifica grandemente su com­
portamiento. L a casi descomponibilidad simplifica tam­
bién la descripción de un sistema complejo y hace más
fácil de comprender cómo puede acumularse dentro de
un razonable límite la información necesaria para el
desarrollo o reproducción del sistema.
Tanto en la ciencia como en la ingeniería, el estudio
de los «sistemas» constituye una actividad que va ha­
ciéndose cada vez más popular. Su popularidad es más
una respuesta a una acuciante necesidad de sintetizar
y analizar la complejidad, que a un posible desarrollo
muy marcado de un cuerpo de conocimientos y técnicas
para tratar de la complejidad. Si tal popularidad es algo
más que una moda, la necesidad engendrará el ingenio
y aportará la esencia suficiente. Las indagaciones aquí
realizadas representan una tendencia determinada en
pos de aquella esencia.
Otros libros A.T.E.

El Diario Francés
Jacques Kayser
La Comunicación de Masas
OlivierBurgelin
Tratamiento Periodístico de la
Información
VioletteMorin
Redacción Periodística
JoséLuisMartínez Albertos
Géneros Periodísticos Informativos
C. Warren
La entrevista
Hugh C. Sherwood
El mensaje informativo
JoséLuisMartínezAlbertos
Introducción al derecho de la
información
Manuel Fernández Areal
Teoría y Práctica de la
Documentación
Roberto Coll Vinent

También podría gustarte