Documentos de Académico
Documentos de Profesional
Documentos de Cultura
on en Sistemas
Econ¶omicos
Andr¶es R. Schuschnyy; À
1 Introducci¶
on 1
1.1 La complejidad en la Econom¶³a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Contenido de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
6 Conclusiones 143
6.1 La mano invisible: De la perplejidad a la complejidad . . . . . . . . . . . . . . . . . 145
6.2 Complejidad espacial en los sistemas econ¶omicos . . . . . . . . . . . . . . . . . . . . 146
6.3 Complejidad temporal: escalas de tiempo y tiempos intr¶³nsecos . . . . . . . . . . . . 147
6.4 Comportamiento adaptativo, memoria y predicci¶on . . . . . . . . . . . . . . . . . . . 148
6.5 Hacia una epistemolog¶³a de la complejidad: De las estructuras a los Procesos . . . . 149
Bibliograf¶³a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Cap¶³tulo 1
Introducci¶
on
tiempo, y cuyas leyes de funcionamiento son ¯jas. No es necesario considerar dilemas tan profundos
como el de la compatibilidad entre leyes inmutables y libre albedr¶³o para encontrar di¯cultades. Una
de ellas se vincula con el rol que tiene la variable temporal en econom¶³a. Los sistemas f¶³sicos se suelen
describir a trav¶es de sistemas de ecuaciones diferenciales acopladas. En econom¶³a existen variados
ejemplos de modelos que emplean representaciones en tiempo discreto o de tiempo continuo seg¶ un
el caso, con argumentos en favor de uno u otro m¶etodo de an¶alisis. En todo caso, las transacciones
(y, probablemente, tambi¶en los procesos de decisi¶on) tienen una duraci¶on ¯nita, que de¯ne un l¶³mite
inferior a la \granularidad" del tiempo relevante. Pero, en una aplicaci¶on determinada, no existe
generalmente un modo sencillo de de¯nir la unidad de tiempo que resulta apropiada: el \tiempo
econ¶omico" parece dilatarse y contraerse seg¶ un las caracter¶³sticas mismas de la econom¶³a; un hecho
de experiencia com¶ un, por ejemplo, es que los intervalos de revisi¶on de planes son mucho menores
en una econom¶³a de alta in°aci¶ on que en una estable. Autores como MÄ uller at al [146] sugieren que
la unidad de tiempo necesaria para estudiar la din¶amica de los mercados debe modi¯carse con el
nivel de volatilidad del mismo. Cuando un mercado est¶a sometido a una alta volatilidad la escala
de medida del tiempo debiera expandirse en t¶erminos del tiempo-reloj, mientras que en el caso de
bajas volatilidades deber¶³a contraerse. En un sistema con su¯ciente grado de complejidad, es de
presumir por otro lado, que exista una diversidad de escalas, que de¯nir¶³a a su vez, una jerarqu¶³a
de din¶amicas. Esto ha sido tenido en cuenta en econom¶³a, en modelos donde, o se supone que
los precios de los activos tienen una din¶ amica m¶as \r¶apida" que la de los bienes, o que precios
y cantidades ajustan con distinta velocidad. Sin embargo, esas dimensiones temporales no tienen
un car¶acter \natural", sino que se de¯nen end¶ogenamente en el sistema, y en principio pueden
ser variables en magnitud y ordenamiento. Se concluye pues, que muchas veces queda abierta la
de¯nici¶on de la \unidad de tiempo" que corresponde emplear en el an¶alisis.
Otra cuesti¶on es la que plantea la condici¶on \auto-referencial" de la descripci¶on de sistemas
econ¶omicos. El an¶ alisis econ¶omico estudia la operaci¶on de sistemas cuya din¶amica resulta de las
decisiones de agentes los que, a su vez, de¯nen sus planes de acuerdo a opiniones y percepciones
sobre c¶omo evolucionan las variables relevantes: esos agentes, a su modo, tambi¶en son analistas.
Como consecuencia, las relaciones de causalidad toman una forma diferente que en sistemas f¶³sicos;
en econom¶³a el futuro (o, m¶ as bien, las expectativas que los individuos se forman acerca del futuro)
condiciona las acciones y el estado presente. Con caracter¶³sticas particulares, ello mani¯esta una
propiedad que tambi¶en se aplica a los sistemas biol¶ogicos: el sistema contiene y procesa informaci¶ on
con el transcurso del tiempo. Desde la ¶ optica de la mec¶anica estad¶³stica, se trata de sistemas
abiertos y lejos del equilibrio termodin¶ amico, en que la \°echa del tiempo" no es necesariamente
la que (como es el caso para los procesos termodin¶amicos en un entorno del equilibrio) apunta en
la direccion del crecimiento de la entrop¶³a, es decir, del desorden. Dado ¶esto, parece razonable la
hip¶otesis de que los sistemas econ¶ omicos tienden a evolucionar en la direcci¶on de una complejidad
creciente, y no hacia un equilibrio de tipo an¶alogo al de los sistemas mec¶anicos. Los fen¶omenos de
aprendizaje introducen adem¶ as un elemento \hist¶orico" (i.e. tiempo-dependiente) en la din¶amica:
la reacci¶on ante un determinado impulso variar¶a seg¶ un las experiencias previas que tengan los
agentes y seg¶ un c¶
omo hayan \interpretado" esas experiencias.
Los argumentos anteriores llevar¶³an a limitar la validez de los modelos basados en una apli-
caci¶on mec¶anica de la teor¶³a de sistemas din¶amicos. Por otro lado, como sucede en diferentes
campos, el \nivel" (grado de agregaci¶ on) del an¶alisis y las herramientas adecuadas al caso depen-
der¶³an del problema o del tipo de fen¶ omenos que se pretende estudiar. Si se adopta una actitud
reduccionista al extremo, se buscar¶³a describir la evoluci¶on de un sistema partiendo de sus cons-
tituyentes elementales y de sus interacciones. Pero ¶esto parece una pretensi¶on dif¶³cil de realizar.
Al mismo tiempo, parece claro que no deber¶³a plantearse realizar un \despiece" de un sistema
econ¶omico, al modo de lo que se har¶³a con una m¶aquina, con la idea de que, una vez hecho eso, se
contar¶³a con un modelo \constructivo" que, a partir de las \piezas desarmadas", explicar¶³a su fun-
cionamiento. A medida que se avanza en el \desarmado", se vuelve cada vez m¶as dif¶³cil dar cuenta
de las relaciones entre las partes. En general, se puede esperar que los elementos de organizaci¶on y
3
especializaci¶ on funcional que se advierten a un cierto nivel no se observen a niveles m¶as elementales
o m¶as \agregados": el orden perceptible con un cierto grado de resoluci¶on no se aprecia con otros.
En particular, cuando se llega al nivel de un u ¶nico agente econ¶omico es probable que se pierda de
vista a los mecanismos de procesamiento estructurado propios de los mercados o de la coordinaci¶ on
del sistema como un todo.
De lo anterior surgen dos caracter¶³sticas b¶asicas para el an¶alisis de econom¶³as como sistemas
din¶amicos. La primera es la existencia de interacciones intensas entre las partes constituyentes. El
comportamiento del sistema no puede describirse, ni siquiera en primera aproximaci¶on, a partir de
las propiedades de sus elementos considerados aisladamente. La cuesti¶on incluye a los problemas
de agregaci¶ on, pero es de naturaleza m¶as amplia: como lo sugiere la noci¶on tradicional de que
el crecimiento involucra un aumento en el grado de especializaci¶on y de divisi¶on del trabajo, las
oportunidades, las acciones y el desempe~ no de los agentes individuales dependen del contexto
generado por las actividades de los dem¶as. La segunda caracter¶³stica es la no linealidad. En
general, en econom¶³a no parece aplicable el principio de superposici¶on. Raramente la respuesta del
sistema ante una combinaci¶ on lineal de est¶³mulos ser¶³a la combinaci¶on lineal de las respuestas a los
est¶³mulos individuales. Esto es impl¶³citamente aceptado en la generalidad del an¶alisis econ¶ omico:
los supuestos de linealidad se suelen presentar como simpli¯caciones instrumentales, y no como
hip¶otesis con sustento te¶ orico o emp¶³rico.
La introducci¶ on de no linealidades en la mec¶anica cl¶asica puede dar lugar a soluciones
sensibles frente a cambios en las condiciones iniciales. Esta sensibilidad se traduce en que dos
soluciones de las ecuaciones de evoluci¶on que parten de condiciones iniciales muy cercanas entre s¶³
pueden diverger una de la otra de manera exponencial con el tiempo transcurrido. La ocurrencia
de estas soluciones, que por brevedad solemos denominar ca¶oticas, represent¶o en el campo de la
mec¶anica un impacto conceptual importante, porque puso en evidencia que los comportamientos
\extra~ nos" que describen tales trayectorias pueden presentarse aun en sistemas deterministas con
pocos grados de libertad. La divergencia exponencial de ¶orbitas implica adem¶as que, aunque se
conozca con in¯nita precisi¶ on la \ley de movimiento" del sistema, resulta imposible en la pr¶ actica
predecir la evoluci¶ on del estado, porque la precisi¶on requerida en la medici¶on de las condiciones
iniciales crece exponencialmente con el horizonte temporal para el que se intenta la proyecci¶ on
integrando las ecuaciones de movimiento. Determinismo e imprevisibilidad no se excluyen, por lo
tanto. Pierde validez pues, el mito mecanicista que conceb¶³a al universo como un mecanismo de
relojer¶³a complejo pero sujeto a una evoluci¶on predecible.
El an¶alisis de sistemas no lineales con posibles trayectorias ca¶oticas ofrece por cierto herra-
mientas u ¶tiles para una variedad de disciplinas, incluida la econom¶³a. De hecho, es posible encontrar
en la literatura una apreciable variedad de modelos, en distintas ¶areas tem¶aticas y con diferentes
perspectivas te¶ oricas, que obtienen soluciones de tipo ca¶otico. Sin embargo, el impacto conceptual
del \caos determinista" en econom¶³a no debe necesariamente asimilarse al que se produjo en la
Mec¶anica. Por un lado, la Econom¶³a nunca ha pretendido (o, en todo caso, no pudo razonable-
mente pretender), una precisi¶ on cuantitativa en sus modelos y predicciones comparable con la que
se puede obtener en sistemas sujetos a las leyes de la mec¶anica: la imprevisibilidad de la evoluci¶ on
\a largo plazo" no deber¶³a constituir una sorpresa. Por otro lado, resulta dif¶³cil imaginar que un
sistema econ¶ omico pueda representarse a trav¶es de un modelo determinista con pocos grados de
libertad. Aunque no hay nada que impida (y, de hecho, puede ser una pr¶actica conveniente en
muchos casos) buscar modelos sencillos para describir los fen¶omenos, parece claro que esa simpli¯-
caci¶on tiene costos en t¶erminos de la no unicidad de la representaci¶on (i.e. no hay necesariamente
un conjunto u ¶nico de simpli¯caciones apropiadas a priori) y de su alcance explicativo (lo que se
re°ejar¶³a en la existencia de impulsos \ex¶ogenos" al modelo, que se interpretar¶³an, a la manera en
que suele tratarse al t¶ermino aleatorio en econometr¶³a, como una \medida de la ignorancia"). Vale
decir que, sin entrar en una discusi¶ on sobre un posible \determinismo subyacente" en la evoluci¶ on
de sistemas econ¶ omicos, en todo caso ¶este estar¶³a \escondido" para una descripci¶on que acepta s¶ olo
un n¶ umero peque~ no de grados de libertad, inconmensurable con el que parece tener efectivamente
4 Cap¶³tulo 1. Introducci¶on
el sistema.
Por otro lado, las no linealidades pueden ser fuente de imprevisibilidad, pero tambi¶en con-
tribuyen a veces a estabilizar las soluciones de un modelo (como un ejemplo cl¶asico, los rendimien-
tos decrecientes en el modelo de crecimiento de Solow eliminan los comportamientos de \¯lo de
navaja"); asimismo, la din¶amica de sistemas no lineales de m¶ ultiples componentes puede resultar en
un \ordenamiento macrosc¶ opico". Esa diversidad de posibilidades, y no s¶olo una de ellas (como es
el comportamiento \ca¶ otico") resulta de inter¶es. La ubicuidad de las no linealidades en Econom¶³a
hace que se la encuentre en modelos de muy diverso car¶acter.
A lo largo de esta tesis se analizar¶
an las principales caracter¶³sticas que poseen los sistemas
complejos adaptativos y se mostrar¶ an algunos modelos basados en agentes m¶ ultiples construidos a
partir de una aproximaci¶ on constructiva. No tratamos de formular teor¶³as predictivas en t¶erminos
cuantitativos, sino que apuntamos a explorar ciertos mecanismos que pueden generar la evoluci¶on
de variables econ¶omicas. En u¶ltima instancia, nos interesa buscar la forma en que las no linealidades
pueden ser u¶tiles guiando nuestra intuici¶on para comprender las propiedades de orden interno y la
organizaci¶on de sistemas econ¶ omicos. Es de esperar que alguno de los enfoques que se muestran
puedan servir, en un futuro no muy lejano, a incrementar la comprensi¶on de algunos temas concretos
en el campo de la teor¶³a econ¶omica.
notables de auto-organizaci¶ on, en la que pareciera que una \mano invisible" opera y facilita la
coordinaci¶ on de los componentes del sistema. Tanto consumidores como productores y arbitrajistas
formulan sus planes en forma descentralizada, dotados de informaci¶on incompleta y asim¶etrica,
bas¶andose en preferencias independientes, sin la gu¶³a de un agente omnisciente que imponga de
manera centralizada la coordinaci¶ on como condici¶on de partida para la determinaci¶on de los estados
alcanzables. Los sistemas econ¶ omicos, estudiados como un todo, presentan un alto grado de orden,
desde esta perspectiva, parecen capaces, hasta cierto punto, de absorber perturbaciones sin producir
grandes cambios en los valores esperados de muchos de los indicadores econ¶omicos. Es razonable
comprender el ¶exito de los modelos de coordinaci¶on plena de equilibrio general y la utilidad del
esquema del agente representativo.
No obstante, los sistemas econ¶omicos evolucionan continuamente, cambiando de estructura
interna por creaci¶ on o desaparici¶on de actividades, produciendo algunas veces s¶ ubitas oscilaciones
de las variables relevantes, muchas veces de tal amplitud que pueden producir pronunciadas depre-
siones, altas in°aciones o grandes redistribuciones de riqueza. Estas caracter¶³sticas sugieren que los
sistemas econ¶ omicos evolucionan por un sendero que transita fuera del equilibrio, entendido ¶este
como un estado en el que todos los planes de los agentes son consistentes entre s¶³ y puede ser v¶ alido
preguntarse si el valor de los indicadores econ¶omicos corresponde a valores esperados del equilibrio
o a valores de un proceso de relajaci¶on hacia o fuera de ¶el.
No debemos olvidar adem¶ as que los sistemas econ¶omicos poseen una diferencia fundamental
con otros sistemas naturales y que consiste en su caracter autoreferencial: los mismos agentes
que intentan predecir la evoluci¶ on del sistema forman parte del propio sistema, por lo cual toda
a¯rmaci¶on acerca del futuro es susceptible de convertirse en un factor que contribuye a su gestaci¶ on.
Como la evoluci¶ on depende de la percepci¶on de los mismos actores del sistema siempre existe la
posibilidad de que surjan externalidades como los efectos de contagio que inducen din¶amicas de
manada y muchas veces a la coordinaci¶on de expectativas sin bases \fundamentales".
En la aproximaci¶ on econ¶
omica usual del equilibrio, el problema de inter¶es es obtener a partir
de las elecciones optimizadoras individuales, el estado de la econom¶³a a nivel agregado (e.g. precios,
cantidades, estrategias en teor¶³a de juegos) que satisfagan ciertas condiciones de consistencia a nivel
agregado (e.g. equilibrio de mercados, equilibrios de Nash), y examinar las propiedades de estos
estados. Por otro lado, desde la aproximaci¶on de las sistemas din¶amicos el estado de la econom¶³a
se representa por un conjunto de variables y un sistema de ecuaciones diferenciales o en diferencias
que describen el cambio en el tiempo de dichas variables. El problema consiste en estudiar las
trayectorias resultantes en el espacio de estados del sistema. La aproximaci¶on del equilibrio no
describe c¶ omo y qu¶e mecanismos hacen cambiar los estados del sistemas y la aproximaci¶on de los
sistemas din¶ amicos falla al disociar la distinci¶on entre el nivel de las decisiones individuales y el
nivel agregado. La utilizaci¶ on del agente representativo elude esta distinci¶on.
Claro est¶a, que los modelos econ¶omicos de equilibrio han resultado ser sumamente u ¶tiles para
describir lo que se puede esperar de un sistema luego de que un ajuste ha tenido lugar. Sin embargo,
muchos de estos modelos pueden exhibir m¶ ultiples estados de equilibrio. Estos modelos no permiten
predecir la din¶ amica que tiene lugar durante la transici¶on entre los mismos y por consiguiente cu¶ al
ser¶a el nuevo equilibrio \seleccionado" a medida que la din¶amica tiene lugar. Durante esta transici¶ on
es necesario contemplar un proceso de aprendizaje individual que en el agregado determinar¶ a como
se coordinar¶ an las expectativas. Frente a esta situaci¶on cada vez m¶as economistas han comenzado
ha incursionar en el estudio de modelos que simulan expectativas formuladas con racionalidad
acotada mediante la implementaci¶ on de agentes algor¶³tmicos, en un intento por entender y explicar
estos procesos din¶ amicos transicionales [171]. No obstante, debemos destacar que las formulaciones
basadas en criterios de racionalidad acotada exceden por mucho a las descripciones de modelos
con m¶ ultiples equilibrios. El estudio de situaciones transicionales puede no tener ninguna relaci¶ on
con los modelos usuales que exhiben equilibrios m¶ ultiples. Durante los procesos transicionales,
los agentes deben aprender a medida que la evoluci¶on del sistema tiene lugar, y por lo tanto
el comportamiento optimizador puede ser poco plausible. Las conductas optimizadoras ser¶³an
6 Cap¶³tulo 1. Introducci¶on
posibles si los agentes realizan predicciones correctas de las variables que no pueden controlar a
trav¶es de sus propias acciones; un agente racional que pretenda en esta situaci¶on predecir como
ser¶a la coordinaci¶ on de las expectativas para as¶³ formular la suya, seguramente enfrentar¶a un
problema que posee una complejidad no polin¶omica (es decir un \problema NP-duro" { v¶ease la
secci¶on 3.4.1). Esto signi¯ca que el tiempo necesario para encontrar una soluci¶on a su problema de
predicci¶on mediante procesos optimizaci¶ on (deductiva) crece exponencialmente con el volumen de
datos necesarios para resolverlo. Debido a que los agentes no poseen ni recursos computacionales,
ni tiempo ilimitados, la b¶ usqueda de estrategias buenas pero sub¶optimas es inevitable. Por esta
raz¶on es v¶alida la conjetura que lleva a construir modelos transicionales en el marco de la hip¶otesis
de la \racionalidad limitada".
Este trabajo emplea como enfoque la construcci¶on de modelos computacionales, basados en
la aproximaci¶on constructiva o \bottom up". Con este marco de referencia es posible construir
un \sistema econ¶ omico" comenzando apartir de sus elementos constitutivos. Tal sistema debe ser
visto como un (gran) n¶ umero de agentes interactuando, cuyas acciones individuales, as¶³ como las
interacciones mutuas son explicitadas de manera que puedan ser expresadas de manera algor¶³tmica.
Esta aproximaci¶ on tiene la ventaja de que soporta restricciones m¶as d¶ebiles que las de los modelos
matem¶aticos, a pesar de que requieren a¶ un de un alto grado de simpli¯caci¶on. El desaf¶³o es capturar
las caracter¶³stica m¶as relevantes, que son las responsables de los comportamientos emergentes del
sistema. Un modelo exitoso es aquel que poseen el mayor grado de abstracci¶on posible, pero que
permite recrear ciertos hechos estilizados y ser usado como un verdadero laboratorio en el cual
situaciones extremas pueden ser simuladas y estudiadas.
alt¶³simo tributo en abstracci¶ on y simpli¯caci¶on que es necesario para que los modelos sean tratables
anal¶³ticamente. Sin embargo, si bien este recurso hace posible el estudio de situaciones que no son
abordables de manera anal¶³tica posee tambi¶en serias limitaciones. En primer lugar mencionemos
que se da un paso atr¶ as en materia de rigor y generalidad. Por esta v¶³a se es s¶olo capaz de com-
probar y orientar nuestra intuici¶ on, no de demostrar teoremas o propiedades con el rigor propio de
los tratamientos matem¶ aticos formales.
El v¶³nculo con la computaci¶ on es sin embargo m¶as que meramente instrumental. La econom¶³a
ha basado tradicionalmente muchos de sus an¶alisis en la noci¶on de que los agentes determinan sus
acciones optimizando alguna funci¶ on de utilidad o bene¯cio. Sucesivas generalizaciones de este
concepto llevan a considerar agentes ideales con una capacidad de c¶omputo virtualmente in¯nita
ya que situaciones realistas hacen que dicha optimizaci¶on comporte la soluci¶on de problemas de
complejidad combinatoria. Para subsanar esta falta de realismo se ha impulsado la alternativa de
estudiar la posibilidad de representar la capacidad procedural de los agentes de manera algor¶³tmica
[123]. Un sistema econ¶ omico de m¶ ultiples agentes es considerado en este contexto como un gran
sistema de procesamiento distribuido cuyas posibilidades, en tanto sistema din¶amico, no pueden
sino formalizarse mediante recursos computacionales. El uso y la reducci¶on de la evoluci¶on de un
8 Cap¶³tulo 1. Introducci¶on
sistema a t¶erminos computables es pues algo m¶as profundo que el mero recurso instrumental de la
simulaci¶on.
La aproximaci¶ on al realismo mediante modelos computacionales es de cualquier modo muy
modesta. En todos los modelos est¶ a impl¶³cita la hip¶otesis que el agregado de numerosos agentes
desdibuja alguna de sus cualidades individuales y tan s¶olo se preserva de ellos un conjunto quiz¶ a
reducido de posibles comportamientos esquem¶aticos. Estos ¶ se pueden complementar cargando
parte de la complejidad del sistema en las interacciones entre sus elementos. Este recurso es
utilizado en una variedad de modelos que provienen de la f¶³sica de medios magn¶eticos estoc¶asticos;
en el cap¶³tulo 4 se realiza una rese~na de los principales resultados que provienen de este tipo de
descripci¶on. En ellos se carga en las interacciones una parte del desorden del sistema como una
suerte de \desorden congelado" (\quenched disorder"). En estas situaciones, comportamientos
individuales esquem¶ aticos dan lugar a comportamientos globales (\emergentes") del sistema como
un todo que son de una gran riqueza y diversidad. En este sentido el todo es mucho m¶as que la
suma de sus partes. Los modelos de este tipo son u ¶tiles para \comprender" mejor la aparici¶on y
los alcances de los mecanismos de auto-organizaci¶on.
Los enfoques que presentamos surgen de un panorama m¶as abarcativo aun en el que se
supone que el orden se genera a partir de situaciones de desequilibrio 1 . Este enfoque interpreta
que el orden y la estabilidad pueden surgir en sistemas complejos adaptativos de modo din¶amico
merced a mecanismos de realimentaci¶ on positiva que son posibles en situaciones lejanas al equi-
librio. Los modelos que presentamos no pretenden indagar sobre todas las caracter¶³sticas de esta
din¶amica previa subyacente. Consecuentemente en los modelos se presupone cierto orden b¶asico ya
establecido y se analizan efectos adicionales de autoorganizaci¶on.
Los abordajes que analizamos pagan un alto costo en simpli¯caci¶on. Aumentar el realismo de
los modelos adicion¶ andoles una creciente complejidad no es necesariamente un aporte constructivo
para la comprensi¶ on de la realidad. De hecho todas las complicaciones est¶an f¶acilmente a nuestra
disposici¶on en la observaci¶on directa de los sistemas reales.
El pr¶oximo cap¶³tulo introduce al lector en los conceptos fundamentales de la teor¶³a de los
sistemas din¶ amicos; se realiza una clasi¯caci¶on de ellos y se analizan con especial ¶enfasis sistemas
representados en tiempo discreto. A modo de ejemplo se realiza un an¶alisis de estabilidad lineal de
un sistema que describe un conjunto de mercados acoplados. Utilizando algunos resultados de la
teor¶³a de matrices estoc¶asticas se demuestra que cuando mayor es el n¶ umero de mercados, mayor
es la probabilidad de que el sistema sea inestable. Luego se de¯nen y describen las caracter¶³sticas
elementales de los sistemas complejos adaptativos, su relaci¶on con los sistemas econ¶omicos y se
enumeran las posibles ¶ areas de investigaci¶on en las que esta teor¶³a puede resultar u¶til en futuros
desarrollos.
El cap¶³tulo 3 propone una descripci¶on detallada de los problemas derivados de la repre-
sentaci¶on formal del comportamiento de los agentes econ¶omicos en la model¶³stica tradicional. Se
describe un modelo econ¶ omico simple en el que la conducta de los agentes puede ser heterog¶enea
ya que coexisten diversos mecanismos de formaci¶on de expectativas cuyas proporciones respecto de
la poblaci¶on total pueden modi¯carse como consecuencia de la evoluci¶on. Se supone que esta mi-
graci¶on entre mecanismos est¶ a guiada por el principio de m¶³nimo sesgo (tambi¶en llamado principio
de m¶axima entrop¶³a). El modelo presentado exhibe, bajo ciertas condiciones, evoluciones ca¶oticas.
Resulta interesante puesto que muestra una metodolog¶³a para incorporar heterogeneidades en el
comportamiento de agentes econ¶ omicos. No obstante, la existencia de din¶amicas ca¶oticas en mode-
los discretos es motivo de cuestionamiento. En las siguientes secciones del cap¶³tulo se analizan estas
objeciones con mayor detalle. Luego se estudia la plausibilidad de que se puedan construir mode-
los econ¶omicos constructivos en los que los agentes econ¶omicos operan con racionalidad acotada
a partir de una dotaci¶ on incompleta de informaci¶on. Se ponen de mani¯esto los con°ictos t¶³picos
que los agentes enfrentan en situaciones m¶as realistas, se consideran los procesos de aprendizaje
inherentes y la limitaci¶on de resolver \e¯cazmente" problemas de optimizaci¶on combinatoria. Se re-
1
El Premio Nobel Ilya Prigogine lo de¯ne como orden a partir de °uctuaciones [164]
1.2. Contenido de la Tesis 9
aliza luego una cr¶³tica a los modelos con expectativas racionales, presentando como una alternativa
v¶alida, la construcci¶ on de modelos computacionales que describan el comportamiento de los agentes
econ¶omicos algor¶³tmicamente. Una manera de formular los procesos de aprendizaje inherentes es
a trav¶es de algoritmos gen¶eticos o redes neuronales que son descriptos en el mismo cap¶³tulo.
Posteriormente, se muestra un modelo econ¶omico construido a partir este esquema cons-
tructivo. Se pretende all¶³ describir el proceso de co-adaptaci¶on de las estrategias de compradores
y vendedores en un sistema de intercambio de estructura muy esquem¶atica. En una primera es-
peci¯caci¶ on, se modela a un vendedor que enfrenta una decisi¶on dicot¶omica sobre el precio que
¯ja per¶³odo a per¶³odo; existen numerosos compradores potenciales, que tienen tambi¶en acceso a
una \fuente externa", en la cual el bien est¶a disponible a un precio ¯jo. El vendedor de¯ne su
conducta a trav¶es de una secuencia planeada de precios sobre un conjunto de per¶³odos, mientras
que los compradores determinan, a partir de las observaciones que hacen de los precios, si \visitan"
al vendedor (en cuyo caso compran una unidad del bien) o concurren a una fuente externa. Las
estrategias de los agentes est¶ an determinadas por los procesos de aprendizaje que tienen lugar du-
rante la propia evoluci¶ on y est¶
an representados a trav¶es de algoritmos gen¶eticos. Estos algoritmos
actualizan las predicciones de los clientes acerca de la conducta de la ¯rma y las de la ¯rma sobre el
comportamiento de sus potenciales compradores, seg¶ un los ¶exitos o fracasos de cada uno logrados
en instantes anteriores. Durante el proceso de transici¶on, mientras se desarrolla el aprendizaje, es
dif¶³cil determinar c¶ omo los individuos podr¶³an formular expectativas certeras; de ah¶³ que parezca
natural el supuesto de que las expectativas se basan en alg¶ un procedimiento simpli¯cado como el
que ofrecen los algoritmos empleados en el ejercicio.
El modelo que se presenta es extremadamente esquem¶atico pero sugiere que, aun en situa-
ciones muy simples, los fen¶ omenos de aprendizaje y co-adaptaci¶on pueden dar lugar a din¶ amicas
no triviales. Al margen de los resultados espec¶³¯cos, el an¶alisis de sistemas elementales de transac-
ciones ilustra el hecho de que los mecanismos de mercado operan a trav¶es de decisiones de m¶ ultiples
agentes actuando \en tiempo real": los estados de equilibrio son en todo caso l¶³mites de trayectorias
en las cuales los individuos van ajustando sus conductas a las de los dem¶as.
En el cap¶³tulo siguiente se estudian con mayor detalle los procesos de interacci¶on local entre
agentes de un sistema complejo y sus consecuencias a nivel agregado. Se muestra la consistencia
entre la din¶ amica estoc¶ astica microsc¶opica y la evoluci¶on macrosc¶opica de estos sistemas. Este tipo
de modelos tienen su origen en la mec¶ anica estad¶³stica de medios magn¶eticos desordenados y han
servido para modelizar lo que se ha denominado como transiciones de fase que, como veremos, se
originan a partir del quiebre en alguna simetr¶³a que posee el sistema. Esta ruptura de simetr¶³a
supone que estos sistemas dejan de ser erg¶odicos. Mostramos en este cap¶³tulo algunas aplicaciones
de estos resultados y enumeramos las potenciales aplicaciones futuras en el contexto de la econom¶³a.
Se realiza tambi¶en una comparaci¶ on entre esta metodolog¶³a y la t¶ecnicas basadas en la teor¶³a
evolutiva de juegos. Finalmente, el cap¶³tulo contiene un modelo que estudia los problemas de
coordinaci¶ on de las acciones de los agentes. Se explora la forma en que los comportamientos
pueden estar in°uidos, sea por expectativas formadas por cada agente acerca de la evoluci¶ on del
sistema, a partir de proyecciones individuales, o por \contagio" de las acciones de los individuos
con los que tiene contacto. El ejercicio est¶a inspirado en un conocido modelo de Brian Arthur,
que analiza el comportamiento de agentes en una situaci¶on en la que existe complementariedad
estrat¶egica en las acciones individuales y, por otro lado, tienen lugar efectos de congesti¶on. En los
sistemas reales, esta situaci¶ on puede aparecer en diversos contextos. De modo muy esquem¶ atico,
se puede plantear que el ejercicio tiene elementos relevantes para estudiar la din¶amica que tiene
lugar durante una corrida bancaria: si muy pocos agentes depositan sus fondos, se ven afectadas las
oportunidades de repago para los que han realizado dep¶ositos y, si se supone que el sistema tiene
una cierta capacidad \f¶³sica", una gran cantidad de depositantes en un momento dado impone un
costo (aunque sea peque~ no) por la congesti¶on en el sistema.
Los resultados obtenidos muestran (exceptuando algunos casos con particulares condiciones
iniciales) una n¶³tida tendencia a la auto-organizaci¶on del sistema en un estado en el cual, per¶³odo
10 Cap¶³tulo 1. Introducci¶
on
a per¶³odo, el volumen total de dep¶ ositos se aproxima al m¶aximo valor para el que no existen costos
por la congesti¶on. Se estudian diversas situaciones en las que se inhiben o no los efectos de contagio,
se analiza la din¶amica cuando los umbrales cr¶³ticos evolucionan en forma autoconsistente, etc.
En el cap¶³tulo siguiente, se ponen en consideraci¶on otro tipo de sistemas distribuidos que se
denominan como aut¶ omatas celulares y a partir de ellos describen los llamados sistemas cr¶³ticamente
auto-organizados que tienen la interesante propiedad de evolucionar hacia un estado global cr¶³tico
cercano a una transici¶ on de fase sin depender de par¶ametros de control externos. Esto signi¯ca
que el propio estado cr¶³tico resulta ser el atractor natural del sistema. Se analiza luego la relaci¶ on
que existe entre los sistema complejos distribuidos y las series temporales que se derivan de este
tipo de sistema. El cap¶³tulo trata esta cuesti¶on, concentr¶andose en un tipo de proceso estoc¶astico
que parecieran tener muchas series econ¶ omicas: los \vuelos de Levy", que representan una general-
izaci¶on de los paseos al azar con incrementos gaussianos. Los vuelos de Levy tienen la caracter¶³stica
de generar trayectorias autosimilares, en el sentido que la distribuci¶on de la posici¶on luego de n pa-
sos es la misma que la distribuci¶ on luego de un paso, a menos de un factor de escala. Se observa que
esta propiedad tiene validez en una serie como la de las variaciones del tipo de cambio d¶olar{libra
esterlina, entre otras monedas, sobre datos diarios comprendidos entre 1973 y 1987. En caso del
tipo de cambio de la moneda argentina con el d¶olar (tambi¶en sobre datos diarios, sobre un per¶³odo
de unos veinte a~ nos previo a la ¯jaci¶ on de la paridad en 1991) se registra una considerable deriva
de la variable, asociada a las altas in°aciones que marcaron el rumbo de la econom¶³a durante casi
dos d¶ecadas.
Las distribuciones de Levy se pueden asociar con procesos de auto-organizaci¶on cr¶³tica, que
son descriptos en forma detallada, y revisten importancia ya que tienen su origen en los sistemas
desordenados o extendidos que se describen a lo largo de todos dem¶as cap¶³tulos. La noci¶on de que los
sistemas se pueden auto-organizar en estados \cr¶³ticos" es conceptualmente atractiva, porque lleva
a una representaci¶ on de los cambios de estado de los sistemas, incluyendo \grandes avalanchas", sin
necesidad de que ocurran grandes perturbaciones: un impulso peque~ no puede ser capaz entonces
de dar lugar a una cadena de reacciones que resulta en un gran desplazamiento de los estados de
un sistema.
Los comportamientos emergentes que se han considerado son tan solo unos pocos ejemplos
de casos en los que aparecen conductas de auto-organizaci¶on por medio de aprendizaje o imitaci¶on.
Estos procesos con¯nan la din¶ amica de los sistemas a visitar una porci¶on reducida del espacio de
fases, por la acci¶
on descentralizada de un conjunto de agentes alertas frente a cambios en su entorno,
pero que no necesariamente determinan conductas ¶optimas en ambientes de alta complejidad. El
enfoque que hemos empleado aqu¶³ permite encarar la exploraci¶on de fen¶omenos de coordinaci¶on de
actividades econ¶ omicas sin el empleo de hip¶otesis excesivamente r¶³gidas respecto de las capacidades
cognitivas de los agentes. Sin embargo, conviene reconocer que el enfoque tiene tambi¶en limita-
ciones, y que la construcci¶ on de modelos que se basan en ¶el est¶an a¶ un en sus inicios: no existe
todav¶³a en el campo un conjunto de procedimientos anal¶³ticos bien establecidos. Es probable que
con el tiempo tenga lugar una suerte de complementariedad entre los \modelos constructivos" y
las formas m¶as tradicionales de an¶ alisis. En todo caso, el documento que se presenta a continuac¶on
intenta realizar algunos avances en una l¶³nea de investigaci¶on incipiente, repitiendo que, lejos de
ofrecer productos terminados, la tarea est¶a en sus comienzos 2 .
2
A lo largo del texto se observar¶
a que algunas secciones est¶
an escritas con una tipograf¶³a m¶
as peque~ na. Estas
secciones corresponden a apartados de car¶acter informativo. Su lectura puede ser omitida por el lector informado.
Cap¶³tulo 2
Sistemas Din¶
amicos y sistemas
Complejos
Tµ µ ® ½²e¶
® ¼ ®º¿
(Todo °uye)
Her¶
aclito
dx
= f (x(t); t; ¹) (1.2)
dt
para el caso de °ujos continuos. En esta ecuaci¶on xt 2 X µ <n es el vector de las variables de
estado, ¹ 2 M µ <m es el vector de par¶ametros que afectan la estructura del sistema, y f es
una funci¶ on que en general se supone continua y diferenciable. Los espacios X y M pueden ser
eucl¶³deos o espacios de probabilidades. S¶³ los sistemas son aut¶onomos, no dependen expl¶³citamente
del tiempo.
Si la evoluci¶
on de los estados es u
¶nica, el sistema din¶amico se dice determin¶³stico. Cuando
est¶a sometido a in°uencias aleatorias se habla de un sistema estoc¶ astico. Cada estado puede ser
11
12 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
visualizado como un punto. El conjunto ¡ de todos los estados posibles del sistema se denomina
espacio de estados o de fases. La evoluci¶on de un sistema se representa por una curva en este
espacio y se denomina trayectoria u ¶ orbita del sistema. Los par¶ametros ¹ resumen los aspectos
del sistema que permanecen inalterados, o que, al menos, exhiben una din¶amica tan lenta que no
es conveniente considerar su evoluci¶on en pie de igualdad con la de las otras variables de estado.
El conjunto de los valores posibles de los par¶ametros se llama espacio de par¶
ametros o espacio de
control.
Para estudiar la evoluci¶
on de un sistema din¶amico conviene primero considerar sus puntos
¯jos, de¯nidos como aquellos estados x¤ 2 X que cumplen:
dx¤
x¤ = f (x¤ ; ¹) ¶o = f (x¤ ; ¹) = 0 (1.3)
dt
seg¶un se trate de mapas discretos en el primer caso o °ujos continuos en el segundo. Un punto ¯jo
es localmente estable s¶³ para todo ² > 0 existe un ± 2 (0; ²) tal que kxs ¡ x¤ k < ± =) kxt ¡ x¤ k <
² 8 t ¸ s. La estabilidad de estos puntos se analiza linealizando la funci¶on f y estudiando los
autovalores del Jacobiano asociado. Cuando la parte real de alguno de esos autovalores es positiva
el punto ¯jo es inestable; en caso contrario es estable.
5) Preservaci¶ on de la Orientaci¶ on: Una variedad no lineal del espacio de fases que representa
la din¶amica de un sistema es orientable si en ella es posible de¯nir de manera no ambigua su
interior y su exterior. Los sistemas continuos siempre preservan la orientaci¶on, en los mapas
discretos se preserva la orientaci¶
on cuando la matriz Jacobiana posee un determinante que es
positivo.
2.3 Clasi¯caci¶
on de los Sistemas Din¶
amicos
2.3.1 Seg¶
un la naturaleza de sus variables
Los sistemas din¶
amicos pueden ser clasi¯cados:
¶
² por la topolog¶³a espacial involucrada en la evoluci¶on. Esta puede quedar determinada por
el comportamiento en un entorno de cada variable localmente de¯nida o puede en cambio
involucrar partes del sistema que son distantes entre s¶³ (modelos globales o no locales). La
noci¶
on de vecindad o distancia puede quedar de¯nida tanto entre variables espaciales discretas
(redes o \lattice maps") como continuas (ecuaciones diferenciales o mapas funcionales).
¤ En la secci¶
on 2.5 y el cap¶³tulo 4 se realiza una descripci¶on m¶as detallada de estos sistemas.
2.3.2 Seg¶
un las propiedades de conservaci¶
on del sistema
Todo sistema din¶ amico cuyo volumen del espacio de estados es asint¶oticamente invariante bajo su
propia din¶amica es conservativo. La clase corresponde a los sistemas Hamiltonianos integrables.
En t¶erminos f¶³sicos un sistema es conservativo cuando se conserva la energ¶³a. En un sistema
no conservativo o disipativo las trayectorias no perturbadas se aproximan a un subconjunto del
espacio de fases que se denomina atractor. En este proceso se reduce, a veces de manera dr¶astica la
dimensionalidad del espacio de fases efectivamente \visitado" por el sistema dando lugar, de esta
manera, a una disminuci¶ on de los grados de libertad efectivos.
1
La noci¶on de espacio en la econom¶³a merece un comentario. El estudio de econom¶³as regionales o urbanas y la
organizaci¶on industrial en general, suponen que la vecindad entre dos operadores del sistema queda de¯nida por el
grado de cercan¶³a espacial entre ellos; sin embargo a nivel de los mercados y, teniendo en cuenta la globalizaci¶
on y los
efectos de las tecnolog¶³as aplicadas a las comunicaciones, el concepto de vecindad se altera por su propia naturaleza
y comienza a di¯cultarse el tratamiento de las relaciones de interacci¶ on en t¶erminos de \localidad" o \no localidad"
en el espacio. En esta instancia no tiene sentido suponer que las relaciones econ¶ omicas tienen lugar en un entramado
regular sino que ocurren en entornos cuya \topolog¶³a" es desordenada y posiblemente variable.
14 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
Cuando jf 0 (x¤ ; ¹)j < 1 el punto ¯jo es estable pues en esta situaci¶on:
³ ´t
lim f 0 (x¤ ; ¹) =0 (4.7)
t!1
¶
Orbitas peri¶
odicas
Un punto x ~ pertenece a una ¶ orbita peri¶odica (de per¶³odo k > 0) si en el sistema din¶amico xt+1 =
f (xt ; ¹) es un punto ¯jo de la k-¶esima iteraci¶on de f (esto es, si f (k) (~ x) = x ~, siendo k el menor
n¶umero natural para el cual esto es cierto y f (k) es la composici¶on de f sobre si misma k veces).
Dada una condici¶ on inicial arbitraria y luego del transitorio inicial, las ¶orbitas peri¶odicas constituyen
el conjunto de puntos de las iteraciones de f (ver ¯guras 7.3 y 7.4). Existen tambi¶en soluciones
cuasi-peri¶ odicas que se constituyen como sumas de funciones peri¶odicas, cuyas frecuencias base son
linealmente independientes. Se puede demostrar que si f es un mapa mon¶otono no decreciente, no
tiene ¶orbitas peri¶ odicas.
El an¶alisis de los puntos ¯jos se puede generalizar para el caso de ciclo de orden k. Sean
fx1 ; ¢ ¢ ¢ ; xk g el conjunto de puntos visitados durante el ciclo. Como, x2 = f (x1 ; ¹); ¢ ¢ ¢ ; xk =
f (xk¡1 ; ¹) se satisface que: xi = f (k) (xi ); 81 · i · k con f (k) la composici¶on de f sobre si misma k
veces. Usando la regla de la cadena podemos representar la condici¶on de estabilidad de este sistema
peri¶odico como:
Bifurcaciones
\Me detuve, como es natural, en la frase: Dejo a los varios porvenires
(no a todos) mi jard¶³n de senderos que se bifurcan. Casi en el
acto comprend¶³; el jard¶³n de los senderos que se bifurcan era
una novela ca¶ otica; la frase varios porvenires (no todos) me sugiri¶
o
la imagen de la bifurcaci¶ on en el tiempo, no en el espacio ... he conjeturado
el plan de ese caos ... Esa trama de tiempos que se aproximan, se bifurcan,
se cortan o que secularmente se ignoran, abarca todas las posibilidades".
Jorge Luis Borges
² ²en¸(xo )
z }| { =) z }| {
Entonces, tenemos que ²en¸(xo ) = jf (n) (xo + ²) ¡ f (n) (xo )j, que en el l¶³mite ² ! 0 y n ! 1
nos conduce a la de¯nici¶
on formal del exponente de Lyapunov:
16 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
d (2) d
f (x)jxo = f (f (x))jxo = f 0 (f (xo ))f 0 (xo ) = f (x1 )f 0 (xo ) (4.11)
dx dx
donde x1 = f (xo ); entonces podemos escribir al exponente de Lyapunov como:
n¡1
Y
1 d 1
¸(xo ) = lim ln j f (n) (xo )j = lim ln j f 0 (xi )j (4.12)
n!1 n dx n!1 n
i=0
y por lo tanto:
1 n¡1
X
¸(xo ) = lim ln jf 0 (xi )j (4.13)
n!1 n
i=0
Esto signi¯ca que e¸(xo ) es el factor promedio con el cual la distancia de dos puntos cercanos
crece luego de una iteraci¶
on. Usando la regla de la cadena se puede demostrar que el exponente
de Lyapunov mide tambi¶en la p¶erdida de informaci¶on (de¯nida debidamente) en cada iteraci¶ on
[177]. Para sistemas de m¶ as dimensiones se pueden calcular los exponentes de Lyapunov seg¶ un
la direcci¶
on de cada eje coordenado, utilizando la norma eucl¶³dea. Cuando alg¶ un exponente
es positivo se est¶
a en presencia de un sistema ca¶otico pues exhibe gran sensibilidad a las
condiciones iniciales, puesto que en esa direcci¶on las ¶orbitas se separan a una tasa exponencial.
M¶as adelante se calculan, a modo de ejemplo, los exponentes de Lyapunov de algunos mapas
conocidos.
² Transitividad topol¶
ogica:
Si para cierto intervalo de valores del par¶ametro de control el mapa discreto es tal que para
dos subintervalos cualesquiera ¤ y © contenidos en el dominio del mapa existe una ¶orbita
que parte de x 2 ¤ y un n¶ umero entero n tal que f n (x) 2 © se dice que la funci¶on tiene la
propiedad de transitividad topol¶ ogica. Esta propiedad signi¯ca que el conjunto que determina
el dominio del mapa funcional no es descomponible sobre la din¶amica del mapa en el sentido
de que no se puede descomponer el dominio en dos (o m¶as) subconjuntos disjuntos que sean
invariantes frente a la aplicaci¶
on del mapa funcional.
densidad ½t (x) para t = 0 es ½o (x) = ±(x ¡ xo ), (± es la \funci¶on delta de Dirac). Como luego
de la primera iteraci¶ on el sistema es conducido al valor f (xo ), la densidad inicial evoluciona hacia
½1 (x) = ±(x ¡ f (xo )).
Supongamos ahora que la densidad inicial ½o (x) es algo m¶as dispersa, o sea que consideramos
un cierto entorno compacto ° alrededor del punto xo que conforma un ensamble de estados iniciales.
La densidad de probabilidades luego de la primera iteraci¶on surge de la superposici¶on de evoluciones
que discutimos en el p¶ arrafo anterior para todos estados iniciales pertenecientes a ° 3 . Se puede
entonces representar a la evoluci¶ on de la densidad de probabilidades como:
Z
½t+1 (x) = ±(x ¡ f (xo ))½t (xo )dxo (4.14)
°
Esta es la ecuaci¶on de Frobenius - Perron, que puede tomarse como base para clasi¯car
distintos sistemas din¶amicos sobre la base de las propiedades de la densidad de probabilidad esta-
cionaria. (La densidad estacionaria es la que permanece invariante durante la evoluci¶on del sistema).
Sea ½e (x) esa densidad invariante; por de¯nici¶on es aquella que mantiene estacionaria la soluci¶ on
de la ecuaci¶on 4.14, o sea que debe satisfacer:
Z
½e (x) = ±(x ¡ f (xo ))½e (xo )dxo (4.15)
°
Esta medida es invariante en el sentido que ºe (f ¡1 (C)) = ºe (C), donde f ¡1 (C) representa al
conjunto de todos los puntos x cuya im¶agen est¶a en C luego de una iteraci¶on.
En general, bajo los efectos de la din¶amica del sistema, un conjunto C suele transformarse
en otro diferente; cuando esto no ocurre y el conjunto se transforma en s¶³ mismo se dice que es
invariante. Esta propiedad se expresa igualando: f ¡1 (C) = C. El sistema din¶amico de¯nido por
la ley de iteraci¶on f (x) es erg¶
odico si todo conjunto invariante del mismo es el conjunto vacio
(C = ;) o el intervalo entero (C = [0; 1]). En otras palabras, el espacio de fases ¡ de un sistema
erg¶odico no puede decomponerse en otros subconjuntos invariantes que no sean el mismo espacio
de fases a menos de alg¶ un conjunto de medida (de Lebesgue) nula. Esto signi¯ca que, a menos
de ciertas condiciones iniciales muy particulares, las trayectorias del sistema terminan pasando
arbitrariamente cerca de cualquier punto del espacio de las fases si se espera su¯ciente tiempo.
Es posible demostrar que si un sistema din¶amico de¯nido por f (x) es erg¶
R
odico, hay una sola
densidad de probabilidades invariante ½e (x) integrable, en el sentido de que C ½e (x)dx es ¯nito.
M¶as aun, si hay una u¶nica densidad de probabilidades estacionaria ½e (x) con ½e (x) > 0 8x entonces
el sistema f (x) es erg¶
odico.
El concepto de ergodicidad est¶a intimamente relacionado con el unicidad y derivabilidad de
la densidad de probabilidades estacionaria, ya que la misma supone probables todos los puntos del
espacio de fases con excepci¶ on de un subconjunto de medida nula. Esto excluye la posibilidad de
que existan densidades invariantes singulares (como las funciones delta) que aparecen cuando el
sistema posee un u ¶nico punto ¯jo, atractor de la din¶amica.
Para conocer la densidad de probabilidades invariante, es necesario contabilizar el n¶ umero
de veces que diferentes regiones del espacio de fase son visitadas por una trayectoria representativa.
Este proceso de muestreo estad¶³stico debe realizarse durante un intervalo de tiempo (T ) muy
3
Suele considerarse que el entorno es todo el espacio de fases ¡ del sistema.
18 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
La pregunta que cabe hacerse en este momento es c¶omo se relacionan ½¹(x) y < A > (x) con
la densidad estacionaria ½e (x). La respuesta la brinda el Teorema Erg¶odico de Birkho®:
Todo sistema din¶ amico erg¶odico que satisface ºe (f ¡1 (C)) = ºe (C) para cualquier subconjunto
perteneciente al intervalo [0; 1], veri¯ca que 8x 2 ¡ se cumple:
Z
< A > (x) = A(x)½e (x)dx y ½¹(x) = ½e (x) (4.19)
¡
Esto signi¯ca que calcular un promedio temporal es equivalente a calcularlo sobre un ensamble de
condiciones iniciales. Asimismo, el teorema a¯rma que existe una equivalencia entre la densidad
de probabilidad medida y aquella (¶ unica) que es la soluci¶on de la ecuaci¶on de Frobenius - Perron
(4.14). Este resultado garantiza que el promedio temporal realizado sobre una trayectoria dada es
independiente de las condiciones iniciales xo .
El concepto de ergodicidad ha sido de gran importancia y utilidad en f¶³sica moderna; nos
permite formular supuestos a partir de los cuales es v¶alido o no calcular valores medios. La macroe-
conom¶³a moderna ha basado sus modelos en la utilizaci¶on de agentes representativos optimizadores.
Los agentes representativos, por construcci¶on, son \agentes promedio" cuyas acciones representan
una media sobre las decisiones de un conglomerado de agentes. Sin embargo no quedan claro los
criterios a partir de los cuales es v¶
alido calcular estos promedios. La f¶³sica nos ha mostrado que
bajo ciertas circunstancias puede tener lugar el quiebre de la ergodicidad y por lo tanto la operaci¶on
de promediar debe estudiarse delicadamente.
Funci¶
on de Correlaci¶
on
La funci¶on de correlaci¶
on C(¿ ) de un mapa unidimensional xt+1 = f (xt ; ¹) se de¯ne como:
n
1X
C(¿ ) = lim x
^i+¿ x
^i (4.20)
n!1 n
i=0
donde:
n
1X
^i = f (i) (xo ) ¡ x
x ¹ y x
^ = lim f (i) (xo ) (4.21)
n!1 n
i=0
Con esta de¯nici¶on es posible concluir que la funci¶on de correlaci¶on brinda otra medida de
la irregularidad de la secuencia: xo ; f (xo ); f (2) (xo ); ¢ ¢ ¢ ; f (n) (xo ); ¢ ¢ ¢, ya que indica cu¶an recurrentes
son las desviaciones del valor promedio x ^i = xi ¡ x ¹ cuando se comparan iteraciones separadas por
¿ pasos de tiempo (estos es, x^i+¿ y x ^i ).
Si la medida invariante ½e (x) del mapa f (x) es conocida y se usa la propiedad conmutativa:
Durante los u¶ltimos a~ nos se han venido desarrollando considerables esfuerzos por abor-
dar temas en f¶³sica, biolog¶³a y ciencias cognitivas que hasta el momento resultaban imposibles de
analizar con las herramientas de trabajo tradicionales. Muchos de estos programas de investigaci¶ on
pueden ser agrupados bajo la clasi¯caci¶on com¶ un del estudio de los Sistemas Complejos. Reciente-
mente se ha comenzado a contemplar la hip¶otesis de que la complejidad de por s¶³ posee leyes que
son propias, y las mismas pueden en algunos casos ser simples, de una razonable universalidad y
entendibles sin grandes di¯cultades si se emplea la metodolog¶³a apropiada. La raz¶on fundamental
que ha posibilitado la realizaci¶ on de estos estudios es la creciente capacidad de procesamiento de
la informaci¶ on de los sistemas de c¶omputo, que ha incrementado la velocidad de procesamiento y
posibilitado el manejo de grandes vol¶ umenes de informaci¶on.
Un Sistema Complejo puede ser de¯nido como compuesto por una gran cantidad de ele-
mentos interactuantes, capaces de intercambiar informaci¶on entre ellos y el entorno, y de adaptar
sus estructuras internas como consecuencia de tales interacciones. Una caracter¶³stica propia de
sistemas de este tipo es la existencia de interacciones no lineales entre sus componentes, que son
las responsables de producir comportamientos emergentes en los que el todo es m¶as que la simple
suma de las partes. Vistos en forma agregada, estos comportamientos no pueden ser atribuibles a
la acci¶on aislada de cada elemento por separado sino que son el resultado de su acci¶on colectiva.
A partir del punto de vista que brindan los sistemas complejos, nuevas aproximaciones
est¶an siendo estudiadas para construir modelos de trabajo. Hasta hace poco tiempo hab¶³a s¶ olo dos
esquemas model¶³sticos. El primero, puramente lingu¶³stico, que posee en principio una versatilidad
ilimitada pero carece de precisi¶ on cuantitativa sobre las hip¶otesis b¶asicas y las conclusiones que
se pueden derivar. La segunda aproximaci¶on es la puramente matem¶atica. Tiene la ventaja de
brindar mucha precisi¶ on en sus conclusiones y se sustenta en rigurosos teoremas matem¶aticos. Sin
embargo muchas veces los modelos econ¶omicos se transforman en construcciones matem¶ aticas ad
hoc con supuestos sin justi¯caci¶ on emp¶³rica incorporados con el s¶olo prop¶osito de suministrar al
modelo una forma matem¶ atica consistente.
Muchos sistemas complejos no resisten el tratamiento anal¶³tico (no son matematizables) y
la u
¶nica forma de explorarlos es atrav¶es del tratamiento computacional mediante las simulaciones
num¶ericas. T¶ecnicamente podemos decir que en general los sistemas complejos son sistemas com-
putacionalmente irreducibles; ¶esto signi¯ca que la u ¶nica manera de conocer su evoluci¶on es a trav¶es
de la observaci¶ on directa o simul¶ andolo utilizando para ello otro sistema de similar complejidad.
Tambi¶en se puede decir que los sistemas complejos son sistemas aparentemente desordenados, en
los que existe un orden encubierto. Desde el punto de vista computacional esta forma de aproxi-
maci¶on suele denominarse como enfoque constructivo (o \bottom up") ya que se parte de las propias
interacciones entre los elementos constitutivos (en el nivel microsc¶opico), para luego entender el
comportamiento a nivel macrosc¶ opico.
Por lo tanto, la tercera alternativa es la construcci¶on de modelos computacionales. Desde
este marco conceptual es posible simular constructivamente un sistema complejo, partiendo de sus
constituyentes elementales. Se pretende que los comportamientos globales emergentes surjan de la
misma operaci¶ on de un n¶ umero (grande) de agentes cuyas acciones individuales as¶³ como las inter-
acciones entre ellos son su¯cientemente expl¶³citas como para ser implementadas algor¶³tmicamente.
La interdependencia entre elementos constitutivos est¶a intimamente unido al concepto mismo de
20 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
la complejidad que se pone de mani¯esto en tales sistemas. Esta aproximaci¶on permite dise~ nar
modelos con menores restricciones que los puramente matem¶aticos, a pesar de requerir altos nive-
les de simpli¯caci¶ on respecto de situaciones reales. Estos modelos permiten incorporar procesos
de aprendizaje como las redes neuronales o los algoritmos evolutivos y as¶³ simular lo que podr¶³a
denominarse como Agentes Arti¯ciales Adaptativos [104, 12, 13, 62, 8].
Los primeros antecedentes en el estudio de los comportamientos emergentes de los sistemas
complejos fueron los estudios de las transiciones de fase y los fen¶ omenos cr¶³ticos, que corresponden
a las transformaciones que se dan en determinadas sustancias frente a cambios de la temperatura.
El estudio de compuestos con propiedades magn¶eticas debe ser considerado como un ejemplo par-
ticularmente importante e ilustrativo. Estas sustancias presentan un orden interno, responsable
de las propiedades magn¶eticas observables, que se ponen de mani¯esto a nivel macrosc¶opico. Este
ordenamiento se altera cuando la temperatura, considerada como par¶ametro de control, crece por
encima de cierto valor cr¶³tico o cuando la sustancia est¶a en presencia de un campo magn¶etico
externo mayor que el umbral que los componentes pueden soportar sin modi¯car sus estados in-
ternos. Este es un ejemplo de \comportamiento emergente", que ha sido descripto por modelos
que el de Ising y los llamados vidrios de spin (o \spin glasses" 4 ). Tales modelos han probado ser
u
¶tiles en el estudio de otro tipo de sistemas, como las redes neuronales y sistemas adaptativos, en
la representaci¶on de la evoluci¶on bi¶otica [185] y prebi¶otica, y en algunos aspectos de la teor¶³a de
optimizaci¶on combinatoria y en an¶ alisis de din¶amica de poblaciones y de comportamiento social
[62, ?].
Todos estos sistemas poseen una cantidad de caracter¶³sticas comunes. Se constituyen a
partir de una gran cantidad de elementos y, por ende existe un desorden estructural intr¶³nseco (o
\quenched disorder"); las caracter¶³sticas aleatorias de las interacciones pueden dar lugar a lo que
se denomina como frustraci¶ on, que genera con¯guraciones estables del sistema en las que no es
posible optimizar todas las interacciones simult¶aneamente. La aparici¶on de frustraci¶on da lugar
a la posibilidad de que existan m¶ ultiples estados metaestables. Por lo tanto, a nivel macrosc¶opico
los sistemas complejos puede exhibir tanto diversidad como estabilidad: por un lado, puede haber
m¶ultiples estados fundamentales (equilibrios m¶ ultiples), otras veces el orden macrosc¶opico resulta
ser robusto frente a cambios en la estructura interna del sistema. La din¶amica se ve afectada por
la naturaleza de las interacciones: la relajaci¶on a los estados estacionarios puede estar gobernada,
por muchas constantes de tiempo, o en el caso de los sistemas abiertos, la evoluci¶on se desenvuelve
en una regi¶on de posibles con¯guraciones que no est¶an caracterizadas por escalas espaciales y
temporales precisas. El ¶exito que ha tenido en la f¶³sica el tratamiento de los sistemas complejos a
partir de este enfoque motiva y tienta a evocar estas l¶³neas de pensamiento para estudiar procesos
sociales y econ¶omicos [160], tal es el sentido de esta tesis.
El comportamiento global de un sistema complejo depende de las interacciones entre sus
elementos constitutivos. Las interacciones entre los agentes del sistema responden a un conjunto
de reglas bien determinadas. Cuando un agente del sistema recibe cierto est¶³mulo, determina una
acci¶on a seguir a partir de un esquema o modelo interno que la determina. El proceso de decisiones
y acciones de los agentes puede describirse mediante una complicada e intrincada colecci¶on de reglas
cada una de las cuales se basa en la secuencia est¶³mulo ¡! respuesta, y pueden ser representados
por un conjunto de clasi¯cadores del tipo: Condici¶ on ¡! Acci¶ on .
2.5.1 Atributos b¶
asicos de los sistemas complejos adaptativos
Los sistemas complejos adaptativos est¶an conformados por un conjunto de agentes en interacci¶on
mutua y se caracterizan por poseer los siguientes atributos y/o propiedades b¶asicas [106]:
² Agregaci¶ on: Una de las principales caracter¶³sticas del comportamiento agregado de las ac-
ciones de los agentes de un sistema complejo es que pueden tener lugar los efectos de largo
4
Una descripci¶
on de estos sistemas se realiza en la secci¶
on 4.1 del cap¶³tulo 4.
2.5. Los sistemas complejos adaptativos 21
alcance que hemos denominado como comportamientos emergentes. Esto signi¯ca que estos
sistemas no se prestan para la hip¶otesis del \agente representativo"5 . Las interacciones, tanto
locales como globales, son fundamentales en esta ruptura de simetr¶³a del sistema. La comple-
jidad emerge como una propiedad de \escala". Podemos ejempli¯car esta caracter¶³stica con
cualquier proceso que involucre una din¶amica de poblaciones; pensemos en un hormiguero:
resulta incomprensible si se pretende analizar su comportamiento agregado desde el com-
portamiento de una sola hormiga. De igual manera es imposible entender totalmente la
din¶amica econ¶omica y social sin tener en cuenta la enorme matriz de interacciones que existe
entre distintos agentes, sectores y actividades.
² Rotulado: El rotulado es un mecanismo que permite trazar las fronteras que delimitan a
los agentes. Es posible establecer distintos grados de delimitaci¶on. Un conjunto de agentes
actuando en forma coordinada puede funcionar como un meta-agente que interact¶ ua con otros
meta-agentes en un nivel jer¶arquico superior. Para que la acci¶on de estos meta-agentes sea
consistente es necesario que sus componentes puedan reconocerse. La propiedad de rotulado
permite que esto ocurra. El rotulado es un mecanismo que subyace a toda organizaci¶ on
jer¶
arquica y permite de¯nir una red de interacciones. La existencia de redes en las que
°uye materia, energ¶³a o informaci¶on merced de las interacciones entre sus nodos (siempre
que estos est¶en adecuadamente rotulados). No resulta dif¶³cil encontrar ejemplos en los que
estos conceptos sean aplicables; los sectores econ¶omicos o las actividades, son meta-agentes
compuestos por ¯rmas y trabajadores, que a su vez interact¶ uan entre s¶³. Una ¯rma es un meta-
agente compuesto por sus trabajadores. Estos a su vez suelen estar internamente organizados
de manera tal que es posible de¯nir subsistemas que tambi¶en interact¶ uan entre s¶³. Otro
ejemplo relevante en las ciencias sociales son las instituciones entendidas como el conjunto de
normas y reglas de operaci¶ on que organizan las acciones de un subconjunto de agentes que
act¶
uan en el sistema como un \meta-agente" con propia entidad.
² Flujo y conectividad: Un sistema complejo adaptativo puede considerarse como una red
con \nodos" conectados por \v¶³nculos" a trav¶es de los cuales °uye materia, energ¶³a, infor-
maci¶on, dinero, bienes. Cada nodo procesa estos elementos de acuerdo a \modelos internos
locales" del comportamiento del sistema. Los \r¶otulos" permiten canalizar los °ujos entre
nodos y conectores en forma adecuada. Los °ujos permiten que pueda tener lugar el reciclado
de los recursos y la aparici¶
on de efectos multiplicadores. El sistema puede poseer lazos de
retroalimentaci¶
on tanto positiva como negativa. En el caso de los sistemas econ¶omicos este
atributo da lugar a externalidades que condicionan los resultados agregados del sistema.
Las condiciones necesarias para que tenga lugar el °ujo de materia, energ¶³a, o informaci¶ on
a lo largo un sistema son (i) la accesibilidad, (ii) la posibilidad de p¶erdidas o ganancias por
medio del procesamiento que realiza de cada componente del sistema y (iii) las existencia de
sinerg¶³as entre ellos.
² Diversidad: Cada tipo de agente de un sistema complejo adaptativo ocupa un nicho que
determina y est¶a determinado por sus interacciones con el entorno. La diversidad de estos
sistemas no es acausal ni aleatoria, y queda de¯nida por un esquema din¶amico que posee un
alto grado de estabilidad y coherencia. La diversidad de los comportamientos de un sistema
complejo adaptativo se pone de mani¯esto a trav¶es de patrones de evoluci¶on din¶amicos. El
5
Los modelos de \agente representativo" ignoran los problemas de agregaci¶ on (v¶ease Mantel [134, 135] y Kirman
[116]) y, dejan de lado, por propia construcci¶
on, el an¶
alisis de los mecanismos que reconcilian los planes individuales
de los distintos agentes que componen el sistema [?].
22 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
² Equilibrio Din¶ amico: Los estados estacionarios tienen un caracter din¶amico debido a la
diversidad del sistema a nivel microsc¶opico. El sistema mantiene su identidad mientras ex-
perimenta cambios y \mutaciones" internas. En los sistemas econ¶omicos permanentemente se
crean y destruyen actividades no obstante, se mantiene la integridad del sistema como un todo
coherente. Esta una una caracter¶³stica fundamental de todo proceso de auto-organizaci¶on.
² No hay un Controlador Global: Las interacciones locales dan lugar a estructuras tem-
porales o espaciales de largo alcance 6 . Debido a la complejidad intr¶³nseca de estos sistemas
no es posible que haya un mecanismo centralizado de procesamiento de la informaci¶on. De
hecho, el procesamiento que cada elemento realiza en paralelo es una caracter¶³stica que da
lugar a una mayor robustez del sistema frente a fallas. Desde el punto de vista evolutivo un
sistema descentralizado posee una mayor aptitud en t¶erminos de capacidad de procesamiento
y velocidad, que uno que no lo es y, por lo tanto es mayor su e¯ciencia.
auto-organizaci¶on de los procesos econ¶ omicos. El desaf¶³o consiste en lograr explicar c¶omo las
regularidades globales tienen lugar a partir de las interacciones locales de agentes que operan
de manera aut¶onoma interconectados a trav¶es de canales reales o potenciales de transmisi¶on de
informaci¶on. Desde esta perspectiva, la racionalidad es vista como una hip¶otesis a ser veri¯cada y
no como un punto de partida para el an¶ alisis.
La aparici¶on del dinero como medio de cambio, la creaci¶on y desaparici¶on de mercados de
todo tipo, los proceso transicionales y cambios de r¶egimen en din¶amicas macroecon¶omicas, los pro-
cesos de aprendizaje, las fallas de coordinaci¶on, las crisis, los ataques especulativos, los problemas
de congesti¶on, etc. son algunos de los innumerables t¶opicos en que la teor¶³a de los sistemas comple-
jos adaptativos podra contribuir para incrementar el conocimiento de los mismos. Las ¶areas en las
que podr¶³a ser u
¶til este enfoque incluyen t¶opicos de las teor¶³as del comercio internacional, la teor¶³a
del crecimiento, la microeconom¶³a con externalidades, la econom¶³a de la innovaci¶on tecnol¶ogica y
el estudio de econom¶³as con rendimientos crecientes a escala, la macroeconom¶³a monetaria y ¯scal,
la organizaci¶on industrial, la econom¶³a urbana y espacial, etc. A continuaci¶on enumeramos y ex-
plicamos con cierto detalle algunos temas relevantes sobre los cuales estas teor¶³as pueden resultar
utiles.
2.6.2 Coordinaci¶
on y din¶
amica de las expectativas
Sigo al proceso, . . . ,
y el proceso me sigue a mi.
No hay separaci¶ on.
John Cage
(i) Profec¶³as auto-cumplidoras: se originan a partir de expectativas tales que inducen el tipo
de comportamiento que es el responsable de que la expectativa se cumpla. Mediando de los
a~
nos '80 este tema comenz¶ o a ser tratado en la econom¶³a, especialmente en lo que se re¯ere
al estudio de crisis especulativas, cambiarias y bancarias.
(iii) Expectativas auto-equilibradas: tienen lugar cuando, a trav¶es de un proceso din¶ amico,
una expectativa auto-desplazada se corrige de manera end¶ogena hasta alcanzar un estado esta-
cionario. Si todos los asistentes a una ¯esta llevan bebidas y muy pocos aportan comida, la
pr¶oxima semana ocurrir¶ a lo contrario y a trav¶es de un proceso de ajuste lento habr¶ a una
correcci¶
on tal que la provisi¶
on de alimento y bebida converja a un estado estacionario consis-
tente con la satisfacci¶
on del grupo (ajusta tipo telara~
na). Por un lado, este tipo de proceso es
adaptativo ya que involucra necesariamente, un aprendizaje inductivo guiado por la evoluci¶ on
del sistema. Por el otro, es convergente siempre y cuando el sistema tenga una diversidad
interna tal que permita la diversidad de las acciones. En el cap¶³tulo 3.6 estudiaremos, en un
contexto estilizado, este tipo de evoluciones a partir del enfoque constructivo.
(iv) Se~nales auto-con¯rmadas: Esta es otra categor¶³a que corresponde a una situaci¶on en la
que una se~ nal externa se refuerza por la adopci¶on de acciones que, a su vez, refuerzan a esa
se~
nal. Como ejemplo, podemos suponer que si un fabricante produce cigarrillos mentolados
con una envoltura verde, su competidor tambi¶en har¶a lo mismo. Dentro de esta clasi¯caci¶ on
podemos tambi¶en incluir lo que se podr¶³a denominar como convenciones auto-reforzadas. Una
convenci¶ on es una instituci¶on que se origina a partir de la inercia que van adquiriendo las
decisiones de los individuos en un contexto colectivo. A modo de ejemplos: s¶³ todos asistentes
a un concierto esperan que nadie aplauda entre los movimientos de un cuarteto, di¯cilmente
alguien lo haga. El estudio de las se~nales auto-reforzadas en los procesos productivos se rela-
ciona con los procesos denominados de \lock-in", las dependencias del sendero y el fen¶ omeno
de hist¶eresis, que son descriptos en las siguientes secciones.
26 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
(v) Pseudo equilibrios: Tienen lugar cuando los agentes piensan que las variables de mercado
surgen de decisiones basadas en pron¶osticos exactos de parte del transactor promedio. Es
posible pues, que los agentes traten a los precios y cantidades observados como se~ nales con-
¯ables a¶un cuando, de hecho, son consecuencia de previsiones incorrectas. Comportamiento
fundados en errores de interpretaci¶ on pueden sostenerse como equilibrios temporarios en los
cuales, dadas sus creencias iniciales y la evoluci¶on que registran los mercados, los agentes no
encuentran motivo para modi¯car sus acciones. En algunas circunstancias, si los individuos
creen ¯rmemente que la evoluci¶ on agregada de la econom¶³a re°eja expectativas correctas,
pueden verse inducidos a realizar elecciones transitoriamente auto-validades pero err¶oneas, lo
que traer¶³a aparejado una revisi¶ on de planes en alg¶un momento. Estas \burbujas" aparecen
en modelos con m¶ ultiples equilibrios temporarios; sin embargo, ellas no son \profec¶³as au-
tocumplidas"; no surgen de alg¶ un conjunto particular de expectativas coordinadas, sino m¶ as
bien de percepciones inconsistentes [97].
La clasi¯caci¶
on que hemos realizado no es exhaustiva sin embargo es una gu¶³a v¶alida que
permite esquematizar procesos sociales donde tienen lugar fen¶omenos de auto-organizaci¶on a trav¶es
la interdependencia entre los niveles individuales y colectivos. En muchos casos, la simple agregaci¶
on
mediante la construcci¶ on de \agentes promedio" puede sesgar las descripciones que conduzcan a
una explicaci¶on consistente en todos los niveles. Desde esta perspectiva, la coordinaci¶on plena del
sistema es como un comportamiento emergente que surge de estos mismos niveles de acci¶on.
corrompe. Se utilizan las manchas solares para incorporar estados subjetivos cuya realizaci¶ on es
dif¶³cil de conocer a priori ya que son cuanti¯cados por variables ocultas y dan lugar a profecias
auto-cumplidoras.
Cuando un modelo admite m¶ ultiples estados de equilibrios aparece una di¯cultad funda-
mental ya que cuando ¶estos est¶ an indeterminados se requiere un esfuerzo de coordinaci¶on entre los
agentes econ¶ omicos, que socava el concepto mismo de previsi¶on perfecta. En un modelo dado, la
econom¶³a no \saltar¶ a" de una soluci¶on a otra a menos que sea de p¶ ublico conocimiento que todos
esperan precisamente que ese cambio ocurra. La principal complicaci¶on que tiene lugar cuando
se emplean herramientas propias de la aproximaci¶on anal¶³tica-deductiva (o \top down") es que
no es posible predecir como se coordinar¶an las expectativas y, por lo tanto, cual ser¶a el equilibrio
resultante. Nuevos criterios que permitan evaluar la robustez de cada equilibrio y que estudien los
mecanismos por los cuales un equilibrio particular es seleccionado deber¶³a ser motivo de futuras
investigaciones y puede suponerse que los modelos que parten de la aproximaci¶on constructiva (o
\bottom up") puedan eludir semejante complicaci¶on.
2.6.4 Hist¶
eresis
El t¶ermino hist¶eresis ha sido usado en la Econom¶³a para describir muchos fen¶omenos distintos.
Se le suele usar para describir la persistencia en las desviaciones del equilibrio. Otro uso es para
dar cuenta de la presencia de ra¶³ces unitarias en ecuaciones diferenciales o en diferencias lineales.
Ninguna de estas interpretaciones se corresponde con las de la f¶³sica donde tuvo origen el t¶ermino.
El concepto de hist¶eresis fue alli aplicado a sistemas que exhiben un comportamiento remanente por
oposici¶on a uno persistente. Un sistema tiene un comportamiento remanente cuando la aplicaci¶ on
de una perturbaci¶ on y su posterior remoci¶on cambian el estado de equilibrio. Esto signi¯ca que la
aplicaci¶on de \shocks" de igual magnitud pero sentido opuesto produce efectos que no se cancelan
entre s¶³ [162]. Un sistema que presenta hist¶eresis en su comportamiento debe satisfacer dos reque-
rimientos b¶ asicos, a saber: el sistema debe responder en forma no lineal a las perturbaciones y los
elementos que conforman el sistema deben ser heterog¶eneos de manera tal que la respuesta de cada
uno de ellos a la perturbaci¶ on sea diferente7 . La presencia de estas dos caracter¶³sticas hace que el
sistema tenga una memoria selectiva de los pasados \shocks" que afecta el equilibrio presente del
sistema.
Para ejempli¯car este fen¶ omeno, consideremos un sistema que posee dos puntos ¯jos estables
y un u¶nico par¶ ametro de control ¹ 2 <1 , que var¶³a lentamente. La ¯gura 6.1 muestra el diagrama
de bifurcaciones del sistema. Si ¹ est¶a creciendo y el sistema se encuentra en el punto xo , podr¶³a
volcarse hacia el segundo punto ¯jo x1 apartir del momento en que ¹ supere al valor ¹o . Como
xo permanece estable, esto no ocurre a menos que ¹ > ¹1 > ¹o situaci¶on en la que suponemos
que xo se torna inestable. Si sistema se encuentra en cambio en el punto ¯jo x1 y el par¶ametro de
control ¹ > ¹1 comienza a decrecer, el sistema salta del punto ¯jo x1 a xo reci¶en cuando ¹ pasa por
debajo de ¹o . El equilibrio del sistema entre los valores ¹o y ¹1 depende pues de su historia previa.
Este tipo de comportamiento puede tener lugar cuando el sistema admite m¶as de un atractor. En
un sistema que presenta hist¶eresis los estados observados no dependen u ¶nicamente del valor del
par¶ametro de control, sino tambi¶en de sus historia previa.
En Econom¶³a se ha utilizado el concepto de hist¶eresis para modelar, por ejemplo, el fen¶
omeno
de persistencia del desempleo [30, 72, 113]. La existencia de hist¶eresis es un hecho estilizado que
pone de mani¯esto un comportamiento de naturaleze compleja.
Figura 6.1: Diagrama de Bifuraciones para un sistema din¶amico con hist¶eresis; la l¶³nea s¶olida
representa estabilidad, mientras que la punteada, inestabilidad de los punto ¯jos.
² Las °uctuaciones iniciales, por insigni¯cantes que sean, pueden ubicar al sistema en un sendero
que no puede ser abandonado sin costo. Ese sendero puede ser ¶optimo (aunque no necesa-
riamente sea el u¶nico). Ejemplos de este tipo pueden ser el proceso de selecci¶on que tuvo
lugar en la industria automotriz cuando, seg¶ un el pa¶³s, se eligi¶o la ubicaci¶on del conductor al
momento de iniciarse la fabricaci¶ on de autom¶oviles, o la adopci¶on del sentido de rotaci¶on de
las manecillas del reloj.
² Otra situaci¶
on tiene lugar cuando se transita hacia un resultado ine¯ciente y el sendero es
remediable. Esto signi¯ca que en alg¶ un momento es posible un arreglo que hace posible
optimizar el resultado y, sin embargo, el mismo no se lleva a cabo. Esta clase de dependencia
del sendero entra en con°icto con el modelo de comportamiento optimizador de los sistemas
econ¶omicos y constituye una clara \falla del mercado".
La exclusi¶on entre tecnolog¶³as competitivas posee esta caracter¶³stica t¶³pica de sistema cuya
evoluci¶on depende de la historia. Seg¶ un las consideraciones que se hagan, la selecci¶on de la norma
de video VHS en oposici¶ on a la BETAMAX, o la adopci¶on del teclado alfanum¶erico QWERTY en
lugar de teclado propuesto por Dvorak, pueden ser ejemplos de los diversos tipos de dependencia
del sendero que hemos detallado.
Toda manifestaci¶ on de dependencia del sendero debe ser entendida como un proceso irre-
versible que esta ¶³ntimamente ligado al concepto de hist¶eresis - ya de¯nido - y puede ser modelado
por procesos estoc¶ asticos en los que se incorpora cierto contenido de memoria. Consideremos una
secuencia de elecciones de dos posibles alternativas mutuamente excluyentes A1 y A2 , cuyas pro-
babilidades sean Pn y (1 ¡ Pn ) respectivamente. S¶³ Ei es el evento que a tenido lugar en el suceso
i; hay dependencia del sendero si Pn+1 = f (Pn ; En ; ¢ ¢ ¢ ; En¡d ) (en cambio si d = 0 el proceso es
independiente del sendero).
2.7. Ap¶endices del Cap¶³tulo 29
Arthur (1989) [11] supone que las manifestaciones de \lock-in" suelen ocurrir cuando se
consideran sistemas que operan con rendimientos crecientes a escala. Este autor argumenta que la
interpretaci¶on misma de la historia econ¶omica deber¶³a ser diferente seg¶
un la condiciones respecto de
los rendimientos a escala. Bajo rendimientos constantes o decrecientes a escala, la evoluci¶ on de los
mercados ser¶³an solamente consecuencia de las dotaciones, preferencias y relaciones tecnol¶ ogicas
existentes. Los eventos de menor magnitud no pueden ser capaces de ladear un resultado. Sin
embargo, cuando la econom¶³a opera con rendimientos crecientes a escala muchos resultados son
posibles y, por lo tanto circunstancias insigni¯cantes puede torcer la selecci¶on a un estado deter-
minado. Por esta raz¶ on, este tema est¶a intimamente relacionado con la ocurrencia de equilibrios
m¶ultiples en los modelo din¶ amicos.
Por otro lado, en un contexto de competencia perfecta, la ausencia de mercados contingentes
puede conducir a la estandarizaci¶ on de una norma, o sistema de producci¶on equivocado. Todo
proceso dependiente del sendero est¶a llamado a ser no erg¶ odico ya que una vez visitada cierta
regi¶on del espacio de fases, el sistema queda entrampado quedando otros subespacios no accesibles.
2.7 Ap¶
endices del Cap¶³tulo
2.7.1 El mapa log¶³stico
En esta secci¶
on se ejempli¯car¶
an propiedades y de¯niciones sobre sistemas din¶amicos comentadas en la primer parte del ca¶³tulo.
Se analiza un mapa simple discreto unidimensional: el mapa log¶³stico. Este mapa tuvo sus or¶³genes en el estudio de la din¶
amicas
de poblaciones en sistemas ecol¶ogicos. Si se supone que N(t) representa como funci¶
on del tiempo la poblaci¶ on de individuos de
un especie, su tasa de cambio est¶a dada por:
dN
= Nacimientos ¡ Muertes + Migraciones (7.24)
dt
El modelo m¶ as simple no incorpora a la migraci¶
on de individuos y supone que la cantidad de nacimientos y muertes
son proporcionales a la poblaci¶
on total con lo que:
dN
=n¢N ¡m¢N ) on es: N (t) = N(0)e(n¡m)t
cuya soluci¶ (7.25)
dt
Claramente, si n > m la tasa de nacimientos es mayor a la de muertes y por lo tanto la poblaci¶ on crece exponencialmente, si
n = m hay un equilibrio que mantiene a la poblaci¶on en una cantidad igual a la que hab¶³a inicialmente, y ¯nalmente, si n < m,
la poblaci¶
on tiende a desaparecer. El primer investigador en analizar esta aproximaci¶
on fue Malthus en 1798. Verhulst en 1836
formul¶o un modelo algo m¶as re¯nado suponiendo que opera un proceso auto-limitante cuando la poblaci¶ on crece excesivamente
y sugiri¶
o que:
dN ¡ N¢
= ®N 1 ¡ (7.26)
dt k
Esta es la ecuaci¶
on log¶³stica. La constante k da cuenta de la capacidad del medio ambiente que se supone determinada
por la cantidad de recursos disponibles. Este nuevo sistema posee dos estados estacionarios (que anulan la derivada respecto
del tiempo) en N = 0 y N = k. El primero es inestable y no es accesible a menos que la condici¶ on inicial corresponda a ese
estado. El segundo, en cambio, es estable y corresponde al valor al que tiende la poblaci¶ on cuando t ! 1. En este modelo
(cont¶³nuo) la soluci¶
on de la ecuaci¶on diferencial 7.26 es la funci¶
on sigmoide:
N(0)ke®t
N(t) = que cumple con: lim N(t) = k 8® > 0 (7.27)
k + N(0)(e®t ¡ 1) t!1
Este modelo formulado en tiempo continuo puede re¯narse incorporando t¶ erminos que representan la predaci¶ on por
otras especies, o agregando retardos debidos, por ejemplo, a determinados tiempos de gestaci¶ on. Tambi¶ en se pueden estudiar
modelos poblacionales en los que se tiene en cuenta la distribuci¶
on de las edades de los individuos de la especie, asignando una
probabilidad de muerte seg¶un la edad, etc. Sin embargo todos estos modelos suponen una superposici¶ on continua entre una
generaci¶
on y otra y, como es dable suponer, muchas especies no poseen esa caracter¶³stica pues su reproducci¶ on tiene lugar en
determinados momentos del a~ no. Para considerar estos casos, en necesario suponer que el sistema evoluciona en tiempo discreto
por lo tanto:
³ ´
Nt
Nt+1 = ®Nt 1 ¡ ; ® > 0; k>0 (7.28)
k
Si realizamos el simple cambio de variables xt = Nt =k, de modo de normalizar la poblaci¶
on a 1, y se de¯ne ® = 4r, se obtiene
el mapa log¶³stico discreto [147]. Formalmente, la expresi¶
on funcional de este mapa es:
x¤1 = 0 (7.30)
1
x¤2 = 1¡ (7.31)
4r
Su condici¶
on de estabilidad se puede expresar en forma general:
Figura 7.2: Espacio de fases y evoluci¶on del mapa log¶³stico para r = 0:7
Cuando r > 3=4 y se llega a r ' 0:775, se da lugar a una bifurcaci¶
on en la que se produce un desdoblamiento de per¶³odo
(¯gura 7.3). El mapa describe un sistema peri¶ odico que oscila entre dos valores posibles (x+ ; x¡ ), mediante una evoluci¶
on de
la forma:
x+ = 4rx¡ (1 ¡ x¡ ) (7.33)
x¡ = 4rx+ (1 ¡ x+ ) (7.34)
Figura 7.3: Espacio de fases y evoluci¶on del mapa log¶³stico para r = 0:775
r2(n+1) ¡ r2n
± = lim = 4:669201609::: ¢ ¢ ¢ (7.36)
n!1 r2(n+2) ¡ r2(n+1)
Figura 7.4: Espacio de fases y evoluci¶on del mapa log¶³stico para r = 0:88
Otro resultado interesante y aplicable a todo tipo de mapa discreto unidimensional, es el teorema de Sarkovskii: Si f
es una funci¶ en un ciclo de per¶³odo k0
on continua cuyo mapa xt+1 = f (xt ; ¹) tiene un ciclo de per¶³odo k, entonces tiene tambi¶
donde k0 es cualquier n¶umero entero tal que k  k0 . El s¶³mbolo  corresponde al llamado orden de Sarkovskii que se de¯ne por
la siquiente secuencia:
3 Â 5 Â 7 Â ::: Â 2 ¢ m +1 Â :::
2 ¢ 3 Â 2 ¢ 5 Â 2 ¢ 7 Â : : : Â 2 ¢ (m + 1) Â : : :
4 ¢ 3 Â 4 ¢ 5 Â 4 ¢ 7 Â : : : Â 4 ¢ (m + 1) Â
:::::::::::::::::::::::::::
2m ¢ 3 Â 2m ¢ 5 Â 2m ¢ 7 Â : : : Â 2m ¢ (2 ¢ m + 1) Â
:::::::::::::::::::::::::::
2m  2m¡1  : : :  16  8  4  2  1
Este teorema es v¶
alido para cualquier mapa continuo, no s¶
olo para mapas unimodales que posean un m¶
aximo en un
intervalo dado [a; b].
32 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
Figura 7.5: Diagrama de bifuraciones de mapa log¶³stico para valores de r 2 [0:70; 1]. Sea han
tomado como muestras representativas 1000 condiciones iniciales diferentes y se gra¯ca el valor de
la variable xt luego de 1000 iteraciones. Se ampli¯ca a la izquierda/abajo la ventana recuadrada.
El mapa log¶³stico para r = 1 se puede reducir a trav¶ es de un cambio de variables a otro mapa conocido en la
literatura como mapa carpa o tent map. Este mapa es u¶ til pues permite averiguar algunas propiedades adicionales que, con las
transformaciones adecuadas, se pueden aplicar al mapa log¶³stico. Si se considera el cambio de variables:
³ ´
¼yt
xt = sen2 (7.37)
2
se reemplaza en la expresi¶
on del mapa log¶³stico y se utilizan identidades trigonom¶
etricas apropiadas se llega a:
³ ´
¼yt+1
sen2 = sen2 (¼yt ) (7.38)
2
esta igualdad implica que:
¼yt+1 ¼
= ¼yt si 0 · ¼yt · (7.39)
2 2
¼yt+1 ¼
= ¼ ¡ ¼yt si · ¼yt · ¼ (7.40)
2 2
Finalmente se obtiene el mapa carpa:
n
2yt Si 0 · yt · 1=2
yt+1 = (7.41)
2 ¡ 2yt Si 1=2 · yt · 1
1
h ³ ´
y
³ y
´i
½e (y) = ½e + ½e 1 ¡ (7.43)
2 2 2
Esta ecuaci¶
on admite una u on derivable e integrable en el sentido de Lebesgue9 y normalizada (ver [177]):
¶nica soluci¶
½e (y) = 1 (7.44)
Este resultado indica que la secuencia ca¶ otica de iteraciones 10 : yo ; f (yo ); f (f (yo )); ¢ ¢ ¢ ; f (n) (yo ); ¢ ¢ ¢
cubre uniforme-
mente el intervalo [0; 1] cuando n ! 1, y por lo tanto el sistema es erg¶ odico. M¶
as formalmente, la medida invariante de un
conjunto dado para este sistema es la longitud de todo el intervalo [0; 1]. Como el mapa carpa est¶ a vinculado topol¶
ogicamente
con el log¶³stico (para r = 1) por el simple cambio de variables 7.37, se puede calcular la densidad estacionaria para el mismo.
Teniendo en cuenta la conservaci¶ on de la probabilidad frente a cambios de variables se tiene:
1
½e (x) = p (7.47)
¼ x(1 ¡ x)
Ambas densidades de probabilidad son derivables y no est¶ an localizadas en el espacio de fases y pueden admitir
singularidades, sin embargo esto no compromete la ergodicidad pues los puntos singulares representan un conjunto de medida
(de Lebesgue) nula.
Para analizar la sensibilidad a las condiciones iniciales hab¶³amos de¯nido el exponente de Lyapunov como (ecuaci¶on
1 X
n¡1
´ lim ln jf 0 (xi )j (7.49)
n!1 n
i=0
odicos este promedio temporal debe ser independiente de las condiciones iniciales11 , debe
Como para sistemas erg¶
cumplirse:
Z
¸(xo ) = ¸ = ½e (x) log jf 0 (x)jdx (7.50)
Aplicando este resultado al mapa carpa 7.41, y sabiendo que ½e (y) = 1, se obtiene:
Como vimos, el exponente de Lyapunov mide la sensibilidad a las condiciones iniciales. En ambos casos, se obtuvo un
valor de ln 2, que evidencia que la discrepancia entre ¶
orbitas que parten de condiciones iniciales cercanas se duplica luego de
cada iteraci¶
on.
Siguiendo con este ejemplo, podemos calcular tambi¶ en la funci¶
on de correlaci¶
on del mapa carpa utilizando la ex-
presi¶
on 4.23:
Z 1 hZ 1 i2
C(¿ ) = yf (¿ ) (y)dy ¡ ydy (7.53)
o o
11
Excepto para un conjunto de medida (de Lebesgue) nula.
2.7. Ap¶endices del Cap¶³tulo 35
Z 1=2 ³ ´ Z 1=2 ³ ´
(¿) 1 1 1 1
= zf z+ dz + f (¿ ) z + ¡ (7.54)
¡1=2
2 2 ¡1=2
2 4
1
= ±0;¿ (7.55)
12
on f (n) (z+1=2)
esto signi¯ca que la secuencia de iteraciones esta delta - correlacionada. Se obtiene este resultado ya que la expresi¶
es sim¶etrica respecto de z = 0, entonces la primer integral es nula 8¿ > 0 y la segunda integral es independiente de ¿ como se
muestra en la ¯gura 7.8.
dp
= f (p) (7.56)
dt
donde f (p) es una funci¶on creciente del exceso de demanda y, por lo tanto decreciente en el propio precio.
El precio de equilibrio del mercado po satisface la condici¶ on f (po ) = 0. Si f 0 (po ) < 0 queda asegurada la
estabilidad para peque~ nos apartamientos del precio de equilibrio, por otro lado ¿ = jf 0 (po )j¡1 de¯ne una
escala temporal para el ritmo de transacciones que puede resultar menor cuando no hay costos de transacci¶ on
y la informaci¶on es perfecta, como suele suponerse en situaciones idealizadas. Ahora, si estudiamos la
din¶
amica de un conjunto de n mercados acoplados entre s¶³ se deber¶ a analizar la din¶ amica del vector de
precios ~
p(t). Siguiendo el mismo tipo de an¶alisis, la evoluci¶
on de este vector deber¶³a depender del vector de
excesos de demanda f~:
d~
p
= f~(~
p) (7.57)
dt
Considerando a p~eq el vector de precios en el equilibrio podr¶³a hacerse un an¶ alisis para peque~
nas
perturbaciones que apartan al sistema de este equilibrio y estudiar la estabilidad del mismo. Para hacer
on ~± realizamos un desarrollo
esto, podemos entonces linealizar al sistema, es decir que, dada una perturbaci¶
de Taylor a primer orden alrededor del valor p~eq , por lo tanto:
d~± ¹ (~
=M peq ) ¢ ~± (7.58)
dt
donde M ¹ 2 <n£n es la matriz Jacobiana de f~ evaluada en p~eq . Los elementos diagonales de M ¹ determinan
el efecto directo de los precios del mismo mercado. Si suponemos que cada mercado por s¶³ mismo es estable,
estos elementos de matriz deber¶an ser negativos y, por lo tanto se puede suponer que tienen un valor promedio
de ¡D. Este valor cuanti¯ca la velocidad media de ajuste de los mercados. Obviamente los t¶erminos no
diagonales describen el efecto del cambio del exceso de demanda de un mercado sobre el precio de otro. Si
el acoplamiento es d¶ebil ese elemento deber¶ a ser cercano a cero.
El efecto de una perturbaci¶on peque~ na sobre el punto ¯jo p~eq puede conocerse determinando el
autovalor de M ¹ de mayor parte real E ya que resolviendo el sistema de ecuaciones diferenciales linealizado,
~± / eE¢t . S¶³ E < 0 la perturbaci¶on se disipa y se restituye el equilibrio, mientras que en el caso contrario el
equilibrio ser¶a inestable y la perturbaci¶on ~± aumentar¶ a su amplitud inexorablemente.
Un estudio que puede realizarse es analizar el comportamiento promedio sobre un ensamble de
estados, considerando, dadas las restricciones formales, todas las matrices que puedan ser posibles matrices
Jacobianas, obtenidas de distribuciones con media y varianza conocida [107]. Podemos realizar este an¶ alisis
en diversos casos.
a) Supongamos primeramente que en el conjunto de mercados acoplados los bienes pueden ser tanto sustitutos
como bienes complementarios, por lo tanto el promedio de elementos no diagonales es nulo. Entonces,
utilizando algunos resultados de la teor¶³a de matrices estoc¶
asticas, se demuestra que la distribuci¶
on de
autovalores sigue la ley de Wiener:
p
E = 2¾ ¢ n¡D (7.59)
Se veri¯ca entonces que este promedio es positivo cuando n es su¯cientemente grande.
36 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
¾2
E = (n ¡ 1) ¢ ¹ + ¡D (7.60)
¹
siendo ¹ el valor promedio de los acoplamientos, que suponemos positivo. Adem¶ as los valores de E quedan
normalmente distribuidos con una varianza 2¾ 2 , lo que implica que cuando el tama~ no del sistema crece,
muchas de estas matrices tendr¶an autovalores positivos, produci¶endose nuevamente una tendencia a la in-
estabilidad.
c) Si la matriz no es sim¶etrica y los elementos no diagonales tienen una media positiva ¹ y varianza ¾ 2 , y
sobre la diagonal la media es ¡D, el mayor autovalor crecer¶ a con n de acuerdo a
E » ¹(n ¡ 1) ¡ D (7.61)
Como ¹ es positivo se veri¯ca que existe un valor de n para el que el equilibrio se torna inestable. Un
argumento en favor de la estabilidad de estos mercado acoplados radica en el hecho de que no todos los
productos suelen estar vinculados entre s¶³. En los casos en los que esto ocurra dos situaciones pueden tener
lugar, una en la que el Jacobiano puede descomponerse en bloques y otra que implica que un mercado
este fuertemente in°uenciado por unos pocos y d¶ebilmente por el resto, produci¶endose agrupamientos de
mercados (o lo que se denomina en ingl¶es como clusters).
En este caso las matrices estoc¶asticas se pueden construir seleccionando los elementos fuera de la
diagonal en forma aleatoria con una magnintud igual a 1 (grande) con probabilidad p y una peque~ na (² ¿ 1)
con probabilidad (1 ¡ p). En este caso ¹ = p + (1 ¡ p) ¢ ² y ¾ 2 = p(1 ¡ p)(1 ¡ ²)2 . El valor promedio de mayor
autovalor es similar al u
¶ ltimo mostrado por lo tanto tambi¶en es inestable para n (el n¶ umero de mercados
acoplados) grande.
d) Consideremos el caso en que los productos se agrupan en una estructura o ¶ arbol jer¶
arquico de profundidad
d y tasa de rami¯caci¶on b. La intensidad de la interacci¶on entre dos mercados se de¯ne como Rh , con h el
n¶umero de niveles jer¶arquicos que separan a los dos mercados, y R caracteriza la reducci¶ on de la intensidad
de la interacci¶
on.
Seg¶un los resultados obtenidos a partir del estudio de matrices estoc¶
asticas, el tama~no promedio de
la matriz es n = bd y la media sobre los elementos no diagonales:
Pd
h=1 bh¡1 (b ¡ 1)Rh (Rb)d ¡ 1 R(b ¡ 1)
¹= Pd = (7.62)
h=1 bh¡1 (b ¡ 1) bd ¡ 1 Rb ¡ 1
Si se supone que R < 1=b se puede veri¯car que
R(b ¡ 1)
¹= (7.63)
(1 ¡ Rb)n
con lo cual el sistema tiende a una media nula cuando n crece, por lo que el sistema tiende a ser estable. Sin
embargo, cuando R > 1=b, en el l¶³mite de n À 1:
considerados en el estudio de los mercados reales. La din¶ amica de los mercados no s¶ olo depende de los
precios vigentes sino tambi¶en de los precios pasados y los futuros esperados y, por lo tanto, se desarrollas
comportamientos de arbitraje entre mercados y en el tiempo, que en \condiciones normales" tienden a
estabilizar el sistema.
En este modelo que hemos presentado el ajuste de precios se realiza atrav¶es de un \imaginario
rematador Walrasiano est¶atico" que no adapta o modi¯ca las funciones de exceso de demanda durante
la evoluci¶
on del tiempo. Si los agentes econ¶ omicos advierten la aparici¶
on de una inestabilidad, la misma
capacidad de adaptaci¶on que los agentes poseen pueden llevar al sistema a modi¯car los acoplamientos entre
mercados de manera de ubicar al sistema en un nuevo sendero estable [107].
38 Cap¶³tulo 2. Sistemas Din¶amicos y sistemas Complejos
Cap¶³tulo 3
Desde el punto de vista de la organizaci¶on interna del sistema, los modelos de expectativas
racionales, as¶³ como aquellos en los que las expectativas se generan a trav¶es de un u
¶nico algoritmo de
aprendizaje, comportan una enorme simpli¯caci¶on del sistema. En general, es probable que exista
una apreciable diversidad en las percepciones y expectativas de los agentes (aun cuando ¶estos ten-
gan acceso a un conjunto u ¶nico de datos). Se plantea, entonces, la construcci¶on de representaciones
que permitan incorporar, en forma manejable, la heterogeneidad de previsiones y comportamientos.
Interesa particularmente el an¶ alisis de la evoluci¶on de los mecanismos de formaci¶on de expectati-
vas, entendida como la din¶ amica de poblaciones de agentes que utilizan diferentes esquemas para
formularlas.
En la secci¶on 3.2 consideramos como ejemplo un modelo con agentes heterog¶eneos (algunos
de los cuales son \ruidosos" 3 ). El procedimiento utilizado para representar la din¶amica en la he-
terogeneidad de los agentes se basa en el principio de m¶ axima entrop¶³a que se describe en detalle.
Seg¶un este principio los agentes tienen un comportamiento probabil¶³stico con una distribuci¶on tal
que minimiza el sesgo con que se toman las decisiones. En el modelo se supone que es posible, a
un cierto costo, formar expectativas sobre la base del modelo del sistema mientras que las expec-
tativas basadas en las realizaciones pasadas se formulan a un costo menor, pero se paga el costo de
predicciones incorrectas. Se ve que es posible generar gran variedad de din¶amicas. Pueden existir
equilibrios m¶ ultiples, estables e inestables; el sistema puede tener ciclos l¶³mites o din¶amicas ca¶oticas.
El ejercicio se muestra a t¶³tulo de ejemplo: compararlo con situaciones reales entra~ na di¯cultades:
no es sencillo asignar a los par¶ ametros de control una interpretaci¶on econ¶omica precisa, as¶³ como
establecer una correspondencia entre las escalas de tiempo del modelo y las de un sistema real. El
ejercicio ilustra llamativamente de qu¶e manera, a¶ un en modelos relativamente simples, la diversidad
intr¶³nseca entre los agentes del sistema puede dar lugar a una multiplicidad de din¶amicas.
1
V¶ease la secci¶
on 3.1.1, donde se detallan la principales caracter¶³sticas de la hip¶
otesis de expectativas racionales.
2
En [171, 64, 97] se presentan modelos donde el aprendizaje acerca de la tendencia del producto puede generar
°uctuaciones en el gasto agregado.
3
V¶ease [58] y [136], donde se presentan modelos de agentes ruidosos para estudiar la evoluci¶ on del tipo de cambio
en la Argentina.
3.1. Comportamientos econ¶
omicos y heterogeneidad 41
¡ ¢
E(²t =It¡1 ) = E(xt =It¡1 ) ¡ E E(xt =It¡1 )=It¡1 = (1.1)
= E(xt =It¡1 ) ¡ E(xt =It¡1 ) ´ 0 (1.2)
El supuesto de expectativas racionales di¯ere pues, de la llamada previsi¶ on perfecta porque admite la aparici¶ on
de incertidumbre en los modelos, la cual es representada por elementos estoc¶ asticos. Los agentes pueden formular diversas
expectativas s¶ olo si no conocen con exactitud los datos que el modelo genera. No obstante, bajo la hip¶ otesis de expectativas
racionales, estas deben estar generadas por la correcta distribuci¶ on de probabilidades.
La primer formulaci¶ on de esta hip¶ otesis fue desarrollada por Muth [148] a partir de un esquema microecon¶ omico que
supon¶³a, impl¶³citamente, una separaci¶ on entre el problema de decisi¶ on que enfrenta un agente econ¶ omico al buscar optimizar
sus objetivos dadas las expectativas por una parte y las formulaci¶ on de las mismas por la otra. Sin embargo fueron Lucas y
Sargent, en 1981 [129] quienes mostraron que mantener esa separaci¶ on era innecesario, cuando un agente representativo toma
decisiones maximizando una funci¶ on de utilidad esperada. Estos autores formularon la hip¶ otesis de expectativas racionales en
contextos macroecon¶ omicos e intertemporales.
La hip¶ otesis de expectativas racionales exige que las percepciones del conjunto de agentes sean consistentes entre s¶³.
Las expectativas racionales suponen impl¶³citamente y por hip¶ otesis que todos los agentes saben, que todos los agentes saben,
que todos los agentes saben ... Eludiendo esta circularidad, la teor¶³a econ¶ omica { en especial la macroeconom¶³a { comenz¶ oa
desarrollar modelos basados en la construcci¶ on del \agente representativo" que presentan una imagen sencilla del problema de
coordinaci¶on intertemporal: por hip¶ otesis, el agente \internaliza" los efectos futuros de sus decisiones actuales. La incertidumbre
que enfrenta un agente de estas caracter¶³sticas se re¯ere a la componente estoc¶ astica de las variables ex¶ogenas, pero no le hace
falta arriesgar conjeturas sobre los planes de los dem¶ as agentes acerca de estas variables, eludiendo, de esta forma, el problema
de alta complejidad al momento de formar sus previsiones hacia el futuro.
En raz¶ on de verdad, la hip¶ otesis de racionalidad es un concepto que se incorpora en la econom¶³a como una hip¶ otesis
instrumental que permite desarrollar modelos con facilidad y hasta cierto punto contrastables con algunos hechos estilizados. La
discusi¶
on sobre el m¶ etodo con el que se determinan las expectativas tiene relevancia pr¶ actica si bien no siempre es debidamente
tenida en cuenta al formularse esos modelos te¶ oricos. En realidad, las expectativas pueden determinarse en forma inconsistente,
es decir, de un modo tal que las decisiones corrientes tengan impl¶³citos desequilibrios futuros no detectables directamente a
partir de la informaci¶ on disponible en el momento en que la decisi¶ on se toma [92, 97].
En general, la hip¶ otesis de expectativas racionales por s¶³ sola no permite determinar el resultado de un modelo. Existe
una variada cantidad de modelos basados en ella que poseen m¶ ultiples equilibrios (v¶ease la secci¶
on 2.6.3 del cap¶³tulo 2). Es
necesario recurrir a otros supuestos basados en alg¶ un tipo de esquema de aprendizaje que permita entender como se seleccionan
los equilibrios cuando el sistema exhibe una multiplicidad de ellos.
Si entendemos la hip¶ otesis de expectativas racionales como aquella que nos permite encontrar un punto ¯jo en el mapa
que existe entre las percepciones de los agentes y las leyes de movimiento de un sistema le estaremos imputando a los agentes
que operan en el mismo m¶ as conocimiento y capacidad del que poseen los economistas que construyen ese modelo. Se estar¶ a
suponiendo que los agentes de un modelo conocen objetivamente el valor de aquellas variables que cualquier econometrista
intenta estimar con probabilidad de ¶ exito incierta.
La hip¶ otesis de expectativas racionales se suele basar en diversos argumentos, sea como una derivaci¶ on del postulado
de racionalidad individual, sea como un precepto metodol¶ ogico de consistencia con el modelo, sea como el l¶³mite de un proceso
de aprendizaje. En el primer caso, el conocimiento de las distribuciones de probabilidad relevantes se trata a la manera de un
atributo de los agentes, en una categor¶³a similar a la de las preferencias o las dotaciones iniciales de bienes o factores. Pero, la
noci¶on de que los individuos tratan de comprender el entorno en que operan y no desaprovechan informaci¶ on no implica que
las expectativas sean racionales en el sentido usual.
La presencia de incentivos para que los individuos usen datos disponibles al formar sus previsiones no limita particu-
larmente los modos en que esos datos ser¶ an procesados. Y resulta algo parad¶ ogico suponer que mientras que la informaci¶ on
cuantitativa puede ser costosa, el conocimiento en el sentido de los procedimientos empleados para interpretar esa informaci¶ on y
realizar inferencia est¶a disponible, impl¶³citamente, sin restricciones y sin costo. Si se admite que la identi¯caci¶ on de m¶ etodo para
procesar los datos es una actividad costosa, lo cual no parece una hip¶ otesis extrema, hace falta tener en cuenta la complejidad
del problema de inferencia que enfrentan los agentes [92]. Por cierto, la hip¶ otesis de expectativas racionales es de gran utilidad
en muchos contextos. Pero dif¶³cilmente se le pueda asignar validez universal
42 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
² Aproximaciones eductivas (el t¶ ermino es debido a Binmore [28]): se trata de entender como la coordinaci¶ on de
expectativas en equilibrios con expectativas racionales puede lograrse por medio de un proceso mental de razonamiento.
Se estudia lo que se denomina como \estabilidad expectacional" a trav¶ es de construcciones basadas en funciones de
expectativas iterativas. Un equilibrio de expectativas racionales es \expectacionalmente estable", si se converge a ese
equilibrio, cuando el n¶
umero de iteraciones tiende a in¯nito. Es posible de¯nir criterios de convergencia d¶
ebiles y fuertes
[64].
² Aproximaciones adaptativas: Hay gran variedad de formulaciones adaptativas que generalizan en cierto sentido el
esquema de expectativas adaptativas simples (como las utilizadas en la secci¶
on 3.2 de este cap¶³tulo). Las posibilidades
que se presentan pueden separarse en diversos casos:
(i) Utilizando funciones generalizadas, que con observaciones pasadas mapean el valor futuro de las variables a
predecir. Esta es la aproximaci¶
on m¶as usada en modelos no estoc¶ asticos. Bajo ciertas condiciones es posible que
la din¶
amica resultante converja a estados estacionarios y ciclos de expectativas racionales.
(ii) Una segunda aproximaci¶ on consiste en pensar que los agentes act¶
uan como econometristas que estiman modelos
usando procedimientos estad¶³sticos estandar. Estas ideas han sido usadas en modelos estoc¶
asticos, pero pueden
aplicarse obviamente, en modelos no estoc¶asticos.
(iii) Modelos basados en inteligencia arti¯cial. Los agentes son modelados como sistemas arti¯ciales que responden
al conjunto de entradas y adaptan su salida (la expectativa) seg¶ un alg¶un protocolo de aprendizaje y adaptaci¶on
a lo largo del tiempo. Las redes neuronales y algoritmos evolutivos son los m¶ as utilizados. En este trabajo se
estudian modelos de aprendizaje basados en una representaci¶ on computacional del comportamiento de los agentes
econ¶omicos a trav¶es a algoritmos de aprendizaje evolutivos (ver la secci¶
on 3.6) .
² Otras aproximaciones: Existen modelos que combinan la aproximaci¶ on eductiva y la adaptativa. Un modelo relevante
fue formulado por Nyarko [153] Los agentes tienen jerarqu¶³as en sus creencias y las acciones que formulan son consistentes
con la regla de actualizaci¶
on bayesiana. En los modelos de aprendizaje bayesiano, se supone que los agentes conocen la
estructura del modelo, pero desconocen sus par¶ ametros y lo actualizan a trav¶ es de la ley de Bayes, suponiendo que la
distribuci¶
on a priori es conocida por todos.
Es concebible construir modelos que combinan conductas de agentes con expectativas racionales, adaptativas , miopes,
\seguidores de tendencia" y \fundamentalistas". Un ejemplo es modelo formulado en la secci¶
on 3.2 de este cap¶³tulo.
(i) Debe ser continua pues un cambio \peque~ no" en las nuevas probabilidades p respecto de las
probabilidades a priori po deber¶³a modi¯car muy levemente el contenido de informaci¶on que
produce el nuevo experimento.
(ii) Debe cumplirse que:
I(po1 ; ¢ ¢ ¢ ; poj ; ¢ ¢ ¢ ; pok ¢ ¢ ¢ ; pon ; p1 ; ¢ ¢ ¢ ; pj ; ¢ ¢ ¢ ; pk ; ¢ ¢ ¢ ; pn ) =
I(po1 ; ¢ ¢ ¢ ; pok ; ¢ ¢ ¢ ; poj ; ¢ ¢ ¢ ; pon ; p1 ; ¢ ¢ ¢ ; pk ; ¢ ¢ ¢ ; pj ; ¢ ¢ ¢ ; pn )
n
X
R(p1 ; ¢ ¢ ¢ ; pn ) = ¡ pi ln pi (2.5)
i=1
Principio de Jaynes de M¶
axima Entrop¶³a
Si suponemos que se desean conocer resultados en los casos m¶as pesimistas posibles se podr¶³an
calcular las probabilidades que maximizan el valor de la ignorancia o lo que es equivalente minimizar
la informaci¶on que los nuevos datos poseen. Sea un observable del sistema U , por ejemplo un costo
o una desutilidad, si maximizamos la ignorancia sujeta a un cierto valor medio para ese observable
Uo :
h n
X i
max
p1 ;¢¢¢;pn
R(po1 ; ¢ ¢ ¢ ; pon ; p1 ; ¢ ¢ ¢ ; pn ) = ¡ pi ln pi
i=1
n
X n
X
sujeta a pi Ui = Uo ; pi = 1
i=1 i=1
n
X
min
p1 ;¢¢¢;pn
pi Ui sujeta a
i=1
n
X
Ro (po1 ; ¢ ¢ ¢ ; pon ; p1 ; ¢ ¢ ¢ ; pn ) = ¡ pi ln pi ;
i=1
n
X
pi = 1
i=1
pi = Ae¡¯Ui (2.6)
Se obtiene la llamada distribuci¶on de Gibbs. En el siguiente cap¶³tulo veremos que esta distribuci¶on
tambi¶en surge a partir de una descripci¶
on de las interacciones locales entre m¶
ultiples agentes someti-
dos a una din¶amica colectiva. El par¶ ametro de control, ¯ es el multiplicador de Lagrange de la
primera restricci¶
on y se relaciona con el nivel dado del observable Uo , en el problema primal o con
un nivel dado de ignorancia en el caso dual. En t¶erminos f¶³sicos es la inversa de la temperatura
y controla el tama~no de las °uctuaciones, siendo un indicador controlable de la varianza. En [39]
se de¯ne a ¯ como la \intensidad de las elecciones" ya que mide la dispersi¶on con que se toman
las decisiones. En lo que sigue usaremos este m¶etodo de asignaci¶on de probabilidades para deter-
minar la proporci¶on de agentes econ¶ omicos que siguen distintos tipos de estrategias en un modelo
esquem¶atico.
Agentes heterog¶
eneos en un modelo econ¶
omico simple: caos?
Consideremos un modelo determin¶³stico que describa el comportamiento de alguna variable econ¶
o-
5
mica cuya magnitud dependa de la expectativa futura de esa misma variable , es decir:
e
yt = f (yt+1 ; µ) (2.7)
5
En [40] se realiza un an¶
alisis parecido adaptando esta forma de representaci¶
on al modelo de la telara~
na. Aqu¶³
mostramos una representaci¶ on m¶ as general.
3.2. Modelo anal¶³tico con agentes heterog¶eneos 45
e
donde yt+1 es el valor medio de la variable y que los agentes esperan en t que se realice en el per¶³do
t + 1, y µ el vector de par¶ ametros del modelo. Supongamos adicionalmente que la funci¶on f (x) es
tal que posee un equilibrio de expectativas racionales (v¶ease la secci¶on 3.1.1), u
¶nico y estacionario,
¤ ¤
esto signi¯ca que y = f (y ; µ) es un punto ¯jo estable.
Estudiemos el efecto de incorporar alg¶ un tipo heterogeneidad en el mecanismo de formaci¶ on
de expectativas, bas¶ andonos en el principio de m¶axima entrop¶³a. Para simpli¯car supogamos que
existen dos grupos de agentes, unos \racionales", que durante la evoluci¶on del sistema tienen
perfecto conocimiento de la evoluci¶ on del modelo, y otros que llamaremos \ruidosos", adaptan sus
creencias utilizando los valores pasados de la variable.
1;e
yt+1 = yt+1 (2.8)
Puesto que esta es una predicci¶on informada, el agente debe incurrir en el pago de un costo
C1 necesario para conocer con precisi¶on el valor futuro de la variable end¶ogena en cuesti¶ on.
Obviamente, su magnitud est¶ a asociada a los costos necesarios para obtener la informaci¶ on
precisa y aprender la verdadera estructura del sistema sobre el cual el agente est¶a formulando
sus planes. Como la previsi¶ on es perfecta, no se cometen errores de pron¶ostico, por lo tanto
¶nicamente por el pago de ese costo ¯jo: Ut1 = C1 .
la \desutilidad" de esta estrategia se mide u
² Se supone que los agentes \ruidosos" adaptan sus expectativas extrapolando, los valores que
la variable fue adquiriendo en per¶³odos anteriores6 . Entonces:
2;e
yt+1 = g(yt ; yt¡1 ; yt¡2 ; ¢ ¢ ¢ ; #) (2.9)
Para poder determinar la proporci¶on de agentes que siguen las expectativas racionales res-
pecto de los que las formulan con el segundo modelo utilizamos el Principio de M¶ axima Entrop¶³a.
Esto es equivalente a considerar al conjunto de todos los agentes como un grupo que posee la dis-
tribuci¶on de creencias m¶ as azarosa compatible con un determinado nivel medio de \desutilidad"
i
U = Uo . Esta representaci¶ on supone que existe un par¶ametro de control ex¶ogeno ¯ = ¯(Uo ) y
que se asocia a la dispersi¶on que existe sobre la distribuci¶on de las creencias y en termodin¶
amica
estad¶³stica tiene la misma interpretaci¶on que la inversa de la \temperatura". Si de¯nimos n1t como
la fracci¶on de los agentes que son racionales y como n2t la proporci¶on de \ruidosos", tenemos:
1 2
e¡¯Ut e¡¯Ut
n1t = ; n2t = (2.10)
Zt Zt
donde 1=Zt el factor de normalizaci¶
on de la distribuci¶on:
1 2
Zt = e¡¯Ut + e¡¯Ut (2.11)
Entonces, el valor de la expectativa agregada se de¯ne como el promedio pesado por estas proba-
bilidades:
6
El cali¯cativo de ruidosos se debe a que con este mecanismo se cometen errores sistem¶
aticos de apreciaci¶
on.
46 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
e 1;e 2;e
yt+1 = n1t ¢ yt+1 + n2t ¢ yt+1 = n1t ¢ yt+1 + n2t ¢ g(yt ; yt¡1 ; yt¡2 ; ¢ ¢ ¢ ; #) (2.12)
Para hacer una presentaci¶
on m¶
as simpli¯cada conviene de¯nir una nueva variable (end¶ogena) que
podemos llamar como la \polarizaci¶
on" del sistema:
1 + mt 1 ¡ mt
mt = n1t ¡ n2t ) n1t =y n2t = (2.13)
2 2
Cuando mt = 1, todos los agentes siguen las expectativas racionales, mientras que si mt = ¡1
todos est¶an optando por la estrategia adaptativa. Luego, si se usa la ecuaci¶on 2.10, se obtiene:
³¯ ´
mt = tanh (Ut2 ¡ Ut1 ) (2.14)
2
en estas condiciones queda impl¶³citamente de¯nido un sistema din¶amico recursivo que determina
los valores de la variable yt , y que depende de c¶omo se est¶an formulando las expectativas y de qu¶e
proporci¶on de agentes las formulan racional o extrapolativamente:
³1 + m 1 ¡ mt ´
t
yt = f g(yt ; yt¡1 ; yt¡2 ; ¢ ¢ ¢ ; #); µ
yt+1 + (2.15)
2 2
Como la evoluci¶ on de mt es altamente no lineal cabe esperar comportamientos peri¶odicos, cuasi-
peri¶odicos y ca¶oticos. Cabe destacar que este abordaje puede aplicarse cuando hay m¶as de dos
mecanismos de formaci¶ on de expectativas.
Previsi¶
on perfecta y agentes \ruidosos": modelo lineal
A continuaci¶on mostramos, a trav¶es de un simple ejemplo, c¶omo la coexistencia de dos mecanismos
de formulaci¶on de expectativas, puede conducir a los m¶as diversos comportamientos (puntos ¯jos
estables, ciclos l¶³mites con diversos per¶³odos o evoluciones ca¶oticas). La estructura del modelo se
simpli¯ca al m¶aximo para que resulte evidente que la complejidad de la din¶amica surge tan s¶olo de
la heterogeneidad as¶³ como de la posibilidad que haya migraci¶on entre los mecanismos de generaci¶on
de expectativas.
Supongamos que cierta variable econ¶omica yt , se comporta linealmente con el valor de la
expectativa futura de la misma:
e
yt = a ¢ yt+1 +b (2.16)
Un modelo de estas caracter¶³sticas puede tener validez en muchos contextos econ¶omicos, por
ejemplo:
² Si se de¯ne el nivel de ingreso como la suma del nivel de consumo y el de inversi¶on: Yt = Ct +It ,
se supone que el nivel de consumo es proporcional al de actividad: Ct = c¢Yt y que la inversi¶ on
depende de la expectativa futura del ingreso: It = Io +®¢Yt+1e , donde I es un nivel de inversi¶
on
o
aut¶onoma y ® un coe¯ciente de aceleraci¶on, se llega a la ecuaci¶on 2.16.
² Si se supone que en un mercado ¯nanciero existen dos tipos de activos, uno sin riesgo que
brinda una tasa de inter¶es r y otro que otorga una corriente de dividendos dt , y si los precios
futuros de este activo no se conocen, los inversores deben formular una expectativa pet+1 al
comienzo de cada per¶³odo. Se puede formular una condici¶ on de arbitraje (bajo neutralidad
frente al riesgo) que iguala los rendimientos de ambos activos: (1+r)pt = dt +pet+1 , suponiendo
que dt = d > 0; 8t se llega a la estructura especi¯cada antes, para yt ´ pt .
Como en la secci¶ on anterior, suponemos existen dos clases de agentes, los que pagan un alto
costo (¯jo) por utilizar el mecanismo de \previsi¶on perfecta" y los que emplean un modelo simple
de expectativas adaptativas arriesg¶ andose a cometer errores de pron¶ostico:
² Como vimos antes, los agentes racionales pronostican sin cometer errores de previsi¶on, por lo
tanto:
1;e
yt+1 = yt+1 (2.17)
La \desutilidad" de este mecanismo la determina el costo ¯jo C1 pagado por poder acceder
al exacto valor futuro de yt+1 consistente con todo el modelo y con las creencias de todos
b
los agentes del sistema. El equilibrio con previsi¶on perfecta es: y ¤ = 1¡a , y la din¶
amica,
suponiendo que s¶ olo existe este mecanismo, la determina la ecuaci¶on en diferencias:
1 b
yt+1 = yt ¡ (2.18)
a a
que es estable siempre que a ¸ 1 e inestable en los otros casos.
² Los agentes que utilizan expectativas adaptativas corrigen sus pron¶osticos seg¶
un el error
cometido en el instante anterior, entonces:
2;e
yt+1 = yt2;e + °(yt ¡ yt2;e ) (2.19)
1
X
2;e
yt+1 =° (1 ¡ °)i yt¡i por lo tanto (2.21)
i=0
1
X
y ¤ = a°y¤ (1 ¡ °)i + b = ay ¤ + b (2.22)
i=0
³ 1¡° ´ ³ b° ´
yt+1 = yt + (2.23)
1 ¡ a° 1 ¡ a°
8 2;e
< 2+a°(mt ¡1) y + a(mt ¡1)(1¡°)yt ¡2b Si mt 6
= ¡1
a(1+m ) t a(1+mt)
yt+1 = ³t ´ ³ ´ (2.24)
: 1¡°
y + b°
Si mt = ¡1
1¡a° t 1¡a°
³¯ ´
mt = tanh [(yt ¡ yt2;e )2 + C2 ¡ C1 ] (2.25)
2
El modelo posee 5 par¶
ametros libres:
² b, el nivel \aut¶
onomo" de la variable end¶ogena,
² °: la tasa de aprendizaje,
² ¯: la \temperatura", que act¶ ua como par¶ametro de control. Este par¶ametro est¶a asociado
con las tasas de migraci¶
on entre ambos mecanismos y de¯ne la dispersi¶on de la distribuci¶
on
de creencias tal como se indic¶
o anteriormente,
El modelo est¶a lejos de recrear una situaci¶on real, sin embargo se lo construye al s¶olo efecto
de exhibir c¶omo la incorporaci¶ on de una din¶amica sobre la heterogeneidad de los mecanismos
de formaci¶on de las expectativas produce una rica variedad de evoluciones. Se pasa por alto el
an¶alisis riguroso de la din¶amica sobre todo el espacio de par¶ametros. A continuaci¶on se realiza un
estudio parcial de los comportamientos que se obtienen parar mostrar que esta forma de incorporar
heterogeneidades din¶ amicamente puede producir inestabilidades sobre la variable end¶ogena del
sistema. T¶engase en cuenta que el modelo posee dos variables de estado, el observable del sistema
(por ejemplo el nivel de ingreso) y la probabilidad o fracci¶on de agentes que optan por uno u otro
mecanismo de formaci¶ on de expectativas, siendo esto u¶ltimo, la que da lugar a un sistema din¶amico
determin¶³stico no lineal.
² Eligiendo ¯ = 2 y C1 = 2:75 (¯gura 2.5): La evoluci¶on de ambas variables se torna ca¶otica para
los dos valores considerados de °. Cuando ° = 0:8 los valores de yt oscilan aperi¶odicamente
con una amplitud menor que en el caso ° = 0:2. Por esta raz¶on los tiempos medios de
las °uctuaciones son menores. Observese la permanente inestabilidad de la polarizaci¶on de
las expectativas. Suponiendo que ¯ = 2 y C1 = 3: El costo por acceder a las expectativas
racionales es elevado. La evoluci¶
on es ca¶otica. En el caso de ° = 0:8 la amplitud que alcanzan
la °uctuaciones aperi¶odicas es enorme.
3.2. Modelo anal¶³tico con agentes heterog¶eneos 51
Algunos comentarios
Las simulaciones num¶ericas que hemos mostrado indican que el con°icto que existe entre las fuerzas
producidas por la utilizaci¶on del predictor racional pero m¶as costoso y las debidas al predictor
extrapolativo dan lugar a una rica variedad de din¶amicas.
En [89], a partir del an¶alisis emp¶³rico, se sugiere que buena parte de los movimientos de
precios en los mercados ¯nancieros no parecen asociarse con la observaci¶on de informaci¶on relevante
sino con la existencia de creencias muchas veces inconsistentes con los datos \fundamentales" de la
econom¶³a. En t¶erminos del modelo que desarrollamos podr¶³a ocurrir que agentes que basaban sus
planes en informaci¶on costosa acerca de la estructura del sistema, deciden cambiar de metodolog¶³a
y optar por seguir la tendencia del mercado extrapolando los precios pasados, sin que se tenga en
cuenta la verdadera estructura del sistema. Si la proporci¶on de agentes que act¶uan de esta manera
crece, es probable que tenga lugar una burbuja que crezca hasta que los agentes decidan actuar
racionalmente y evaluar la verdadera potencialidad de la sistema econ¶omico-¯nanciero. Este tipo
de proceso podr¶³a dar lugar a un incesante proceso de auges y ca¶³das en los precios de los activos
¯nancieros. Se puede sugerir un modelo m¶as realista si los costos involucrados fueran end¶ogenos y
52 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
variables en el tiempo.
El modelo que hemos presentado puede generalizarse suponiendo que las predicciones se
construyen sobre la base de un conjunto ¯nito de m¶as de dos predictores. Estos predictores podr¶³an
utilizar la informaci¶on pasada de una manera m¶as complicada que el simple caso de las expectativas
adaptativas simples. Podr¶³an agregarse otros m¶etodos de aprendizaje como las extrapolaciones
param¶etricas a partir de cuadrados m¶³nimos. Es posible por otro lado incorporar al conjunto de
predictores una cantidad similar de ellos, pero con diferentes valores de sus tasas de aprendizaje
u otros par¶ametros relevantes del m¶etodo de extrapolaci¶on considerado. Podr¶³a ser interesante, y
queda para el futuro, incorporar una cantidad muy grande de predictores. Tal vez en esta nueva
situaci¶on el sistema se \termalice" haciendo que la din¶amica que era ca¶otica con el uso de pocos
predictores, se estabilice. Este hecho, pondr¶³a en evidencia que la diversidad de comportamientos
no est¶a directamente asociada a la \complejidad" del predictor. Aumentar el n¶ umero de predictores
podr¶³a pues dar lugar a cambios en la din¶ amica. La incorporaci¶on de numerosos predictores pueden
eliminar la posibilidad de caos siempre que no tengan lugar \efectos coherentes" que ampli¯quen,
por retroalimentaci¶ on positiva, las °uctuaciones.
En este modelo, y bajo ciertas condiciones, se alcanzaron evoluciones ca¶oticas. En los
u
¶ltimos a~ nos han proliferado en la literatura econ¶omica modelos que exhiben este tipo de din¶amicas
\extra~nas". Es menester pues analizar los verdaderos alcances de estos modelos concebidos en el
marco de la teor¶³a del caos. La siguiente secci¶on trata sobre este tema y se analiza especialmente
la consistencia l¶ogica de modelos en los que se supone que los agentes operan racionalmente.
² Aquellos modelos que parten de un punto de vista que podr¶³amos denominar como el enfoque
macrodin¶amico con funciones de comportamiento de tipo \fenomenol¶ogico". Tenemos por un
lado los modelos din¶ amicos con variables agregadas como los desarrollados por Goodwin, o
Kalecki o los modelos de crecimiento a la Solow; por el otro lado est¶an los modelos de inter-
acci¶on entre sectores o pa¶³ses, que dan lugar a din¶amicas ca¶oticas debido al desacoplamiento
entre las tasas de ajuste o los rezagos intersectoriales.
² El otro grupo lo conforman los modelos basados en la hip¶otesis de racionalidad, con agentes
representativos optimizadores. El equilibrio es un resultado ¶optimo del proceso de decisiones
coordinadas por hip¶otesis de partida. Estos modelos son hoy en d¶³a el est¶andar de la macroe-
conom¶³a actual, en ellos las °uctuaciones se originan como una respuesta racional al entorno.
Este gran grupo de modelos incluye:
(i) Modelos de generaciones superpuestas con previs¶on perfecta, en los que en todo instante
coexisten dos generaciones de agentes (usualmente rotulados como j¶ovenes y y viejos o)
que enfrentan un problema de optimizaci¶on del tipo:
cot+1 wo
max U (cyt ; cot+1 ) sujeta a: cyt + = wty + t+1 (3.26)
½ ½
cuando: ½ = ½(ct ) [25] o cyt = cyt (½¤ ) [85] es posible en contrar situaciones con caos.
La principal objeci¶on formal de estos modelos es que el agente representativo optimiza
sobre un per¶³odo m¶ as corto que el que genera ciclos contradiciendo lo que ocurre en la
3.3. Modelos ca¶
oticos en la literatura econ¶omica 53
realidad. Es posible demostrar que en este tipo de modelo, si el agente vive inde¯nida-
mente y optimiza un sendero in¯nito es posible encontrar ¶orbitas ca¶oticas [25].
(ii) Modelos de crecimiento ¶ optimo con expectativas racionales. El formato gen¶erico de estos
modelos es el siguiente:
1
X
max ¯ t U (kt ; kt+1 ) sujeta a: (kt ; kt+1 ) 2 T ko dado (3.27)
t=0
simpli¯caci¶on de la representaci¶
on con el objetivo de obtener muchas veces de manera premeditada
ese resultado sobre la evoluci¶ on din¶
amica del modelo construido. Esta a¯rmaci¶on pareciera ser
parad¶ojica, ya que a primera vista y para aquel que no conoce la teor¶³a del caos, simplicidad en la
representaci¶on7 y evoluciones impredecibles parecieran ser conceptos que se contraponen.
El estudio de la actividad econ¶
omica envuelve de por s¶³ una labor interpretativa [156]. Para
que la interpretaci¶
on de un modelo sea v¶ alida, este deber¶³a al menos haber pasado la prueba de la
robustez.
Sin embargo cuando se quiere comparar la evoluci¶on de un sistema representado en tiempo dis-
creto o continuo se puede decir que el cambio en la forma de presentaci¶on introduce supuestos
ocultos, como pueden ser rezagos no tenidos en cuenta y que deber¶³an ser considerados para
compatibilizar las reprentaciones. Este hecho ha sido escasamente abordado en la literatura
y no parece ser f¶acilmente salvable [127]. El hecho de que el comportamiento de un sistema
en tiempo discreto o continuo pueda ser tan diferente seg¶ un la elecci¶on que se haga quita el
atributo fundamental de la robustez. Por esta raz¶on, la evoluci¶on irregular que se observa en
el mapa log¶³stico podr¶³a resultar ser una propiedad exclusivamente matem¶atica no atribuible
al sistema sometido a estudio. Ser¶³a necesario, o al menos deseable, sustentar emp¶³ricamente
los resultados que son consistentes con cada modelo que se propone. Pero debido a que
estos modelos son sensibles a las condiciones iniciales no es posible realizar una calibraci¶on
econom¶etrica con¯able.
² Precisi¶ on ¯nita: Otro se~ nalamiento que podemos hacer, y que pone en duda la posibilidad
de que la evoluci¶ on de un sistema econ¶omico representado discretamente, sea ca¶otico parte
del hecho, cierto, de que las variables dependientes son tambi¶en discretas. Si los precios est¶ an
de¯nidos en t¶erminos de alguna unidad de cuenta, no podr¶a haber magnitudes m¶as precisas
que las que quedan de¯nidas por la precisi¶on que posee por medici¶on. En el caso de los precios
monetarios de¯nidos en pesos, por ejemplo, la precisi¶on la determina el centavo. Lo mismo se
puede decir de las cantidades de¯nidas por unidades f¶³sicas convencionales. De hecho todas
las magnitudes econ¶ omicas poseen una precisi¶on ¯nita; si hablamos de la cuanti¯caci¶ on del
nivel de producto es evidente que su medici¶on lleva involucrado un determinado error de
medici¶on. Podemos entonces subdividir el intervalo de valores posibles de esa variable por
ventanas de¯nidas por la varianza que posee la medici¶on de la misma. Como consecuencia
de ello, el conjunto de todos los estados posibles queda discretizado por un n¶ umero ¯nito
(aunque grande) de con¯guraciones. La mayor complejidad que puede tener toda evoluci¶ on
determin¶³stica sobre un conjunto de estados ¯nito corresponde a una evoluci¶on cuasi peri¶ odica.
Con una din¶ amica peri¶
odica deja de haber sensibilidad a las condiciones iniciales. Esta
a¯rmaci¶ on se sustenta en el hecho de que siempre existir¶a un n¶ umero real 0 < ² ¿ ¾ que
de¯ne un intervalo en el que condiciones iniciales distintas: xo y x0o veri¯can que jxo ¡ x0o j < ²,
con ¾ la varianza en la medici¶ on de la variable. Entonces cualquier par de condiciones iniciales
que disten entre s¶³ una distancia menor que ² tendr¶an, como consecuencia, la misma evoluci¶ on.
Las ¯guras 3.6, 3.7 y 3.8 muestran el diagrama de bifurcaciones del mapa log¶³stico (xt+1 =
rxt (1 ¡ xt )); primero en el caso en el que los datos no est¶an truncados, con un truncamiento
num¶erico del orden de 10¡4 y 10¡2 posteriormente. Claramente se puede observar que cuanto
mayor es el truncamiento num¶erico de los datos menor es la cantidad de estados asint¶ oticos.
² Espacio de par¶ ametros: En muchos sistemas din¶amicos el conjunto de valores que toman
de los par¶ametros para producir evoluciones err¶aticas puede constituir un conjunto de me-
dida nula. Esto signi¯ca que la probabilidad de que los par¶ametros adquieran esos valores es-
pec¶³¯cos es nula. Todo ello, sin considerar la plausibilidad econ¶omica de sus valores num¶ericos.
En este caso, la existencia de ¶orbitas ca¶oticas no deja de ser una mera curiosidad anal¶³tica.
² Series temporales cortas: La mayor¶³a de las series temporales econ¶omicas no son esta-
cionarias y debido al intervalo de muestreo de datos no se dispone de series largas. Esta
situaci¶
on erosiona la posibilidad de comprobar la existencia de caos en las series econ¶ omicas.
La longitud de las series temporales acota la utilidad del caos a un espectro peque~ no de pro-
blemas (por ejemplo el estudio de °uctuaciones en mercados ¯nancieros y de commodities ya
que en estos casos las series suele ser largas, pues se puede disponer de datos diarios o incluso
intradiarios).
56 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Figura 3.6: Diagrama de bifurcaciones del mapa log¶³stico. La variable dependiente xt no est¶
a
truncada.
Figura 3.7: Diagrama de bifurcaciones del mapa log¶³stico. El truncamiento de los datos es de
un orden de 10¡4 . Obs¶ervese que el sistema queda con¯nado en un n¶ umero menor de estados
asint¶oticos.
Figura 3.8: Diagrama de bifurcaciones del mapa log¶³stico. El truncamiento de los datos es de un
orden de 10¡2 . El sistema queda con¯nado en un n¶
umero mucho menor de estados asint¶oticos.
ser un contexto econ¶ omico m¶as di¯cil es aprender a pronosticar la evoluci¶on del mismo ya
que se reduce el per¶³odo sobre el que se puede predecir, llegando puntos extremos en que
no se pueda decir absolutamente nada. Casos como los de los reg¶³menes de alta in°aci¶ on
en los cuales se di¯culta la formulaci¶on de contratos cuya realizaci¶on se extiende a lo largo
de un tiempo m¶ as o menos prolongado. En una situaci¶on de estas caracter¶³sticas los agentes
econ¶omicos, para seguir operando, se ven obligados a pagar el costo de informarse y aprender.
Entonces, la existencia de procesos de aprendizaje no es consistente con el hecho de que un
sendero ca¶ otico sea ¶optimo de Pareto. Es razonable suponer que los resultados de los mo-
delos con previsi¶ on perfecta corresponden al l¶³mite asint¶otico de un proceso de aprendizaje.
Si el sendero no es estacionario, no es posible alcanzar dicho l¶³mite ya que los agentes se
ven impedidos de aprender correctamente ese \sendero de equilibrio con previsi¶ on perfecta no
estacionario". Se plantea as¶³, una posible contradicci¶on entre la existencia de \trayectorias
ca¶oticas" y la previsi¶
on perfecta.
Bajo el supuesto de previsi¶ on perfecta los agentes nunca cometen errores de previsi¶on. Esto
valdr¶³a a¶
un cuando un observador externo que tenga perfecto conocimiento del modelo concluya
que sus estados siguen un proceso que no se puede predecir. Esta situaci¶on tambi¶en tiene lugar
en los modelos que admiten soluciones de \manchas solares", en sistemas con m¶ ultiples equilibrios
o cuando existe sensibilidad a las condiciones iniciales y por lo tanto sus trayectorias resultan ser
ca¶oticas. Aqu¶³ comentaremos esta u ¶ltima posibilidad.
En la secci¶
on 3.3 de este cap¶³tulo se a¯rm¶o que la literatura econ¶omica se ha \nutrido" de
gran cantidad de modelos no lineales que dan lugar a evoluciones que no convergen a un valor
estacionario. Sin embargo, desde el punto de vista del an¶alisis econ¶omico estos modelos satisfacen
todas las condiciones del equilibrio [25]. La terminolog¶³a, pues, constituye un problema. Por lo ge-
neral, el concepto de equilibrio es, por un lado, utilizado para conceptualizar un estado estacionario
y por el otro para signi¯car que un conjunto de condiciones impuestas por los economistas se ven
satisfechas. Queda trazada una distinci¶on entre el equilibrio econ¶omico y las propiedades din¶amicas
58 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
de la secuencia de valores del equilibrio, ya que muchos modelos (no lineales) no presuponen que
las condiciones de equilibrio econ¶omico se satisfacen en un dado estado estacionario. Deber¶³amos
pensar pues que bajo ciertas condiciones estos modelos no lineales pueden dar lugar una suerte de
\equilibrio ca¶otico" en el que se satisfacen las condiciones de equilibrio de los mercados, y por lo
tanto los agentes logran optimizar la consecuci¶on de sus objetivos, pero la trayectoria del sistema
es ca¶otica. No es posible establecer una asociaci¶on uno a uno entre evoluciones que no conducen a
estados estacionarios y estados de desequilibrio de¯nidos en un sentido estrictamente econ¶omico.
Gran cantidad de modelos publicados en la literatura tradicional muestran la posibilidad de
estados de equilibrio econ¶ omico que no son estacionarios. Conviene ejempli¯car las a¯rmaciones
que hemos venido realizando mostrando algunos modelos de equilibrio con expectativas racionales y
horizonte in¯nito. En primer lugar consideremos un modelo con externalidades como el presentado
en [170] en el cual un agente representativo resuelve el siguiente problema de control ¶optimo en
tiempo discreto:
1
X
max ct f ¯ t log (ct )g sujeto a ®
ct + kt = At kt¡1 (3.28)
t=0
donde 0 < ® < 1, ct denota el consumo y kt el stock de capital en el instante t, 0 < ¯ < 1, k¡1 es
una condici¶on inicial dada, y At es una externalidad de¯nida por una secuencia determin¶³stica que
puede depender del tiempo de una manera complicada.
De las condiciones de primer orden se puede demostrar que la soluci¶on ¶optima cumple con:
®
kt = ®¯At kt¡1 (3.29)
Debemos destacar que este valor ¶ optimo es igualmente v¶alido para toda secuencia At por intrincada
que sea su forma expl¶³cita. Ya que no tenemos ninguna restricci¶on sobre los valores de la secuencia,
se puede suponer que At = At (kt¡1 ), y siendo su expresi¶on expl¶³cita:
Con esta dependencia la externalidad no es una funci¶on mon¶otona del stock de capital. Reem-
plazando la ecuaci¶
on 3.30 en el equilibrio con previsi¶on perfecta (ecuaci¶on 3.29) se obtiene nueva-
mente el mapa log¶³stico:
La impresi¶ on que deja este modelo es su aparente \confecci¶on a medida" para la obtenci¶on
ad hoc de comportamientos ca¶ oticos. Este modelo sigue claras reglas de juego impuestas por la
modelizaci¶on econ¶ omica que en general no especi¯can formas funcionales ni ¶ordenes de magni-
tud de¯nidos. El procedimiento empleado para llegar al mapa log¶³stico se basa en una suerte de
\deducci¶on hacia atr¶ as". Se supone que la externalidad At tiene la dependencia funcional que
mostramos pues argumentan que el stock de capital deber¶³a tener, en el largo plazo, un com-
portamiento mon¶ otono; argumentando que este crece inicialmente, alcanza un punto m¶aximo y
posteriormente decaiga. La idea que subyace es que el sistema tiene un tama~ no ¯nito, entonces
puede suponerse que existe un umbral a partir del cual quede inhibida la productividad, por es-
casez, congesti¶on, excesiva poluci¶ on u otros efectos adversos sobre el medio ambiente. Este tipo de
modelos pone en evidencia que el agregado de externalidades en las ecuaciones din¶amicas de los
modelos facilita la aparici¶ on evoluciones extra~ nas. De all¶³, es posible orientar (tal vez de manera
ad hoc) los resultados hacia las conclusiones a las que ex ante se deseaba llegar.
En tal sentido, la incorporaci¶on de externalidades como mecanismo para obtener una evoluci¶ on
ca¶otica es por s¶³ misma criticable ya que alcanza con buscar la dependencia adecuada entre las vari-
ables para lograr el resultado deseado. La justi¯caci¶on econ¶omica que fundamente esa dependencia
es una tarea ex post que puede realizarse muchas veces con relativa facilidad.
3.3. Modelos ca¶
oticos en la literatura econ¶omica 59
Como otro ejemplo mostramos a continuaci¶on un modelo de precios ¯jos que estudia la
din¶amica del consumo en un esquema monetario simple con previsi¶on perfecta [94]. En muchos
modelos monetarios, un agente representativo optimiza una funci¶on de utilidad entre cuyos argu-
mentos se incluye al dinero demandado como una medida de los servicios que este brinda como
medio de cambio.
Si suponemos que un agente representativo en tiempo t busca maximizar una funci¶ on de
utilidad multiper¶³odo:
1
X
maxct ;mt U = ¯ t u(ct ; mt ) sujeto a yt = ct + mt ¡ mt¡1 (3.32)
t
@u @u
>0 >0 (3.33)
@ct @mt
@2u @ 2u
<0 <0 (3.34)
@c2t @m2t
El resultado de la optimizaci¶on ser¶
a un sendero para las variables ct y mt , dada la restricci¶on sobre
la funcional objetivo. Si resolvemos las condiciones de primer orden del problema se llega a:
@u 1 ³ @u @u ´
(ct+1 ; mt+1 ) = (ct ; mt ) ¡ (ct ; mt ) (3.35)
@ct+1 ¯ @ct @mt
Postulando una funci¶
on de utilidad cuya expresi¶on sea (para el rango relevante):
1 ³ b ¡ a(1 ¡ ¯) 1 2´
ct+1 = + ct ¡ c (3.38)
¯ ¹2
2° m m¹ t
No se pretenden obtener resultados generales; s¶olo deseamos mostrar que este simple modelo
oticas. Para ello basta suponer (arbitrariamente) que b = (1 ¡ ¯)a con lo cual
admite soluciones ca¶
podemos ¯jar libremente a y b en compatiblilidad con la restricci¶on 3.37. Entonces sistema de
reduce a 9 :
1 1
ct+1 = ct (1 ¡ ct ) (3.39)
¯ m
¹
cuyos puntos ¯jos son: c¹1 = 0 (estable) y c¹2 = (1 ¡ ¯)m
¹ (inestable) s¶³:
@ct+1 (c¹2 ) 1
= (2¯ ¡ 1) < ¡1 (3.40)
@ct ¯
9
T¶engase en cuenta que cualquier mapa cuadr¶ atico de la forma xt+1 = ® + ¯xt + °x2t es reducible al famoso
mapap log¶
³stico: y t+1 = ry t (1 ¡ y t ), con y 2 [0; 1] a trav¶es del cambio de variables y = A + Bx, quedando r =
1 + 1 ¡ 4®° + ¯(2 ¡ ¯).
60 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
1
Figura 3.9: Ejemplo de comportamiento ca¶otico para el caso ¯ = 4
seg¶
un c¶omo se lo resuelva. Si se estudia la evoluci¶on de una variable: xt = F (xt+1 ), ¯jando un
\valor terminal", un mapa unimodal podr¶³a admitir soluciones ca¶oticas. Si es que se ¯ja de alg¶un
modo una condici¶ on inicial, en un determinado rango, los valores futuros no quedan un¶³vocamente
determinados.
En rigor de verdad, un modelo de previsi¶on perfecta no admitir¶³a perturbaciones de ning¶
un
tipo, ya que, si las expectativas se ven desmentidas, se contradice la propia hip¶otesis del modelo,
por lo que utilizar estos modelos para analizar comportamientos frente a cambios en reg¶³menes
transicionales implica una contradicci¶on l¶ogica.
Modelos ca¶
oticos con elementos estoc¶
asticos
Los argumentos presentados hasta aqu¶³ se basan exclusivamente en la formulaci¶on de modelos de-
termin¶³sticos por lo tanto se puso el ¶enfasis en la hip¶otesis de previsi¶on perfecta. Una consideraci¶ on
especial merecen los modelos que contienen elementos estoc¶asticos. Se pueden contemplar dos
m¶etodos de introducir elementos estoc¶asticos en los modelos no lineales.
El primer m¶etodo es directo. El elemento de azar se introduce en el modelo como un
error de medici¶ on sobre las variables. En [53] se consideran las consecuencias de introducir ruido
directamente en la ecuaci¶ on determin¶³stica que exhibe sucesivas bifurcaciones por desdoblamiento
de per¶³odos hasta llegar al caos. Se analiza all¶³ la situaci¶on en la que el ruido se incorpora en
el par¶ametro de control o cuando directamente se lo suma a la ecuaci¶on del sistema en cada
iteraci¶on. Los autores de este art¶³culo muestran que estas dos formas de introducir aleatoriedad
son equivalentes y veri¯can que no se altera cualitativamente el proceso de desdoblamientos de
per¶³odos que conducen al caos . Por lo tanto, en t¶erminos tambi¶en cualitativos, lo comentado
en la secci¶on anterior ser¶³a v¶
alido en el caso en que extendamos nuestro estudio a los modelos
con expectativas racionales que veri¯can Et (xet+1 ) = xt+1 siendo xet+1 6 = xt+1 (la realizaci¶
on de la
expectativa de la variable signi¯cativa es igual a la expectativa a menos de una variable aleatoria).
La otra forma de incorporar elementos estoc¶asticos es poniendo ¶enfasis en el rol integral del
la incertidumbre en los modelos. En los u ¶ltimos a~ nos se han formulado gran cantidad de modelos
determin¶³sticos, pero en los cuales las expectativas de los agentes se suponen condicionadas a alguna
variable (oculta) que puede seguir un proceso estoc¶astico. Este tipo de modelo se categorizan
bajo la denominaci¶ on de modelos de equilibrios de manchas solares o modelos de incertidumbre
\extr¶³nseca" ya que las expectativas, si bien pueden ser racionales, est¶an condicionadas por una
fuente de ruido externa o alg¶ un tipo de variable determin¶³stica oculta [43]. Por ejemplo, se podr¶³a
pensar que el funcionamiento de un sistema econ¶omico depende de las expectativas que los agentes
poseen sobre la prospectiva meteorol¶ogica. Obviamente, todas las consideraciones que se puedan
hacer respecto de la evoluci¶ on clim¶atica quedar¶an fuera de los alcances del modelo que representa
a ese sistema econ¶ omico. Se podr¶³a considerar a los modelos determin¶³sticos con externalidades no
lineales como un caso degenerado de los equilibrios de manchas solares. Los elementos estoc¶ asticos
se han incorporado en los modelos no lineales, tambi¶en en una forma un poco m¶as convencional:
a trav¶es de las preferencias o la tecnolog¶³a, en lugar de a trav¶es de las expectativas de los agentes.
En este caso, se estar¶³a incorporando al modelo una fuente intr¶³nseca de ruido.
hasta el presente se pod¶³an ¯gurar como estoc¶asticos se convierten en candidatos de una descripci¶on
perfectamente determinista. El caos determin¶³stico introduce \orden" dentro del \caos" aparente
{valga el abuso de lenguaje{ de los modelos estoc¶asticos [4]. En realidad, el caos determin¶³stico
vuelve a poner sobre el tapete el tema del azar subjetivo, ya que de acuerdo a ¶el no se trata de que
la naturaleza no sepa hacia d¶ onde evoluciona, sino que a nosotros nos est¶a vedado el conocimiento
de las condiciones iniciales con precisi¶ on in¯nita como para poder predecir todo el recorrido del
sistema. Sin embargo, la predicci¶ on a corto plazo siempre es posible, de manera \exacta", y a largo
plazo, de manera erg¶ odica, si se conoce el sistema din¶amico correspondiente [4].
En general, para obtener trayectorias ca¶oticas en los modelos econ¶omicos es necesario que
alg¶un supuesto de \normalidad" en la forma de las funciones involucradas sea violado; a trav¶es de
externalidades que evidencian, en u ¶ltima instancia, la incompletitud de los mercados o ya sea la
ruptura de alg¶ un axioma neocl¶ asico que modi¯ca las funciones de comportamiento. Por lo general
las violaciones de la \normalidad" en las funciones de comportamiento pueden encontrar debida
justi¯caci¶on a partir de los microfundamentos adecuados.
Muchos investigadores se han basado en el uso (y abuso) de la teor¶³a del caos en sistemas
discretos para fundamentar la impredictibilidad que subyace en el comportamiento de los sistemas
econ¶omicos. Sin embargo, el verdadero origen de esa impredectibilidad debe ser cuidadosamente
analizada. Muchos modelos poseen m¶ ultiples estados de equilibrio, y la determinaci¶on de aquel
que resulta depende de variables ocultas al analista; tambi¶en queda oculta la forma en que se
coordinan las expectativas. Uno de los principales problemas es que los modelos no contienen
un criterio selector de de equilibrios. La predictibilidad del comportamiento de un sistema no
solamente requiere la existencia de un resultado sino tambi¶en la unicidad de sus soluciones. Las
condiciones de unicidad no se satisfacen de manera autom¶atica, especialmente cuando los mercados
son incompletos, como evidentemente ocurre en la realidad.
Una condici¶ on necesaria, pero no su¯ciente para la obtenci¶on de evoluciones ca¶oticas en un
modelo es que sus ecuaciones contengan alg¶ un tipo de no linealidad que permita alterar el compor-
tamiento mon¶otono de las funciones involucradas. Cabe tener en cuenta que las especi¯caciones
lineales surgen como una aproximaci¶ on local destinada a simpli¯car el an¶alisis de modelos que en
forma m¶as detallada pueden resultar ser de naturaleza no lineal. Por otro lado, en gran variedad de
modelos representados con ecuaciones no lineales no se afecta la naturaleza cualitativa de las solu-
ciones que pueden incluso ser convergentes para todo el espectro de par¶ametros. Generalmente, el
an¶alisis de din¶amicas no lineales se realiza con la ¯nalidad de derivar comportamientos err¶aticos, sin
incurrir en la incoporaci¶ on de impulsos ex¶ ogenos. Sin embargo, parece claro que una representaci¶ on
p¶uramente end¶ogena de las variables econ¶omicas es un objetivo s¶ umamente ambicioso.
Si se revisa con detenimiento la enorme cantidad de modelos presentados en la literatura
econ¶omica, se podr¶ a comprobar que en todos los ¶ambitos y ramas de la teor¶³a econ¶omica se han
formulado modelos ca¶ oticos. Ser¶³a posible la construir una tabla en la que queden representados
las principales escuelas y taxonom¶³as de la model¶³stica econ¶omica tradicional, en la que ¯guren
modelos monetarios, modelos de crecimiento y acumulacion de tipo Keynesiano, modelos en los que
rige la ley del precio u¶nico, o no, modelos que expliquen la din¶amica de in°aci¶on y del desempleo,
modelos con rezagos, de equilibrio o no, etc. Seguramente, y luego de una rigurosa b¶ usqueda
bibliogr¶a¯ca, ser¶a posible llegar a la conclusi¶on de que para todas estas ramas del saber econ¶omico
se han podido formular modelos con din¶ amicas ca¶oticas. La fruct¶³fera proliferaci¶on de modelos
con comportamientos ca¶ oticos, independientemente de la orientaci¶on econ¶omica, nos llama a la
re°exi¶on y da la impresi¶ on de su aparente confecci¶on a medida al s¶olo efecto de lograr rescatar
de ellos el resultado \ca¶ otico". La pretensi¶on que subyace en todas estas construcciones es la de
convencer a la comunidad academica que existen diferentes implicaciones en t¶erminos de pol¶³tica
econ¶omica cuando se comparan las visiones que suponen que las °uctuaciones macroecon¶omicas
son generadas principalmente por la propagaci¶on de mecanismos end¶ogenos en oposici¶on aquellos
que suponen que se originan de perturbaciones ex¶ogenas. Las teor¶³as que soportan la existencia
de mecanismos de propagaci¶ on end¶ogena suelen defender la acci¶on gubernamental a trav¶es de
3.4. Sistemas Econ¶
omicos \Desordenados" 63
pol¶³ticas de estabilizaci¶
on en completa contradicci¶on con las teor¶³as que concluyen que los ciclos
econ¶omicos son principalmente causados por \shocks" ex¶ogenos, las cuales sugieren que las pol¶³ticas
de estabilizaci¶on por parte del gobierno son como mucho un ejercicio futil.
Es posible considerar que, en torno de este tema, hay dos grandes visiones: por un lado est¶
an
los adherentes del \oportunismo" que buscan encontrar caos para justi¯car ideas preconcebidas y
por otro los \estructuralistas" que buscan, a trav¶es de s¶olidos supuestos, entender el origen de las
°uctuaciones en los sistemas econ¶ omicos. Es necesario establecer una cuidadosa distinci¶on entre
el mundo de los fen¶ omenos humanos o naturales y los modelos matem¶aticos de tales mundos.
Las regularidades del mundo se suelen cuanti¯car en magnitudes directamente observables. Como
hemos visto, estos elementos observables por lo general forman un conjunto de medidas que toman
valores en cierto conjunto ¯nito de n¶ umeros. Estas medidas no son, por lo general, exactas. En el
mundo de la matem¶ atica, por otra parte, tenemos representaciones simb¶olicas de estos observables
del mundo real. Los s¶³mbolos matem¶aticos que representan estos atributos del mundo real suelen
ser n¶umeros enteros, racionales o reales, sistemas todos ellos, que contienen una colecci¶on in¯nita
de elementos simb¶ olicos. Dada esta diferencia fundamental, en [47] se le atribuye a los modelos
matem¶aticos un caracter \extrareal" que puede conducir a que la representaci¶on e interpretaci¶ on
de los resultados d¶e un modelo matem¶atico de lugar a conclusiones err¶oneas.
Muchos modelos econ¶ omicos presuponen la coordinaci¶on de las actividades de los agentes en
dos \dimensiones": la \espacial" y la \temporal". Esto implica suponer que las transacciones entre
los individuos que, en realidad se efect¶uan en lugares distintos, est¶an perfectamente \arbitradas", y
pueden representarse como teniendo lugar en un \mercado central espacialmente localizado" donde
puede operar un subastador que determina los precios, al modo de lo que resulta en los modelos
tradicionales de equilibrio general. La coordinaci¶on intertemporal supone una plena consistencia
ex-ante de las acciones presentes y futuras planeadas por los agentes a partir de sus percepciones
sobre la evoluci¶on del sistema. Al margen de la evidencia cotidiana que revela la capacidad de
auto-ajuste de los sistemas econ¶ omicos, existe un variado conjunto de fen¶omenos, tales como los
episodias de alta in°aci¶ on y ciertas clases de °uctuaciones (o \crisis") econ¶omicas, a partir de los
cuales parece razonable dudar de la hip¶otesis de que la coordinaci¶on ocurre siempre como un hecho
autom¶atico.
Si se trata de levantar el supuesto de que la coordinaci¶on de los planes es un dato, hace
falta estudiar c¶
omo ¶esta puede surgir a partir de la propia interacci¶on de los agentes. Esto nos re-
mite a un abordaje \constructivo" (\bottom up") para modelar el sistema (v¶ease la secci¶on 2.5 del
cap¶³tulo 2). Como se mencion¶ o en los cap¶³tulos 1 y 2, el objetivo es construir una escala jer¶
arquica
de creciente complejidad que permita indagar acerca de los mecanismos de auto-organizaci¶ on que
operan a los diferentes niveles. Un primer paso en esa direcci¶on, que se aborda en detalle, con-
siste en representar a los agentes individuales en interacci¶on con los dem¶as. En este punto, cabe
distinguir entre \racionalidad" y optimizaci¶on. En efecto, si se busca describir la conducta de los
agentes como optimizadora en sentido estricto, los individuos deber¶³an encontrar los extremos de
funciones cuyos argumentos tienen una dimensi¶on del orden del n¶ umero de bienes que se transan
en la econom¶³a, cuya soluci¶ on requiere una cantidad de pasos que crece exponencialmente con la
informaci¶ on necesaria para especi¯carlos. En estas condiciones, resulta dif¶³cil mantener la hip¶ otesis
de que los agentes literalmente optimizan; y, al mismo tiempo, el an¶alisis de los mecanismos de
coordinaci¶ on aparece como de enorme complejidad.
En la pr¶actica, es probable que la conducta de los agentes se corresponda a un sub¶ optimo
64 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
de la funci¶on objetivo, pero se base en reglas y rutinas de decisi¶on robustas frente a cambios del
entorno determinados por modi¯caciones en el comportamiento de los dem¶as individuos. Dicho de
otro modo, los agentes operar¶³an heur¶³sticas e¯caces para \acercarlos" al ¶optimo en una variedad
de circunstancias, sin necesariamente alcanzarlo. Explorar esta alternativa implica considerar a la
racionalidad de los individuos de modo procedural. En este enfoque las acciones de los agentes
deben resultar de algoritmos \razonablemente adaptados" al problema de decisi¶on que enfrentan y
el sistema econ¶ omico debe ser visto como un sistema de c¶omputo distribuido (o como una red de
procesadores interconectados) donde cada componente tendr¶³a una capacidad limitada, menor a la
del conjunto, y tambi¶en muy inferior a la que ser¶³a necesaria para especi¯car el ¶optimo social 10 .
En la imagen mencionada, el sistema evoluciona \computando" su pr¶oxima con¯guraci¶on a
partir de la situaci¶on en la que se encuentra y permitiendo que sus agentes pongan en pr¶actica sus
algoritmos o rutinas individuales. En la generalidad de los casos, se espera que la din¶amica que
resulte sea fuertemente no lineal. Puede, adem¶as, ser disipativa con lo que la regi¶on visitada del
espacio de las fases se contrae a una regi¶ on m¶as reducida poniendo de mani¯esto, de esta manera,
un proceso de auto-organizaci¶ on. Mediante esta evoluci¶on el sistema puede relajar a una situaci¶on
estacionaria, recorrer un r¶egimen transitorio o incluso converger a un atractor extra~ no.
La evoluci¶on de un sistema f¶³sico que act¶ ua como una computadora s¶olo puede ser descripta
de manera general mediante un c¶ alculo si se eval¶uan todos su pasos de manera explicita. No
existe otro m¶etodo que sea universal y que adem¶as permita describir la evoluci¶on de manera m¶as
abreviada. Esta situaci¶ on corresponde a sistemas denominados \computacionalmente irreducibles"
[196]. Si la analog¶³a fuera v¶alida, considerar a los sistemas econ¶omicos como de c¶omputo distribu¶³do
los englobar¶³a en esta amplia categor¶³a de irreducibilidad computacional con lo que la manera m¶as
\econ¶omica" de obtener su evoluci¶ on ser¶³a seguirla expl¶³citamente. Existen otros sistemas para
los que existe el atajo de computar - en otro sistema f¶³sico cuya evoluci¶on sea m¶as compleja -
la trayectoria o la ecuaci¶ on de movimiento y obtener de ese modo su con¯guraci¶on en cualquier
momento del tiempo. Estos¶ son la excepci¶on, mientras que la regla son los irreducibles. Ejemplos de
\modelos reducibles" son los problemas de la din¶amica elemental. Algunos ejemplos para los que es
imposible un procedimiento general de soluci¶on son los aut¶omatas celulares, los sistemas din¶amicos
ca¶oticos, las redes neuronales, las m¶ aquinas de Turing universales, etc. (v¶ease la secci¶on 3.4.2 de
este cap¶³tulo y el cap¶³tulo siguiente para tener m¶as detalles).
Aceptar este enfoque hasta sus u ¶ltimas consecuencias abre cuestiones pol¶emicas cuya dis-
cusi¶on excede los prop¶ ositos del presente trabajo. Si as¶³ fuera, un sistema natural que sea capaz
de computaci¶on universal, por su propia naturaleza, podr¶³a emular cualquier evoluci¶on. Con-
secuentemente deber¶³a concluirse que un sistema f¶³sico que pueda actuar de esa manera puede
emular la evoluci¶ on de cualquier otro sistema f¶³sico. De estas consideraciones surge que si la de-
scripci¶on algor¶³tmica de los agentes econ¶ omicos corresponde a la realidad, se deber¶³a poder simular
la evoluci¶on de un sistema econ¶ omico en una computadora universal (un art¶³culo interesante que
¶
trata esta tem¶atica es [190]). Esta es una aseveraci¶on semejante a (y vinculada con) la as¶³ llamada
\hip¶ otesis de inteligencia arti¯cial fuerte" que a¯rma que toda manifestaci¶on de inteligencia es
representable por un algoritmo. Y por obvia extensi¶on la conducta de N agentes inteligentes en
interacci¶on deber¶³a tambi¶en ser reducible a una expresi¶on algor¶³tmica. Traducido al lenguaje que
nos ocupa se podr¶³a formular correspondientemente la hip¶ otesis de \econom¶³a arti¯cial fuerte" que
dir¶³a que toda evoluci¶ on de un sistema econ¶omico es expresable bajo la forma de un sistema de
c¶
omputo distribuido en el que cada nodo implementa sus decisiones de manera algor¶³tmica. La
hip¶otesis de \econom¶³a arti¯cial d¶ebil" derivar¶³a de poner l¶³mites a la a¯rmaci¶on hecha m¶as arriba
acerca de la posibilidad de emular mediante una computadora universal un sistema cuya evoluci¶ on
10
V¶ease [123, 90]; La discusi¶
on esbozada aqu¶³ se vincula con el an¶
alisis de Heiner [91]. A menudo, los modelos
econ¶
omicos suponen impl¶³citamente que los agentes econ¶ omicos son capaces de expandir y mejorar sus capacidades
de an¶alisis y decisi¶
on a medida que el entorno se vuelve m¶as complejo. Heiner hace notar que, por contraste, los
comportamientos en ambientes muy complicados tienden a simpli¯carse, y los agentes tienden a actuar sobre la base
de estrategias \rutinarias" y conservadoras.
3.4. Sistemas Econ¶
omicos \Desordenados" 65
es irreducible. Esto equivale a a¯rmar que existen conductas y din¶amicas econ¶omicas que no pueden
ser reducidas a la forma de una red de \agentes algor¶³tmicos".
En lo que sigue consideraremos el abordaje computacional de sistemas y agentes econ¶ omicos
sin pretender en modo alguno zanjar ni tomar partido en las especulaciones formuladas m¶ as arriba.
El prop¶osito es s¶ olo explorar un sendero que permita un avance de limitado reduccionismo en
la comprensi¶ on de algunos fen¶ omenos de auto-organizaci¶on de sistemas econ¶omicos. El punto de
partida para construir una descripci¶on de este tipo radica pues en estilizar al m¶aximo el compor-
tamiento de los agentes reteniendo un espectro limitado de sus posibles conductas, y proponer
una representaci¶ on algor¶³tmica de sus decisiones y mecanismos de decisi¶on. La estilizaci¶ on debe
ser tal que permita entender fen¶ omenos emergentes en t¶ermino de conductas elementales (v¶ease la
secci¶on 2.6, cap¶³tulo 2). Los agentes, su plasticidad y sus mecanismos de aprendizaje deben ser
formulados de manera de ser ejecutados por una computadora universal.
El siguiente ingrediente sobre el que se debe decidir en un modelo constructivo es la or-
ganizaci¶on \espacial" del sistema (topolog¶³a), con lo cual, se debe establecer alg¶ un criterio de
proximidad de modo de limitar por esta v¶³a las in°uencias que es capaz de recibir cada agente. El
\tama~ no" de la vecindad y el grado de conectividad con que los agentes se vinculan deben pensarse
asociados a la cantidad de informaci¶on que un agente dispone acerca del resto del sistema. De¯nir la
\topolog¶³a"de las vinculaciones internas en un sistema econ¶omico dista de ser un problema sencillo,
dado el complejo sistema de comunicaciones internas que existe. Por otra parte, la naturaleza de
la \vecindad" y la conectividad de los agentes, depende de la escala de complejidad en la que nos
encontremos: son distintos los contactos mutuos que experimentan los participantes en diferentes
mercados.
Las interacciones entre los agentes juegan un papel importante en determinar las con¯gu-
raciones estables y la evoluci¶ on del sistema. Distintos agentes de un sistema interact¶ uan cuando
alguna acci¶on afecta las condiciones relevantes para ¶este. Es de esperar que estas interacciones sean
altamente heterog¶eneas y que el grado de complementariedad sea globalmente incierto. Cuando esto
sucede no existen con¯guraciones u ¶nicas en las que todos los agentes son tratados sim¶etricamente
sino que existe una gran diversidad de situaciones en las que el sistema puede acomodarse. En el
sistema conviven - del mismo modo que podr¶³an hacerlo en un ecosistema biol¶ogico - diversidad y
estabilidad. En la din¶ amica del sistema es dable esperar que se presente el fen¶omeno de \quiebre
de la ergodicidad" que ser¶ a analizado en detalle en el pr¶oximo cap¶³tulo.
Las interacciones entre los agentes del sistema, su esquema de interconexiones y vecindades,
los mecanismos de toma de decisiones o de aprendizaje y adaptaci¶on pueden suponerse a veces inal-
terables en el tiempo. Teniendo en cuenta la heterogeneidad se~ nalada arriba, el sistema presenta un
\desorden estructural" (o \desorden congelado"). Estas condiciones con¯guran lo que podr¶³amos
llamar \modelos desordenados" de la econom¶³a. En situaciones como ¶estas los sistemas pueden
presentar \propiedades emergentes" y son posibles fen¶omenos de auto-organizaci¶ on, que no ser¶³an
identi¯cables a trav¶es de la b¶ usqueda de ¶optimos de funciones de numerosas variables. Tambi¶en
habr¶³a casos en los que el sistema se estaciona en una con¯guraci¶on sub¶optima por per¶³odos apre-
ciables. Se encuadran en estos comportamientos fen¶omenos de hist¶eresis, dependencia del sendero
y \lock-in", ya mencionados en el cap¶³tulo anterior.
Los recursos de modelizaci¶ on computacional son diversos. Hemos elegido modelar los pro-
cesos de aprendizaje y adaptaci¶ on y la elaboraci¶on de heur¶³sticas sencillas mediante el uso de los
algoritmos gen¶eticos (una explicaci¶ on resumida de los mismo se da en la secci¶on 3.5.1) que emulan
el proceso de evoluci¶ on biol¶ ogica por selecci¶on de los individuos m¶as aptos de una poblaci¶ on. En
los modelos econ¶ omicos que discutimos, la \aptitud" (\¯tness") se mide mediante alguna funci¶ on
de utilidad apropiada. La heur¶³stica se codi¯ca en un \genoma" que se va alternando por mu-
taciones al azar y por cruza, seleccionando en cada \generaci¶on" la porci¶on de la poblaci¶ on cuya
funci¶on de utilidad es mayor. De este modo se pueden emular de modo estilizado aspectos de apren-
dizaje inductivo o de racionalidad acotada, ya que el agente dispone de una limitada informaci¶ on
para procesar y sobre la base a la misma debe modi¯car peri¶odicamente su manera de formular
66 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Una instancia particular del problema se obtiene especi¯cando valores de todos sus par¶ ametros. Como ejemplo, podemos citar al
cl¶
asico Problema del Viajante de Comercio. Los par¶ ametros de este problema consisten en un conjunto ¯nito S = fc1 ; ¢ ¢ ¢ ; cm g
de m ciudades y para cada par de ellas, ci ; cj 2 C, la distancia d(ci ; cj ) que las separa. Una soluci¶on de este problema es un
ordenamiento < c¼(1) ; ¢ ¢ ¢ ; c¼(m) > de visita de las ciudades que minimice una funci¶ on\costo" del tipo:
X
m¡1
El costo C es la longitud de un recorrido que comienza en c¼(1) , visita secuencialmente cada ciudad, y retorna a c¼(1) desde la
u
¶ltima ciudad c¼(m) .
Un algoritmo es un procedimiento cuyos pasos est¶ an especi¯cados, y que deben seguirse para resolver el problema en
on. Un algoritmo resuelve un problema P si el mismo puede aplicarse a toda instancia I de P y es posible garantizar que
cuesti¶
siempre se obtendr¶ a una soluci¶
on.
La Teor¶³a de la Computabilidad [75] estudia las funciones o relaciones (y por ello problemas) que pueden ser computados
mediante un algoritmo. De esta teor¶³a surge la de¯nici¶ on de complejidad computacional que es una medida de la \di¯cultad"
{ cuanti¯cada en t¶ erminos adecuados { de los diversos algoritmos. Por lo general, esta complejidad se mide por el tiempo (o
n¶umero de pasos) necesarios para obtener una soluci¶ ¶
on. Esta se expresa convenientemente como una funci¶ on de la cantidad de
informaci¶on, medida en \bits", que es necesario brindar para dar lugar a los datos que especi¯can la instancia del problema.
Se puede pues suponer, que cada problema tiene asociado un esquema de codi¯caci¶ on, que mapea sus instancias en cadenas
de caracteres. La longitud de la entrada de la instancia I del problema P es el n¶ on de I
umero de s¶³mbolos en la descripci¶
obtenidos de la codi¯caci¶ on de P. Esta longitud se mide normalmente en \bits". En el problema del viajante de comercio, el
tama~no de la instancia del problema es el n¶umero de ciudades m.
La complejidad temporal de un algoritmo expresa el tiempo (o el n¶ umero de pasos) necesario para resolver el problema
¶
para una dada longitud de la entrada. Esta se de¯ne para el peor o m¶ as pesimista caso posible de cada instancia y puede no ser
una funci¶on bien de¯nida. Distintos algoritmos presentan una gran diversidad de complejidades temporales. Para establecer si
un problema es o no tratable importa determinar el valor asint¶ otico de la complejidad para grandes valores de la longitud de
los datos de entrada.
Por otro lado, se dice que una funci¶on f (n) es O(g(n)) cuando existe una constante c tal que:
Un algoritmo de tiempo polin¶ omico es aquel cuya complejidad temporal es O(P (n)), con P (n) un polinomio en la longitud n
de la entrada del problema . Todo algoritmo cuya complejidad temporal pueda acotarse inferiormente por una exponencial en
n recibe el nombre gen¶ erico de problema N P (No Polin¶ omico). Se suele decir que los problemas N P son intratables ya que
cuando n aumenta el problema no puede resolverse por ning¶ un medio pr¶actico 11 .
En la siguiente tabla se muestran el crecimiento de la complejidad temporal para diferentes instancias de un problema.
Para ejempli¯car las magnitudes involucradas, se ¯j¶ o arbitrariamente la m¶³nima duraci¶
on en :000001 segundos. Para el caso
del problema del viajante de comercio n representa la cantidad de ciudades.
En muchos casos es posible demostrar que dos problemas son equivalentes. Para ello se debe relacionar la solucion
de toda instancia del primero con una equivalente del segundo. La complejidad resulta entonces un invariante intr¶³nseco del
problema. Si, por ejemplo, puede establecerse esta correspondencia con un algoritmo que insuma un tiempo polin¶ omico, y el
primer problema es de la clase P, el segundo tambi¶ en pertenece a la misma clase.
11
Se suelen distinguir dos causas de intratabilidad. La primera es cuando el problema requiere una cantidad
exponencial de tiempo para llegar a la soluci¶ on. La segunda es cuando su soluci¶on no puede ser escrita por una
expresi¶on cuya longitud pueda acotarse por alg¶
un polinomio que dependa de la longitud de la entrada. Consideramos
aqu¶³ s¶
olo el primer caso de intratabilidad.
3.4. Sistemas Econ¶
omicos \Desordenados" 67
Comp. Temp. 10 30 40 50 60
n .00001 s .00003 s .00004 s .00005 s .00006 s
n2 .0001 s .009 s .0016 s .0025 s .0036 s
n3 .001 s. .027 s .064 s .125 s 0.216 s
n5 .1 s 24.3 s 1.7 m 5.2 m 13.0 m
2n .001 s 17.9 m 12.7 d 35.7 a 366 si
3n .059 s 6.5 a 3855 si 2 x 108 si 1.3 x 1013 si
Complejidad Temporal para diferentes instancias del problema del viajante de comercio.
Las unidades son: s: segundos, m: minutos, a: a~ nos, si: siglos
El funcionamiento de una dada m¶ aquina M se establece dando una tabla que estipule qu¶ e desplazamiento debe realizar
y cu¶ al debe ser su nuevo estado interno frente a las posibles lecturas que realice. Con estos elementos se puede demostrar [144]
que es posible formular cualquier algoritmo ¯nito aritm¶ etico o evaluar tablas de verdad de cualquier funci¶ on l¶
ogica. Los datos
para ejecutar el algoritmo se alimentan a la m¶ aquina por medio de la cinta.
Es posible construir una m¶ aquina de Turing U que es capaz de replicar el funcionamiento de cualquier otra m¶ aquina
M leyendo de su cinta de datos la informaci¶ on que caracteriza M. Esta m¶ aquina recibe el nombre de \computadora Universal".
Formalmente una computadora U es universal si para todo procedimiento efectivo realizado por otra m¶ aquina M existe una
cadena de caracteres s tal que para todas las entradas posibles p de la m¶ aquina M sucede que U(sp) = M(p). En otras palabras,
la acci¶ on de U sobre la entrada sp produce la misma salida que cualquier otra m¶ aquina M produce, recibiendo como entrada
a p. Las M¶ aquinas de Turing no son las u ¶nicas capaces de efectuar computaci¶ on universal. Las funciones recursivas y sistemas
f¶³sicos como las redes neuronales y algunos aut¶ omatas celulares como el Juego de la Vida son tambi¶ en capaces de actuar como
una computadora universal (v¶ ease la secci¶on 5 del cap¶³tulo 4) La cuesti¶on de si funciones cognitivas superiores pueden o no ser
representadas por medio de una computadora universal est¶ a ligado con las limitaciones de estas m¶ aquinas y dista de ser un
problema resuelto. Turing formul¶ o su teor¶³a de la computabilidad para dar una respuesta al \10mo. Problema de Hilbert" (el
\Entscheidungsproblem") que inquiere sobre la posibilidad de formular un algoritmo ¯nito que establezca si una proposici¶ on
en matem¶ aticas es cierta o falsa 12 . En el lenguaje de las m¶ aquinas de Turing la imposibilidad de resolver el \10mo. Problema
de Hilbert" se formula como el \problema de la parada" (o \halting problem"), que consiste en demostrar que no existe una
m¶ aquina de Turing que determine anticipadamente si una m¶ aquina universal se detendr¶ a ante toda posible entrada. Problemas
como ¶ este, que no pueden ser resueltos por medio de un algoritmo ¯nito, reciben el nombre de indecidibles. Existe una gran
variedad de sistemas f¶³sicos cuya evoluci¶ on es indecidible (v¶ ease [196]). En [190] se relaciona este tipo de limitaci¶
on intr¶³nseca
de los sistemas computacionales con el postulado de racionalidad que subyace en la mayor¶³a de las teor¶³as econ¶ omicas estandar.
3.4.3 Optimizaci¶
on Combinatoria y Racionalidad Acotada
\Aprendi¶
o tantas cosas que no tuvo tiempo
para pensar en ninguna de ellas."
Antonio Machado
Durante mucho tiempo los economistas han trabajado con las herramientas cl¶ asicas de la optimizaci¶on. Se suelen
emplear algoritmos tales como lo de programaci¶ on lineal (como por ejemplo: el simplex), de programaci¶ on no lineal y din¶
amica,
o la teor¶³a del control ¶optimo. Los recientes desarrollos de la teor¶³a de la complejidad computacional y la optimizaci¶ on
combinatoria han cambiado el abordaje de estos problemas, tratando a la optimizaci¶ on como un problema de decisi¶ on. Para
hacer ¶esto debemos preguntarnos si existe un procedimiento efectivo, que busque sobre el conjunto de alternativas y determine
la mejor de ellas. Si consideramos a la econom¶³a en su conjunto y tomamos en consideraci¶ on el universo de todas las preferencias
y alternativas posibles, el problema econ¶ omico se torna intratable porque no es posible encontrar un algoritmo (o procedimiento
efectivo) que pueda obtener la mejor soluci¶ on en un tiempo aceptable.
A modo de ejemplo, en todo problema de Programaci¶ on Lineal el objetivo es maximizar una funci¶ on lineal: max c ¢ x
sujeta a A ¢ x · b, con c; x 2 <n , x ¸ 0, A 2 <m £ n y b 2 <m . Sabemos que el ¶ optimo en este simplex n-dimensional est¶ a
situado en alguno de sus v¶ ertices. El algoritmo simplex va buscando la soluci¶on desplaz¶andose progresivamente hacia v¶ ertices
en los que la funci¶on lineal crece. Este algoritmo ¯naliza luego de un n¶ umero ¯nitos de pasos. Para cada valor de n, existen
instancias en las que el problema (de orden n) requiere 2n pivotes (o b¶ usquedas parciales), con lo cual resulta que el problema
es N P.
12
El teorema de incompletitud de GÄ odel est¶
a tambi¶en vinculado a este problema. Dicho teorema a¯rma que en
todo sistema axiom¶atico formal existen proposiciones cuya veracidad o falsedad no puede ser demostrada.
68 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
En el mismo sentido, es posible demostrar que muchos de los problemas m¶ as comunes a los que se enfrenta un agente
econ¶omico, son intratables 13 . La b¶ usqueda de ¶ optimos debe hacerse sobre un paisaje de costos de tantas dimensiones y tan
\rugoso" que es imposible encontrarlo en un tiempo compatible con la evoluci¶ on real del sistema. La utilizaci¶ on de heur¶³sticas
que realizan b¶ usquedas locales, y son capaces de garantizar buenas opciones sub¶ optimas, es la u ¶ nica estrategia realista posible
para una b¶ usqueda.
Concebir a la optimizaci¶ on como un problema de decisi¶ on da un nuevo contenido a la hip¶ otesis de la racionalidad
acotada ya que elimina el problema de circularidad que existe en los casos usuales de optimizaci¶ on en los cuales no se tiene en
cuenta el costo de alcanzar su propia soluci¶ on. Herbert A. Simon [179] ha de¯nido como racionalidad acotada a toda aquella
acci¶
on de un agente econ¶ omico que, enfrentado a una tarea compleja, no intenta \optimizar" el resultado y s¶³ \satisfacerlo"
con cierto nivel de aspiraci¶on 14 . Conlisk (1996) [51], detalla diversos ejemplos y ¶ areas de trabajos en la teor¶³a econ¶ omica
que deber¶³an requerir el dise~no de modelos con racionalidad acotada. Simon supone que los agentes operan en general por
aproximaciones sucesivas para optimizar y economizar las limitaciones impuestas por la informaci¶ on limitada y la habilidad
de razonar. Por otro lado, una respuesta emocional puede considerarse incompatible con el accionar racional; sin embargo, es
posible que actitudes \irracionales" pueden servir para producir un sendero adaptativo 15 .
No obstante, toda conducta no optimizadora estar¶ a sesgada por el mismo entorno que act¶ ua como v¶³nculo y que da
origen a un proceso competitivo de selecci¶ on. Armen A. Alchian [3] supone que a¶ un cuando las empresas tomaran sus decisiones
al azar, el medio ambiente seleccionar¶ a a aquellas cuyas decisiones superen un m¶³nimo estandar de viabilidad. Muchas veces la
imitaci¶on de estrategias resulta ser menos ardua y costosa que la propia optimizaci¶ on. En u ¶ ltima instancia el equilibrio vendr¶³a
dado por un proceso competitivo de selecci¶ on guiado por una mezcla de h¶ abitos y rutinas que surgen de previas optimizaciones
o de la simple tarea de imitaci¶on.
El proceso de aprendizaje de los actores econ¶ omicos puede ser entendido entonces como el resultado de un proceso de
prueba y error que, a trav¶ es de un proceso de selecci¶ on, da por resultado la adopci¶
on de nuevas reglas que funcionan cada vez
mejor para un entorno dterminado. Otra manera de ver este mismo proceso es pensarlo como el resultado del entorno propio
del mercado que da lugar a una selecci¶ on de aquellos agentes cuyo comportamiento les permite sobrevivir. Desde este punto
de vista los agentes econ¶ omicos deber¶³an exhibir pautas de un comportamiento consistentes con un proceso de aprendizaje
evolutivo, o l¶ogicamente inductivo.
Robert Lucas [130] sugiere que todo comportamiento es adaptativo ya que las reglas de decisi¶ on ser¶³an el estado esta-
cionario de alg¶ un proceso adaptativo. A ¶este se llega luego de un proceso de experimentaci¶ on sobre el conjunto de preferencias.
Tengamos en cuenta que cualquier motivaci¶ on por optimizar ex - ante, no implica la realizaci¶ on del ¶optimo ex - post. Por
esta raz¶on el esquema soportado por el supuesto de racionalidad acotada implica la utilizaci¶ on de alguna forma de din¶ amica
adaptativa para las reglas de comportamiento de los agentes. Este modelo de aprendizaje est¶ a guiado por procesos inductivos.
Si suponemos que la informaci¶ on llega a los agentes de manera secuencial todo intento optimizador se implementa por medio
de la inducci¶on extrapolando las regularidades, y obteniendo un comportamiento esperado universal a partir de las experiencias
obtenidas de cada caso particular.
Si la capacidad de c¶
omputo es limitada (i.e. si representa un \bien econ¶omico", ya que es escaso) las decisiones correctas
deben ser costosas. La interrelaci¶ on entre el esfuerzo por computar un resultado correcto y el seguir h¶ abitos establecidos se
ve re°ejado en lo que podemos denominar como \econom¶³a de la mente": operar con reglas heur¶³sticas resulta a veces ser la
\reacci¶on racional" cuando se toma en cuenta el costo computacional y los bene¯cios de lograr una representaci¶ on de la realidad
m¶as acertada.
Parte de la robustez de los sistemas econ¶ omicos puede atribuirse a la memoria de los agentes de experiencias anteriores,
que condiciona las decisiones de planes futuros. La adaptaci¶ on de la que hablamos brinda la plasticidad necesaria para enfrentar
nuevas situaciones y absorber cambios y perturbaciones ex¶ ogenas. No sorprende pues que las econom¶³as exhiban un cierto grado
\regularidad intr¶³nseca", que permite, salvo en casos excepcionales el desenvolvimiento normal de las variables.
3.5 Representaci¶
on Computacional de Agentes Econ¶
omicos
3.5.1 Algoritmos Gen¶
eticos
Una manera de representar agentes con una limitada capacidad de procesamiento es asociando a
cada uno de ellos una poblaci¶ on de estrategias que pueden alterarse progresivamente mediante los
¶
pasos de un algoritmo gen¶etico. Esta heur¶³stica fue desarrollada por J. Holland [104] y tiene como
base conceptual a los mecanismos de evoluci¶on y selecci¶on biol¶ogicos. A diferencia de otros m¶etodos,
los algoritmos gen¶eticos exploran el espacio de par¶ametros de un problema con un mecanismo al
13
\If a garment factory requires 52 distinct independent steps to assemble a shirt, there are 52! = 1068 di®erent
ways to order these steps in sequence. ... For any realistic garment assembly operation, almost all possible sequences
for the step would be wildly impractical, but if even a very small fraction of sequences is useful there will be many
such sequences. It is therefore extremely unlikely that any actual sequence that humans have used for sewing a shirt
is the best possible one." Romer, P.M. [165].
14
\Models of satis¯cing behavior are richer than models of maximazing behavior, because they treat not only of
equilibrium but of the method of reaching it as well... (a) When performance falls short of the level of aspiration,
search behavior... downward until goals reach levels that are practically attainable, (c) If the two mechanisms just
listed operate too slowly to adapt aspiration to performance, emotional behavior - apathy or agression, for example
- will replace rational adaptive behavior" [179].
15
\It is evident that the rational thing to do is to be irrational, where deliberation and estimation cost more than
they are worth" [121].
3.5. Representaci¶
on Computacional de Agentes Econ¶omicos 69
que se le puede atribuir un cierto \paralelismo intr¶³nseco", usualmente poseen adem¶as una gran
robustez frente a cambios en sus par¶ametros de control. Por estas razones se hace posible trabajar
con espacios de b¶ usqueda de gran dimensi¶on. No obstante, si bien han probado ser sumamente
e¯caces en la identi¯caci¶ on de las regiones del espacio de par¶ametros que corresponden a zonas
sub¶optimas, los algoritmos gen¶eticos no han sido igualmente e¯caces para identi¯car extremos muy
localizados en paisajes de costo rugosos.
Cuando se los utiliza en el marco problemas representables por la teor¶³a de juegos, los
algoritmos gen¶eticos operan sobre una poblaci¶on de estrategias. Esta ¶ se renueva por medio de
los operadores gen¶eticos que simulan los procesos de selecci¶ on, cruza y mutaci¶ on. Los operadores
se aplican sobre la poblaci¶ on de estrategias renov¶andola progresivamente a trav¶es de sucesivas
generaciones. De este modo tiene lugar un proceso de adaptaci¶on en el que las peores estrategias
\mueren" mientras que las que prueban ser exitosas ocupan gradualmente las vacantes dejadas por
las primeras. El algoritmo permite modelar de este modo un proceso de aprendizaje en el que
pueden tener lugar la imitaci¶ on, la prueba y el errror.
Para implementar un algoritmo gen¶etico, las estrategias de un jugador se codi¯can medi-
ante una secuencia o cadena de caracteres cuya longitud depende del problema a resolver. Cada
estrategia recibe un premio que depende del resultado que se obtiene al ponerla en pr¶actica. El
m¶erito o aptitud (\¯tness") de la estrategia es la suma de las recompensas recibidas. En la siguiente
etapa del algoritmo, las estrategias son seleccionadas para pasar a la siguiente generaci¶on, con una
probabilidad que es proporcional a su aptitud relativa. Las estrategias que dan lugar a premios
mayores tienden de este modo a perpetuarse en la poblaci¶on.
En sucesivas generaciones, las nuevas estrategias aparecen cuando se utilizan los operadores
gen¶eticos de cruza y mutaci¶ on. Con estos operadores, las estrategias se combinan modelando un
aprendizaje por imitaci¶ on de las estrategias exitosas. La operaci¶on de cruza se implementa eligiendo
dos estrategias ya seleccionadas y recombinando sus partes. Para ello se \cortan" ambas estrategias
en un punto intermedio seleccionado al azar, y se intercambian las partes complementarias de
ambas. Por ejemplo, una \cruza" de las dos secuencias de 5 caracteres 11111 y 00000 , \cortando"
a ambas en el tercer caracter resulta en las nuevas secuencias 11100 y 00011 . La cruza combina
partes de estrategias seleccionadas por ser las m¶as exitosas de la generaci¶on anterior para encontrar
nuevas estructuras con mayor aptitud o \¯tness". El tercer operador gen¶etico es la mutaci¶ on
que produce la alteraci¶ on de un s¶ olo \bit" de la secuencia, seleccionado al azar. Por ejemplo, si la
secuencia 00011 se muta en la u ¶ltima posici¶on la nueva estrategia es 00010 . Al igual que la cruza,
esta operaci¶on se realiza con cierta probabilidad, en este caso pm . La mutaci¶on puede representar
el ensayo de una innovaci¶ on mediante un cambio local en la implementaci¶on de esa estrategia. Este
operador mantiene la diversidad en la poblaci¶on de estrategias.
Los pasos formales del algoritmo son, someramente, los siguiente:
(iv) Aplicar los operadores de cruza y mutaci¶on, produciendo los individuos de la nueva generaci¶
on.
intervalo que act¶ua como dominio del problema. Luego, la u ¶nica informaci¶on requerida es la
funci¶on objetivo del problema. No es necesario que esta sea diferenciable. Es posible aplicar
el algoritmo a funciones objetivo discontinuas, no diferenciables, o de¯nidas proceduralmente.
² Paralelismo: Existen argumentos que justi¯can el uso de estos algoritmos para b¶ usquedas
en grandes espacios de con¯guraciones. Su e¯cacia se basa en el concepto de paralelismo
impl¶³cito [79] que implica que el algoritmo explora simult¶aneamente muchas regiones del
espacio de soluciones, evitando quedar atrapado en regiones limitadas localmente. El m¶etodo
no es e¯caz para encontrar ¶ optimos que est¶an con¯nados en regiones muy estrechas.
² Reglas de exploraci¶
on: La b¶ usqueda de soluciones tiene lugar a trav¶es de transiciones es-
toc¶asticas, como en el algoritmo de \recocido simulado"16 . Di¯ere en este sentido de los
m¶etodos de optimizaci¶on de descenso por gradientes que pueden presentar el inconveniente
de quedar atrapados en m¶³nimos secundarios.
Es posible modi¯car algunas caracter¶³sticas del algoritmo para optimizar funciones con
m¶ultiples ¶optimos mediante la especiaci¶on de las sucesivas soluciones; en este caso la frecuencia re-
lativa de individuos en cada extremo relativo categoriza la magnitud de cada uno de estos m¶ ultiples
estados ¶optimos [79]. La estructura b¶ asica de los algoritmos gen¶eticos puede ser amalgamada con
otro tipo de m¶etodo de optimizaci¶on con el prop¶osito de mejorar la \performance" del proceso; estas
modi¯caciones suelen denominarse como algoritmos h¶³bridos. Existen muchos algoritmos h¶³bridos
que los combinan con la t¶ecnica de recocido simulado, las redes neuronales, e incluso ciertos m¶etodos
y algoritmos basados en reglas, usados en inteligencia arti¯cial como los sistemas de clasi¯cadores.
En el cap¶³tulo 3.6 mostramos dos aplicaciones de estos algoritmos en modelos construc-
tivos de sistemas econ¶ omicos. En ellos los algoritmos gen¶eticos sirven para modelar el aprendizaje
y la capacidad limitada de procesamiento de la informaci¶on que poseen los agentes econ¶omicos.
Mostramos tambi¶en c¶ omo se pueden dar lugar as¶³ a estados de equilibrio autoorganizado, y condi-
ciona el relajamiento a dicho equilibrio y c¶omo la evoluci¶on del aprendizaje inductivo puede
tambi¶en servir para comprender din¶ amicas transicionales entre estados autoorganizados. En la
bibliograf¶³a se citan otras aplicaciones de los algoritmos gen¶eticos en la econom¶³a y la teor¶³a de
juegos: [105, 152, 137, 159, 109, 157, 8, 166, 12, 13, 138, 142, 24, 16, 171, 9].
La funci¶on de trasferencia g(x) suele tomarse como una funci¶on sigmoide continua o discreta (una
de Heaviside). Los elementos M ¹ ij de la matriz sin¶aptica M
¹ determinan la e¯cacia (intensidad y
signo) de la interconexi¶
on entre la neurona i y j. £i es el umbral de respuesta la neurona i.
Las propiedades b¶ asicas de la redes neuronales son:
(ii) Generalizaci¶on: Habiendo ajustado una tabla extensa de pares entrada-salida, las redes
pueden proveer una representaci¶on de la regla que subyace en esa correspondencia. En estas
condiciones, la red puede producir salidas aceptables para entradas que no fueron incluidas
en la lista de los ejemplos durante el entrenamiento. Esta propiedad pueden hacerlas u¶tiles
para el reconocimiento de patrones complejos, o la identi¯caci¶on de patrones \corrompidos
por ruido.
una jerarqu¶³a en la conectividad de manera tal de implementar una red orientada en capas, que
se constituye a partir de una capa de entrada, que recibe los datos externos, una capa intermedia
llamada \capa oculta" y la de salida, con tantas neuronas como variables de salida requieran el
problema que se estudia.
Durante la fase de entrenamiento de una red neuronal se deben seleccionar ejemplos re-
presentativos, que denominamos recuerdos, y que ser¶an aprendidos por la red durante la fase de
entrenamiento. Estos recuerdos consisten en un conjunto de datos de entrada y salida perfectamente
especi¯cados. Para que el aprendizaje sea posible es necesario de¯nir una funci¶on de Lyapunov,
usualmente llamada energ¶³a, que crece con la norma (usualmente la distancia de Hamming) de la
diferencia entre la salida verdadera de un recuerdo y aquella se que mani¯esta al evocarlo durante
el entrenamiento. La fase de entrenamiento consiste de determinar y modi¯car los pesos sin¶apticos
Mij de manera tal de minimizar esta energ¶³a. Una vez logrado este objetivo los recuerdos o pa-
trones que fueron aprendidos se encuentran en cuencas de atracci¶on en el paisaje de energ¶³a por
lo cual son atractores de la din¶amica de la red. El proceso de evocaci¶on de un recuerdo a partir
de un patr¶on de entrada parecido, pero no igual la entrada del recuerdo, se denomina memoria
asociativa.
La capacidad de almacenar recuerdos depende del n¶ umero de neuronas que conforman la
arquitectura. Se puede demostrar num¶erica y te¶oricamente que una red de Hopp¯eld puede al-
macenar aproximadamente 0:14N recuerdos (donde N es la cantidad de neuronas) si se desea una
tolerancia de error del orden del 1% [98]. La aptitud de evocaci¶on de la red se deteriora si se trata
de exceder esta capacidad. No obstante el proceso de aprendizaje es robusto por lo que el diezmado
de algunas sinapsis no altera sustancialmente los resultados de una evocaci¶on.
Matriz
Sin¶
aptica
E H H M ¹ ij xj
n H
H H
H' $
t g(¢)
r Hj
a xi
d - -
a
©& %
s Salida
©*
© © i
xj © ©
©
Figura 5.10: Representaci¶ on de una neurona formal: La neurona se excita o inhibe por la acci¶on de
las se~
nales recibidas luego de computar la suma ponderada por los pesos sin¶apticos de sus entradas,
y emite una se~ nal xi = +1 si la suma es mayor que el umbral £i ,y xi = ¡1 en el otro caso.
1) Una capa de entrada que recibe la se~ nal del entorno. Las neuronas de entrada transmiten
esta informaci¶
on a las capas siguientes. El n¶
umero de neuronas de entrada depende de cada
problema particular.
2) Una o m¶as capas intermedias denominadas como capas ocultas que realizan el procesamiento
antes descripto. La complejidad y capacidad de procesamiento de la red depende de la
cantidad de neuronas de las capas ocultas. Se puede demostrar que si una red tiene su¯cientes
neuronas en su capa oculta puede aprender cualquier funci¶on f : Rn ¡! Rm con una precisi¶on
arbitraria [98].
3.5. Representaci¶
on Computacional de Agentes Econ¶omicos 73
3) Una capa de salida que devuelve una se~ nal, y alimenta sus neuronas desde la u¶ltima capa
oculta. La cantidad de neuronas de salida depende de la naturaleza de la respuesta deseada.
Existen numerosos \algoritmos de aprendizaje" [98] que sirven para adaptar la matriz sin¶aptica para
que la red reproduzca la tabla de \ejemplos". Dichos algoritmos est¶an dise~ nados para minimizar
una funci¶ on de \energ¶³a" o costo que depende de los elementos de la matriz sin¶aptica y que mide
la diferencia entre el conjunto de salidas deseadas y las que realmente produce la red a medida que
tiene lugar la fase de entrenamiento.
Como en las redes orientadas en capas la se~ nal de entrada se propaga en un u ¶nico sentido
atrav¶es de las sucesivas capas, cada capa, con excepci¶on de la entrada, eval¶ua la combinaci¶on lineal
pesada por la matriz sin¶ aptica de la entradas que ella recibe (v¶ease la ecuaci¶on 5.44). El sistema
se inicializa especi¯cando aleatoriamente esta matriz y dada la arquitectura orientada de la red es
posible aplicar un algoritmo denominado de retropropagaci¶on (back-propagation).
En Beltratti et al. [24] se expone una variedad de modelos de agentes arti¯ciales representados
por redes neuronales que interact¶
uan, aprenden y se adaptan. Se pueden de¯nir diversas formas de
construir modelos econ¶omicos con redes neuronales:
(i) Modelos con agentes arti¯ciales que formulan expectativas mediante red neuronales. En este
caso la red act¶
ua como simulando a un agente \econometrista" que predice la o las variables
de un modelo te¶ orico ya concebido [171, 117]. La ¯gura 5.11 representa un esquema posible.
(ii) Modelos con agentes arti¯ciales, cuyas reglas de comportamiento y sus acciones est¶an impl¶³citas
en la operaci¶on de una red neuronal. La red neuronal, en este caso, luego de procesar y
clasi¯car la informaci¶
on de entrada, determina la acci¶on a seguir por el agente que est¶ a re-
presentando.
(iii) Redes neuronales como mecanismo para hacer aproximaciones econom¶etricas [171, 45]. En
este caso la red intenta generalizar, extrapolar y predecir el curso de una serie temporal (uni
o multivariada) del sistema econ¶omico. La red act¶ ua como un pronosticador no lineal, que
in¯ere el valor de las variables a partir de informaci¶on pasada sin conocer los par¶ametros ni
la forma de las funciones involucradas.
(iv) Modelos constructivos, en los que el sistema es concebido como una red de agentes econ¶ omicos
y la matriz sin¶
aptica representa el reticulado de transcciones entre ellos [160]. En estos casos,
una modi¯caci¶ on de la matriz sin¶aptica corresponder¶³a a una modi¯caci¶on de los patrones de
producci¶on y/o intercambio de los agentes del sistema. En el cap¶³tulo siguiente analizaremos
este tipo de esquema constructivo.
Un consideraci¶on ¯nal que cabe realizar es que tanto las redes neuronales como los algoritmos
evolutivos tienen un cierto caracter isomorfo ya que ambos m¶etodos funcionan como sistemas
heur¶³stico de clasi¯caci¶
on que reconocen patrones regulares a partir de datos externos. Cada uno
de estos m¶etodos tienen sus virtudes y sus defectos y son ventajosos seg¶ un las caracter¶³sticas del
sistema que se desea representar.
74 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Figura 5.11: Representaci¶on de una red neuronal multicapas, que esquematiza la forma de dise~nar
un sistema de predicci¶on de una serie temporal, partiendo de un conjunto de datos estructurales,
y la evoluci¶on de una o m¶as series temporales. En este caso se obtiene como resultado una u
¶nica
salida, pero la red puede poseer muchas m¶as salidas.
Si bien esta met¶afora ha resultado hasta hoy muy fecunda como recurso de modelizaci¶ on, muchas
veces existen situaciones que resultan muy dif¶³ciles de reconciliar con la realidad. Un ejemplo proviene
de ciertos modelos de mercados especulativos en los cuales se puede demostrar que, bajo la hip¶ otesis de
expectativas racionales, pueden producirse situaciones en las que los transactores son tan e¯caces en la
interpretaci¶on de la informaci¶on que la realizaci¶
on de transacciones queda inhibida (\No trade theorems"
[143]).
19
Debido a que la provisi¶
on del bien est¶
a libre de costos bene¯cio e ingreso son magnitudes similares.
76 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Muchas veces los agentes econ¶omicos, en su esfuerzo por optimizar, enfrentan problemas del tipo no
polin¶
omico (N P ), en los que la alternativas a elegir explotan combinatoriamente (v¶ease la secciones 3.4.1
y 3.4.2). Podr¶³a suceder tambi¶en que los problemas que deben enfrentar los agentes del sistema no esten
claramente de¯nidos, por lo cual muchas veces se tomen decisiones que mantienen al sistema inde¯nidamente
fuera de un estado estacionario consistente. Es en estos punto en donde la met¶afora deductiva puede perder
poder predictivo como hip¶otesis constructiva.
Aprendizaje Inductivo
Los estudios realizados en psicolog¶³a cognitiva han demostrado que todas las personas crean o clasi¯can
categor¶³as que resumen los aspectos m¶as salientes de lo que perciben. Constantemente se reconstruyen y
desechan representaciones internas del mundo aceptando aquellas que m¶ as se ajustan con la realidad percibida
y que parecen ofrecer mejores posibilidades de predecir futuras eventualidades [1]. Es posible as¶³ transferir
experiencias de un problema a otro en busca de generalizaciones a trav¶es del reconocimiento de patrones
percibidos como regulares. Este tipo de proceso cognitivo es, b¶ asicamente, de car¶ acter inductivo puesto
que tiene lugar la continua adaptaci¶on de lo que se cree percibir como estable del entorno. Los modelos y
representaciones internas se utilizan para salvar la brecha que produce la ignorancia, especialmente cuando el
entorno no es estacionario. En estas circunstancias debemos destacar que la validez de los modelos internos
que las personas formulan es s¶olo temporaria.
Estas ideas pudieron ser contrastadas con experiencias realizadas en psicolog¶³a cognitiva experimental
[68]. Un experimento interesante realizado en la d¶ecada del '60, consisti¶ o en mostrarles a un conjunto de
personas una secuencia o ventana de 50 \bits" cuyos valores (0's ¶ o 1's) estaban distribuidos al azar. Los
participantes del experimento desconoc¶³an el proceso de generaci¶ on de los datos. Se ped¶³a a los sujetos
que, dada la ventana de \bits", predigan el siguiente que sigue en la secuencia. Luego se les mostraba
el bit verdadero y as¶³ sucesivamente. El an¶alisis de los resultados demostr¶ o que las personas basaban sus
predicciones en la b¶ usqueda y veri¯caci¶on de patrones regulares que virtualmente observaban al sucederse la
secuencia de 0's y 1's. Esta b¶usqueda de regularidades generaba modelos internos que no eran inmediatamente
desechados ante la posibilidad de algunos fracasos en la predicci¶ on aunque, se demostr¶ o que exist¶³a un
determinado n¶ umero cr¶³tico de fracasos que motivaba a los participantes a modi¯car el patr¶ on de predicci¶on
por la percepci¶ on de una nueva y arbitraria regularidad. No es sorprendente que Hey [99] haya encontrado
en experimentos econ¶omicos que los agentes, lejos de la optimalidad, reaccionan en la direcci¶ on que sugieren
modelos imperantes en ese momento.
Bajo estas premisas, la conducta de agentes econ¶ omicos no parece necesariamente seguir el esquema
de la \met¶ afora deductiva" sino que podr¶³a hablarse en cambio de \expectativas temporariamente satis-
fechas", t¶³picas de un comportamiento basado en la hip¶ otesis de racionalidad acotada. Recientemente se han
investigado numerosos modelos evolutivos de aprendizaje. Muchos se han centrado en modelos que utilizan
AAA, modelados con algoritmos computacionales de adaptaci¶ on, aprendizaje, y b¶ usqueda. Este tipo de
modelizaci¶ on fu¶e usada por Axelrod (1987) [16], Miller (1989) [8], Rust, Miller y Palmer (1992) [166], Marks
(1992) [138], Marks (1995) [142], A. Kirman [117] as¶³ como los antes citados en la secci¶ on 3.5.1 del cap¶³tulo 3.
El prop¶ osito de esta secci¶on es explorar algunas posibilidades de los AAA en un entorno arti¯cial
donde agentes pueden interactuar y adaptarse. Se estudia pues el proceso de relajaci¶ on al estado estacionario
y la robustez de los comportamientos emergentes. Para modelar el proceso de aprendizaje se utilizar¶an
algoritmos gen¶eticos. En la secci¶on 3.5.1 se detallan algunas caracter¶³sticas de los mismos. Se analizan
varios modelos que son variantes de la interacci¶ on de una numerosa clientela con una o dos proveedur¶³as
que venden un bien no diferenciado, cuyo costo suponemos nulo, a dos precios posibles ¯jados por cada una
de ellas. En todos los casos los clientes ¯jan una estrategia de compra basada en los pasados precios y en
funci¶on de ella deciden comprar el bien en aquel lugar que lo ofrezca al menor precio posible o no comprarlo
si es que el precio del mismo excede un precio de reserva que representa la existencia de una fuente externa.
3.6.2 Descripci¶
on de los tres modelos
Modelo A
Se analiza, en los siguientes modelos, la evoluci¶on de la presi¶on competitiva que tiene lugar en un
mercado, en el que los compradores buscan ofertasde precios bajos y los oferentes ¯jan el precio.
En el primer caso (modelo A), el sistema se compone de un n¶ umero grande de (N ) compradores
de un bien y una proveedur¶³a que obtiene el bien a un costo constante, que suponemos nulo por
simplicidad. Hay una \fuente externa", donde los compradores pueden adquirir el bien a un precio
3.6. Modelos con agentes arti¯ciales adaptativos 77
dado p¤ . Cada \d¶³a" de mercado, la proveedur¶³a enfrenta una decisi¶on binaria, pudiendo ¯jar su
precio en los valores p> ¶o p< (se toma por convenci¶on p> + p< = 1). Los clientes deciden, antes de
conocer este precio, si visitar¶
an o no a la proveedur¶³a. En caso a¯rmativo, compran una unidad del
bien al precio previamente ¯jado por el oferente. Como suponemos que p< < p¤ < p> , los clientes
an solamente si la conjetura individual de cada agente es que pe = p< .
la visitar¶
El modelo hace una fuerte simpli¯caci¶on al suponer que los precios pueden tomar s¶ olo dos
valores. No obstante, ¶esto hace al modelo computacionalmente tratable, ya que se usan funciones
booleanas en el dispositivo de aprendizaje. A pesar de ello, cuando existe una brecha entre p¤ y
los valores de p> y p< , los clientes perciben un precio promedio sobre una secuencia de compras
repetidas. El equilibrio en el cual los agentes optimizan podr¶³a obtenerse de un estado en el que
la proveedur¶³a ¯ja precios al azar, generando un patr¶on impredecible pero con valor medio igual a
p¤ 20 . Para que el modelo sea econ¶ omicamente interesante, nos hemos concentrado en el caso en el
que p¤ es levemente superior a p< , por lo cual el equilibrio debe establecerse en p< .
Los clientes usan un predictor para anticipar el precio de la proveedur¶³a y decidir una
acci¶on. Estos predictores consisten en funciones booleanas de tres entradas (los u ¶ltimos 3 precios
observados) y una salida (el precio esperado). Cada predictor se codi¯ca en una cadena de caracteres
de 8 \bits" de longitud. Los agentes eligen un predictor de un conjunto, que inicialmente es tomado
al azar del universo de posibles funciones booleanas de 3 entradas y una salida. Cada predictor
tiene asociado una funci¶ on de aptitud, que crece (decrece) cuando la acci¶on tomada por el agente
de acuerdo a su predicci¶ on es exitosa (incorrecta). Los predictores de cada agente son probados
contra la estrategia de precios vigente, ¯jada por la proveedur¶³a y se categorizan de acuerdo a su
\aptitud". La acci¶ on tomada por cada agente corresponde a la prescripta por el mejor predictor,
es decir el m¶as apto, de acuerdo al mecanismo de selecci¶on del algoritmo gen¶etico. Cada Tc pasos
de tiempo se evoca la actualizaci¶ on de las estrategias llamando a una subrutina del programa que
hace operar al algoritmo gen¶etico. Los agentes actualizan sus estrategias asincr¶onicamente: esto
signi¯ca que en cada momento una dada fracci¶on de la poblaci¶on actualiza sus estrategias.
La proveedur¶³a, al igual que los compradores, tambi¶en ¯ja sus precios usando una funci¶ on
booleana de 4 entradas (sus precios pasados) y una salida (el siguiente precio a ¯jar). Estas
estrategias se codi¯can en una cadena de caracteres de 16 \bits" y tambi¶en son actualizadas por
medio de un algoritmo gen¶etico. Todo la poblaci¶on de estrategias se prueba contra los predictores
que est¶an vigentes en ese instante de una muestra de clientes tomada al azar. Esto se realiza
durante una sesi¶ on de Tv pasos de tiempo computado virtualmente 21 . Las estrategias se ordenan
en forma decreciente de acuerdo a la ganancia acumulada. T¶en gase en cuente que el valor total
de las ventas es equivalente a la ganancia ya que se supone, sin p¶erdida de generalidad, que el bien
tiene un costo nulo. Este proceso permite la co-adaptaci¶ on entre las estrategias de los agentes de
ambos lados del mercado.
Modelo B
El modelo B es similar al anterior, pero los clientes incurren en un \costo de movilidad" (S) que
pagan toda vez que optan por cambiar la opci¶on que estos ven¶³an elegiendo. La elecci¶ on de la
estrategia vigente se ver¶a in°u¶³da no s¶olo por los ¶exitos y fracasos en busca del \precio m¶
as bajo"
sino tambi¶en por el n¶ umero de veces que el agente altera sus visitas, produci¶endose una inercia
interna en el comportamiento de los compradores.
Si este costo es uniforme entre los clientes y su¯cientemente alto 22 , la proveedur¶³a tendr¶a
clientelas \cautivas" y podr¶³a ¯jar el precio p> como producto de la maximizaci¶on sus las ganancias.
20
Debe notarse, que para los prop¶ ositos del modelo, la previsibilidad de la secuencia de precios es relativa a la
capacidad de aprendizaje de los compradores y de los recursos que utilizan para aprender.
21
Pues no tienen lugar transacciones efectivas. Se procede \congelando" el estado en el que se encontraba el sistema
en ese instante y se actualizan las estrategias de la proveedur¶³a dada las de la muestra tomada de clientes.
22
Rigurosamente mayor a (Tc ¡1)(p> ¡p¤ ) ya que en estas circunstancias a los compradores no les conviene realizar
ninguna mudanza.
78 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Modelo C
En este caso los clientes no enfrentan un costo de movilidad pero hay dos proveedur¶³as, cada una
de las cuales puede ¯jar uno de los dos precios. Las mismas se confrontan con los N clientes y
deben encontrar una estrategia de ¯jaci¶ on de precios conveniente. Estamos en presencia de un
duopolio cuando la fuente externa tiene p¤ > p> y el modelo puede ser usado para analizar bajo
que condiciones las proveedur¶³as podr¶ an aprender a cooperar, en desmedro de los clientes, o si
actuar¶an como competidoras en una \guerra de precios".
Los predictores usados por los clientes son ahora mas complicados ya que estos deben tener
en cuenta los patrones de precios de ambas proveedur¶³as. En este caso, los predictores son tambi¶en
funciones booleanas de 6 entradas (los u ¶ltimos 3 precios de cada oferente) y 2 salidas (los precios
esperados para ambas proveedur¶³as). Con esta predicci¶on toman la decisi¶on de comprar o no en
conformidad con la siguiente tabla:
Predicci¶
on Prov. 1 Predicci¶
on Prov. 2 Acci¶
on tomada
p> p> No comprar (compra \externa")
p> p< Comprar en Prov.2
p< p> Comprar en Prov.1
p< p< Comprar en Pr.1 o Pr.2 con
probabilidad 21
Figura 6.12: Diagrama de °ujo del algoritmo utilizado en el caso del Modelo C.
Figura 6.13: Dos simulaciones del Modelo A. En ambos casos hay 400 clientes, cada uno con 16
predictores; la proveedur¶³a dispone de 32 predictores. Se ¯j¶o p> = 0:60, p< = 0:40 y p¤ = 0:41.
De arriba hacia abajo se muestran los precios ¯jados por la proveedur¶³a, el precio medio pagado
por los clientes, el % de clientes equivocados, y el % de compradores, todos en funci¶on del tiempo.
La duraci¶on de las simulaciones es de 500 pasos de tiempo. Los tiempo de actualizaci¶on son para
la Figura (a): Tp = 60, Tv = 30, Tc = 10; y para la Figura (b): Tp = 10, Tv = 30, Tc = 10. Se
ampli¯ca la regi¶ on de metaestabilidad, indicada entre las °echas.
de con¯guraciones posibles, y a su vez estas crecen combinatoriamente con el tama~ no (en bits) de
la memoria que utilizan los agentes.
A pesar de que el sistema converge asint¶oticamente al equilibrio, el sendero hacia la con-
vergencia no es del todo simple y directo. Durante la transici¶on, existe la posibilidad de que el
mercado se \entrampe" durante considerables per¶³odos de tiempo en estados intermedios en los
que la proveedur¶³a tiende a producir oscilaciones en los precios (es decir precios promedio mayores)
y, a su vez, los clientes logran r¶apidamente aprender ese patr¶on de oscilaci¶on. Esto puede verse en
la ¯gura 6.13 (a), donde el n¶ umero de clientes \equivocados" decae en el tiempo a la vez que la
proveedur¶³a persiste en mantener el patr¶ on de precios oscilatorio. Otro ejemplo se muestra en la
¯gura 6.13 (b) donde la regi¶ on de comportamiento metaestable se ampli¯ca al costado del gr¶a¯co
para mostrar con m¶ as detalle el tipo de estado transicional que resulta de la co-adaptaci¶
on entre
ambos tipos de agentes. Los estados metaestables pueden perdurar durante muchos per¶³odos de
tiempo antes de que se produzca la aproximaci¶on de¯nitiva al equilibrio. La vida media de estos
estados de co-adaptaci¶ on depende de la fracci¶on de agentes de la poblaci¶on que no han aprendido
el patr¶on de oscilaci¶on. Una conclusi¶ on que se podr¶³a sacar es que los estados meta-estables de-
penden de la velocidad de aprendizaje del conjunto de agentes y de la cantidad de informaci¶on
que se utilizan durante el proceso de aprendizaje (o sea el tama~ no de la memoria). En un en-
torno sometido a fuertes \shocks" ex¶ ogenos, estos estados podr¶³an tener una duraci¶on tal que se
perpet¶ uan inde¯nidamente debido a la naturaleza estoc¶astica del entorno.
La aparici¶on de estos estados metaestables hace di¯cultoso establecer univocamente la du-
raci¶on del proceso de relajaci¶on al equilibrio. Existen dos situaciones extremas: Ts ¿ Tc y Tc ¿ Ts .
En ambos casos, la longitud del per¶³odo de relajaci¶on est¶a gobernada por el mayor de los inter-
valos de \revisi¶on de estrategias". Si Ts ¿ Tc , la proveedur¶³a adapta sus precios frente a una
poblaci¶on de clientes, muchos de los cuales est¶an actuando sobre la base de predictores err¶oneos.
La proveedur¶³a puede obtener entonces bene¯cios signi¯cativos, con una proporci¶on no despreciable
de clientes que eligen de modo equivocado. En el otro caso extremo, la co-adaptaci¶on y sus tiempos
caracter¶³sticos est¶
a gobernada por los clientes. El sistema muestra sucesivos estados metaestables,
a la vez que los clientes se van adaptando a las nuevas estrategias de precios °uctu¶antes impuestas
por la proveedur¶³a. En el caso intermedio, situaciones en las que Tc ' Ts el proceso de relajaci¶on es
3.6. Modelos con agentes arti¯ciales adaptativos 81
m¶as complicado. Esto puede observarse en la ¯gura 6.13, donde se muestra en (a) una simulaci¶ on
en la que Tc ¿ Ts , mientras que en la ¯gura 6.13 (b) Tc = Ts .
La poblaci¶
on de clientes no se comporta como un s¶olo agente representativo. Los clientes no
comparten estrategias entre s¶³ y el proceso de aprendizaje de cada uno de ellos es independiente.
Entonces, dada la diversidad de estrategias existente en la poblaci¶on podemos entender la forma
en que se produce el proceso de relajaci¶on. Si analizamos la distribuci¶on de las \aptitudes" de los
clientes se puede veri¯car que cuando la proveedur¶³a modi¯ca su estrategia vigente, la distribuci¶
on
de estos valores es inicialmente una campana gaussiana centrada en un error promedio cometido
por los clientes, pero esta distribuci¶on evoluciona hacia un estado bimodal, con un m¶aximo que
corresponde a los agentes correctamente adaptados a esa nueva estrategia de la proveedur¶³a y otro
que corresponde a los que a¶ un no han logrado tal adaptaci¶on y mantienen decisiones equivocadas.
Dependiendo de la velocidad de adaptaci¶on del sistema en su conjunto, luego de cierto tiempo tran-
scurrido toda la poblaci¶on de clientes migrar¶a hacia el grupo de agentes correctamente adaptados.
Figura 6.14: Simulaciones del Modelo B para crecientes valores del costo de mobilidad (S). Las
condiciones son similares a la ¯gura anterior. El valor de S = 1 permite lograr clientelas cautivas.
Los tiempos de actualizaci¶on son Ts = 10,Tv = 30, y Tc = 10.
Modelo B
En el Modelo B, la b¶ usqueda realizada por los clientes es amortiguada por el \costo de movilidad".
La distribuci¶
on asint¶
otica de clientes que compran en la proveedur¶³a local y en la fuente externa
depende de las condiciones iniciales (aleatorias) y del sendero particular seguido durante el proceso
de relajaci¶
on. Cuando el costo S es alto, la estrategia elegida por la proveedur¶³a es ¯jar el precio
p> (¯gura 6.14). Sin embargo, existe un valor cr¶³tico So del costo de movilidad, dado por (Tc ¡
1)(p> ¡ p¤ ) o equivalentemente (Tc ¡ 1)(p¤ ¡ p< ), por debajo del cual no hay clientelas cautivas
debido a que los clientes encuentran cierto incentivo en \invertir" y modi¯car sus decisiones de
82 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Modelo C
En el Modelo C hay dos proveedur¶³as compitiendo entre s¶³ con la fuente externa que mantiene el
precio ¯jo en p¤ . Cuando el precio de la fuente externa es tal que p< < p¤ < p> el sistema admite
un equilibrio de Nash est¶ atico en el que ambas proveedur¶³as ¯jan p< y comparten la poblaci¶ on
de clientes. Dada la complejidad del proceso en que los m¶ ultiples clientes y las dos proveedur¶³as
se co-adaptan modi¯cando sus estrategias, el sistema alcanza el equilibrio luego de un muy largo
proceso de b¶ usqueda. El estado estacionario, una vez alcanzado, puede ser facilmente perturbado
cuando una de las proveedur¶³as cambia sus precios. En la ¯gura 6.16 se muestran dos simulaciones
que di¯eren en la brecha de precios p> ¡ p< . Cuando la diferencia es peque~ na (¯gura 6.16(b)) el
sistema r¶apidamente converge a una con¯guraci¶on en la que los precios var¶³an en el tiempo: ambas
proveedur¶³as se alternan en ¯jar el precio alto o una ¯ja este precio mientras que la otra oscila
con altas frecuencias. En este caso el ingreso de ambas es relativamente alto, puesto que muchos
clientes, confundidos por esa oscilaci¶ on alternada, est¶an operando con predictores inapropiados.
Este comportamiento corresponde a un \equilibrio din¶amico".
Si la funci¶
on objetivo del proceso de aprendizaje fuera la maximizaci¶on del n¶ umero de
clientes en lugar del ingreso acumulado, el equilibrio (¯jar p< ) resulta ser m¶as robusto. Esto
se puede observar en la ¯gura 6.17 en la que se gra¯ca un histograma con C2 vs C1 , donde Ci
representa el n¶umero de clientes en de la proveedur¶³a i. Durante la primera etapa de la relajaci¶ on
hacia el equilibrio la \fuente externa" va perdiendo progresivamente clientes. La puja se produce
entre esta y las dos proveedur¶³as \internas". Posteriormente la competencia por ganar clientes
tiene lugar entre una y otra proveedur¶³a interna. Finalmente se llega a un equilibrio que, por
momentos se ve alterado, pero al que invariablemente se retorna. Si se produce una °uctuaci¶on en
el n¶
umero de clientes, la proveedur¶³a perdedora no posee ninguna otra estrategia que mejore el nivel
de sus premios. Si esta situaci¶ on persiste, la correcta estrategia de ¯jar p< perder¶a aptitud, ser¶ a
reemplazada por otra, que la llevar¶ a a una situaci¶on a¶
un m¶as desfavorable. Se producir¶a entonces
un retorno a la estrategia correcta luego de que se produzca una oscilaci¶on de gran amplitud a lo
largo de la recta C1 + C2 = N .
Cuando la funci¶ on que optimiza cada proveedur¶³a es el ingreso acumulado una degeneraci¶ on
mayor tiene lugar puesto que puede obtenerse el mismo ingreso con menos clientes y precios que
3.6. Modelos con agentes arti¯ciales adaptativos 83
Figura 6.15: Distribuciones de precios medios pagados por los agentes, de la clientela y de los precio
¯jados por la proveedur¶³a para distintos valores del % de agentes con So ! 1, p> = 0:60; p< = 0:40
y p¤ = 0:41.
son mayores en promedio. Bajo estas circunstancias se di¯culta llegar al equilibrio. Los argumentos
dados en el p¶arrafo anterior se pueden extender en este caso para mostrar que el precio presenta
oscilaciones de gran amplitud a lo largo de la recta I1 + I2 = N ¢ p< , donde Ii representa el ingreso
de la proveedur¶³a i. Esta recta contempla la condici¶on est¶atica C1 = C2 = N=2 (ver ¯gura 6.18).
En lugar de buscar un equilibrio est¶atico, el sistema evoluciona poniendo de mani¯esto un
equilibrio din¶amico, en el que ambas proveedur¶³as ¯jan alternadamente p> . Este comportamiento
puede ser interpretado como de \conducta din¶amica oligop¶olica" que es robusta frente a cambios
en los par¶ametros del modelo y se aproxima a la situaci¶on anterior cuando ¢p = (p> ¡ p< ) ! 0 ya
que, en ese l¶³mite, el ingreso queda determinado por el n¶umero de clientes. Cuando una proveedur¶³a
¯ja p> , se producen oscilaciones de gran amplitud. Entonces, los valores del \equilibrio" en los
cuales C1 ¼ C2 ¼ N=2 coexisten con otra distribuci¶on altamente asim¶etrica en donde C1 = N y
C2 = 0 ¶o C1 = 0 y C2 = N . Cuando se incrementa ¢p no se puede alcanzar un estado en el que
C1 ¼ C2 ¼ N=2 porque existe la posibilidad de compensar una cantidad peque~ na de clientes con
la ¯jaci¶on de p> .
Esa conducta \oligop¶ olica" es una consecuencia directa del hecho que ambas proveedur¶³as
est¶an optimizando la misma funci¶ on de ingreso acumulado. Esto puede corresponder a un intercam-
bio din¶amico de clientes en el que lo que s¶olo importa el \promedio temporal" de ambos ingresos.
La clientela promedio durante todas las simulaciones es C¹1 ¼ C¹2 · N=2 y los ingresos promedio
corresponden a I¹1 = I¹2 = p< ¢ N=2, como era de esperarse dada la simetr¶³a del modelo respecto de
84 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Figura 6.16: Dos simulaciones del Modelo C con 48 clientes que poseen 32 predictores cada uno.
Las proveedur¶³as tienen tambi¶en 32 predictores cada una. Los tiempo de actualizaci¶on son Ts = 60,
Tv = 30 y Tc = 10, Los precios son para la Figura (a): p> = 0:52 y p< = 0:48 y para la Figura
(b): p> = 0:60 y p< = 0:40, p¤ = 0:50.
Figura 6.17: Frecuencia con la cual el sistema de 100 clientes visita los puntos (C2 ; C1 ), Durante
la evoluci¶on ambas proveedur¶³as intentan maximizar la cantidad de clientela Ci .
las proveedur¶³as.
Si el precio de la fuente externa fuera p¤ > p< , estamos en presencia de un duopolio dado
que los clientes siempre eligir¶
an visitar a alguna de las dos proveedur¶³as. Bajo estas circunstancias
se puede estudiar la interacci¶on estrat¶egica entre ambos oferentes. Es conocido que en los juegos
iterados de duopolios no existe un u ¶nico estado estacionario (\folk theorem"). En el caso de
este ejercicio, el \paisaje de premios" est¶ a evolucionando y alter¶andose como consecuencia de la
co-adaptaci¶on de todos los agentes. Esto signi¯ca que la forma en la cual evoluciona el sistema
depende de la manera en que los agentes aprenden acerca sus caracter¶³sticas.
Cuando la brecha entre los precios es grande y p¤ > p> , se veri¯ca que las proveedur¶³as vi-
sitan con m¶as frecuencia el precio p> . En estas condiciones las proveedur¶³as tienden a adaptar sus
estrategias hacia una conducta cooperativa en lugar de la competitiva. Ocasionalmente, una provee-
dur¶³a puede ¯jar el precio p< con la intenci¶on de capturar la clientela de la otra (ver ¯gura 6.19),
pero eventualmente revisa su decisi¶ on y vuelve al estado (cooperativo) anterior . En este caso tiene
lugar una \guerra de precios" de duraci¶ on limitada, por lo que no resulta su¯ciente como para
generar un equilibrio competitivo como resultado perdurable. La raz¶on de esto se debe a que la
3.6. Modelos con agentes arti¯ciales adaptativos 85
elecci¶on binaria de precios implica que la respuesta de los clientes debe ser r¶apida, pero levemente
retardada y la proveedur¶³a es forzada (por la ¯jaci¶on de p< por parte de la otra) a bajar el precio
signi¯cativamente, pero si lo reduce, disminuye apreciablemente el valor de sus ingresos. En otras
palabras, la coordinaci¶on impl¶³cita entre los proveedores aparece como inducida por la combinaci¶ on
de alternativas de precios discretizadas y el retardo que se produce en el ajuste de las estrategias
de los compradores, las cuales resultan en una baja \elasticidad de demanda" que perciben las
proveedur¶³as durante el intervalo de tiempo que ellas est¶an considerando con el prop¶osito de ¯jar
sus estrategias de precios.
Figura 6.18: Curvas de nivel para la frecuencia para la cual el sistema, similar a la ¯gura anterior,
visita los puntos (C2 ; C1 ) y (I2 ; I1 ). Durante la evoluci¶on ambas proveedur¶³as intentan maximizar
el valor nominal de las ventas: Ii .
Figura 6.19: Dos simulaciones del Modelo C con 48 clientes que poseen 32 predictores cada uno.
Las proveedur¶³as tienen tambi¶en 32 predictores cada una. Los tiempo de actualizaci¶on son Ts = 10,
Tv = 30 y Tc = 10, Los precios son para la Figura (a): p> = 0:60 y p< = 0:40 y para la Figura
(b): p> = 0:85 y p< = 0:15, p¤ = 0:90.
naciones de precios que pueden ¯jar las proveedur¶³as. En este caso el resultado no es sim¶etrico.
Ambas proveedur¶³as enfrentan diferentes matrices de juego; adem¶as, los elementos de la matriz
cambian con el tiempo, lo que signi¯ca que cada proveedur¶³a juega diferentes juegos en diferentes
instantes. Este resultado puede comprobarse siguiendo la evoluci¶on de las estrategias minimax de
cada una, obtenidas numericamente. Bajo estas circunstancias el juego se desarrolla en un \paisaje
de premios" que evoluciona constantemente [114]. Cuando tiene lugar un proceso de aprendizaje
de todos los actores del mercado, no es dable estudiar el problema de manera est¶atica ya que no
la matriz de premios no permanece inalterada durante la evoluci¶on. El estudio de duopolios en
condiciones din¶amica es un tema de por s¶³ complejo. El \folk theorem" ha mostrado que cuando
los agentes juegan una guerra de precios en forma iterada, es posible encontrar m¶ultiples soluciones
y no es posible predecir un comportamiento estacionario para las partes del juego. Sin embargo,
debido a que la matriz de juego que perciben los agentes proveedores cambia por la acci¶on de la
adaptaci¶on de los clientes, se pone de mani¯esto un nivel adicional de complejidad en el problema
del duopolio. En condiciones estacionarias, la relajaci¶on al equilibrio competitivo se tendr¶³a que
re°ejar en un proceso en el cual ambas matrices se aproximan al valor com¶ un dado por la matriz
\est¶atica".
3.6.4 Comentarios
La presentaci¶on de estos modelos extremadamente esquem¶aticos usando agentes arti¯ciales adap-
tativos sugiere que a¶un en situaciones simples los procesos de aprendizaje y co-adaptaci¶on pueden
producir din¶amicas no triviales. Hemos visto que pueden tener lugar estados de meta-estabilidad
que alteran el proceso de relajaci¶
on al estado de equilibrio. Se observ¶o que cuando hab¶³a dos provee-
dur¶³as que se adaptan, no hab¶³a una convergencia evidente al \equilibrio competitivo estacionario".
Los agentes arti¯ciales muestran comportamientos complejos, a pesar de tener mecanismos de de-
cisi¶on simples, debido a que el proceso de aprendizaje de unos est¶a in°uido por el aprendizaje
simult¶aneo de los dem¶ as. Se ha observado que cuando hay agentes que aprenden lentamente los
dem¶as se aprovechan esa ventaja impidiendo que se alcance el estado estacionario. Hemos uti-
lizado un esquema extremadamente simple de interacciones en un mercado descentralizado para
3.6. Modelos con agentes arti¯ciales adaptativos 87
poner de mani¯esto las m¶ ultiples alteraciones que se pueden producir con se incorporan procesos
de aprendizaje.
Se ha tratado aqu¶³ los efectos del procesamiento de informaci¶on sobre una estructura de
mercado pre-de¯nida donde los agentes poseen un conocimiento limitado (acotado) pero con una
dada capacidad de aprendizaje de corto plazo del comportamiento del sistema. El proceso de
aprendizaje inductivo se simul¶ o por medio de un algoritmo gen¶etico. El sistema dise~ nado tiene la
desventaja de ser extemadamente simple. No obstante, el proceso de adaptaci¶on de las estrategias
no est¶a sesgado por suposiciones hechas a priori; el sistema puede, en cada instante, explorar
todo el espacio de alternativas posibles y seleccionar en cada momento aquellas que son favorables
aunque no correspondan a las alternativas globalmente ¶optimas. La evoluci¶on de las estrategias s¶ olo
involucra cambios locales sobre la poblaci¶on existente, cuyo resultado es un permanente tr¶ ansito
entre estados sub¶optimos.
Como hemos comentado en secciones anteriores, actualmente se han venido desarrollando
muchos modelos que usan agentes arti¯ciales adaptativos. La b¶ usqueda de un marco general con
procedimientos comunes y resultados robustos se encuentra todav¶³a en una etapa incipiente. Uno de
los principales objetivos de futuras investigaciones ser¶³a el estudio de la robustez de los resultados
en el sentido de que estos no sean sensibles a una particular especi¯caci¶on de los modelos. La
exploraci¶on de las propiedades emergentes en contextos estilizados es un paso preliminar hacia
una representaci¶on m¶ as realista de las interacci¶ones econ¶omicas. En este contexto, el estudio de
procesos elementales de intercambio resulta ser un punto de partida natural.
88 Cap¶³tulo 3. Comportamiento de los agentes y evoluci¶on de los sistemas econ¶omicos
Cap¶³tulo 4
En el cap¶³tulo anterior se han planteado algunas cuestiones relacionadas con el ejercicio que
los economistas enfrentan cuando buscan representar en un modelo la conducta de los agentes
econ¶omicos. Los modelos con expectativas racionales deber¶³an ser entendidos como una repre-
sentaci¶on que asint¶ oticamente deviene de procesos de aprendizaje y adaptaci¶on que tienen lugar
entre los estados transicionales que operan durante cambios de r¶egimen. La hip¶otesis de expec-
tativas racionales deber¶³a ser entendida como una aproximaci¶on (en general u ¶til) que nos permite
comprender algunos hechos estilizados de la realidad econ¶omica, y como toda aproximaci¶ on est¶
a
sometida a alg¶ un tipo de recorte conceptual. Olvidar esta premisa puede dar lugar a falsas in-
terpretaciones. Por otro lado, el uso de expectativas racionales presupone impl¶³citamente la coor-
dinaci¶on de las creencias y, por lo tanto, la consistencia plena de las acciones de los agentes que
act¶
uan en el sistema.
Es v¶
alido formularse la pregunta que conduzca a entender c¶omo y bajo qu¶e circunstancias
tiene lugar la coordinaci¶ on de estas acciones de manera tal de hacer posible su representaci¶ on
mediante un agente representativo racional en modelos m¶as simpli¯cados con pocos grados de
libertad. La respuesta a esta pregunta debe tener en cuenta dos cuestiones fundamentales. Una
de ellas se basa en los problemas que resultan de la agregaci¶on de las acciones individuales. El
celebrados resultado del economista argentino, Rolf Mantel [134], pone de mani¯esto limitaciones
no triviales que surgen en los intentos de agregaci¶on de excesos de demanda a partir de hip¶ otesis
de comportamiento individuales.
La otra cuesti¶
on a tener en cuenta se relaciona con entender la forma en que los agentes
toman decisiones a la vez que interact¶ uan con los dem¶as y en qu¶e medida estas interacciones
in°uyen sobre tales decisiones. El concepto de interacci¶on debe ser entendido ampliando su signi¯-
caci¶on, ya que las interacciones no s¶olo tienen lugar en el espacio de las transacciones y relaciones
de intercambio entre agentes, sino que tambi¶en queda impl¶³citamente involucrada alguna forma
de difusi¶ on (global o local) de creencias, conjeturas, humores, sentimientos, etc. En el presente
cap¶³tulo analizaremos esta cuesti¶ on. En la siguiente secci¶on intentaremos formular bases micro
y macrosc¶ opicas para una teor¶³a de la elecci¶on discreta para el caso de agentes localizados en
determinadas topolog¶³as y sometidos a interacciones locales que involucran el intercambio de infor-
maci¶on entre agentes. Tomamos como base para esta formulaci¶on algunos t¶opicos que se remiten
a la f¶³sica de particulas interactuantes. Posteriormente desarrollamos un modelo que utiliza estas
herramientas de estudio.
89
90 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
N
X
hi (t + 1) = Mij sj (t) + hei (1.1)
jj6
=i
donde la sumatoria representa la in°uencia media percibida en t + 1 por el \agente" i como con-
secuencia de las acciones sj (t) tomadas por los dem¶as agentes y pesadas por la intensidad de la
interacci¶on entre i y j: Mij ; hei es una in°uencia exterior 3 . Si el elemento de matriz Mij À 0
el elemento j in°uye fuertemente al elemento i, si Mij ¼ 0, j casi no in°uye al componente i,
mientras que si Mij ¿ 0, j in°uye negativamente sobre i. La matriz M ¹ contiene informaci¶on que
da cuenta de la topolog¶³a con la que los elementos del sistema est¶an vinculados entre s¶³. Es muy
com¶ un el desarrollo de modelos a partir de un reticulado bidimensional con condiciones de con-
torno peri¶odicas. En este tipo de conectividad cada componente se rotula seg¶ un sus coordenadas
horizontales (i) y verticales (j) de forma tal que dado el agente i j s¶olo los elementos de matriz
Mij§1 6= 0 y Mi§1j 6 = 0 el resto de los elementos, a no interactuar entre s¶³ poseen elementos nulo:
Mij§k = 0, Mi§kj = 0 con 8 k > 1 y los bordes est¶an interconectados entre s¶³.
Conocido el \campo local", el \agente" i tomar¶a la acci¶on compatible con la din¶amica:
si (t + 1) = g(hi (t + 1) ¡ Ti ) (1.2)
donde g(x) es llamada funci¶on transferencia y Ti es el valor de un umbral a partir del cual la
in°uencia de los otros agentes es tenida en cuenta. A los efectos pr¶acticos consideremos que la
1
Los vidrios de spin y las redes neuronales amorfas son similares en su arquitectura. Sin embargo, en el primer caso
se trata de estudiar sus propiedades como sistema en s¶³ mismo, mientras que en el segundo se prentende aplicarlas
como mecanismo evocador de memorias asociativas en sistemas de clasi¯caci¶ on o reconocimiento de patrones.
2
La representaci¶on si (t) 2 f¡1; 1g ¶
o ¾i (t) 2 f0; 1g es equivalente mediante la transformaci¶
on s = 2¾ ¡1. Destaque-
mos que el sistema visto como un todo posee un total de 2N estados agregados posibles.
3
Por ejemplo un campo magn¶etico externo en el caso de interacciones magn¶etica o una tendencia idiosincr¶ atica o
una campa~ na publicitaria en el caso de un modelo de elecci¶ on social.
4.1. Estudio de las interacciones locales y analog¶³as con la mec¶
anica estad¶³stica 91
Cl¶
aramente, cuando hi > Ti el estado de i ser¶a si = +1 mientras que si hi < Ti su estado
ser¶a si = ¡1.
4.1.1 Din¶
amica estoc¶
astica microsc¶
opica
Supongamos que el \campo local" de cada componente del sistema es una variable aleatoria que
on normal con media h¹i y varianza ¾; entonces, la probabilidad de que el campo
sigue una distribuci¶
local del elemento i tenga el valor h es simplemente:
1 ¡(h¡h¹i )2
P (hi = h) = p e 2¾2 (1.4)
2¼¾ 2
La probabilidad que el elemento i est¶e en el estado si = 1, es la funci¶on signo es:
Z 1
1³ h¹i ¡ Ti ´
P (si = 1) = P (hi = h)dh = 1 + erf ( p ) (1.5)
Ti 2 ¾ 2
R x ¡t2
donde erf (x) = p2 e dt, es la funci¶on error. An¶alogamente:
¼ 0
1³ h¹i ¡ Ti ´
P (si = ¡1) = 1 ¡ P (si = 1) = 1 ¡ erf ( p ) (1.6)
2 ¾ 2
Ya que si 2 f¡1; 1g se pueden juntar ambos resultados es una sola expresi¶on. Normalizando h¹i de
tal manera que los umbrales Ti sean nulos se puede condensar la expresi¶on, entonces:
1³ si h¹i ´
P (si ) = 1 + erf ( p ) (1.7)
2 ¾ 2
Esta probabilidad se aproxima (con un error mucho menor al 1% ) a:
¹
e¯ hi si 1 ¹ ¯ h¹i si
P (si ) ¼ ¯ ¹i
h ¡¯ ¹i ´ (1 + tanh (¯ hi si )) / e
h
(1.8)
e +e 2
p
donde ¯ ¡1 = 2 2¾. Recordemos que hemos supuesto que el campo local de cada agente es una
variable aleatoria, la expresi¶
on a la que se ha llegado indica la probabilidad de los estados de los
agentes como si estos se encontraran en un \ba~ no t¶ermico" a una \temperatura" T = 1=¯ (que
est¶a relacionada con la varianza de la variable aleatoria).
La probabilidad a la que llegamos se denomina como din¶ amica de Glauber. Para entender
la din¶amica que resulta, supongamos que la temperatura es nula, esto es, ¯ ¡! 1, entonces como
la tanh se transforma en la funci¶on signo, esto es: hi 6 = 0 =) si (t + 1) = sgn (hi ) con
probabilidad uno 5 .
Luego veremos que en ambos casos el elemento i cambia su estado siempre que en el nuevo
estado se cumpla que hi si ¸ 0. Cuantitativamente el cambio de estado de un elemento debe producir
una disminuci¶ on local de una funci¶
on de Lyapunov que en los sistemas f¶³sicos es la \energ¶³a" (luego
ser¶a claramente de¯nida): ¢E = ¡2hi si · 0, o sea que la \energ¶³a" se reduce siempre que hi 6 = 0.
4
Tambi¶en es posible trabajar con una g(x) = tanh (¿ x) donde ¿ un par¶
ametro del modelo. Sin embargo conviene
limitarse al caso de una funci¶
on signo ya que se adec¶
ua m¶as a un proceso de decisi¶
on binario.
5
S¶³ hi = 0 =) si (t + 1) = §1 con probabilidad 1=2; no obstante esta posibilidad ocurre con una probabilidad
despreciable si el sistema extendido est¶
a multiplemente contectado.
92 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
4.1.2 Din¶
amica macrosc¶
opica y consistencia macro-micro
La in°uencia local que cada agente percibe de su entorno est¶a cuanti¯cada por su \campo local
inducido" (ecuaci¶ on 1.1). La din¶amica de cada agente se desarrolla de manera tal que trata de
acoplarse adecuadamente a la in°uencia de su \campo local". Si es positivo, el estado del agente es
+1 y en caso contrario ¡1 con ciertas probabilidades. Es posible de¯nir una funci¶on de Lyapunov
o \funci¶on de energ¶³a o de costo" que cuanti¯ca el nivel de acoplamiento agregado de los estados
de todos los elementos del sistema. Por ejemplo, si el estado del elemento i es si y el del j es sj y
ambos elementos interact¶ uan positivamente, es decir, que Mij > 0, entonces hay una contribuci¶ on
a esa funci¶on de Lyapunov proporcional a: ¡Mij si sj . En este caso si ambos estados poseen el
mismo signo (sgn (si ) = sgn (sj )) la contribuci¶on de la interacci¶on es negativa lo cual indica que
ambos estados est¶ an \coherentemente" acoplados; s¶³ sgn (si ) = ¡sgn (sj ), la contribuci¶on a la
\energ¶³a" es positiva ya que ambos estados son inconsistentes con la naturaleza de su interacci¶on.
Cuando Mij < 0 el acoplamiento favorable tiene lugar cuando los estados de i y de j poseen el
signo contrario y viceversa. Se puede de¯nir como indicador \global" (o agregado) del grado de
acoplamiento de los estados del sistema:
N N X N
~ =¡ 1X 1X
EfSg hei si ¡ Mij si sj (1.9)
2 i=1 2 i=1 j6
=i
j=1
~
e¡¯EfSg con ¯ = 1=kT siendo k la constante de Boltzman (1.10)
X
½I (t + 1) = W (I=J)½J (t) (1.13)
J
donde W (I=J) es la probabilidad de transici¶on del estado J al estado I. Por las propiedades de
conservaci¶
on de la probabilidad, sumando sobre todas las instancias y transiciones posibles tenemos:
X X
½I = 1 y W (I=J) = 1 (1.14)
I I
entonces:
X X
½I (t + 1) = W (I=J)½J (t) = W (I=J)½J (t) + W (I=I)½I (t) = (1.15)
J J6
=I
X ³ X ´
= W (I=J)½J (t) + 1 ¡ W (J=I) ½I (t) (1.16)
J6
=I J6
=I
sistema). Si el nivel de ruido no es muy intenso (T ¡! 0), el sistema puede entramparse en estados
sub¶optimos que corresponden a m¶³nimos locales del paisaje. Dada la complejidad del sistema que
se mani¯esta en la enorme cantidad de con¯guraciones posibles, no siempre se puede asegurar que
el sistema pueda siempre alcanzar un m¶³nimo global, ya que, por lo general, el paisaje de energ¶³a
es sumamente \rugoso". En el lenguaje de las redes neuronales amorfas los m¶ ultiples m¶³nimos
corresponden a las que se denominan como memorias asociativas, que son direccionables (a cada
m¶³nimo correspondiente) por su contenido [98].
s1 s2 s3 s4 (a) (c)
+ + + + -4 -2
+ + + ¡ 0 2
+ + ¡ + 0 2
+ + ¡ ¡ 0 2
+ ¡ + + 0 -2
+ ¡ + ¡ 0 -2
+ ¡ ¡ + 4 2
+ ¡ ¡ ¡ 0 -2
¡ + + + 0 -2
¡ + + ¡ 4 2
¡ + ¡ + 0 -2
¡ + ¡ ¡ 0 -2
¡ ¡ + + 0 2
¡ ¡ + ¡ 0 2
¡ ¡ ¡ + 0 2
¡ ¡ ¡ ¡ -4 -2
Se observa en la tabla que, si bien no es posible alcanzar estados de m¶³nima energ¶³a (» ¡4),
ultiples estados de baja energ¶³a » ¡2. La frustraci¶on en un sistema produce una diversidad
existen m¶
4.1. Estudio de las interacciones locales y analog¶³as con la mec¶
anica estad¶³stica 95
Figura 1.1: Dos situaciones posibles para un subsistema compuesto por 4 elementos. Por sim-
plicidad suponemos que Mij puede valer u ¶nicamente +1 o ¡1. En el caso (a) se cumple que
M12 = M13 = M24 = M34 = +1, en (b), M13 = M24 = M34 = +1 y M12 = ¡1
de estados fundamentales. Antes de que surgiera la teor¶³a de los \vidrios de spin" se consideraban
sistema extendidos con pocos estados fundamentales que pod¶³an ser considerados como equivalentes
a trav¶es de transformaciones de simetr¶³a. Como modelo protot¶³pico de sistema complejo, los vidrios
de spin nos muestran que en general sistemas con componentes en interacci¶on poseen una diversidad
tal que la simple agregaci¶on sin considerar la complementariedad dada por la localidad dar¶³a lugar
a err¶oneas conclusiones. En la teor¶³a de las redes neuronales la existencia de estados frustrados
permite multiplicar el n¶ umero de atractores de la din¶amica posibilitando almacenar un mayor
n¶umero de memorias asociativas. Trabajos realizados [141] han demostrado que los m¶³nimos de
estados frustrados se organizan ultram¶etricamente, es decir que poseen un organizaci¶on jer¶arquica.
El concepto de frustraci¶on y de la idea de que muchos sistemas no pueden alcanzar estados
¶optimos globales nos sugieren analog¶³as con hechos estilizados en sistemas econ¶omicos. Ya hemos
comentado en cap¶³tulos anteriores que muchas veces la coordinaci¶on de los planes de los agentes es
un objetivo dif¶³cil de alcanzar, ya sea por la existencia de complementariedades estrat¶egicas o por
la inaccesibilidad a nivel local a un conjunto de informaci¶on completa que permita operar en ¶el con
mayor certidumbre. La frustraci¶ on pues juega un papel preponderante, y por lo tanto resulta de
utilidad en el estudio de la econom¶³a desde esta visi¶on constructiva.
Mij ¸ 0 hay dos estados fundamentales (de m¶³nima energ¶³a) en que todos los componentes del
sistema est¶an en el mismo estado +1 ¶ o ¡1. Partiendo de condiciones iniciales al azar, la in°uencia
mutua entre elementos dada por la ecuaci¶on 1.2 da lugar a un descenso gradual por gradiente de
energ¶³a haciendo que el sistema alcance el atractor que conduce al estado fundamental. Esto es
v¶alido para un sistema que se encuentra en ausencia de ruido, entonces cabe preguntarse, cu¶al es
la cantidad de \ruido t¶ermico" admitido como para mantener al sistema en estas condiciones? Es
razonable suponer que existe un valor de temperatura (cr¶³tica), que controla el nivel de ruido, a
partir de la cual el sistema pasa de ser erg¶
odico a no serlo, teniendo lugar una \transici¶on de fase".
Para entender cuantitativamente estos conceptos realizaremos un estudio del sistema utilizando
lo que suele llamarse como una aproximaci¶on de campo medio y que consiste en reemplazar las
interacciones locales entre elementos por una interacci¶on promediada.
Aproximaci¶
on de campo medio
Supongamos que la interacci¶ f=N 8 1 ·
on entre elementos es una constante por lo cual: Mij = M
i · N; 1 · j · N . Si adicionalmente suponemos que la componente externa del campo local en 1.1
es nula (hei = 0) entonces este adquiere la forma:
N
X f
hi (t + 1) = Mij sj (t) ¡! ¹ = M M fSg
h fmfSg
~ ´M ~ (1.23)
j6
=i
N
~ es la polarizaci¶
donde M fSg on total del sistema mientras que mfSg ~ es la magnetizaci¶on por
~ = M fSg=N
componente (mfSg ~ ). Con estas aproximaciones la \energ¶³a" se simpli¯ca y da:
Mf X f
M
~ =¡
EfSg ~ ´ ¡1NM
si sj ¡! ¡ M 2 fSg ~
fm2 fSg (1.24)
2N i;j 2n 2
i6
=j
f < m¤ > )
< m¤ >= tanh (¯ M (ecuaci¶on de Curie - Weiss) (1.27)
fm¤ entonces:
Para analizar su comportamiento conviene llamar: x = ¯ M
1
x = tanh (x) (1.28)
f
¯M
Entonces, gr¶a¯camente podemos ver en la ¯gura 1.2 que seg¶ f sea menor o mayor que la
un ¯ M
unidad habr¶a un s¶ olo punto de equilibrio o 3 puntos de equilibrios (2 estables con polarizaci¶ on
no nula y uno inestable de polarizaci¶ on nula) respectivamente. Esto signi¯ca que existe un valor
cr¶³tico de ¯ = ¯c en la que se produce una transici¶on de fase del desorden erg¶odico con polarizaci¶
on
nula al orden de¯nido por una polarizaci¶ on no nula de valor macrosc¶opico.
Estudiemos el comportamiento del sistema cerca del valor cr¶³tico del par¶ametro de control,
es decir cuando ¯ ¼ ¯c . En estas condiciones es posible escribir la ecuaci¶on 1.28 como:
4.1. Estudio de las interacciones locales y analog¶³as con la mec¶
anica estad¶³stica 97
Figura 1.2: Seg¶un cada caso, la intersecci¶on entre la rectas y la funci¶on tanh (x) representa los
estados estacionarios del sistema cuando se ha realizado la aproximaci¶on de campo medio.
¯c 1
x = tanh (x) con ¯c = (1.29)
¯ f
M
entonces, aproximando por un polinomio de Taylor tanh (x) ¼ x ¡ 13 x3 , tenemos:
¯c 1 h ¯c i1=2
x ¼ x ¡ x3 =) x ¼ 3(1 ¡ ) (1.30)
¯ 3 ¯
Esto signi¯ca que la polarizaci¶
on normalizada sigue una ley potencial con el par¶ametro de control.
Investigaciones de los u
¶ltimos a~nos han mostrado que todo sistema extendido cuyos par¶ametros lo
acercan a una regi¶
on donde tiene lugar una transici¶on de fase posee observables que se comportan
con leyes de potencia similares a la obtenida. En particular, un observable importante es la funci¶
on
de correlaci¶
on:
F (~r) =< m(~r)m(0) > ¡ < m(~r) >< m(0) > (1.31)
on espacial entre elementos que se encuentran a una distancia j~rj.
que mide el grado de correlaci¶
Utilizando la transformada de Fourier de F (~r) se puede llegar a demostrar que [108]:
e¡j~rj=»
F (~r) = (1.32)
j~rj
donde » es la \longitud de correlaci¶
on" que es un indicador caracter¶³stico de la \memoria" espacial
del sistema desordenado. Cerca del punto cr¶³tico ¯ = ¯c la longitud de correlaci¶on va como:
¯c ¡! 1
»»j ¡ 1j¡º (1.33)
¯ ¯ ! ¯c
entonces, la funci¶ on va como jrj¡1 cerca del punto cr¶³tico. Esta ley de potencias
on de correlaci¶
indica que no existe una longitud o magnitud caracter¶³stica que de¯na el tama~ no del sistema
(ver secci¶
on 5.3 del pr¶
oximo). Para completar este an¶alisis, estudiemos el comportamiento de la
on normalizada lejos del punto cr¶³tico ¯c . Cuando ¯ ¡! 1 =) x À 0, entonces
polarizaci¶
tomando estos l¶³mites en la tangente hiperb¶olica llegamos a:
¯c
x ¼ 1 ¡ 2e¡2x + ¢ ¢ ¢ (1.34)
¯
y a orden cero xo = ¯=¯c , entonces:
¯c
' 1 ¡ 2e¡2¯=¯c (1.35)
¯
98 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
~ i.
(i) Cada agente di¯ere del resto por sus atributos personales X
(ii) Poseen diferentes expectativas sobre el comportamiento agregado; es decir que pueden for-
mular creencias a cerca de lo que hacen los dem¶as agentes. Entonces cada agente puede tener
asociada una expectativa dada por la medida de probabilidad (subjetiva) ¹ei (s~¡i ).
La elecci¶
on individual surge de resolver un problema de maximizaci¶on de utilidad:
² La utilidad social y la densidad de probabilidades para ²(si ) son dadas. La utilidad social Us
(en el sentido de que depende de las acciones de los dem¶as agentes) se formaliza suponiendo
que los agentes tratan de conformar o acoplarse con el comportamiento de los otros agentes:
hX
N ~ i)
Mj (X i
~ i ; ¹ei (S~¡i )) = ¡Ei
Us (si ; X (si ¡ sj )2 (1.38)
j=1
2
j6
=i
4.1. Estudio de las interacciones locales y analog¶³as con la mec¶
anica estad¶³stica 99
donde Ei es el valor esperado de la discrepancia entre las decisiones propias y las ajenas,
pesadas por una matriz que da cuenta del marco social en que se encuentra el agente (puede
suponerse que cuanti¯ca la comunicaci¶on interpersonal).
Por otro lado se puede suponer que la probabilidad de shocks es log¶³stica7 :
³ ´ 1
P ²(¡1) ¡ ²(1) · z = (1.39)
1 + e¡¯(X~ i )z
² Ya que las elecciones son binarias, la utilidad \privada" puede simpli¯carse de forma tal que:
~ i ) = h(X
u(1; X ~ i ) + k(X ~ i) (1.40)
u(¡1; X~ i ) = ¡h(X ~ i ) + k(X ~ i) (1.41)
³ ´ ³ ´
~ i ; ¹e (S~¡i ) = P V (si ; X
P si =X ~ i ; ¹e (s~¡i ); ²(si )) > V ( ¡ si ; X
~ i ; ¹e (s~¡i ); ²(¡si )) (1.43)
i i i
~ n
e¯(Xi )z ~ i) +
X
~ i )si Ei (sj ) (1.44)
P (²(¡si ) ¡ ²(si ) < 2z) = donde z = si h(X Mj (X
e¯(X~ i )z + e¡¯(X~ i )z j=1
j6
=i
~ es:
Entonces la probabilidad agregada de que el sistema se encuentre en un estado S
³ ´ N
Y
~ X
P S=f ~ i g1·i·N ; f¹e (s~¡i )g1·i·N = ~ i ; ¹e (s~¡i )) »
P (si =X (1.45)
i i
i=1
h ³X
N N
X ´i
» exp ~ i)
¯(X ~ i )si +
h(X ~ i )si Ei (sj )
Mj (X (1.46)
i=1 j=1
j6
=i
cuando, por ejemplo, debe tomar decisiones de inversi¶on o aumentar o disminuir la cantidad de
empleados de planta (empleo de carrera), o cuando se estudia la entrada o salida de las ¯rmas a
un determinado sector. Tambi¶en se puede estudiar el comportamiento de los agentes consumidores
que deben tomar decisiones binarias.
En econom¶³a modelos con interacciones locales similares el que hemos descripto han sido
tambi¶en utilizados para explicar los patrones de difusi¶on y lock-in de innovaciones tecnol¶ogicas a
trav¶es de las modelizaci¶ on de procesos de adopci¶on de nuevas tecnolog¶³as como resultado de la
interacci¶on entre ¯rmas vecinas vinculadas entre s¶³ [14]. En Benabou y Durlauf [?] se enfatiza la
importancia del caracter end¶ ogeno en la formaci¶on de barrios, debido a la interdependencia entre las
acciones de los agentes que act¶ uan en el sistema, dando lugar a correlaciones tanto espaciales como
intertemporales. Es posible en el contexto visto estudiar los procesos de integraci¶on, segregaci¶on y
estrati¯caci¶on social.
En el marco de la macroeconom¶³a es posible aplicar esta metodolog¶³a considerando modelos
como los formulados por Neftci [149] quien clasi¯c¶o a los estados de las econom¶³as en dos reg¶³menes
seg¶un el nivel de empleo est¶e creciendo o no, o por Hamilton [88] con los auges y las recesiones y for-
mul¶o un modelo usando cadenas markovianas. Estos procesos estoc¶asticos dan lugar a movimientos
brownianos que resultan ser una aproximaci¶on de primer orden ya que no se tienen en cuenta los
efectos de la externalidad din¶ amica que produce el comportamiento interdependiente local. Kurz
[?] tambi¶en propuso un modelo con 2 tipos de ¯rmas, (i) aquellas que tienen acceso al cr¶edito, (ii)
las que tienen el cr¶edito racionado. En el contexto descripto podr¶³a ser posible estudiar un modelo
similar con interdependencias, de manera tal de que aquellas ¯rmas del tipo (i) se transformen en
tipo (ii) si por efecto de la externalidad cuando est¶a vinculada con otras ¯rmas del tipo (ii). Todos
estos modelo se sostienen en un criterio de elecci¶on binaria, raz¶on por la cual es posible aplicar este
marco de referencia.
Autores como Lux [131], Kirman [116], Antoniewicz [?] y Brock [39, 37] han desarrollado
modelos para explicar el comportamiento de los mercados ¯nancieros, la crisis y ataques espec-
ulativos y la aparici¶ on de profecias autocumplidoras, suponiendo que los agentes econ¶omicos se
clasi¯can en dos tipos diferentes: \fundamentalistas" y \chartistas" (o seguidores de tendencias).
Campbell, Grossman y Wang [?] desarrollaron un modelo con expectativas racionales en el que
conviven dos tipos de agente, aquellos que poseen una aversi¶on al riesgo constante (CARA) y los
que poseen una aversi¶ on al riesgo estoc¶ astica, bien podr¶³a emplearse el formalismo de los vidrios
de spin a este tipo de modelos.
Tambi¶en es posible adaptar ciertos modelos con informaci¶on asim¶etrica como el formulado
por Hellwig [?] que estudia la interdependencia que existe entre la calidad de las se~ nales que los
agentes reciben y los cambios abruptos causados por el grado de correlaci¶on de la informaci¶on entre
agentes y no en los cambios de su contenido. En este modelo los agentes reciben una se~ nal sobre los
rendimientos futuros de un activo, hay dos tipos de agentes, los informados (1) que pagan por una
menor volatilidad de la se~ nal y los agentes no informados (2) que poseen una volatilidad esperada
¾2 > ¾1 , pero no pagan por la informaci¶ on que reciben. El modelo estudia el rol cualitativo de la
estructura de correlaci¶ on de las se~nales.
H. Peyton Young [?] formul¶ o un modelo en el que los agentes se ubicaban en un grafo
que representa la red social. En cada per¶³odo de tiempo se selecciona al azar a un agente y este
adopta uno de dos comportamientos posibles, dependiendo de (i) la evoluci¶on de los premios, (ii)
la proporcion de agentes vecinos que han adoptado determinado comportamiento. En este u ¶ltimo
modelo, los agentes juegan un juego de coordinaci¶on sim¶etrico con cada uno de los dem¶as agentes
de su vecindad. El juego de coordinaci¶ on es:
A B
A 3; 3 0; 0
B 0; 0 2; 2
4.1. Estudio de las interacciones locales y analog¶³as con la mec¶
anica estad¶³stica 101
El autor analiza qu¶e patrones de comportamiento emergen y cu¶anto tiempo tarda el sistema
de alcanzar un estado estacionario. El modelo exhibe un estado de equilibrio en el que todos los
agentes juegan A o todos juegan B (equilibrio homog¶eneo), sin embargo existen tambi¶en m¶ ultiples
equilibrios alternativos en los cuales hay subgrupos de agentes que coordinan sus acciones jugando
A mientras otros juegan B. El autor trabaja con una funci¶on que de¯ne como \potencial del juego"
similar a la energ¶³a usada en los vidrios de spin (ecuaci¶on 1.9).
Formaci¶
on de grupos y normas de conducta
Glaesser, Sacerdote y Scheinkman [76] construyeron un interesante modelo con interacciones locales para explicar la proliferaci¶ on
de cr¶³menes en las ciudades. Los individuos se suponen localizados en un espacio unidimensional. Cada agente puede elegir (al
on de cometer (si = 1) o no un cr¶³men (si = ¡1). La preferencia
azar) una de tres tipos de preferencias con referencia a la decisi¶
1 supone que el agente siempre que tenga la oportunidad comenter¶ a un crimen, la 2 supone que el agente cometer¶ a el crimen si
el vecino m¶as cercano de la izquiera lo comete y la 3 considera que nunca cometer¶ a el crimen. Sea Uj (si ; si¡1 ) la utilidad del
agente i que utiliza la preferencia tipo j. El modelo supone el siguiente ordenamiento:
Es decir que cuando el agente comete siempre el crimen su utilidad U1 es mayor si su vecino tambi¶ en lo comete,
cuando el agente utiliza la preferencia U2 el agente cometer¶a el crimen s¶
olo si su vecino tambi¶
en lo hace y en el caso de usar
la preferencia U3 el agente preferir¶
a la situaci¶
on en la que el vecino tampoco comete cr¶³menes. La distribuci¶ on de tipos de
preferencia es independiente e id¶
enticamente distribuida para todos los agentes.
Cada agente est¶a en contacto con la vecindad formada por el agente a su izquierda, es decir:
½
M(X~ i ) s¶³ j = i ¡ 1
~i) =
Mj (X (1.50)
0 s¶³ j 6 =i¡1
Por otro lado a cada agente se le puede asociar una \variable latente" Ái 2 fÁl ; Ám ; Áh g que da cuenta de una carac-
ter¶³stica personal que in°uencia a la utilidad individual en virtud de que el agentes pertenece a una \clase social" determinada:
baja (l), media (m), o alta (h). Esta variable latente act¶ ua como un campo externo siendo:
Es decir que si el individuo pertenece una clase social \humilde", dado que h > 0 tendr¶ a la tendencia a cometer el crimen
independientemente de su vecindad (ya que M = 0), s¶³ es de clase \media" no tendr¶ a ninguna tendencia impl¶³cita pero tomar¶a
decisiones en conformidad con la de su vecino pues M > 0; ¯nalmente, si el agente pertenece a la clase \alta" no evaluar¶ a la
conducta de su vecino pero tendr¶a la tendencia de no cometer cr¶³menes pues h < 0.
Con esta estructura para el modelo de interacciones entre agentes, los autores demuestran que la probabilidad de que
~ es:
el sistema se encuentre en un estado global S
hX
N
¡ ¢i
~
P (S=fÁ1 ; ¢ ¢ ¢ ; ÁN g) » exp ¯ h(Ái )si + M(Ái )si si¡1 (1.54)
i=1
Si bien los modelos unidimensionales m¶ as simples no tienen transiciones de fase, dada la estructura aleatoria de las
preferencias y de la matriz de interacciones entre los agentes, el modelo tendr¶
a diferentes comportamientos seg¶ un el par¶
ametro
de control ¯. Para valores altos del mismo es posible encontrar \clusters" o grupos de agentes que act¶ uan en forma coherente
mientras que para valores peque~ nos de ¯ los agentes toman decisiones enteramente al azar y por lo tanto no se producen estados
agregados con valores medios signi¯cativos.
El modelo podr¶³a generalizarse considerando que la interacci¶ on mutua tiene un caracter intertemporal, entonces las
decisiones pasadas pueden in°uenciar a las decisiones presentes. La probabilidad agregado ser¶³a en este caso:
³X
N
¡ ¢ ´
~t ) » exp h st¡¿ t¡1 t¡¿
; ¢ ¢ ¢ ; st¡1 ; Át¡¿ ; ¢ ¢ ¢ ; Át¡1 sti
P (S i¡1 ; ¢ ¢ ¢ ; si¡1 ; si i i i (1.55)
i=1
Por otro lado es muy poco lo que se conoce sobre modelos del tipo de los vidrios de spin con n
estados discretos. Tambi¶en las interacciones estrat¶egicas incorporan no convexidades complicadas
imposibilitando el uso de las herramientos usuales de la optimizaci¶on matem¶atica.
En la siguiente secci¶on se muestra un modelo que utiliza algunas de estas ideas. El mod-
elo estudia la coordinaci¶ on de decisiones tomadas por los agentes cuando existe interdependencia
estrat¶egica y los agentes puede operar mediante un mecanismo de coordinaci¶on global que es apren-
dido por cada agente durante la evoluci¶ on del sistema y un mecanismo de contagio local que permite
internalizar el efecto de lo que los dem¶as agentes est¶an haciendo.
ventanilla de dep¶ ositos alto obliga a que los clientes paguen un costo de oportunidad por el tiempo
perdido 8 . Los p¶anicos y las corridas en los sistemas ¯nancieros pueden interpetarse de dos maneras
[44, 54, 59, 83]:
(i) Como eventos basados en la difusi¶on de informaci¶on acerca del estado fundamental de la
econom¶³a, que induce a los agentes a revisar las creencias acerca del estado del sistema
(llamaremos a este caso: eventos basados en informaci¶on) [59].
Ambas explicaciones no tienen por qu¶e ser mutuamente excluyentes. Podr¶³a ocurrir que
cierta noticia macroecon¶ omica, que afecta el estado \fundamental" de la econom¶³a altere el ren-
dimiento esperado de los activos, e induzca una respuesta que dispare un proceso retroalimentado
derivando en un p¶ anico. En este caso, el p¶anico no es simplemente generado por una \mancha
solar" ya que la crisis es disparada por un cambio en los par¶ametros que de¯nen el retorno de los
activos. Los modelos que se describen a continuaci¶on, si bien excesivamente esquem¶aticos pueden
re°ejar algunos elementos de esos episodios de crisis.
4.2.1 Coordinaci¶
on guiada por la informaci¶
on global
Descripci¶
on del Modelo
El modelo implementado resulta ser una modi¯caci¶on de \bar attendance model" de W. Brian
Arthur [12, 13] donde se supone que un n¶ umero grande Nag de agentes debe decidir en cada
9
per¶³odo de tiempo si asistir o no a un bar . Como ya comentamos la capacidad f¶³sica del bar es
menor que la poblaci¶ on total de agentes. S¶³ en un momento dado la cantidad de asistentes supera
un cierto umbral S1 Nag (con 0 < S1 < 1 una proporci¶on sobre el total) los asistentes tendr¶ an una
desutilidad debido a la congesti¶ on. En forma an¶aloga, si la cantidad de asistentes es inferior otro
valor umbral So Nag (con 0 < So < S1 < 1) los asistentes tambi¶en sufrir¶an una desutilidad debido
a que el bar est¶a vac¶³o..
El proceso de adaptaci¶ on se basa en las asistencias pasadas; los agentes comparten el con-
junto de informaci¶ on global a trav¶es de la observaci¶on de la utilidad obtenida durante un cierto inter-
valo de tiempo. El aprendizaje se modela por medio de un algoritmo gen¶etico (ver la secci¶on 3.5.1).
El protocolo de aprendizaje act¶ ua favoreciendo a aquellas estrategias que se desempe~ naron de la
mejor manera durante un n¶ umero Nd de per¶³odos de tiempo. Cada agente tiene asignada una
poblaci¶on de Np estrategias o planes para la subsecuente \semana" de Nd \d¶³as". Cada estrategia
se codi¯ca en un \plan " o \genoma" que especi¯ca con cada bit, si asistir¶a o no al bar cada \d¶³a"
de la \semana". Toda la poblaci¶ on de estrategias de todos los agentes se selecciona inicialmente al
azar y, a medida que el sistema evoluciona, se actualiza por medio de los operadores gen¶eticos de
selecci¶on, cruza y mutaci¶ on, gracias a los cuales las estrategias menos exitosas son progresivamente
descartadas. Los pasos formales del algoritmo son los siguientes:
(1) Cada uno de los Nag agentes posee Np planes o estrategias de asistencia al bar. Cada una de
estas estrategias consiste en una cadena de bits de longitud Nd . El \bit" del agente k y de la
p¡¶esima estrategia p #tk , para el \d¶³a" t puede tomar el valor +1 ¶o ¡1 seg¶
un el agente elija
ir al bar o no ese \d¶³a".
8
En esta met¶afora, el umbral superior corresponde a una restricci¶
on f¶³sica sobre los servicios que proveen el sistema
en cierto instante. En el ejercicio que discutiremos, el nivel agregado de \dep¶ ositos" diario sirve como indicador del
deseo de los agentes de depositar en el sistema bancario.
9
El trabajo de Arthur fue desarrollado en el Instituto de Santa Fe en Nuevo M¶exico, por eso se re¯ere al famoso
bar \El Farol" situado en el centro de la ciudad.
104 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
8
>
> +1 ¡ 1 ¡ 1 + 1 ¡ 1 ¢ ¢ ¢ ¡ 1 ¡ 1 + 1 ¡ 1 + 1
>
>
>
> ¡1 + 1 ¡ 1 + 1 ¡ 1 ¢ ¢ ¢ ¡ 1 + 1 ¡ 1 ¡ 1 + 1
>
>
<
.. .. .. ..
Np (1 · p · Np ) . . . .
>
>
>
> p t
>
> +1 ¡ 1 + 1 ¡ 1 ¢ ¢ ¢ #k ¢ ¢ ¢ + 1 ¡ 1 + 1 ¡ 1
>
>
: ¡1 ¡ 1 + 1 ¡ 1 + 1 ¢ ¢ ¢ ¡ 1 ¡ 1 + 1 + 1 ¡ 1
| {z }
Nd (1·t·Nd )
El \bit" p #tk 2 f¡1; 1g del agente k para el predictor p, en la ubicaci¶on (o d¶³a) t puede valer
+1 ¶o ¡1, y su signi¯cado es:
(
p +1 si el agente k al haber elegido el predictor p asiste el d¶³a t
#tk (2.56)
¡1 si el agente k al haber elegido el predictor p no asiste el d¶³a t
(2) Cada agente elije una estrategia vigente durante los Nd d¶³as posteriores a la actualizaci¶on,
con la que efectiviza sus acciones (ir o no al bar). En cada instante de tiempo el bar registra
el nivel (diario) de asistencia. Sea v la estrategia vigente de cada agente. La fracci¶on Dt de
agentes que asisten al bar en el t¡¶esimo d¶³a es:
Nag
1 X v t
Dt = µ( #k ) (2.57)
Nag k=1
(
1 si x > 0
µ(x) = (2.58)
0 si x · 0
(3) Cada agente contabiliza la utilidad de cada \d¶³a" comparando la asistencia Dt con las dos
cotas So y S1 . Los agentes que han tomado la decisi¶on correcta tienen una contribuci¶on
positiva a su utilidad \semanal" Ukp (t + 1) = Ukp + (1 + C) independientemente que hayan
ido o no al bar. En cada per¶³odo de tiempo, los agentes que han errado la predicci¶on de
la asistencia total deben soportar un costo de oportunidad que baja el nivel de utilidad
\semanal": Ukp (t + 1) = Ukp + (1 ¡ C) (o sea que no concurrieron cuando So · Dt · S1 , ¶o lo
hicieron cuando Dt estuvo fuera de las dos cotas). La utilidad de contabiliza cada \d¶³a" de
los Nd \d¶³as" de la \semana".
(4) Finalizada la \semana", cada agente ha contabilizado la \performance" de todas sus estrate-
gias con lo cual es posible compararlas entre s¶³ y ordenarlas por aptitud para que el algoritmo
gen¶etico act¶ue atrav¶es de los operadores de selecci¶on, cruza y mutaci¶on de las estrategias m¶as
aptas. Para acelerar el proceso de aprendizaje hemos utilizado el mecanismo de selecci¶on
elitista: el 50 % de las estrategias m¶as aptas sobreviven la siguiente generaci¶on y el otro 50
% es reemplazado por las estrategias que se obtienen de cruzar y mutar al primer 50 %. La
probabilidad de mutaci¶ on es baja (pmut » 0:001).
(5) La estrategia m¶as apta del ordenamiento es seleccionada para ser la vigente en la \semana"
siguiente, y todo este procedimiento se itera la cantidad de generaciones que se desee.
4.2. Mecanismos globales y locales de coordinaci¶on 105
Auto-organizaci¶
on del sistema
El efecto del procesamiento de la informaci¶on global o agregado que los agentes conocen a partir de
la realizaci¶
on de sus acciones da lugar a estados asint¶oticos coordinados en los cuales los agentes se
auto-organizan asistiendo de manera tal de saturar \diariamente" la m¶axima capacidad f¶³sica que
posee el bar. En consecuencia, la asistencia se ubica alrededor de la proporci¶on superior S1 (v¶ease
la ¯gura 2.3). Este resultado no se ve afectado por un cambio de los par¶ametros de la funci¶ on de
utilidad (C) .10
Figura 2.3: Dos Simulaciones sin incorporar el mecanismo de contagio local, con 256 agentes,
pmut = 0:005, So = 0:2, S1 = 0:8, Nd = 10 y Np = 20. En el primer caso el sistema converge
a un estado de auto-organizaci¶
on ¶
optima mientras que en el gr¶a¯co de abajo la auto-organizaci¶
on
resultante es claramente sub¶
optima.
La ¯gura 2.3 (b) muestra que el sistema puede entramparse con¯guraciones sub¶optimas en
las que, en algunos instantes de tiempo particulares, no se efectivizan asistencias al bar. Esto se
debe a que en alguna etapa temprana de la evoluci¶on y por razones puramente azarosas la cantidad
de agentes que asisten en un determinado \d¶³a" result¶o muy bajo, en consecuencia esta conducta
se internalizada haciendo que ninguno de los agentes asista ese d¶³a en las sucesivas semanas. En
esta situaci¶
on, el sistema queda entrampado en un estado del que s¶olo se puede salir si ocurre la
improbable coincidencia de que un n¶ umero sufcientemente grande de agentes modi¯que sus estrate-
gias de manera tal de concurrir simult¶aneamente ese d¶³a particular. Este tipo de \mutaci¶on global"
es improbable y por lo tanto el sistema permanecer¶a inde¯nidamente en ese estado sub¶ optimo,
como lo muestra la ¯gura 2.3 (b). El estado asint¶otico que alcanza el sistema, en estos casos,
depende de las condiciones iniciales (azarosas) que se utilicen para iniciar el proceso de aprendizaje
y evoluci¶
on. En termodin¶ amica estad¶³stica esta situaci¶on suele denominarse como la con¯naci¶ on
por barreras entr¶opicas donde la vida media en la que el sistema queda entrampado depende y es a
su vez determinado por el nivel de °uctuaciones que se introducen a trav¶es de la probabilidad de
mutaci¶on (pmut ). La aparici¶
on de estos estados sub¶optimos son tambi¶en ejemplos de dependencia
del sendero en el proceso de auto-organizaci¶on (v¶ease la secci¶on 2.6.5 del cap¶³tulo 2).
El sistema alcanza una situaci¶on que es din¶ amicamente estable ya que en todo momento
todos los agentes exploran nuevas estrategias que corresponden a mutaciones al azar de las estrate-
gias vigentes. Por otra parte el sistema alcanza un r¶egimen estacionario debido necesariamente
10
El posible obtener el mismo resultado haciendo que C = C(Dt ) > 0 en forma arbitaria en el intervalo (So ; S1 ).
106 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
a que es diverso: Ning¶ un agente puede en cada instante de tiempo concurrir todas las veces que
desear¶³a ya que de ese modo contribuir¶³a a que el sistema exceda el l¶³mite superior S1 . Esto trae
como consecuencia el establecimiento de una \ecolog¶³a" de estrategias mediante las cuales no s¶olo
distintos agentes concurren en instantes de tiempo diferentes, sino que algunos agentes pueden
concurrir m¶as veces que otros a lo largo de los Nd d¶³as.
Debemos puntualizar que el algoritmo computacional opera con estrategias puras. Si con-
sideramos la posibilidad de operar con estrategias mixtas es posible demostrar que existe una u ¶nica
probabilidad de concurrir que da lugar al equilibrio estacionario y por lo tanto es posible represen-
tar al modelo por medio de un u ¶nico agente representativo; en la secci¶on 4.2.6 de este cap¶³tulo se
realiza esta demostraci¶
on. Ya que deseamos estudiar los efectos conjuntos de la coordinaci¶on global
(que venimos analizando hasta ahora) con el contagio local que luego incorporaremos suponer que
los agentes juegan estrategias puras es una hip¶otesis razonable.
Cuando el nivel de concurrencia alcanza el valor m¶aximo aceptable, el sistema visita la
vecindad de un equilibrio de Nash. Ning¶ un agente puede cambiar su estrategia unilateralmente
para incrementar su utilidad sin perturbar la utilidad de todos los dem¶as (incluido ¶el mismo). Por
otro lado, hay una multiplicidad de equilibrios, o en otros t¶erminos, el equilibrio que se alcanza es
m¶ultiplemente degenerado ya que dos con¯guraciones cualesquiera en las cuales un cliente del bar
intercambie su posici¶on con otro que no est¶e concurriendo, son equivalentes. Se puede comprobar
que la concurrencia de los agentes a lo largo de la \semana" sigue una distribuci¶on binomial. En
el estado estacionario el promedio temporal de la fracci¶on de agentes que concurren al bar, S1 es
la misma que la probabilidad de que un dado agente asista. La probabilidad de alcanzar un nivel
de concurrencias acumulado durante la \semana" As es:
à !
Nd As
P (As ) = S (1 ¡ S1 )Nd ¡As (2.59)
As 1
4.2.2 Coordinaci¶
on con el mecanismo local de contagio
Para incluir el mecanismo local de \contagio" cada \d¶³a" se ofrece a los agentes la posibilidad de
decidir entre una de dos opciones: (i) continuar con el plan individual de asistencias o (ii) imitar
la estrategia usada por sus vecinos m¶as cercanos. Para ello, al ¯nalizar cada per¶³odo de tiempo,
cada agente determina si los agentes que pertenecen a su vecindad han actuado mejor o peor que
¶el en t¶erminos de la comparaci¶
on de sus utilidades. Operativamente, se puede ubicar a los agentes
en una grilla cuadrada con condiciones de contorno peri¶odicas 11 . El agente rotulado por el ¶³ndice
k, por ejemplo, puede ocupar en esta grilla la ¯la i y columna j donde:
³ k ´ q q
i = INT p + 1 j = k MOD Nag k = Nag ¢ (i ¡ 1) + j (2.60)
Nag
Cada agente computa la utilidad diaria que obtiene de utilizar su propia estrategia y la
compara con la que hubiera tenido de haber imitado a sus vecinos cercanos. En condiciones m¶ as
realistas es razonable suponer que la obtenci¶on de esta informaci¶on no es enteramente determin¶³stica
por lo cual el agente estima primeramente el promedio de lo que ha hecho su vecindad computando
el campo local percibido por ¶el. Sea el agente k, su campo local en t es:
1³ ´
hij = a(i; j + 1) + a(i; j ¡ 1) + a(i + 1; j) + a(i ¡ 1; j) (2.61)
4
donde a(i; j) 2 f¡1; 1g es la acci¶
on realizada por el agente (i; j) en tiempo t. Conocido el campo lo-
cal hk ´ hij se puede determinar la acci¶ on que el agente tomar¶³a de optar por seguir a su vecindad.
Este procedimiento es semejante al que se realiza en las simulaciones de medios ferromagn¶eticos con
11
Los bordes est¶
an conectados entre s¶³. Topol¶
ogicamente esta estructura es equivalente a un toroide.
4.2. Mecanismos globales y locales de coordinaci¶on 107
Auto-organizaci¶
on con ambos mecanismos
Cuando se incorpora al modelo el mecanismo local de coordinaci¶on que posibilita simular una
din¶amica de contagio se advierte que ambos procesos se refuerzan. En las ¯guras 2.4 y 2.5 se observa
la auto-organizaci¶on que tiene lugar en el sistema cuando ambos mecanismos de coordinaci¶ on
conviven; en el primer caso la temperatura es nula mientras que en el otro, se la ¯j¶o en un valor de
T = 0:1. En condiciones estacionarias, cuando T = 0:1, aproximadamente un 15 % de los agentes
basan sus decisiones en la imitaci¶on de sus vecinos. Lo que es destacable es que ambas estrategias
son complementarias entre s¶³: por un lado el mecanismo de b¶usqueda del equilibrio asint¶otico es m¶
as
e¯ciente cuando conviven ambos mecanismos de coordinaci¶on ya que, en este caso, el sistema no se
entrampa en estados sub¶ optimos como los observados en la ¯gura 2.3(b)14 . Esto es posible gracias
la las \°uctuaciones t¶ermicas" que permiten eludir las barreras entr¶opicas antes mencionadas. El
sistema explora aleatoriamente una regi¶on m¶as amplia de su espacio de con¯guraciones obteniendo
un estado m¶as favorable a expensas de un nivel mayor de °uctuaci¶on. Por el otro, se puede advertir
12
Digamos el estado de confusi¶on dada la dispersi¶
on de la informaci¶on sobre el sistema.
13
Para suponer que la actualizaci¶ on de los componentes que interact¶ uan en un sistema como el descripto est¶ an
inmersos en un fondo de ruido la propuesta de Glauber es dotar a este modelo con una din¶ amica estoc¶
astica que
corresponder¶³a al caso en el que tal sistema se encuentra en contacto con un ba~ no t¶ermico a una dada temperatura
T . La probabilidad P (si ) de que el elemento i tome el valor si 2 f¡1; +1g se determina seg¶un:
e¯hi si
P (si ) =
+ e¡¯hi
e¯hi
o similarmente su inversa ¯ ! 1), las probabilidades de
Si el sistema se encuentra en ausencia de ruido (T = 0 ¶
transici¶
on seg¶
un la din¶
amica de Glauber son:
1. Si el campo local hi 6
= 0 entonces si (t + ±t) = sign(hi ) con probabilidad 1.
1
2. Si hi = 0 entonces si (t + ±t) = §1 con probabilidad 2.
Figura 2.4: Proceso de auto-organizaci¶ on con ambos mecanismos de coordinaci¶on cuando la tem-
peratura es T = 0. El resto de los par¶ametros son similares a los de la ¯gura anterior. Se muestra
tambi¶en la evoluci¶
on que tiene lugar durante una \crisis ex¶ogena". La duraci¶on de la \crisis" es 20
\semanas".
que las °uctuaciones introducidas por el contagio local son compensadas por una elaboraci¶on algo
diferente de la informaci¶
on global.
Cuando la temperatura del sistema es muy grande (¯ ¡! 0) el nivel de ruido es muy alto,
impidiendo el aprendizaje e imposibilitando que el sistema se auto-organize.
Figura 2.6: Auto-organizaci¶ on que tiene lugar cuando el procesamiento de informaci¶on local es
descartado. Mostramos tambi¶en la evoluci¶on durante una \crisis ex¶ogena". Todos los par¶ametros
son equivalentes a los de las ¯guras anteriores
inferior So es un nivel de con¯anza cr¶³tico por debajo del cual los agentes consideran que no
es prudente con¯ar en el sistema de intermediaci¶on bancario. El estado estable coordinado con
altos niveles de asistencia podr¶³an corresponder a la situaci¶on en la cual los clientes depositan
regularmente sus ahorros. El origen de la crisis puede ser atribuida al arribo de informaci¶on
ex¶ogena que siembra dudas acerca de la solidez del sistema ¯nanciero instaurando la creencia de
que por razones fundamentales el sistema se ha tornado fr¶agil.
En las ¯guras 2.7 (a) y (b) se puede observar la evoluci¶on de la fracci¶on de dep¶ositos (cuentas
corrientes, plazos ¯jos y cajas de ahorro en pesos y d¶olares) como funci¶on del tiempo durante la
severa crisis bancaria ocurrida en la Argentina luego de la devaluaci¶on mexicana a ¯nes del a~ no
1994. Los gr¶a¯cos cubren el per¶³odo que comprende noviembre de 1994 y octubre de 1995. Se
superpone en cada una de las ¯guras los resultados normalizados que surgen del modelo. Sus
par¶ametros libres han sido calibrados como se describe en la explicaci¶on de la ¯gura.
La escala vertical ha sido normalizada de manera tal que el nivel superior corresponde al
volumen de dep¶ ositos que hab¶³a al comienzo de la crisis bancaria y el nivel inferior a la cantidad de
fondos que los bancos pose¶³an e d¶³a que el gobierno estableci¶o el sistema de garant¶³a de dep¶ositos.
Cada d¶³a de la serie de tiempo es equivalente a un per¶³odo de tiempo del modelo. La escala vertical
se ha normalizado de manera tal que tenga un valor igual a 1 cuando se inicia la crisis el 20 de
diciembre de 1994 (devaluaci¶ on mexicana) y 0 el d¶³a que el Banco Central de la Rep¶ ublica Argentina
establece la garant¶³a de dep¶ ositos bancarios. Cada d¶³a de la serie temperal real se asimil¶o a cada
\d¶³a" de actualizaci¶
on del modelo computacional
Los distintos reg¶³menes transicionales que se mani¯estan, es decir la primer etapa de retiros
graduales, el \p¶anico" y la recuperaci¶on de la crisis puede identi¯carse en la ¯gura con claridad. Las
series que muestran las simulaciones describen muy bien los primeros instantes de la crisis, pero no
su recuperaci¶on. La evidencia emp¶³rica indica que la entrada a una crisis es abrupta pero la salida
es gradual, ya que los agentes suelen ser aversos al riesgo y \reaprenden cautelosamente" el nuevo
estado fundamental del sistema. En el modelo computacional la recuperaci¶on, luego de la crisis,
es abrupta debido a que los agentes no llegaron a \perder memoria" de las estrategias anteriores.
Resulta interesante que, para obtener una recuperaci¶on gradual luego de la crisis, suposiciones
adicionales deben hacerse que posibiliten reproducir esta circunstancia. Una alternativa razonable
es sortear nuevas estrategias iniciales (y tomadas aleatoriamente) para que el algoritmo gen¶etico
inicie nuevamente la tarea adaptativa pero sobre un entorno que ha cambiado. Esto podr¶³a describir
la implantaci¶on de \nuevas reglas de decisi¶on" que act¶ uan en el sistema y el consenso de todos los
agentes de que tal cambio implica explorar un espacio nuevo de alternativas no visitado durante la
evoluci¶on estacionaria del sistema. Este sorteo, que conduce a un nuevo conjunto de reglas, puede
por ejemplo suponerse disparado por un umbral dado por la cantidad de agentes que determinan
su decisi¶on sobre la base del procesamiento de informaci¶on local (por ejemplo el 50%). Otra
alternativa, complementaria a la primera, es suponer que algunos agentes (por ejemplo el 40 %)
4.2. Mecanismos globales y locales de coordinaci¶on 111
son aversos al riesgo y por lo tanto evaden la posibilidad del contagio cuando la acci¶on que este
prescribe es la de efectuar sus dep¶ositos en el sistema pero, por otro lado estos mismos agentes
admiten el contagio cuando se trate de una decisi¶on que implique la retenci¶on de sus fondos. En
el primer caso (a) no se realiza ninguna hip¶otesis adicional. En el segundo gr¶a¯co (b) se supuso lo
que acabamos de explicar.
Figura 2.7: Evoluci¶ on del nivel de dep¶ositos normalizado. El sistema est¶a compuesto por 256
agentes, cada agente tiene 20 \predictores", la probabilidad de mutaci¶on del algoritmo gen¶etico
es de 0.005, la \temperatura" de 0.001, la crisis es desatada en t = 30 (20 de diciembre de 1994)
y ¯naliza en t = 120. Se superpone la serie del nivel total diario de dep¶ositos durante la crisis
bancaria argentina de 1995. En el gr¶a¯co (b) si la proporci¶on de contagiados supera el 50 % se
sortea nuevamente la poblaci¶on de \predictores" y se inhibe a un 60 % de los agentes a depositar
bajo la acci¶
on del contagio.
4.2.4 Auto-organizaci¶
on sin par¶
ametros ex¶
ogenos
El modelo que acabamos de describir contiene dos par¶ametros ex¶ogenos que gu¶³an al proceso de
auto-organizaci¶ on, y se representan por las dos cotas admitidas por la concurrencia. Estas de-
terminan la brecha dentro de la cual los agentes tienen utilidades positivas. La cota superior es
debida a la congesti¶ on y evita que el sistema colapse en un esquema coordinado excesivamente
degenerado y por lo tanto trivial que corresponde a todos los agentes efectuando la misma acci¶ on
todos los per¶³odos de tiempo. La cota inferior por su parte marca el l¶³mite por debajo del cual
tiene lugar el equilibrio aut¶arquico en el que los agentes prescinden del sistema. Si bien este modelo
da cuenta satisfactoriamente de los mecanismos de coordinaci¶on que est¶an condicionados por am-
bos par¶ametros, nada se agrega acerca de los procesos de coordinaci¶on que puedan tener lugar al
comienzo de la evoluci¶ on dando origen a ese tipo de par¶ametros y determinando un valor particular
de los mismos. En la presente secci¶ on presentamos una modi¯caci¶on del modelo anterior para tener
en cuenta este otro tipo de coordinaci¶on.
Un mecanismo de auto-organizaci¶on de la naturaleza que nos ocupa trae impl¶³cito una
din¶amica con dos escalas de tiempo caracter¶³siticas. Una breve, que est¶a asociada a los meca-
nismos de adaptaci¶ on propios de cada agente. La otra, m¶as prolongada (lenta) asociada con la
determinaci¶on del comportamiento asint¶otico de la din¶amica colectiva. La din¶amica relacionada a
esta constante de tiempo est¶ a guiada por valores agregados que act¶uan como referencia sobre el pro-
ceso de auto-organizaci¶ on. El modelo que hasta aqu¶³ hemos considerado corresponde a una suerte
de \aproximaci¶ on adiab¶ atica" en la que cada agente o grupo de agentes adapta frecuentemente
sus estrategias a indicadores colectivos o valores agregados \fundamentales" que var¶³an mucho m¶ as
lentamente y surgen a su vez del conjunto de las acciones de todos los agentes.
112 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
Dav (t)
S(t) = ¸S(t ¡ 1) + (1 ¡ ¸) (2.63)
Nag
En esta ecuaci¶on 2.63 las unidades de t est¶an expresadas en \semanas" de Nd d¶³as. El par¶ametro
¸(0 · ¸) · 1 es arbitrario y tan s¶ olo sirve para abarcar comportamientos con mayor o menor
\memoria" de lo acontecido en pasadas \semanas". Si se toma ¸ = 1, el valor de S(t) se torna
independiente del tiempo, y se cae en la situaci¶on analizada en las secciones anteriores en que
su valor es ex¶ogeno e independiente de la din¶amica del sistema. El otro extremo corresponde a
considerar ¸ = 0. En este caso el sistema se auto-organiza exclusivamente en base a valores de
S(t) generados end¶ ogenamente. La arquitectura con que posee este modelo es similar al de la
secci¶on anterior, el programa de concurrencias de cada agente se supone igualmente codi¯cado en
un \genoma". Para controlar la frecuencia con que los agentes adaptan sus estrategias supondremos
que cada \d¶³a" una dada fracci¶on ª de la poblaci¶on, seleccionada al azar, actualiza su programa
de concurrencia para los subsiguientes Nd d¶³as. Es decir que ª es la probabilidad de que un agente
sea seleccionado para actualizar sus estrategias, por lo tanto 1=ª mide una suerte de tiempo medio
de adaptaci¶on. Podemos introducir un \par¶ametro de adiabaticidad" A = Nd ª. S¶³ A ' 1 todo el
sistema actualiza sus estrategias durante el recorrido de los Nd \dias" de la semana. Un r¶egimen
de adaptaci¶on r¶apida corresponde a A > 1.
La primera pregunta que nos podemos formular es si la auto-organizaci¶on que emerja ser¶ a
robusta. Este proceso es debido a una din¶amica en la cual los aciertos o errores de los agentes
4.2. Mecanismos globales y locales de coordinaci¶on 113
se traducen en bene¯cios o costos que dependen del tiempo que utilizan en explorar la din¶ amica
alrededor del valor de referencia S1 (t). Si el valor absoluto del costo pagado por excederse es
menor que el premio por explorar y acertar, el proceso dar¶a lugar a concurrencias medias que
tiendan a valores altos. A continuaci¶on mostramos el resultado de diversas simulaciones. Para
presentar situaciones no consideradas anteriormente, nos limitamos a mostrar resultados obtenidos
con valores peque~ nos de ¸.
Un ejemplo de auto-organizaci¶on se muestra en las ¯guras 2.8 and 2.9. La diferencia entre
ambos experimentos es el valor de ª. El valor inicial de S1 (0) es el mismo en ambos casos y se
¯j¶o en un valor muy peque~ no. La estrategia de concurrencia inicial es determinada al azar con una
media de 0.5 . La adaptaci¶ on inicial produce la caida de la asistencia que corresponde a la reacci¶
on
agregada de los agentes dado el peque~ no valor de S1 (t). Cuando ª = 0:02 (¶o A = :2) la reacci¶ on
a ausente. La auto-consistencia se alcanza aproximadamente cuando t ' 10 semanas en
inicial est¶
ambos casos. El efecto del contagio se muestra en los gr¶a¯cos inferiores que reproducen las mismas
caracter¶³sticas cualitativas mostrardas en la secci¶on anterior.
Figura 2.8: Evoluci¶on con auto-consistencia, siguiendo la ecuaci¶on ?? con 400 agentes, pmut = :005;S1 (t =
0) = :1 y ¸ = 0:3. El premio por haber tomado la decisi¶ on correcta es 10 veces mayor que el costo por
la equivocaci¶on. Cada d¶³a el 20% de los agentes actualiza sus estrategias. Se produce una crisis ex¶ ogena
en el d¶³a 400 (t = 40). El primer gr¶a¯co (a) corresponde al caso sin contagio; el (b) con contagio; c) es el
n¶uumero de agentes actuando de acuerdo con el campo local. N¶ otese la recuperaci¶
on gradual que opera, en
comparaci¶ on con el modelo presentado en las secciones precedentes. A la derecha se amplican los primeros
per¶³odos de tiempo del proceso de auto-organizaci¶ on. El efecto del contagio incrementa el ruido y produce
la caida abrupta de la concurrencia cuando S1 (0).
Una segunda pregunta que podemos formularnos concierne a la estabilidad del estado
asint¶otico que se alcanza frente a perturbaciones ex¶ogenas (al estilo de las crisis que se produc¶³an en
la secci¶on anterior). Un \shock" ex¶ ogeno negativo podr¶³a corresponder a un \accidente" que fuerza
al bar a mantener por cierto tiempo sus puertas cerradas luego del cual reabre. Esta situaci¶ on
se simula cambiando (ex¶ ogenamente) el valor de S1 y manteni¶endolo bajo durante cierto intervalo
de tiempo m¶ as all¶
a del cual se admite su evoluci¶on de acuerdo a la ecuaci¶on 2.63 que motiva la
evoluci¶on auto-consistente. Esto se muestra en las ¯guras entre t = 40 y t = 60.
El contagio juega el mismo rol que en el estudio de las corridas bancarias, otorgandole al
sistema la posibilidad de que tenga lugar un crecimiento abrupto durante la transici¶on entre los
114 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
dos reg¶³menes. Con valores altos de ª se pueden visualizar claramente las etapas de \latencia"
y \p¶anico" subsecuente. Un resultado addicional interesante es que el per¶³odo de recuperaci¶ on
es gradual sin necesidad de incorporar suposiciones adicionales como debi¶o hacerse en la secci¶ on
anterior. La interpretaci¶
on es, sin embargo, la misma: la recuperaci¶on gradual de la con¯anza de
la capacidad de desempe~ no del bar. La velocidad de recuperaci¶on est¶a gobernada por raz¶on entre
el costo y el premio obtenido por error o acertar la decisi¶on y por la magnitud de la °uctuaci¶on.
Cabe destacar tambi¶en, que cuando la adaptaci¶on es lenta, la transici¶on al estado de p¶anico es m¶
as
abrupta. Lo que ocurre es que una nivel m¶as bajo de ª refuerza el efecto del contagio puesto que
en este caso el contagio es la u
¶nica posibilidad de adaptar la concurrencia en el corto plazo.
Figura 2.9: Los par¶ametros y las condiciones son las mismas que en la ¯gura precedente. La fracci¶on de
agentes que actualizan sus estrategias cada per¶³odo de tiempo es, en este caso, 2 %. N¶otece que la crisis no
se percibe si el contagio es excluido excepto por un incremento en las °uctuaciones. En este caso, el contagio
(gr¶
a¯co inferior) produce una brusca transici¶on.
Un simple aproximaci¶ on para entender la concurrencia asint¶otica es suponer que todos los
agentes act¶
uan en forma aleatoria y deciden en forma independiente con una probabilidad que
depende del conciente: R = C+ =C¡ entre el costo por excederse y el bene¯cio de asistir cuando el
nivel agregado es menor que el de referencia. Dada la probabilidad P (D) de una concurrencia D,
la capacidad evoluciona seg¶
un:
Para peque~ nos valores de ¸, P (D) es similar a una funci¶on sigmoide en ln(R), teniendo un cambio
abrupto cerca de R = 1. Adem¶ as, en ese l¶³mite, la funci¶on es independiente de la condici¶
on inicial
S1 (0) y el equilibrio s¶
olo depende de R. El efecto del contagio produce un transici¶on m¶as abrupto
entre una concurrencia plena y una despreciable, poniendo de mani¯esto que el efecto de manada
puede dar lugar a abruptos cambios de r¶egimen.
Figura 2.10: Se gra¯ca S1 (el valor asint¶otico de la cota superior) como funci¶on del log (R) y ¸ sin
(izquierda) y con (derecha) contagio. N¶otece el cambio de r¶egimen abrupto en R = 1.
El sistema que hemos considerado posee dos reg¶³menes estacionarios. Uno corresponde a estados en
el que los agentes contribuyen a auto-sustentar la coordinaci¶on; el otro es, en cambio, el \equilibrio
aut¶arquico" en el cual cada agente se aisla y desiste de concurrir al \bar". Las reglas de adaptaci¶
on
y aprendizaje son capaces de describir la evoluci¶on del sistema en cualquiera de las dos situaciones
y tambi¶en la transici¶ on entre ambos estados cuando se produce una se~ nal externa de alarma. No
es necesario efectuar suposiciones particulares sobre la conducta de los agentes antes o despu¶es
al momento en que se desencadena la crisis. Las reglas para la adaptaci¶on y el procesamiento
de la informaci¶ on son las mismas antes y durante la crisis. Si bien el modelo posee dos tiempos
caracter¶³sticos (el \d¶³a" y la \semana") los procesos adaptativos dan lugar a reg¶³menes intermedios
en los que ninguna de estos tiempos caracter¶³sticos prevalece.
El estudio de la \crisis" permite por otra parte efectuar un an¶alisis de la e¯cacia y duraci¶
on
de los recursos de adaptaci¶ on y aprendizaje de los agentes del sistema. Este punto es de particular
relevancia ya que en los estados estacionarios de equilibrio no se puede estudiar el transiente que
ocurre cuando el sistema se auto-organiza. La crisis, teniendo sus propios tiempos de evoluci¶ on,
somete al sistema a est¶³mulos brevemente espaciados que deben ser absorbidos y a los que los
agentes se ven obligados a adaptarse. El an¶alisis de la \salida" de la crisis bancaria argentina
sugiere la utilidad de incorporar procesos de aprendizaje en m¶as de una escala de tiempo, y parece
indicar la importancia de las \memorias" de acontecimientos previos, que in°uyen en la respuesta
ante impulsos.
116 Cap¶³tulo 4. Sistemas con agentes en interacci¶on: comportamientos emergentes
Proposici¶on: Existe una u¶nica estrategia mixta de equilibrio si todos los agentes eligen con la
misma probabilidad.
Demostraci¶
on: Sea p la probabilidad de asistir y (1 ¡ p) la de no asistir, en el equilibrio debe
cumplirse una \condici¶
on de indiferencia":
m¡1
X N¡1
X
i
®¢ CN¡1 pi (1 ¡ p)N¡1¡i = ® ¢ i
CN¡1 pi (1 ¡ p)N¡1¡i (2.66)
i=0 i=m
Si sumamos ambos miembros obtenemos el agregado sobre todas las posibilidades, entonces la suma
de uno:
N¡1
X
i i N¡1¡i
CN ¡1 p (1 ¡ p) =1 (2.67)
i=0
Entonces, por 2.66 y 2.67, debe cumplirse:
m¡1
X
i 1
CN¡1 pi (1 ¡ p)N¡1¡i = (2.68)
i=0
2
Pm¡1
Llamemos a i=0
i
CN¡1 pi (1 ¡ p)N¡1¡i = S(N; m; p) = 12 , y estudiemos su comportamiento:
(i) Se veri¯ca que:
(N ¡ 1)!pm¡1 (1 ¡ p)N¡m
S(N; m; p) = (1 ¡ p)N¡1 + (N ¡ 1)p(1 ¡ p)N¡2 + ¢ ¢ ¢ +
(N ¡ m)!(m ¡ 1)!
! 1 + 0 + ¢¢¢ + 0
@S m¡1
X
i
m¡1
X
= iCN¡1 pi¡1 (1 ¡ p)n¡1¡i ¡ i
(N ¡ 1 ¡ i)Cn¡1 pi (1 ¡ p)n¡2¡i =
@p i=1 i=0
m¡1
X m¡1
X
i¡1 i¡1
= CN¡2 p (1 ¡ p)N¡1¡i ¡ i
(N ¡ 1)CN ¡2 (1 ¡ p)
N¡2¡i
=
i=1 i=o
h m¡2
X m¡1
X i
j j N¡2¡j i
= (N ¡ 1) CN ¡2 p (1 ¡ p) ¡ CN¡2 pi (1 ¡ p)N¡2¡I =
j=0 i=0
m¡1 m¡1
¡(N ¡ 1)CN¡2 p (1 ¡ p)N¡m¡1 < 0
4.2. Mecanismos globales y locales de coordinaci¶on 117
Como se coment¶ o en el cap¶³tulo 2, los sistemas distribuidos o extendidos con agentes multiples est¶
an
formados por un conjunto de aut¶ omatas acoplados capaces de procesar informaci¶on en paralelo.
La forma m¶ as general de representar esta din¶amica de procesamiento es mediante las llamadas
redes booleanas o los aut¶omatas celulares [194]. Estos son operadores l¶ogicos elementales 1 que se
encuentran ubicados en una red de nodos o sitios. La entradas de cada nodo dependen de los estados
de los nodos vecinos. Las celdas pueden actualizar su estado de manera sincr¶onica o asincr¶ onica.
El procesamiento en paralelo de la informaci¶on supone pues, un alto grado de no-linealidad, que
puede dar lugar a comportamientos emergentes. Un ejemplo particularmente relevante es el modelo
N K [114] propuesto por Stuart Kau®man 2 y utilizado para estudiar algunos procesos de auto-
organizaci¶on en biolog¶³a evolutiva, en evoluci¶on bi¶otica y prebi¶otica as¶³ como en el estudio de los
procesos de cambio tecnol¶ ogico [?]. Los nodos o celdas de un aut¶omata celular se interpretan de
acuerdo al fen¶omeno que se pretende describir.
5.1 Aut¶
omatas Celulares y Mapas Acoplados
Un aut¶omata celular [194] consiste en un arreglo discreto de nodos o celdas i situados en un espacio
d-dimensional, que operan con una regla de actualizaci¶on local Á de¯nida sobre una vecindad local
de \radio" r. El tiempo se toma como una variable discreta. En cada instante el estado de cada celda
est¶a descripto por un car¶ acter que toma valores de un alfabeto A de k s¶³mbolos, convencionalmente
numerados por f0; : : : ; k ¡ 1g. El estado de la celda ubicada en el sitio i, en el instante t se denotan
por ¾ti , y la funci¶
on de actualizaci¶ i
on se escribe como: ¾t+1 = Á(¾ti¡r ; : : : ; ¾ti+r ). Pueden usarse
condiciones de contorno peri¶ odicas, abiertas o barreras absorbentes para poder describir sistemas
abiertos o disipativos. Cuando el espacio de estados no est¶a acotado por el alfabeto A y cada
aut¶omata admite un dominio de estados continuos, el sistema recibe el nombre de mapa acoplado.
El estado §t de un aut¶ omata celular en el momento t es una con¯guraci¶on de todo el arreglo, es
decir, §t 2 AN , donde N es el n¶ umero total de nodos del aut¶omata celular.
El tipo de sistemas que se desee modelar puede imponer la necesidad de incorporar alg¶ un
tipo de principio de conservaci¶ on local, como la materia, cantidad de movimiento, impulso angu-
lar, carga, contenido de informaci¶ on, recursos, etc. Todo principio de conservaci¶on local puede
ser expresado en t¶erminos de una ecuaci¶on din¶amica. Las ecuaciones en diferencias sobre una red
discreta pueden ser trabajadas e implementarse usando aut¶omatas celulares con reglas de actual-
izaci¶on apropiadas. Una clase importante de ecuaciones diferenciales no lineales que corresponde a
interacciones locales superpuestas a fen¶omenos de transporte son las de reacci¶ on-difusi¶on. Es posi-
1
Como por ejemplo las compuertas l¶ogicas AND, OR, XOR, NOR, o los operadores matem¶
aticos usuales.
2
N se re¯ere al n¶
umero de nodos, y K al n¶umero de entradas por nodo.
119
120 Cap¶³tulo 5. Sistemas distribuidos y series temporales
ble representar una ecuaci¶ on de difusi¶on por medio de un aut¶omata celular probabil¶³stico. En el
ap¶endice 5.1.2 mostramos c¶ omo se representa la ecuaci¶on de difusi¶on en t¶erminos de un aut¶omata
celular. Cabe recalcar la importancia de este ejemplo ya que la ecuaci¶on de difusi¶on simple da
lugar al movimiento Browniano estandar (basado en la distribuci¶on gaussiana). En la secci¶on 5.3
estudiaremos el comportamiento estad¶³stico de algunos mercados cambiarios suponiendo que su
evoluci¶on sigue un proceso estoc¶ astico an¶ omalo. Una hip¶otesis que puede hacerse es que a trav¶es de
alg¶
un tipo de aut¶ omata celular ser¶ a posible representar el proceso de intercambio que tiene lugar en
esos mercados. Por razones que se detallan m¶as adelante, es posible que los sistemas criticamente
auto-organizados puedan contribuir a esta representaci¶on (ver la secci¶on 5.2 y 5.3.5).
Se han utilizado aut¶ omatas celulares en numerosas aplicaciones; un modelo famoso es el
\Juego de la Vida" de Conway implementado en 1970. Cada agente puede estar en uno de dos
estados posibles: estar \vivo" o \muerto" y cambiar de estado de acuerdo a los estados de sus 8
vecinos (el arreglo consiste en un reticulado bidimensional). Un agente \vivo" permanece vivo si
tiene 2 ¶o 3 vecinos vivos, si no se muere por \aislamiento" o por \congesti¶on". Un agente \muerto"
se transforma en vivo s¶ olamente si hay exactamente 4 vecinos vivos. Este famoso aut¶omata celular
produce una enorme cantidad de patrones de evoluci¶on diferentes dependiendo de la con¯guraci¶on
inicial, tales como ciclos estables, movimientos en ciertas direcciones, la posibilidad de generar
nuevas estructuras organizadas, comportamientos ca¶oticos. Se ha podido demostrar que la din¶amica
del \juego de la vida" puede representar el funcionamiento de una computadora universal (v¶ease
la secci¶on 3.4.2). Trabajos recientes han demostrado que los c¶ umulos de actividad o \clusters"
de este aut¶omata celular poseen una distribuci¶on potencial. Los aut¶omatas celulares son tambi¶en
muy usados para modelar la din¶ amica de °uidos as¶³ como para estudiar las propiedades magn¶eticas
y las transiciones de fase de muchos sistemas f¶³sicos (Modelo de Ising y \Spin Glasses" [5]). En
otras ¶areas de aplicaci¶on han sido u ¶tiles para explicar el comportamiento del tr¶a¯co urbano de
autom¶obiles, la propagaci¶ on de incendios forestales y de epidemias, la difusi¶on de informaci¶on y el
lock-in de tecnolog¶³as.
La teor¶³a de la \percolaci¶ on" [183] es tambi¶en particularmente interesante. Esta teor¶³a de
ocupa de estudiar las propiedades geom¶etricas de las redes celulares desordenadas. Supongamos
que se dispone de un reticulado bidimensional y que los sitios del mismo se ocupan con una pro-
babilidad p o permanecen vac¶³os con probabilidad (1 ¡ p). Las probabilidades pueden depender
de la vecindad. Entonces en el reticulado se formar¶an \clusters" o \islotes" de sitios ocupados
vecinos entre s¶³. Existe una probabilidad cr¶³tica pc para la cual se formar¶a un \cluster" de tama~ no
in¯nito. Esto signi¯ca que, en esa probabilidad cr¶³tica, una red de tama~ no ¯nito tiene sus extremos
interconectados independientemente de su tama~ no. En estas circunstancias se dice que la red ha
\percolado". Podemos interpretar al fen¶ omeno de percolaci¶on como un comportamiento emergente
auto-organizado del sistema. Los modelos basados en la teor¶³a de la percolaci¶on son muy usados
para entender los fen¶ omenos de propagaci¶ on, como por ejemplo en la simulaci¶on de incendios fores-
tales o epidemias [176], la difusi¶ on de tecnolog¶³as, la propagaci¶on de se~
nales en un mercado [184],
etc.
Otros casos interesantes basados en el paradigma de los aut¶omatas celulares son los modelos
de criticalidad autoorganizada (o \modelo de la pila de arena") [20, 48, 21, 22]. Debido a su
relevancia, veremos con m¶ as detalle este tipo de modelos en la secci¶on 5.2 de este cap¶³tulo.
Para ¯nalizar esta introducci¶ on, es importante destacar que Wolfram [195] intent¶o realizar
una clasi¯caci¶on de los aut¶ omatas celulares, sin embargo muchos de ellos dan lugar a patrones
tan complejos que no es posible deducir propiedades anal¶³ticas. La desventaja principal de los
aut¶omatas celulares es que debido a la diversidad de conexiones entre agentes la estructura resul-
tante es muy di¯cil de estudiar y analizar. Los aut¶omatas celulares suelen estudiarse a trav¶es de
las simulaciones computacionales.
5.1. Aut¶omatas Celulares y Mapas Acoplados 121
una \probabilidad" de ocupaci¶on de un sitio en una red uni-dimensional discreta, donde cada sitio
distribuye su probabilidad sobre sus vecinos m¶as cercanos en el instante siguiente. Esta din¶amica
local puede describirse:
1
P (xi ; tj ) =
[P (xi¡1 ; tj¡1 ) + P (xi+1 ; tj¡1 )] (1.1)
2
Si restamos por P (xi ; tj¡1 ) en ambos lados, podemos construir la siguiente ecuaci¶on de diferencias.
1
P (xi ; tj ) ¡ P (xi ; tj¡1 ) = [(P (xi+1 ; tj¡1 ) ¡ P (xi ; tj¡1 )) ¡ (P (xi ; tj¡1 ) ¡ P (xi¡1 ; tj¡1 )] (1.2)
2
Considerando a ¢x = xi+1 ¡ xi y ¢t = ti ¡ ti¡1 entonces:
· ¸
¢P 1 ¢ ¢P
= (1.3)
¢t 2 ¢x ¢x
que en el l¶³mite ¢ ! @ da lugar a la ecuaci¶on de difusi¶on en una dimensi¶on, es decir:
@P @ 2P
=D 2 (1.4)
@t @x
donde la constante de difusi¶on D tiene unidades de Longitud2 tiempo¡1 y contiene al factor 12 en su
de¯nici¶on. La soluci¶
on anal¶³tica de esta ecuaci¶on de difusi¶on considerando que en t = 0 se cumple
x = 0 es:
1 2
P (x; t) = p e¡x =Dt (1.5)
4¼Dt
que es la distribuci¶
on de probabilidades de un movimiento Browniano simple.
La ecuaci¶on 1.4 es un caso particular de la ecuaci¶on general de difusi¶on:
@u(~x; t) ~ ¢ [k ru(~
~ x; t)] + F (~x; t)
=r (1.6)
@t
Esta ecuaci¶on permite considerar un proceso de difusi¶on anisotr¶opico y no homog¶eneo en
un n¶ umero arbitrario de dimensiones, dependiendo de la estructura de k = k(x! ; t). El t¶ermino F
permite considerar la presencia de fuentes y sumideros de aquel elemento que difunde.
Si k es constante, la ecuaci¶
on resultante es lineal y se puede resolver con los m¶etodos de la
Transformada de Fourier o Laplace. Los procesos de difusi¶on an¶omalos son casos en los que k no es
constante y el sistema produce estados no homog¶eneos que no puedan resolverse usando el principio
de superposici¶on, debido a la no linealidad inherente. Para tratar este tipo de procesos se deber¶³a
sondear en las caracter¶³sticas microsc¶ opicas del proceso difusivo. Los sistemas auto-organizados
cr¶³ticamente, que veremos a continuaci¶ on, corresponden a estos casos.
1) Lapsos muy breves: Corresponde a una escala de tiempos menores o del orden del tiempo
que dura cada colisi¶
on. En la analog¶³a econ¶omica, estos lapsos re°ejar¶³an los que transcurren
en la concertaci¶
on de cada transacci¶on.
3) Lapsos prolongados: abarcan una gran cantidad de procesos de relajamiento y dan lugar a
una serie temporal que corresponde a un paseo al azar. El proceso f¶³sico asociado a esta escala
de tiempo es el de la difusi¶on y puede describirse por la ecuaci¶on de Fokker - Planck u otras
ecuaciones de difusi¶on m¶ as sencillas como la ecuaci¶on de balance de Chapman - Kolmogorov.
En el an¶ alogo econ¶
omico este proceso se asocia con la marcha de serie temporal del precio
indicativo a lo largo de una o m¶as \ruedas" de mercado. Tanto en el proceso f¶³sico como
en el econ¶omico el paseo al azar puede presentarse superpuesto a tendencias o °uctuaciones
sistem¶aticas, determin¶³sticas o no, de m¶as largo plazo.
Las operaciones de un mercado s¶olo pueden representarse por medio de esta met¶ afora
din¶amica si se supone que todas las transacciones se realizan de manera secuencial y que, adem¶ as,
la operaci¶on que se realiza en un dado momento est¶a \causalmente vinculada" con las anteriores,
dicho ¶esto en el sentido que toda la informaci¶on producida por la anterior est¶a disponible para
la subsiguiente. Si se acepta esta met¶afora se est¶a suponiendo que el mercado deber¶³a estar re-
presentado por un u ¶nico par de agentes (un comprador y un vendedor), que realiza las sucesivas
transacciones siguiendo los dictados de informaci¶on que les llega al azar (en este sentido el mercado
posee pocos \grados de libertad").
124 Cap¶³tulo 5. Sistemas distribuidos y series temporales
Las operaciones en un mercado, analizadas con una \resoluci¶on" temporal elevada (es decir,
en lapsos su¯cientemente breves) no cumplen con esas premisas. Dicho de otra manera, no se puede
ignorar la \micro-organizaci¶ on" del mercado. Dos agentes actuando en un mercado dado pueden
no saber con precisi¶ on qu¶e otras transacciones se est¶an realizando en ese mismo momento y es
dable suponer que estos agentes pacten precios utilizando s¶olo la informaci¶on de las transacciones
de que tienen informaci¶ on, realizadas quiz¶a algunos minutos antes. El mercado debe pues supo-
nerse \extendido", o sea que en su seno pueden existir transacciones que no esten \causalmente
vinculadas" entre s¶³ en el sentido dado arriba a estos t¶erminos. Esta circunstancia permitir¶³a for-
mular una met¶afora din¶ amica algo m¶ as compleja denominada como \criticalidad auto-organizada"
que atribuye el \ruido 1=f " precisamente a la condici¶on de poseer una \extensi¶on espacial" y un
esquema de \vecindades" que permite restringir el v¶³nculo causal entre transacciones sucesivas.
Si se supone, consistentemente con la jerarqu¶³a de procesos sugerida m¶as arriba, que las
escalas de tiempo propias de la deriva son mucho mayores que dos cotizaciones consecutivas (sepa-
radas por un intervalo ¢t), ¶esta puede suponerse cancelada si en lugar de la serie de tiempos de los
precios se toma la de las variaciones r¢t (t) = [p(t)¡p(t¡¢t)]=p(t¡¢t) = ¢p(t)=p(t). La ocurrencia
de ruido 1=f en la serie r(t) signi¯ca que esa cancelaci¶on no es completa. Cuando esto ocurre las
series pueden ser consideradas como una generalizaci¶on del paseo al azar gaussiano. Corresponden
entonces a las distribuciones llamadas como \estables" que en general poseen un decaimiento m¶ as
lento que el gaussiano presentando \colas" potenciales, con varianzas y otros momentos de m¶as alto
orden que son divergentes (v¶ease la secci¶ on 5.3). Este tipo de paseos al azar no gaussianos tienen
an¶alogos din¶amicos en procesos difusivos llamados \an¶omalos" [35] que dan lugar a coe¯cientes de
difusi¶on inusualmente elevados que caracterizan a series con derivas persistentes.
Las distribuciones estables (la gaussiana es el caso particular de varianza ¯nita) poseen una
invariancia en la escala de tiempos.4 :
probabilidad{ vidas arbitrariamente largas. De este modo a¶ un cuando el efecto de cada proceso
individual pueda dar lugar a un relajamiento exponencial ¶este tiene lugar con diversas vidas medias
y su acci¶on concurrente puede dar lugar a los decaimientos m¶as lentos que se observan en la realidad.
Es posible examinar con mayor detalle la met¶afora din¶amica de los sistemas que exhiben
criticalidad auto-organizada. Dado que el sistema que se considera es abierto y extendido, los
aportes externos se traducen en perturbaciones locales sobre cualquiera de las unidades. El modelo
supone que la respuesta de cada unidad no es una funci¶ on lineal del est¶³mulo sino que se trata
de un fen¶ omeno \todo o nada" (\stick-slip" o adherencia - deslizamiento): si la perturbaci¶ on es
su¯cientemente d¶ebil la unidad afectada absorbe integramente dicha perturbaci¶on incrementando
tan solo localmente la \energ¶³a" (o tensi¶on interna) acumulada por esa perturbaci¶on local, pero
sin que suceda nada m¶ as. Si, en cambio, la perturbaci¶on supera un umbral la unidad disipa la
\energ¶³a o tensi¶
on" acumulada provocando perturbaciones sobre las dem¶as unidades vecinas a esta,
con las que interact¶ ua. Ellas a su vez pueden, siguiendo la misma ley, perturbar a otras dando
as¶³ lugar a una \avalancha" cuya duraci¶on y dimensiones espaciales dependen del estado de las
sucesivas unidades afectadas pudiendo inclusive alcanzar a cubrir todo el sistema. Con hip¶ otesis
muy generales acerca del mecanismo de las mutuas perturbaciones resulta que la respuesta global
del sistema a los est¶³mulos recibidos del exterior es auto-organizarse din¶amicamente en un estado
cr¶³tico, permitiendo avalanchas cuya distribuci¶on obedece a una ley de potencias con lo que no
se puede atribuir a las mismas ni dimensiones espaciales ni temporales caracter¶³sticas5 . En el
marco de este modelo las grandes \cat¶astrofes" no requieren ninguna hip¶otesis especial referida a
perturbaciones externas singulares, sino que se las puede suponer originadas a partir del mismo
mecanismo que eventos menores.
El modelo se formaliza mediante un aut¶omata celular que representa una idealizaci¶ on de
una \pila de arena". Los aportes externos son \granos de arena" que dan lugar a avalanchas como
se muestra en la ¯gura 2.1. La pendiente de la pila de arena en la i-¶esima ubicaci¶on se representa
por una variable discreta zi y se supone que cada sitio est¶a dispuesto en una grilla regular en la
cada uno posee nvec. primeros vecinos con los que interact¶ ua. En el caso en que la adici¶ on de un
nuevo grano mantenga el valor de zi por debajo del valor cr¶³tico z ¤ nada sucede. En el caso que
la adici¶on de un nuevo grano haga que zi > z ¤ se inicia una avalancha en la que el valor de los
respectivos zj se alteran seg¶un [20]:
La actualizaci¶on de todos los valores de zi en todos los sitios de la red se realiza de manera
6
sincr¶onica . La simulaci¶
on num¶erica de estos sistemas da lugar a funciones de distribuci¶ on de
la magnitud de los tama~ nos de las avalanchas y la duraci¶on las mismas que obedecen leyes de
potencias, permitiendo dar descripciones satisfactorias de muchos de los fen¶omenos mencionados al
comienzo 7 . El exponente de las mencionadas leyes depende s¶olo de propiedades estructurales del
sistema tales como del n¶
umero de vecinos (la dimensionalidad de la grilla que ocupan los elementos
del sistema), del grado de violaci¶
on de la conservaci¶on de los \granos de arena" en el momento
de la descarga, pero no de caracter¶³sticas del sistema tales como el tipo de interacci¶on que existe
5
Se puede decir que una funci¶ on posee una magnitud caracter¶³stica en alguna de sus variables, digamos x cuando
la funci¶ on es proporcional a e¡x=» siendo » la valor caracter¶³stico de la variable x, m¶as all¶
a del cual la funci¶
on se
despreciable. En general » surge a partir de la estructura de la funci¶ on de correlaci¶on espacial de los componentes
del sistema. Contrariamente, dicha funci¶ on no posee un valor caracter¶³stico en una de sus variables x cuando es
proporcional a x¡´ . Este tipo de ley de potencias hace que la funci¶ on sea libre de escalas bien de¯nidas sobre esa
variable x, por lo cual tiene lugar cierto grado de autosimilaridad.
6
La evoluci¶on descripta por la ecuaci¶on corresponde a al caso en que z ¤ = nvec. . Versiones \no conservativas"
analizan la posibilidad que zj2vec. (t + 1) < zj2vec. (t) + 1.
7
El ¶exito m¶as signi¯cativo de esta teor¶³a ha sido la descripci¶
on de la ley de Gutemberg { Richter que da la
distribuci¶ on emp¶³rica de sismos seg¶
un la energ¶³a liberada en cada uno [20].
126 Cap¶³tulo 5. Sistemas distribuidos y series temporales
Figura 2.1: Modelo esquem¶ atico de una \pila de arena unidimensional". Cada \sitio" de la pila
corresponde a una celda sobre el eje horizontal y cada cuadradito representa un \grano" de arena.
En esta ejemplo esquem¶ atico, la pila tiene una barrera absorbente a la derecha. Se representa el
agregado de un grano en la segunda columna y se supone que as¶³ se excede el valor critico. Las
sucesivas ¯guras a la derecha muestran el progreso de la \avalancha" que se genera de ese modo..
¡(1=¯)
PT (r = 0) = 1=¯
» T ¡1=¯ (2.10)
¼¯ T
Esta ley de potencias indica que no existe una duraci¶on caracter¶³stica y, tal como lo requiere
el mecanismo de critricalidad auto-organizada, se ven involucradas todas las posibles escalas de
tiempo. Los autores del modelo de criticalidad auto-organizada arguyen que la ley 2.10 necesaria-
mente implica que la serie temporal debe presentar ruido 1=f . Para ello comienzan por postular
que cada evento individual que \libera" una cantidad total A de \energ¶³a" en toda su vida presenta
una funci¶on de autocorrelaci¶ on que decrece exponencialmente c(t) = (A=T )e¡t=T . Si se supone
que todos los eventos poseen la misma intensidad inicial, debe suceder que A » T con lo que
S(f; A) = A=(1 + 4¼ 2 f 2 T 2 ) » T =(1 + 4¼ 2 f 2 T 2 ). El espectro de potencias de una serie producida
por la superposici¶
on independiente y concurrente de eventos de diversas vidas medias T (y distintas
intensidades A) debe expresarse como:
Z Z
P (T )T dT
S(f ) = P (T )S(f; A)dT » (2.11)
1 + 4¼f 2 T 2
Z 1=f
» P (T )T dT » f 2¡1=¯ (2.12)
Hemos ya comentado que las propiedades din¶amicas de largo alcance de muchos sistemas naturales
dependen de la evoluci¶ on de gran n¶ umero de subsistemas acoplados por interacciones locales entre
ellos. Estos sistemas extensos suelen exhibir comportamientos libres de escala, lo que implica que
tiene lugar la preservaci¶ on de alg¶
un tipo de simetr¶³a a trav¶es de los variados ¶ordenes de magnitud
sobre los cuales estos sistemas evolucionan. Ya observamos que esta invariancia de escala se pone
de mani¯esto cuando alg¶ un observable sigue una ley potencial. Exploramos a continuaci¶on la
posibilidad de que este tipo de comportamiento, libre de escala, tenga lugar tambi¶en en los sistemas
econ¶omicos, especialmente cuando se trata de un sistema sometido a precisas reglas de interacci¶on
como ocurre con los mercados ¯nancieros 8 .
Para ello, se estudian algunas propiedades estad¶³sticas de los mercados de divisas. Exis-
ten variados modelos de distribuciones de probabilidad que buscan describir el comportamiento
estad¶³stico de la evoluci¶ on de los precios de este tipo de mercados. Aqu¶³ nos basaremos en el
supuesto, de que dicha evoluci¶ on est¶a gobernada por las denominadas distribuciones estables. Es-
tas distribuciones se ponen de mani¯esto cuando el proceso estoc¶astico involucrado es un \vuelo
de L¶evy". La utilizaci¶ on de este modelo de distribuciones ser¶a justi¯cado a partir de los datos
emp¶³ricos. Estas distribuciones poseen algunas propiedades interesantes, como la autosimilaridad
de la serie temporal que describe el fen¶omeno. En t¶erminos f¶³sicos los procesos estoc¶asticos tienen su
origen en alg¶un tipo de proceso de difusi¶ on. Los \vuelos de L¶evy" se corresponden con los procesos
denominados como de difusi¶ on an¶ omala. Los p¶arametros estad¶³sticos que se obtienen del an¶alisis
de los mismos se relacionan con la \microestructura" de estos sistemas. En el presente trabajo se
realiza un an¶alisis exploratorio dirigido a estudiar las propiedades estad¶³sticas de diversos mercados
cambiarios; entre ellos, el de la moneda argentina entre 1970 y 1991.
8
La teor¶³a de los sistemas din¶
amicos sugiere que las °uctuaciones observadas en la econom¶³a pueden ser estudiadas
con modelos de baja dimensionalidad (pocos grados de libertad). Sin embargo, a¶ un no existe un teorema general
por que cual un sistema complejo de muchos grados de libertad pueda reducirse a uno de unos pocos. Si bien los
modelos no lineales pueden producir espectros de frecuencia que corresponden a se~ nales no peri¶
odicas, no son capaces
de reproducir los espectros altamente correlacionados como los observados en los sistemas reales [21].
5.3. Estudios estad¶³sticos: ruido 1=f , Distribuciones Estables y \Vuelos de L¶evy" 129
Muchos de los an¶ alisis de los mercados ¯nancieros se han basado en el supuesto, di¯cil de comprobar,
de que los mercados ¯nancieros son \e¯cientes". Se puede de¯nir a un mercado como \e¯ciente"
cuando sus precios re°ejan de manera apropiada toda la informaci¶on disponible hasta el instante en
que este es determinado. Un mercado opera bajo condiciones de e¯ciencia cuando la informaci¶ on se
descuenta en forma instant¶ anea (v¶ease Fama, 1970 [66]). La hip¶otesis de e¯ciencia lleva impl¶³cita
la idea de que no es posible de¯nir reglas de transacci¶on que brinden ganancias esperadas no nulas.
Sin embargo, seg¶ un el mercado que se analice, es m¶as o menos evidente que existir¶an fricciones que
nos llevan a concluir que estos no pueden ser considerados como estr¶³ctamente e¯cientes. Bajo la
hip¶otesis de e¯ciencia la adquisici¶on de informaci¶on no brindar¶a a un operador del mercado ninguna
ventaja comparativa.
No obstante, en los mercados real el valor de la informaci¶on depende de su dispersi¶ on y
de la extensi¶ on que estos mercados posean, por lo tanto la decisi¶on de qu¶e informaci¶on adquirir
depender¶ a pues, de la idea que cada agente tenga acerca de la e¯ciencia del mismo. El principal
impedimento que tiene este enfoque es que el grado de e¯ciencia de un mercado real resulta muy
dif¶³cil, por no decir imposible de determinar . Desde el punto de vista de Grossman y Stiglitz, 1980
[86] la hip¶ otesis de los mercados e¯cientes es una idealizaci¶on que es econ¶omicamente irreal, sin
embargo, puede servir como una marco de referencia u ¶til para entender el comportamiento de los
mismos. Una manera directa de conocer el grado de e¯ciencia de un mercado ser¶³a a trav¶es de la
observaci¶on minuciosa del proceso de decisiones individuales involucrado en la formaci¶on del precio
frente a la llegada de nueva informaci¶on. Puede suponerse que los mercados deben su volatilidad
a la heterogeneidad de los mecanismos de decisi¶on que utilizan los agentes del mercado. De todos
modos, parece claro que los operadores ¯nancieros incorporan en sus decisiones la informaci¶ on de
f¶acil acceso y procesamiento. Una de las conjeturas b¶asicas en buena parte de la literatura es que
los precios responden al \principio fundamental" del que se apoya Bachelier (1900) para sugerir que
los mercados ¯nancieros est¶ an gobernados por procesos estoc¶asticos caracterizados por un paseo
al azar (\random walk"). Toda la formulaci¶on de su teor¶³a se sostiene sobre la idea de que los
rendimientos est¶ an normalmente distribuidos.
Para que el movimiento de los precios de un activo ¯nanciero siga un paseo al azar, las
transacciones realizadas deber¶³an ser consistentes con lo que se denomina un \fair game", en el
cual la ganancia esperada de un especulador deber¶³a ser id¶enticamente nula. Un proceso v¶ alido
para recrear la situaci¶
on que tiene lugar en un \fair game", bas¶andonos en el principio fundamen-
tal de Bachelier, es una \martingala". Una \martingala" se de¯ne por el proceso estad¶³stico que
gobierna al precio pt seg¶un el cual: E(pt+1 =It ) = pt , donde E(pt+1 =It ) es el valor esperado del
precio en t + 1 dada la informaci¶on disponible en t. Entonces, la \mejor" predicci¶on del precio de
ma~nana, es simplemente el precio de hoy, donde el t¶ermino \mejor" se re¯ere a aquella predicci¶ on
que minimiza el error cuadr¶ atico medio de la predicci¶on. Una importante consecuencia de esto, es
que los cambios en precios de los activos no est¶an correlacionados, lo cual implica que no es posible
realizar predicciones sobre la base de alg¶
un predictor de los precios futuros basado en la secuencia
de los pasados. Si el rendimiento, de¯nido como rt+1 = pt+1 ¡ pt = pt+1 ¡ E(pt+1 =It ) es un \fair
game", entonces debe cumplirse que E(rt+1 =It ) = 0 (en general se trabaja con el logaritmo del
precio para que el c¶alculo de los rendimientos se haga en t¶erminos relativos). Esto signi¯ca que
si un grupo de compradores (o vendedores) piensa que el precio es bajo (o alto) sus compras lo
har¶an subir (o bajar). La expectativa del precio de ma~ nana dado el de hoy es el precio de hoy.
En este mundo, el u ¶nico cambio de precio posible es resultado del arribo de nueva informaci¶ on
entonces, el cambio de precios per¶³odo a per¶³odo ser¶³a aleatorio y estad¶³sticamente independiente,
de manera consistente con la llegada - aleatoria - de informaci¶on. En estas circunstancias es dable
suponer que los rendimientos de un per¶³odo son variables aleatorias independientes. Si se consid-
era que no han tenido lugar, durante el per¶³odo de an¶alisis, cambios de r¶egimen que modi¯quen
sustancialmente la estructura del mercado, se puede considerar adicionalmente que estas variables
130 Cap¶³tulo 5. Sistemas distribuidos y series temporales
aleatorias est¶an id¶enticamente distribuidas. Se tiene entonces: E(rt+1 =It ) = E(rt+1 ). Los modelos
basados en la hip¶ otesis de paseo al azar suponen adicionalmente, por razones operativas, que toda
la distribuci¶on es independiente de la informaci¶on disponible It y que ¶esta es adem¶as estacionaria.
Entonces f (rt+1 =It ) = f (rt+1 ) con la misma funci¶on de distribuci¶on para todo t; lo cual no nos
indica que la informaci¶ on pasada no tiene valor. Como la distribuci¶on de los rendimientos se pre-
supone estacionaria, los rendimientos pasados son la mejor fuente de informaci¶on para conocerla,
sin embargo, ¶estos no producen ninguna consecuencia sobre la futura evoluci¶on de los mismos.
Se puede a¯rmar que la combinaci¶on de las propiedades que se originan a partir de la
suposici¶on de que la evoluci¶on de los mercados ¯nancieros es consistente con los paseos al azar y,
por otro lado, el tratamiento de los ajustes basados en el an¶alisis de riesgo, ha dado importantes
resultados, especialmente en el estudio de la ¯jaci¶on de los precios de opciones ¯nancieras. Es por
esta raz¶on que se pone de mani¯esto la importancia de estudiar las propiedades de las funciones
de distribuci¶on que originan los rendimientos en estos mercados. Muchos modelos de formaci¶on de
precios de activos de capital dependen del conocimiento estas distribuciones. En general, se suele
suponer que el proceso estoc¶ astico es un movimiento Browniano, por lo que est¶a guiado por una
distribuci¶on normal 9 . En lo que sigue veremos que este tipo de distribuciones no se corresponde con
la que se mani¯esta en las observaciones de los datos, y que las distribuciones que gu¶³an al proceso
generador de rendimientos se asemeja, en una variedad de casos, a una distribuci¶on denominada
como \L¶evy - Estable", que se relaciona con los procesos estoc¶asticos llamados \vuelos de L¶evy".
Donde k es la variable conjugada asociada. L¶evy encuentra que la soluci¶on general de esta ecuaci¶on
tiene la forma 10 :
9
En su forma m¶ as estricta, la hip¶otesis de paseo al azar supone que los rendimientos se distribuyen de manera
independiente y est¶ an identicamente distribuidos. Una versi¶ on no tan restrictiva permite que la historia del proceso
pueda in°uenciar sobre las estrategias de inversi¶ on, pero descarta que sea posible utilizar e¯cientemente t¶ecnicas o
reglas de predicci¶ on determin¶³sticas (lineales o no lineales). Finalmente, la versi¶ on menos restritiva supone que no es
posible utilizar t¶ecnicas de predicci¶on lineales, como el an¶ alisis de regresi¶
on.
10
La expresi¶on m¶ as general de la funci¶on caracter¶³stica de una distribuci¶ on L¶evy - Estable es:
Pn (k) = ei¹k¡njkj
¯ (1+i®sgn (k)w(jkj;¯))
5.3. Estudios estad¶³sticos: ruido 1=f , Distribuciones Estables y \Vuelos de L¶evy" 131
¯
Pn (k) = e¡njkj (3.15)
Las distribuciones con este tipo funciones caracter¶³sticas se denominan distribuciones L¶evy Estables
y corresponde a un proceso estoc¶ astico llamado como vuelo de L¶evy.
Z +1 Z +1 X
1 q q q
i k x
p(k) = eikx p(x)dx = p(x)dx
¡1 ¡1 q=0 q!
1
X Z 1
(ik)q +1 q X (iq)q
= x p(x)dx = < xq >
q=0
q! ¡1 q=0
q!
@ (q) p(k)
) < xq >= (¡1)q jk=0 j = 0; 1; 2; ¢ ¢ ¢
@kq
En el caso de las distribuciones estables, como P (k) = pn (k) y p(k = 0) = 1 entonces vale
R +1n q
q q q
que < x (n) >= n < x > donde < x >= ¡1 x p(x)dx son los momentos de orden q de
la distribuci¶
on. Es por lo tanto posible calcular todos los momentos de la distribuci¶on de la
suma de variables por medio de las derivadas sucesivas de la funci¶on caracter¶³stica asociada
a la distribuci¶
on de una sola variable.
Z +1 Z +1
jp(k)j = j eikx p(x)dxj · jeikx jp(x)dx
¡1 ¡1
Z +1
= p(x)dx = 1 ´ p(k = 0)
¡1
Tengamos en cuenta que estudiar p(k) para valores cercanos al origen es an¶alogo a estudiar
la funci¶ on para x ) 1.
on de distribuci¶
4) La varianza, puede calcularse a partir de derivada segunda de p(k) en el origen, pero esta es
¯nita s¶olo si ¯ = 2 que corresponde a la distribuci¶on normal. Usando la propiedad 2) resulta
evidente que cuando ¯ < 2 la varianza es in¯nita. Esto signi¯ca que los saltos del paseo al
azar no poseen un tama~ no caracter¶³stico. Esta propiedad, denominada en la termodin¶ amica
estad¶³stica como una invariancia de escala, es di¯cil de corroborar a partir de datos emp¶³ricos
pues en la pr¶ actica las muestras son de tama~ no ¯nito y siempre es posible encontrar un
p
donde i = ¡1, y w(jkj; ¯) = tg (¼¯=2) si ¯ 6 = 1 , y w(jkj; ¯) = (¼=2)ln jkj ,si ¯ = 1. Se debe cumplir ¯ 2 (0; 2]
y ® 2 [¡1; 1]. El par¶ametro ¯ es el exponente caracter¶³stico de la distribuci¶ on que se asocia a la forma de su cola;
cuando m¶as peque~ no sea su valor, m¶as aguzada ser¶ a la distribuci¶
on. Los momentos de orden mayor que ¯ no existen.
El par¶
ametro ® mide el grado de asimetr¶³a de la distribuci¶ on, de manera tal que si es negativo la distribuci¶ on se
tuerce hacia la derecha, si es positivo, hacia la izquierda y si vale cero la distribuci¶
on es sime trica respecto del valor
de la media ¹.
132 Cap¶³tulo 5. Sistemas distribuidos y series temporales
Z +1 Z +1
1 ¯ 1 ¯ jkj¯
Pn (x) = e¡nj¢tkj e¡ikx dk = e¡n¢t cos(kx)dk ¼
2¼ ¡1 ¼ 0
Z +1 Ã ! Z +1 Ã !
1 ¡n¢t jvj¯
¯ 1 n¢t¯ jvj¯
¼ exp cos(v)dv = 1¡ cos(v)dv ¼
¼jxj 0 jxj¯ ¼jxj 0 jxj¯
Z +1 Z +1
n¢t¯ n¢t¯
¼¡ jvj¯ cos(v)dv = ¡ lim e¡²v jvj¯ cos(v)dv =
¼jxj¯+1 0 ¼jxj¯+1 ²!0 0
µ ¶
¼¯ n¢t¯
= ¡(1 + ¯) sin
ertxj¯+1
2 ¼·
donde ¢t representa la unidad de tiempo de los n pasa; la funci¶on gamma ¡(z) es:
Z +1
¡(z) = uz¡1 e¡u du, con z > 0,
0
Ejemplo
1 1
Pn (x) = (3.17)
¼n 1 + ( nx )2
Esta distribuci¶on no posee varianza ¯nita. Es f¶acil comprobar que posee una invariancia de escala
1 x
Pn (x) = P1 ( ) (3.18)
n n
El paseo al azar asociado cuyos saltos son una variable aleatoria cuya distribuci¶on es estable
y que no corresponde a la distribuci¶ on normal se denomina \vuelo de L¶evy". La densidad de
probabilidad del observable correspondiente posee una ley de potencias. El par¶ametro de \scaling"
o exponente cr¶³tico (¯) corresponde a la \rugosidad" de la funci¶on. Cuando ¯ = 2 y corresponde
al caso Gaussiano. El espectro de potencia de estas series tambi¶en sigue una ley de potencias en el
l¶³mite de muy bajas frecuencias (S(f ) / 1=f ´ con ´ = ¯2 + 1). La dimensi¶on fractal de Hausdor®
de la serie temporal correspondiente es: Df = 2 ¡ ¯1 [132].
5.3. Estudios estad¶³sticos: ruido 1=f , Distribuciones Estables y \Vuelos de L¶evy" 133
Z
1 +1 ¡n¢tjkj¯ ¡ikr
Pn (r; ¢t) = e e dk (3.20)
2¼ ¡1
Z
1 +1 ¡n¢tjkj¯
= e cos(kr)dk (3.21)
¼ ¡1
r Pn (r; ¢t)
rs = y Pn;s (rs ; ¢t) = (3.23)
(¢t)1=¯ (¢t)¡1=¯
En la ¯gura 3.5 se observa que, salvo eventos de gran amplitud (que son estad¶³sticamente
improbables), las distribuciones re-escaladas quedan perfectamente superpuestas en una u ¶nica dis-
tribuci¶on. Esto valida la tesis de la auto-similaridad temporal de la din¶amica de los mercados.
Esta propiedad nos brinda la evidencia de que las °ucutaciones de este tipo de mercado no poseen
ni amplitudes ni duraciones privilegiadas o caracter¶³sticas. Dicho en otras palabras, no existe un
valor m¶as probable para el alejamiento del precio de sus valores medios ni tampoco es de esperar
que dichos alejamientos sucedan con una dada periodicidad o que sus excursiones de alejamiento
de la media tengan una duraci¶ on m¶as probable. Salvo las consideraciones generales de la criti-
calidad auto-organizada, no existen hasta el momento hip¶otesis de trabajo razonables sobre las
razones \microsc¶opicas" sobre las que se asienta esta propiedad de invariancia. Una posibilidad es
que se la pueda atribuir a la heterogeneidad de las expectativas de los agentes que intervienen en
el mercado. Otra hip¶ otesis que se ha explorado en la literatura es suponer que existe una cierta
probabilidad que agentes a¯nes coordinen sus acciones de manera de actuar conjuntamente dando
lugar de esa manera a °uctuaciones de gran amplitud que son responsables de las \colas largas" de
la distribuci¶
on.
Para mostrarse que estos resultados son robustos se realizaron similares c¶alculos con otros
mercados cambiarios y burs¶
atiles. En la Tabla No. 1 se muestran los exponentes cr¶³ticos que hemos
obtenido junto con algunos otros que se han publicado.
136 Cap¶³tulo 5. Sistemas distribuidos y series temporales
(1) Tomado de MÄuller et al, 1990 [146], datos intradiarios (\tick by tick"), se utiliza otra metodolog¶³a para realizar
el c¶
alculo.
(2) Tomado de Lo, 1998 [126], se utiliza otra metodolog¶³a para realizar el c¶
alculo.
(3) Tomado de Evertsz y Berkner, 1995 [65], se utiliza otra metodolog¶³a para realizar el c¶
alculo.
Tabla No. 1
homogeneiz¶ o la serie usando alternativamente el tipo de cambio paralelo, libre o ¯nanciero, seg¶
un el
per¶³odo, como se muestra en la Tabla No. 2. Por otro lado se eliminaron los datos correspondientes
a los per¶³odos de tipo de cambio ¯jo. Con esta poda, la serie posee 3690 datos.
Paralelo 2/8/71-30/12/75;4/1/82-9/10/87;(19/5/89-14/12/89)
Libre (7/1/76-17/6/81);15/10/87-18/5/89;15/12/89-30/11/92
Financiero 18/6/81-23/12/81
Tabla No. 2
En las ¯guras 3.9 y 3.10 se gra¯can las distribuciones luego de realizado el \scaling", pero
utilizando las dos pendientes seg¶
un el ¢t que corresponda a cada caso.
Puesto que el escalado realizado es diferente en cada caso, la forma de las distribuciones
escaleadas lo ser¶
a tambi¶en seg¶
un el exponente cr¶³tico utilizado. Como se ha dicho, esto evidencia
un comportamiento din¶ amico diferente seg¶
un el intervalo de tiempo sobre el cual se calcula el
rendimiento.
ter¶³stico. Desde el punto de vista espacial, el sistema posee en el punto cr¶³tico una invariancia de
escala12 .
El comportamiento del sistema en las vecindades de un punto cr¶³tico no se ve afectado por
los detalles locales de su estructura. Por esta raz¶on se han podido agrupar sistemas muy diversos
con comportamientos semejantes en amplias clases de universalidad. Cada una se diferencia por
elementos muy fundamentales y gen¶ericos [110] del sistema, tales como el alcance de las interacciones
entre sus componentes, la dimensionalidad y grupo de simetr¶³a de su estructura, etc..
Los sistemas extensos pueden suponerse gobernados por un conjunto de par¶ametros de con-
trol. Cuando ¶estos toman determinados valores, el sistema puede ser llevado a un punto cr¶³tico.
En termodin¶ amica, el p¶
arametro de control por excelencia es la temperatura, y su valor cr¶³tico
puede, por ejemplo, ser el valor en que una muestra de material se congela o se equilibran sus fases
l¶³quida s¶olida y gaseosa. La cr¶³ticalidad auto-organizados corresponde a una propiedad din¶ amica
mediante la cual el sistema se ubica en un estado con todas las propiedades de invariancia de
escala que se mencionaron arriba sin necesidad de la \sintonizar" ning¶ un par¶ametro de control
(externo) en valores particulares. Para modelar un sistema cr¶³ticamente autoorganizado se emplea
una estrategia constructiva como las empleadas en esta tesis, es decir, simulando su evoluci¶ on me-
diante una din¶ amica de¯nida a partir de las interacciones entre sus componentes. Oportunamente
se~ nalamos que puede considerarse que todo observable asociado a la evoluci¶on de un sistema cuyo
espectro obedezca una ley de potencias (semejante al ruido 1=f ) est¶a cr¶³ticamente auto-organizado
(secci¶on 5.2). De esta interpretaci¶on se deducir¶³a que toda distribuci¶on estable de L¶evy revela que
la din¶amica del sistema se autoorganiza en una sucesi¶on de eventos (\avalanchas") sin duraciones
o dimensiones caracter¶³sticas.
En lo que sigue analizamos las °uctuaciones del precio de la cotizaci¶on del Franco Suizo
contra el D¶ olar de EEUU tomada de una serie temporal \tick by tick", esto es, operaci¶ on por
operaci¶on en el mercado electr¶ onico a lo largo de todo el tiempo de la rueda de operaciones y
cubriendo el per¶³odo comprendido desde el 20 de mayo de 1985 y el 12 de abril de 1991. La serie
conforma un total de 329.112 datos. Para encuadrar esta serie en el leguaje de las \avalanchas" se
supone que cada °uctuaci¶ on del precio: ¢p=p corresponde a la ocurrencia de un evento.
En la ¯gura 3.11 se representa la distribuci¶on de los tama~
nos de las \avalancha" del mercado
computando la cantidad N de eventos de una magnitud r = ¢p=p como funci¶on de r. El gr¶ a¯co
muestra una ley de potencias de pendiente 2:76 que se extiende por m¶as de dos d¶ecadas en el eje
12
V¶ease la secci¶
on 4.1 del cap¶³tulo 4.
140 Cap¶³tulo 5. Sistemas distribuidos y series temporales
Figura 3.12: Transformada de Fourier de la serie temporal correspondiente al precio promedio por
hora del mercado.
veces inconsistentes con los datos \fundamentales" de la econom¶³a y con la aparici¶on progresiva de
conductas de imitaci¶ on. Este punto de vista, basado en una met¶afora \ecol¶ogica", es consistente
con la existencia de agentes heterog¶eneos que conocen adecuadamente sus nichos pero no pueden
capturar el comportamiento del mercado en su totalidad. Cuanto mayor sea la extensi¶ on de un
mercado, mejores ser¶ an las condiciones sobre las cuales se desarrolla y ampl¶³a esa diversidad de
estrategias que, en t¶erminos termodin¶amicos, a su vez, \termalizan" la evoluci¶on de sus precios,
atenuando la posibildad de que se produzcan grandes °uctuaciones. Esta diversidad se mani¯esta
en las m¶ultiples escalas temporales con que operan los transactores de un mercado y en los diversos
mecanismos de formaci¶ on de expectativas.
En los modelos de formaci¶ on de precios de activos de capital convencionales (CAPM) toda
diferencia en los horizontes sobre los cuales los agentes optimizan, en las frecuencias de transacci¶on
o en los v¶³nculos se dejan de lado. Sin embargo, se ha visto aqu¶³ que no hay escalas de tiempo
privilegiadas en estos mercados. Es algo as¶³ como si hubiera una sucesi¶on incesante de estados
din¶amicos que producen un comportamiento emergente complejo que se pone de mani¯esto en la
invariancia de escala.
En la secci¶on en la que se analiza el mercado de la Libra Esterlina contra el D¶olar Americano
se mostraron valores de exponentes caracter¶³sticos calculados sobre otros mercados cambiarios y
¯nancieros y, en algunos casos, utilizando otras metodolog¶³as para el c¶alculo de ¯ (v¶ease la Tabla
No.1). La similitud que existe entre los valores que se resumen en la tabla, por un lado nos sorprende
y, por el otro, nos plantea la pregunta sobre el origen de esta regularidad emp¶³rica. Por lo general,
cada mercado posee un arreglo institucional determinado, que lo diferencia de los dem¶as, ya sea por
las reglas de la operatoria o por la composici¶on de los agentes que en ellos operan. Sin embargo, en
t¶erminos estad¶³sticos, la din¶
amica que subyace es la misma, ya que si suponemos que la evoluci¶ on
puede ser descripta por un proceso estoc¶astico caracterizado por un vuelo de L¶evy, las propiedades
de este paseo al azar son las mismas para todos los casos, y en diferentes instantes de tiempo,
puesto que el exponente cr¶³tico, determinante del tipo de evoluci¶on, es el mismo en todos los casos.
Esta a¯rmaci¶ on pareciera dar lugar a una suerte de \super-ley" que gobierna la din¶amica de los
mercados independientemente de las caracter¶³sticas de cada caso particular. La posibilidad de que
exista o no este tipo de \super-ley" es un tema que parece merecer una discusi¶on m¶as amplia en
futuras investigaciones.
De todos modos, la presencia de un proceso in°acionario persistente produce una anomal¶³a
que se pone de mani¯esto a trav¶es de la ruptura de la invariancia de escala temporal. Esta diferencia
142 Cap¶³tulo 5. Sistemas distribuidos y series temporales
en el comportamiento respecto de los mercados que funcionan en contextos estables nos sugiere que
esa \super-ley", de existir, tiene validez limitada. En este sentido, m¶as que pensar en la posibilidad
de que exista una ley general que rige el funcionamiento de los mercados, ser¶³a m¶as u ¶til suponer
que los mercados son sistemas din¶ amicos que pueden agruparse en \clases de universalidad". Este
es un concepto que surge de la Termodin¶amica Estad¶³stica y parte de la idea de que sistemas de
muy distinta ¶³ndole poseen caracter¶³sticas similares cuando alcanzan un punto cr¶³tico cercano a
una transici¶on de fase. La \hip¶ otesis de universalidad" a¯rma que todos los fen¶omenos cr¶³ticos 13 ,
es decir, todos los procesos que transcurren cerca de una transici¶on de fase, pueden ser divididos
en \clases" diferenciadas por la dimensionalidad del sistema y por el grupo de simetr¶³a de los
par¶ametros de orden. En cada \clase de universalidad", las propiedades cr¶³ticas de los sistemas
que la componen, son id¶enticas o, al menos, son una funci¶on continua de unos pocos par¶ametros
[110]. Si los mercados desarrollan su din¶ amica cerca de un estado cr¶³tico cabe preguntarse cu¶al es
el par¶ametro de control que los lleva invariablemente a ese punto. Durante los u ¶ltimos a~
nos se ha
barajado la hip¶ otesis de que muchos sistema naturales se auto-organizan cerca de un punto cr¶³tico
sin mediar par¶ametros de control que los conduzcan a ese estado. Esto signi¯ca que el estado
cr¶³tico es el u
¶nico atractor de la din¶ amica. Vimos que este tipo de sistemas han sido bautizados
con el nombre de sistemas cr¶³ticamente auto-organizados. En [20, 21, 22] se muestra una aplicaci¶ on
econ¶omica y en Dab¶ us et al [55], se plantea la posibilidad de que los procesos in°acionarios esten
auto-organizados criticamente). El ejemplo protot¶³pico de estos sistemas es la \pila de arena".
Vimos que la presencia de un proceso in°acionario persistente produce la ruptura de la
invariancia de escala temporal. La raz¶ on por la que esto ocurre se sustenta sobre dos ideas b¶asicas:
13
En Termodin¶ amica Estad¶³stica, cuando un sistema se encuentra en un punto cr¶³tico posee °uctuaciones que
tienen lugar en todas las escalas de magnitud, ya que la longitud de correlaci¶
on se hace in¯nita y por lo tanto todas
las escalas contribuyen a determinar el valor de las funciones termodin¶
amicas. Por esta raz¶
on, los fen¶
omenos cr¶³ticos
muestran una invariancia frente a cambios de la longitud de escala (Kadano®, 1976) [110].
Cap¶³tulo 6
Conclusiones
Cuando una se~ norita visit¶
o el estudio de Matisse dijo
\Est¶
a bien, pero los miembros de esta mujer son demasiado largos",
el artista respondi¶
o, \Madame, Usted est¶ a equivocada.
Esto no es una mujer, esto es una pintura".
E. H. Gombrich
Gran parte del contenido que se desarroll¶o en esta tesis ha consistido en describir varios
experimentos computacionales basados en el enfoque constructivo utilizando \agentes arti¯ciales
adaptativos". Estos experimentos exhiben patrones din¶amicos que surgen de la acci¶on colectiva
de sus componentes y no pueden ser entendidos en t¶erminos del comportamiento simple de cada
una de sus partes. Recordemos a continuaci¶on todos los t¶opicos desplegados en la tesis. Luego de
un cap¶³tulo introductorio en el que se mostraron los resultados m¶as relevantes de la teor¶³a de los
sistemas din¶ amicos complejos, se desarroll¶o un modelo muy simple en el que los agentes econ¶ omicos
formulan sus expectativas sobre el comportamiento futuro del sistema a trav¶es de dos mecanismos
posibles (uno de tipo \forward-looking" y el otro \backward-looking"). El modelo permit¶³a la mi-
graci¶on din¶amica entre ambos mecanismos seg¶ un la \performance" relativa de cada uno y el uso del
principio de m¶ axima entrop¶³a, que fue descripto con cierto grado de detalle. Si bien el modelo ten¶³a
una estructura sumamente simple se logr¶o mostrar que para diferentes valores de los par¶ ametros
pod¶³a tener lugar todo tipo de comportamiento din¶amico, ya sea convergencia a equilibrios, ciclos
l¶³mite, inestabilidades y hasta caos detemin¶³stico. El objetivo de este modelo era mostrar que
cuando se incorpora heterogeneidad en los mecanismos de formaci¶on de expectativas, la evoluci¶ on
del mismo puede dejar de ser mon¶ otono y simple a pesar de que las ecuaciones estructurales son
lineales. La complejidad que se deriva de estos resultados nos obliga a re°exionar sobre la impor-
tancia que tiene la forma en que se procesa la informaci¶on relevante en los mecanismos prospectivos
que necesariamente deben contener los modelos econ¶omicos.
La simplicidad de este modelo, que posee muy pocos grados de libertad junto al hecho de
que admita comportamientos extra~ nos nos permiti¶o considerar la relevancia de la teor¶³a del caos
en modelos econ¶ omicos discretos de pocas variables end¶ogenas. Nuestra cr¶³tica a la construcci¶ on
de modelos econ¶ omicos con caos determin¶³stico, mostr¶o que en muchas ocasiones la aparici¶ on de
este tipo de din¶ amicas es tan s¶olo un artefacto del modelo que no tiene ning¶ un correlato con la
din¶amica econ¶ omica que se desea estudiar.
Posteriormente, y sosteniendo la hip¶otesis de que el comportamiento de los agentes es por
lo general heterog¶eneo y que la coordinaci¶on no debe presuponerse se introdujo al lector en el
concepto de lo que denominamos como \Sistemas Econ¶omicos Desordenados". Tomados a partir
de un an¶alogo que surge en la f¶³sica te¶orica de materia condensada, mostramos que estos sistemas
tienen, como consecuencia de la propia din¶amica, comportamientos emergentes que dan lugar a
la auto-organizaci¶ on del sistema en su conjunto. Mostramos luego que, debido a las limitaciones
cognitivas que poseen los agentes econ¶omicos que tratan de realizar proyecciones sobre el sistema en
el que ellos act¶
uan y por razones instrumentales, es posible realizar una representaci¶on algor¶³tmica
de sus mecanismos de decisi¶ on. Los algoritmos evolutivos de aprendizaje y las redes neuronales
143
144 Cap¶³tulo 6. Conclusiones
resultan ser una representaci¶ on simpli¯cada de los mecanismos de aprendizaje de los agentes. Por
esta raz¶on se los describi¶
o en detalle.
Hecho esto, se construy¶ o un modelo computacional muy simple de intercambio descentrali-
zado en el que operan agentes arti¯ciales adaptativos que aprenden mediante algoritmos gen¶eticos.
El prop¶osito del modelo era entender los procesos de b¶ usqueda y relajaci¶on al equilibrio competi-
tivo sin realizar ning¶
un tipo de supuesto sobre c¶omo deber¶³an comportarse los agentes sino que se
permiti¶o que ¶estos puedan adaptarse e interactuar libremente sin imponer comportamientos pre-
establecidos. Se mostr¶ o que muchas veces, antes de alcanzar el equilibrio, el sistema pod¶³a transitar
por estados metaestables que larga duraci¶ on, avalando la idea de que muchas veces es necesario
entender a los sistemas econ¶ omicos a partir de sus estados transicionales y no tanto en t¶erminos de
sus estados de equilibrio.
Una vez estudiada, desde m¶ ultiples perspectivas, la representaci¶on del comportamiento de
los agentes econ¶ omicos cuando intentan pronosticar la evoluci¶on del sistema en el que operan, fue
necesario analizar la interacci¶on que tiene lugar entre ellos. La formulaci¶on de modelos internos
de apredizaje no alcanza para entender la din¶amica de un sistema econ¶omico ya que muchas veces
tienen lugar comportamientos relacionados con la propia interacci¶on, por ejemplo en los fen¶omenos
de contagio y los efecto de manada. Estas situaciones son particularmente relevantes en el estudio de
estados transicionales y cambios de r¶egimen. A lo largo del cap¶³tulo 4 se trataron estas cuestiones.
En una primera instancia, utilizando algunos resultados que provienen de la f¶³sica de materia
condensada, estudiamos la din¶ animca de un sistema en el que los agentes no tienen capacidad de
aprendizaje sino que est¶ an sujetos a la in°uencia local de las decisiones tomadas por otros agentes
que pertenecen a su vecindad, y as¶³ sucesivamente. Mostramos anal¶³ticamente que, en este tipo de
sistema, existen transiciones de fase que van del orden al desorden y viceversa, que existen estados
de se denominan como frustrados, que multiplican la cantidad de atractores globales del sistema.
Tambien se muestr¶ o a que cuando los par¶ametros tienen valores cr¶³ticos tales que el sistema se
encuentra en las cercan¶³as de una transici¶ on de fase, sus indicadores macrosc¶opicos observables se
comportan como leyes de potencias de tales par¶ametros.
M¶as adelante, en el mismo cap¶³tulo se mostr¶o construye un modelo que relaciona la inter-
acci¶on entre los mecanismos de difusi¶ on de expectativas y los procesos de aprendizaje individual.
El modelo nos permiti¶ o entender la relaci¶on que existe entre los mecanismos globales y locales de
coordinaci¶on de las decisiones tomadas por m¶ ultiples agentes. El esquema utilizado se basa en un
modelo desarrollado por Brain Arthur, denominado como \Bar Attendance Model". El modelo nos
permiti¶o estudiar los procesos de coordinaci¶on en condiciones de heterogeneidad con agentes locali-
zados espacialmente. El modelo construido es particularmente u ¶til para entender el funcionamiento
de muchos mercados en los que tiene lugar una suerte de \econom¶³a de aglomeraci¶on" en donde
los efecto de congesti¶on son uno de los determinantes de la din¶amica (por ejemplo, en las corridas
bancarias). El modelo integra el esquema de aprendizaje evolutivo utilizado en el cap¶³tulo 3 y los
resultados que se obtuvieron al estudiar el proceso de interacci¶on local entre agentes, al comienzo
de este mismo cap¶³tulo 4. Para realizar un estudio comparativo, se analiz¶o el proceso de auto-
organizaci¶on que tiene lugar con y sin interacciones locales. Primeramente se analiz¶o el modelo
¯jando el valor de los par¶ ametros ex¶ogenos relevantes y, posteriormente, se permiti¶o que alguno de
ellos pueda evolucionar como consecuencia de la propia din¶amica del sistema.
A lo largo del u¶ltimo cap¶³tulo se estudian, en un contexto m¶as general, a los sistemas dis-
tribuidos. A modo de ejemplo, se mostr¶ o c¶omo a partir de un aut¶omata celular es posible derivar
una ecuaci¶on macrosc¶ opica de difusi¶ on. Luego se realiz¶o una descripci¶on de los sistemas deno-
minados como auto-organizados cr¶³ticamente. Vimos que estos sistema de¯nen series temporales
que poseen un espectro de potencias que se denomina como ruido correlacionado 1=f . Esta es
una propiedad esencial de muchas series temporales naturales y econ¶omicas, como se muestra m¶ as
adelante. El proceso estoc¶ astico que da lugar a este tipo de series lleva el nombre de vuelos de
L¶evy y las distribuciones de probabilidad inherentes son las distribuciones estables. La vinculaci¶on
entre esta particular caracter¶³stica de muchas series temporales y los sistemas distribuidos no es
6.1. La mano invisible: De la perplejidad a la complejidad 145
arbitraria. Se trata de conocer a partir del estudio de series temporales ciertas caracter¶³sticas de
la micro estructura de estos sistemas. Y, a su vez, procuramos entender qu¶e tipo de serie tem-
poral tiene lugar para determinada estructura de interacciones locales en sistema con agentes en
interacci¶ on.
Utilizando, a modo de ejemplo, el an¶alisis de series temporales tomadas de la evoluci¶ on del
tipo de cambio de varios pa¶³ses se analizaron estas propiedades. Se mostr¶o estas series que poseen
la propiedad de autosimilaridad y que muchos indicadores observables se comportan como leyes de
potencias, tal como se demostr¶ o que ocurre en los sistemas distribuidos cerca de una transici¶ on de
fase. Para completar el estudio, se analiz¶o la evoluci¶on del tipo de cambio de la moneda argentina
mostrando que, debido a la deriva in°acionaria, tiene lugar una ruptura de la autosimilaridad o
invariancia de escala. Este comportamiento an¶omalo motiv¶o la formulaci¶on de varias conjeturas
que se enunciaron al ¯nal del cap¶³tulo.
Hemos intentado mostrar de manera ordenada que la descripci¶on de algunos sistemas a
partir del enfoque constructivo puede ser una herramienta de estudio u ¶til y que es posible recrear
algunos hechos estilizados que se ponen de mani¯esto en gran cantidad de sistema econ¶ omicos.
La ventaja fundamental de estos modelos, que se constituyen como un verdadero laboratorio de
an¶alisis, radica en el hecho de que es posible estudiar sus comportamientos en condiciones tanto
normales como extremas. No permiten tambi¶en comprender mejor c¶omo acontecen los cambios
de r¶egimen y estudiar sus estados transicionales. En general, los modelos de pocos grados de
libertad se conciben para estudiar una fase particular del sistema que se desea comprender. Con la
utilizaci¶on de modelos constructivos es posible estudiar las transiciones entre distintas fases en las
que se encuentran tales sistemas. Por esta raz¶on, este tipo de esquema model¶³stico est¶a llamado
a constituirse como una util¶³sima herramienta de apoyo de aquellos modelos que se estudian a
trav¶es de experimentos de interacci¶on con seres humanos, lo que se ha denominado como econom¶³a
experimental.
Para completar el estudio, se intent¶o, cuando fue posible, contrastar los resultados a los que
se llegaron con hechos estilizados obtenidos a partir del estudio de series temporales. Tal fue el
caso del estudio de la crisis bancaria del Tequila y de los mercados cambiarios en general.
modelos basados en esta idea no pueden dar lugar a comportamientos emergentes o efectos de largo
alcance a partir de interacciones descentralizadas y por lo tanto no puede haber posibilidad de que
existan ajustes de mercado auto-reguladores y end¶ogenos u otras formas de retroalimentaci¶on gob-
ernadas por mecanismos de adaptaci¶ on interna. Todav¶³a no se ha formulado un modelo adecuado
que muestre c¶omo funciona la tradicional \mano invisible" que, desde hace m¶as de 200 a~ nos, se
supone que opera.
El enfoque presentado en esta tesis, si bien preliminar, muestra una l¶³nea de investigaci¶on que
podr¶a ayudar a entender algunas de estas cuestiones fundamentales de la organizaci¶on econ¶omica.
Tal vez este tipo de modelos no sean tan rigurosos como los modelos hipotetico - deductivos ni
tengan la capacidad de ser contrastados con datos emp¶³ricos como ocurre con los modelos inductivos
que provee la econometr¶³a, sin embargo tienen la virtud de guiar nuestra intuici¶on y permitir
incrementar la comprensi¶ on de algunos hechos estilizados.
La teor¶³a de la complejidad computacional ha mostrado que muchos sistemas no pueden
reducirse a una representaci¶on anal¶³tica, sin embargo los economistas m¶as ortodoxos han supuesto
que los sistemas econ¶omicos deben ser estudiados a trav¶es de la construcci¶on de sistemas din¶amicos
de muy pocos grados de libertad. No existe aun un teorema general por que cual un sistema
complejo de muchos grados de libertad pueda reducirse a uno de unos pocos. Por otro lado,
los avances que han tenido lugar en computaci¶on permiten hoy estudiar sistemas din¶amicos de
much¶³simos grados de libertad. La ciencia econ¶omica est¶a comenzando en estos a~ nos a explorar
esta metodolog¶³a que abre una vasta gama de posibilidades.
El tratamiento que la ciencia econ¶omica ha hecho del tiempo ha sido hasta ahora bastante
limitado. El tiempo en tanto variable independiente que cuanti¯ca el ordenamiento de las acciones
econ¶omicas y vincula a las decisiones inter-temporales, deber¶³a ser, en s¶³ mismo, un tema de estudio
para la teor¶³a econom¶³a. Los modelos econ¶omicos usuales suelen suponer que el tiempo se sucede
de manera secuencial y que los agentes econ¶omicos trazan sus planes ¶optimos a partir de °ujos
temporales que siguen una forma consistente y sincronizada con los planes de otros agentes. Los
procesos de optimizaci¶ on y los modelos que suelen utilizarse no dependen de una unidad de tiempo
particular. En los mercados reales, los agentes econ¶omicos no operan en todos los instantes de una
rueda de mercado y, en todos los modelos, el cort¶³simo plazo queda fuera del an¶alisis econ¶ omico.
Adem¶as, como se ha mostrado en el modelo de coordinaci¶on por mecanismos locales y globales
(secciones 3.6 y 4.2), la adaptaci¶on y el aprendizaje involucran impl¶³citamente constantes de tiempo
y velocidades de ajuste distintas que las que corresponden al tiempo de¯nido por el reloj o el
calendario. Es sabido que cuando existen °uctuaciones macroecon¶omicas, los horizontes sobre los
cuales los agentes optimizan se modi¯can seg¶ un los niveles y frecuencias de las °uctuaciones. Por
ejemplo, en un contexto de alta in°aci¶on la velocidad con que se revisan los planes se altera seg¶
un su
nivel y es posible que se produzca una transici¶on que parte de una estructura de toma de decisiones
racional (basada en el uso de la informaci¶on disponible) hacia el ajuste autom¶atico \adaptativo"
[93]. La reducci¶ on del horizonte temporal, debido a la existencia de perturbaciones, lleva impl¶³cita
adem¶as una limitaci¶ on sobre la utilidad de la informaci¶on disponible del pasado. Durante estados
transicionales la memoria que se posee del comportamiento pasado del sistema pierde su utilidad
on 4.2.3 del cap¶³tulo 4.2) 3 . Entonces no queda claramente de¯nida una unidad de
(v¶ease la secci¶
tiempo subjetiva que rija la toma de las decisiones.
Algunos autores suponen que los mercados poseen un tiempo intr¶³nseco que poco tiene que
ver con el tiempo cronol¶ ogico [146]. Ellos a¯rman que cuando un mercado est¶a \deprimido" o
sea, cuando la frecuencia con que se realizan transacciones es baja, deber¶³a contraerse la unidad
de tiempo para el tratamiento anal¶³tico, mientras que en el caso contrario, cuando el mercado es
muy vol¶atil, la unidad de tiempo deber¶³a dilatarse. Estas teor¶³as ampliar¶³an la concepci¶on del
tiempo psicol¶ogico de los agentes al \tiempo psicol¶ogico del mercado". Una vez m¶as, y como
producto de la interacci¶
on de los agentes, tiene lugar la aparici¶on de un comportamiento emergente
que rige la din¶amica del agregado como un todo que surge de la auto-organizaci¶on de elementos
correspondientes a una jerarqu¶³a m¶as simple. Pensando a la econom¶³a en su totalidad como la
superposici¶on de muchos mercados acoplados, la \unidad natural" de tiempo involucrada en la
din¶amica agregada tampoco tendr¶ a una relaci¶on un¶³voca con el tiempo propio de cada mercado
particular. Podr¶³amos especular que el tiempo en los sistemas econ¶omicos (y tal vez en todos
los sistemas naturales) tiene una naturaleza telesc¶opica o fractal en el sentido que es necesario
redi¯nirlo seg¶
un el orden de magnitud sobre el cual se realiza el estudio.
Estas conjeturas altamente especulativas ponen en evidencia que el tiempo y su tratamiento
como tema en s¶³ mismo, no ha sido profundamente considerado en la teor¶³a econ¶omica. Quedar¶ a
para el futuro abordar esta tem¶
atica, por cierto apasionante y compleja.
3
Seg¶
un una ley formulada por Allais [2] la gente olvida a la misma tasa con que descuenta el futuro. Esta ley da
lugar a la existencia de un tiempo propio diferente del tiempo cronol¶
ogico.
148 Cap¶³tulo 6. Conclusiones
[2] Maurice, Allais (1966), A restatement of the quantitiy theory of money, American Economic
Review, december.
[3] Alchian, A. A. (1950), Uncertainty, Evolution, and Economic Theory, The Journal of Political
Economy, 3, june.
[4] Al¶e, M.(1998), Caos Deteminista, An¶alisis Econ¶omico y Posmodernismo Estret¶egico, Tesis,
Escuela de Econom¶³a y Negocios Internacionales, Universidad de Belgrano.
[5] Amit, D. J. (1989), Modeling Brain Function: The World of Attractor Neural Networks, Cam-
bridge University Press, cap¶³tulo 3.
[6] Anderson, P.W., Arrow, K.J & Pines D., The Economy as a Complex Evolving System, Addison
Wesley Publ. Co. (1988).
[7] Anderson, S. A., de Palma, A. y Thisse, J. (1992), Discrete Choice Theory of Product Di®er-
entiation, Cambridge, MA, MIT Press.
[8] Andreoni, J. and Miller, J.H. (1993). Auctions with Arti¯cial Adaptive Agents Working Paper.
[9] Arifovic, J. (1994), Genetic Algorithm Learning and the CobWeb Model, Journal of Economic
Dynamics and Control, 18, 3-28.
[11] Arthur, W. B. (1989), Competing Technologies, Increasing Returns, and Lock-In by Historical
Events, 97, Economic Journal, 642-665.
[12] Arthur, W.B. (1992), On learning and Adaptation in the Economy, Working Paper SFI, 92-
07-038.
[13] Arthur, W. B. (1994), Complexity in Economic Theory: Inductive Reasoning and Bounded
Rationality, AEA Papers and Proceedings, 84, 2, Mayo 1994, 406-411.
[14] Arthur, W. B. (1997), Incresing Returns and Path Dependence in the Economy, The Unversity
of Michigan Press.
[15] Axelrod, R. (1984), The evolution of cooperation, Basic Books, New York.
[16] Axelrod, R. (1987). The Evolution of Strategies in the Iterated Prisoner's Dilema, en L.Davis,
ed., \Genetic Algorithms and Simulated Annaling", Los Altos, California, Morgan Kaufmann.
[17] Axelrod, R. (1998), The complexity of cooperation: Agent Based Models of Competition and
Collaboration, Princeton Studies in Complexity, Princeton Univ. Press
151
152 BIBLIOGRAF¶IA
[18] Azariadis, C. & Guesnerie (1986), Sunspots and Cycles, Review of Economic Studies, 53,
725-736.
[20] Bak, P., Tang, C. & Wiesenfeld, K., Self-Organized Criticality, Physical Review A, 38, 364-374,
(1988).
[21] Bak, P., Chen, K., Scheinkman, J.A. & Woodford, M. (1993), Aggregate °uctuations from
independent sectoral shock: self-organized criticality in a model of production and inventory
dynamics, Ricerche Economiche, 47, 3-30.
[22] Bak, P., Paczuski, M. & Shubik M. (1996) Price Variations in a Stock Market with Many
Agents, mimeo, Agosto de 1996.
[23] Barucci, E., Landi, L. & Cherubini, U. (1996), Computational Methods in Finance: Option
Pricing, IEEE Computational Science & Engineering.
[24] Beltratti, A., Margarita, S. & Terna P. (1996) Neural Networks for Economic and Financial
Modelling, International thomson Computer Press.
[25] Benhabid J. (1992)(ed.), Cycles and Chaos in Economic Equilibrium, Princeton University
Press.
[26] Benhabid, J. & Nashimura, K. (1985), Competitive Equilibrium Cycles, Journal of Economic
Theory, 35, 284-306.
[27] Bhargava, S.C., Kumar, A. & Mukherjee, A. (1993), A Stochastic Cellular Automata Model of
Innovation Di®usion, Technological Forecasting and Social Change, vol. 44(1), 87-97.
[28] Binmore, K. (1987), Modeling Rational Players, Economics and Philosophy, 3, 179 - 214.
[30] Blanchard, O. J & Summers, L.H. (1987), Hysteresis in Unemployment, European Economic
Review, 31, 2, 288-295.
[31] Boldrin, M & Montrucchio, L. (1986), On the Indeterminacy of Capital Accumulation Paths,
Journal of Economic theory, 40, 26-39.
[32] Boldrin, M. & Montrucchio, L. (1989), On the Di®erentiability of the Policy function, Working
paper, UCLA.
[33] Boldrin, M. & Scheinkman J. A. (1988), Learning by doing , International Trade and Growth:
A Note en \The Economy as a Complex Evolving System"; Anderson, P.W., Arrow, K.J &
Pines D., Addison Wesley Publ. Co.
[34] Boldrin, M. & Woodford (1990), Equilibrium Models Displaying Endogenous Fluctuations and
Chaos: A Survey, Journal of Monetary Economics, 25, 189-222.
[35] Bouchaud, J-P. & Georges, A. (1990), Anomalous Di®usion in Disordered Media: Statistical
Mechanims, Models and Physical Applications, Physics Reports, 195, Nros. 4 y 5, 127-293.
[36] Bray, M. (1982), Learning, Estimation,and Stability of Rational Expectations, Journal of Eco-
nomic Theory, 26, 318 - 339.
[37] Brock, W. A. (1991), Understanding Time Series using Complex Systems Theory, University
of Wisconsin, Department of Economics, mimeo.
BIBLIOGRAF¶IA 153
[38] Brock, W. A., Hsieh, D. A. & LeBaron, B. (1993), Nonlinear Dynamics, Chaos, and Instability:
Statistical Theory and Economic Evidence, The M.I.T. Press.
[39] Brock, W. A. (1993) Pathways to Randomness in the Economy: Emergent Nonlinearity and
Chaos in Economics and Finance, University of Wisconsin, Department of Economics, mimeo.
[40] Brock, W. A. & Hommes, C. H. (1995), A Rational Route to Randomness, diciembre de 1995,
documento de trabajo.
[41] Broomhead, D. S. & King, G. (1986), Extracting Qualitative Dynamics From Experimental
Data, Physica 20D, 217-236.
[42] Bruun, C. (1996) A Model of Consumption Behavior using Cellular Automata Working Paper,
Department of Economics, Politics and Public Administration, Aalborg University, Dinamarca.
[43] Bullard, J. & Butler, A. (1993), Nonlinearity and Chaos in Economic Models: Implications
for Policy Decisions, The Economic Journal, 103, 849-867.
[44] Calomiris, C. & Mason, J. (1994), Contagion and bank Failures during the Great Depression:
The june 1932 chicago banking Panic, NBER Working Paper, Nov. 1994, Nro. 4934.
[45] Canarelli, P. (1995), Analysing the Past and Managing the Future Using Neural Networks,
Futures, 273,325-338.
[46] Cass, D. & Shell, K. (1983), Do Sunspot Matter?, Journal of Political Economy, 91, 193-227.
[48] Chen, K., Scheinkman, J., Bak P. & Woodford, M. (1992) Self-Organized Criticality and
Fluctuations in Economics, Working Paper 92-04-018, Santa Fe Institute.
[49] Chiappori, P. A. & Guesnerie,R. (1988), Self-Ful¯lling theories: The Sunspot Connection,
mimeo, Ecole des Hautes Etudes en Sciences Sociales, Paris.
[50] Clower, R & Leijonhufvud, A. (1975), The Coordination of Economic Activities: A Keynesian
Perspective, American Economic Review, 65 (mayO), 182 - 188.
[51] Conlisk, J. (1996), Why Bounded Rationality?, Journal of Economic Liturature, Vol. 34, Junio
1996, 669-700.
[52] cooper, R. nad John, A. (1988), Coordinating coordination failures in Keynesian Models, quar-
terly Journal of Economics, Ago. 1988, Vol CIII, no. 3.
[53] Crutch¯eld, Farmer & Huberman, B. (1982), Fluctuations and simple chaotic dynamics,
Physics Reports, vol 92, 45-82.
[54] D'Amato, L., Grubisic, E. & Powell, A. (1997), Contagion, Banks Fundamentals or Macroe-
conomic Shoch?: An empirical Analysis of the Argentine 1995 Banking Problems, mimeo.
[57] Day, R. H. (1994), Complex Economic Dynamics: An Introduction to dynamical Systems and
Market Mechanisms, MIT Press.
[58] DeLong B., Schleifer, A., Summers, L. & Waldmann, R. (1990), Noise trader risk in ¯nancial
markets, Journal of Political Economy, 98, 703-738.
[59] Diamond D. & Dybvig, P. (1983), Bank Runs, Deposit Insurance, and Liquidity, Journal of
Political Economy, 91(3).
[60] Dosi, G. & Kaniovski, Y. On \Badly Behaved" dynamics. Some applications of generalized urn
schemes to technological and economic change J.Evol.Econ. 4(1994) 93-123.
[61] Durlauf, S. (1989), Locally Interacting Systems, Coordination Failure and The Behavior of
Aggregate Activity, Department of Economics, Stanford University, mimeo.
[62] Epstein, J.M. & Axtell, R. (1996), Growing Arti¯cial Societies: Social Science from the Bottom
Up, The Brookings Institution Press y The Mit Press.
[63] Eubank, S. & Farmer, D. (1990), An Introduction to Chaos and Randomness, Lectures in
Complex Systems, Santa Fe Institute Studies in the Sciences of Complexity, Vol. II. Ed. E.
Jen, Addison-Wesley.
[65] Evertsz C.J.G. & Berkner, K., (1995), Large Deviation and Self-similarity analysis of graphs:
DAX Stock Prices, Chaos, Solitons & Fractals, Vol. 6, 121-130.
[66] Fama, E.F. (1970), E±cient Capital Markets: A Review of theory and Empirical Work, Journal
of Finance, vol. 25(2), 383-423.
[70] FÄomer, H. (1974), Random economies with many interacting agents, J. Math. Econ. 1, 51-62.
[73] Friedman, D. (1991), Evolutionary Games in Economics, Econometrica 59, pp. 637- 666.
[74] Frisch, R. (1933), Propagation Problems and Impulse Problems in Dynamic Economics, En
Economic Essays in Honour of Gustav Cassel. London: Allen & Unwin.
[75] Garey, M. R. & Johnson, D. S. (1979), Computers and Intractability: a guide to the NP-
completeness, Freeman, San Francisco.
[76] Glaesser, E. L., Sacerdote, B. & Scheinkman, J. (1996), Crime and social Interactions, Quar-
terly Journal of Economics, 11, 507-48.
[77] Glauber (1963), Time dependent statistics fo the Ising Model, Journal of Math. Phys., 4, 294.
BIBLIOGRAF¶IA 155
[78] Guesnerie, R. (1992), An exploration of the Eduction Justi¯cation of the Rational Expectations
Hypothesis, American Economic review, 82, 5, 1254-1278.
[79] Goldberg, D.E. (1989). Genetic Algorthms in Search, Optimization, and Machine Learning,
Addison Wesley Pub.Co.
[80] Goodwin, R. M. (1951), The Non-Linear Accelerator and the Persistence of Business Cycles,
Econometrica, 6, 12-36.
[81] Goodwin, R. M. (1967), A Growth cycle, en Feinstein, C. H.(ed.): Socialism, Capitalism and
Economic Growth, Essays Presented to Maurice Dobb. Cambridge University Press.
[82] Goodwin, R, M. & Pacini, P. M. (1992) Non-Linear Economic Dynamics and Chaos: An In-
troduction, en Macroeconomics: A Survey of Research Strategies, Eds.: Vercelli, A. & Dimitri,
N., Oxford University Press.
[83] Gorton, G. (1988), Banking Panics and Business Cycles, Oxford Economic Papers, 40, 751-
781.
[84] Granger, C.W.J. (1966), The Tipical Spectral Shape of an Economic Variable, Econometrica,
34(1).
[85] Grandmont, J. M. (1985), On Endogenous Competitive Business cycles, Econometrica, 53, pp.
995-1046.
[87] Guckenheimer, J. & Holmes, P. (1986), Nonlinear Oscilations, Dynamical Systems, and Bi-
furcations of Vector Fields, Springer-Verlag.
[88] Hamilton, J. D. (1989), A new approach to the economic analysis of nonstationary time series
and business cycle, Econometrica, 57, 357-84.
[89] Haugen, L., Talmor, E. & Torous, W. (1991), The e®ect of Volatility Changes on the Level of
Stock Prices and Subsequent Expected Return, Journal of Finance, vol. 463, 985-1007.
[90] Hayek (1945), The Use of Knoledge in Society American Economic Review, 35, 519-530.
[93] Heymann, D. & Leijonhufvud (1995), High In°ation Clarendon Press, Oxford.
[95] Heymann, D., Perazzo R.P.J., & Schuschny A. (1999), Price Setting in a Schematic Model of
Inductive Learning, en Money, Markets and Methods, Essay in honour to Robert W. Clower,
Howitt, P., de Antoni, E. & Leijonhufvud, A. (eds), Edward Elgar Pub. Co.
[96] Heymann ,D., Perazzo, R.P.J. & Schuschny, A. Mercados de divisas, invariancia de escala y
\vuelos de L¶evy", Anales de la XXXIII Reuni¶on Anual de la Asociaci¶on Argentina de Econom¶³a
Pol¶³tica, Mendoza, 11 al 13 de noviembre de 1998.
156 BIBLIOGRAF¶IA
[97] Heymann y Sanguinetti (1998), Pseudo Equilibrios de expectativas: Algunos Ejemplos Macroe-
con¶
omicos, Anales de la Asociaci¶
on Argentina de Econom¶³a Pol¶³tica, Mendoza.
[98] Hertz, J., Krogh, A. & Palmer, R.G. Introduction to the Theory of Neural Computation Ad-
dison Wesley Publ. Co. (1991)
[99] Hey, J. D. (1991) Coping with Dynamic Decision Making under Uncertainty, Handbook of
Behavioral Economics, vol. 2b, Behavioral Decision Making, (eds. Frantz, R., Singh, H &
Gerber, J.) JAI Press, London, pp. 295-307.
[100] Hildenbrand, W. (1971), Random references and equilibrium analysis, J. Econ. Theory, 3,
414-29.
[101] Hicks, J. R. (1950) A contribution to the Theory of the Trade Cycle, Oxford University Press.
[102] Hirshleifer, J. (1987), Economic Behavior in Adversity, The University of Chicago Press,
Chicago.
[103] Hobson, A. (1971), Concepts in Statitical Mechanics, Gordon and Breach Science Publishers.
[104] Holland, J.H.(1975). Adaptation in natural and arti¯cial systems. Ann Arbor: the University
of Michigan Press.
[105] Holland, J.H. & Miller, J.H. (1991). Arti¯cial Adaptive Agents in Economic Theory, American
Economic Review, Papers and Proceedings, 81, 365-370.
[106] Holland, J. H. (1996), Hidden Order: How Adaptation builds complexity, Helix Books.
[107] Hogg, T., Huberman, B. A. & Youssefmir, M. (1995), The Instability of Markets, Documento
de Trabajo, Junio 1995.
[108] Huang, K. (1987), Statistical Mechanics, 2nd. ed., John Wiley & Sons, pag. 394.
[109] Husband, P., Mill F. & Warrington (1991) Genetic Algorithms, Production Plan, Optimiza-
tion and Scheduling, 80-84
[110] Kadano®f, L.P. (1976) Scaling, Universality and Operator Algebras, Phase Transitions and
Critical Phenomena, 5A, Eds. Domb & Green, Academic Press.
[111] Kaldor, N. (1940), A Model of the Trade Cycle, Economic Journal, 50, 78-92.
[113] Katzner, D. (1993) Some Notes on the Role of History and the De¯nition of Hystersis and
Related Concepts in Economic Analysis, Journal of Post Keynesian Economics, 15, 3, 323-345.
[115] Kirchkamp, O. (1995), Evolution and Learning in Spatial Models, PhD Tesis.
[116] Kirman, A. P. (1992), Whom or What does the Representative Individual Represent ?, Journal
of Economic Perspectives, 6, 117-36.
[117] Kirman, A.P. (1995), Learning in Oligopoly: Theory, simulation, and Experimental Evidence,
Learning and Rationality in Economics, Eds. Kirman, A.P. & Salmon, Blackwell Pub.Co.
[118] Kirman, A. (1997), The Economy as an evolving network, Journal of Evolutionary Economics,
7.
BIBLIOGRAF¶IA 157
[119] Kirpatrick, S., Gelatt. C. D., Vecchi Jr., M. P. (1983),Optimization by Simulated Annealing,
Science, Vol. 220, No. 4598, 671-680.
[120] Klafter, J., Shlesinger, M. & Zumofen, G. (1996), Beyond Brownian Motion, Physics Today,
Febrero 1996, 33-39.
[122] Lapedes, A. & Farber, R. (1987) Nonlinear Signal Processing Using Neural Network: Predic-
tion and System Modelling LANL preprint LA-UR-87-2662.
[124] Lvy, P. (1937), Thorie de l'Addition des Variables Alatories, Gauthier-villars, Paris.
[125] Li, W. (1991), Absence of 1=f Spectra in Dow Jones Daily Average, International Journal of
bifurcation and chaos, 1, 3.
[126] Lo, A.W. (1997), Fat Tails, Long Memory, and the Stock Market since the 1960's, Economic
Notes by Banca Monte dei Paschi di Siena, Vol. 26, No. 2, 213-246.
[127] London, S. (1996), Una Nota acerca de los Modelos Econ¶ omicos con Din¶
amicas Ca¶
oticas,
Anales de la Asociaci¶
on Argentina de Econom¶³a Pol¶³tica, Salta, 1996.
[129] Lucas, R. E., Sargent, T. J. (1981) Rational Expectations and Econometrics Practice, Allen
& Unwin, Londres.
[130] Lucas, R. E. (1986), Adaptive Behavior and Economic Theory, Journal of Business, Vol. 59,
No. 4, pp. S401-S426
[131] Lux, T. and Marchesi, M. (1998) Scaling and Criticality in a Stochastic Multi-Agent Model
of a Financial Market, mimeo.
[132] Mandelbrot, B.B. (1982), The Fractal Geometry of Nature, Freeman Pub.Co.
[133] Mantegna, R.N. & Staley, H.E. (1995), Scaling Behaviour in the Dynamics of an Economic
Index, Nature, Vol. 376, No. 6, 46-49.
[134] Mantel, R. (1974), On the Characterization of Aggregate Excess Demand, Journal of Economic
Theory, 7, 3488-353.
[135] Mantel, R. (1976), Homothetic Preferences in Community Excess Demand Functions, Journal
of Economic Theory, 12, 197-201.
[137] Marengo, L. (1992), Structure, Competence and Learning in an Adaptive Model of the Firm,
Papers on Economics & Evolution No. 9203, European Study Group for Evolutionary Eco-
nomics.
[138] Marks, R.E. (1992),Breeding hybrid strategies: optimal behavior for oligopolist, Journal of
Evolutionary Economics, bf 2, 17-18.
158 BIBLIOGRAF¶IA
[139] May, R. M. & Nowak, M. A. (1992), Evolutionary Games and Spacial Chaos, Nature, 359,
826-829.
[140] May, R. M. & Nowak, M. A. (1993), The Spatial Dilemmas of Evolution, International Journal
of Bifurcatin and Chaos, 3, 35-78.
[141] Mezard, M., Parisi, G. & Virasoro, M. A. (1987) Spin Glass Theory and Beyond World
Scienti¯c Lecture Notes in Physics Vol 9, World Scienti¯c, Singapore (1987)
[142] Midgley, D.F., Marks, R.E. & Cooper, L.G. (1995), Breeding Competitive Strategies Work-
ing Papers, Marketing StudiesCenter, Anderson Graduate School of Managemente, Univ. of
California.
[143] Milgrom, P & Stokey, N. (1982), Information, Trade, and Common Knowledge, J. Econ.
Theory, 26, 439-452.
[144] Minsky, M. L. (1967), Computation: Finite and In¯nite Machines, Prentice-Hall, Englewood
Cli®s, N. J.
[145] Monod, J.(1993), El azar y la necesidad, Trad. cast. Tuskets, Buenos Aires, 5ta. Edici¶on.
[146] MÄuller, U. Dacorogna, M., Dav¶e, R., Pictet, O.. Olsen, R. & Ward, J, (1994), Fractals and
Intrinsic Time - A Challenge to Econometricians, Proceedings de la XXXIX International
Conference of the Applied Econometrics Association (AEA), Real Time Econometrics - Sub-
monthly Time Series, oct. 1993.
[147] Murray, J. D. (1993), Mathematical Biology, Second Edition, Biomathematics Texts, Volume
19, Springer-Verlag.
[148] Muth, J.F. (1961), Rational Expectations and the theory of price movements, Econometrica,
29, 315-335.
[149] Neftci, S. N. (1984), Are economic time series asymmetric over the business cycle?, J. Pol.
Econ., 92, 307-328.
[150] Nelson, C. & Plosser, C. (1982), Trends and Random Walks in Macroeconomic Time Series,
Journal of Monetary Economics, 10, 129-162.
[151] Nelson, R. & Winter (1982), An Evolutionary Theory of Economic Change, Harvard Univer-
sity Press.
[152] Noble, A.(1990), Using Genetic Algrotithms in ¯nancial Services en, Proceedings of the Two
Day International Conference on Forecasting & Optimization in Financial Services, october
3-4, London.
[153] Nyarko, Y. (1995), Convergence in Economic Models with Bayesian Hierarchies of Beliefs,
documento de trabajo.
[154] Olivera, J. H. G. (1970), On Passive Money, Journal of Political Economy, 78, 805-814.
[155] Olivera, J. H. G.(1995), The Unit of value Economic Notes by Monte di Paschi di Sierra, 24,
15-20.
[157] Packard, N. (1990), A Genetic learning algorithm for the Analysis of Complex Data, Complex
Systems, vol. 4, 543-572.
BIBLIOGRAF¶IA 159
[158] Palmer, R. (1989), Broken Ergodicity Lectures in the Sciences of Complexity, Stein, D. L.
(ed.), Proceedings of the 1988 Complex Systems Summer School held June-July 1988, in Santa
Fe, New Mexico, 275-300.
[159] Paredis, J & Van Rij, T. (1992) Intelligent Modelling, Simulation and Scheduling of Discrete
Production Processes, en Proceedings of the Computer Science and Operations Research, New
Developments in their Interfases, Pergamon Press.
[160] Perazzo, R.P.J., Reich, S., Schvarzer, J. & Virasoro, M.A., (1995): In°ation and Relaxation
to equilibrium in a Complex Economic System, Chaos, Solitons and Fractals, Vol. 6, 455-470.
[162] Piscitelli, L., Cross, R., Grinfeld, M. & Kamba, H. (1997), A test for strong hysteresis,
Documento de Trabajo.
[163] Pohjola, M. T. (1981), Stable, Cyclic and Chaotic Growth: The Dynamics of a Discrete-Time
Version of Goodwin's Growth cycle Model, Zeitschrift fur Nationalokonomie, 41, 27-38.
[164] Prigogine I, & Stengers, I. (1984), Order Out of Chaos: Man's New Dialogue with Nature.
Heinemann, London.
[165] Romer, P. M. (1992), Two Strategies for Economic Development: Using Ideas and Producing
Ideas, Proceedings of the World Bank Annual Conference on Development Economics, 1992.
[166] Rust,J., Miller, J.H. & Palmer, R. (1992). Behavior of Trading Automata in a computarized
double Auction Market, The Double Auction Market, Eds. D. Friedman & J. Rust; SFI Studies
in the Sciences of Complexity, Addison-Wesley.
[167] Sakoda, J. M. (1971), The checkerboard Model of Social Interaction, Journal of Mathematical
Sociology, 1, 119-132.
[168] Samuelson, P. A. (1957), Intertemporal Price equilibrium: A Prologue to the Theory of Spec-
ulation, Weltwirschaftliches Archiv. 79, 181-219.
[171] Sargent, T.J. (1993). Bounded Rationality in Macroeconomics, The Arne Ryde Memorial
Lectures, Clarendon Press - Oxford.
[172] Scheinkman, J. A. (1976), On Optimal Steady States of n-Sector Growth Models when Utility
is Discounted, Journal of Economic theory, 12, 11-30.
[173] Schelling, T. (1978) Micromotives and Macrobehavior, Fels Lectures on Public Policy Anal-
ysis, W. W. Norton & Company.
[174] Schuschny A., Perazzo R.P.J. & Heymann, D.(1997),Learning and Contagion E®ects in a
Schematic Model of Bank Runs Documento de trabajo (1997) y 2nd. International Conference
on Computational Economics, Stanford University, Palo Alto, USA.
[175] Schuschny, A. (1998), Sobre la relevancia de la Teor¶³a del Caos en los modelos econ¶ omicos
discretos Anales de la XXXIII Reuni¶on Anual de la Asociaci¶on Argentina de Econom¶³a Pol¶³tica,
Mendoza, 11 al 13 de noviembre de 1998.
160 BIBLIOGRAF¶IA
[176] Schuschny, A. (1998) El estudio del medio ambiente desde las teor¶³as de la complejidad,
Cap¶³tulo 2, Sistemas Ambientales Complejos: herramientas de an¶alisis espacial Ed. Matteucci,
S. y Buzai, G. Editorial Eudeba.
[178] Sejnowski, T.J. & Rosenberg, C.R. (1987), Parallel Networks that Learn to Pronounce English
Text, Complex Systems, 1, 145-168.
[180] Solow, R. (1956), Contributions to the Theory of Economic Growth, Quarterly Journal of
Economics, 70, 64-94.
[181] Solow, R. (1990), Goodwin's Growth Cycle: Reminiscence and Rumination, en Nonlinear and
Multisectorial Macrodynamics, Velupillai, K. (ed.), MacMillan.
[182] Stanley, M., Amaral, L. Buldyred, S., Havlin, S. Leschorn, H., Maass, P., Salinger, M. &
Stanley, H., (1996) Scaling Behavior in the Growth of Companies, Nature, Vol. 379, 804-806.
[183] Stau®er, D. & Aharony, A. Introduction to Percolation Theory 2da. ed.,Taylor and Francis,
Londres (1994)
[184] Stau®er, D. (1998), Can Percolation Theory be Applied to the Stock market? Annalen der
Physik, 1998.
[185] Stein, D. L. (ed.) (1992), Spin glasses and biology, World Scienti¯c.
[186] Taylor, S. (1986), Modelling Financial Time Series, John Wiley and Sons.
[187] Tasauro, G. & Sejnowski, T.J. (1988), A Neural Network that Learns to Play Backgammon,
Neural Information Processing Systems.
[188] Turing, A.M. (1937), On Computable Numbers, with an Application to the Entschei-
dungsaproblem Proceedings of the London Mathematical Society, Vol XLII, 230-265.
[190] Velupillai, K. (1994), Rationality and Learning in a Computable Setting: Part II: Computable
Learning, UCLA, Center for Computable Economics, Working Paper No. 16.
[191] Virasoro, M. A. (1991), On Studying the Brain as an Adaptive Disordered System en \Non
Linear Phenomena in Fluids, Solids and other Complex Systems" ed. by Cordero, P. & Nachter-
gaele, B. North Holland, Amsterdam.
[192] Weigend, A. S. & Gershenfeld, N. A. (eds.) (1994), Time Series Prediction: Forecasting the
Future and Understanding the Past, Proceedings of the NATO Advanced Research Worshop on
Comparative Time Series Analysis held in Santa Fe, New Mexico, May 14-17, 1992, Addison-
Wesley Publishing Co. Inc.
[193] Werbos, P. & Titus, J. (1978), An Empirical Test of New Forecasting Methos Derived from a
Theory of Intelligence: The Prediction of Con°ict in Latin America, IEEE Trans. Sys. Man.
Cyber. SMC-8 (9), 657-666.
[194] Wolfram, S. (1986), Theory and Applications of Cellular Automata, Worl Scienti¯c Publ. Co.
Singapore,1986
BIBLIOGRAF¶IA 161
[197] Woodford, M. (1989), Imperfect Financial Intermediation and complex dynamics, en Barnett,
W. A., Geweke, J. & Shell (eds.): Economic complexity: Chaos, Sunspots, bubbles, and
Nonlinearity, 309-334, combridge University Press.