Está en la página 1de 584

SIGUENOS EN:

LIBROS UNIVERISTARIOS Y SOLUCIONARIOS DE


MUCHOS DE ESTOS LIBROS GRATIS EN
DESCARGA DIRECTA

VISITANOS PARA DESARGALOS GRATIS.


http://librosysolucionarios.net
POLITEXT

Ricard V. Solé - Susanna C. Manrubia

Orden y caos
en sistemas complejos.
Aplicaciones

E D IC IO N S UPC
http://librosysolucionarios.net
Orden y caos
en sistemas complejos

Ricard V. Solé
Susanna C. Manrubia

Esta obra fue galardonada por la UPO en 1993

SEDICIONS UPC
UNtVERSfTAT POLITÉCNICA OE CATALUNYA

http://librosysolucionarios.net
A nuestros com pañeros del
Grupo de Sistemas C om plejos:
Jordi Bascompte. Jordi Delgado y
Bartolo Luque.
P o r todos los m om entos de
amistad y complejidad.

http://librosysolucionarios.net
Prólogo
¿Es el m undo predecible? ¿Existe un orden oculto detrás de los torbellinos de la turbulencia?
¿Es estable el sistem a solar? ¿Qué es el desorden? La respuesta a estas preguntas, planteadas por
los científicos desde hace mucho tiem po, ha sido motivo de profundéis discusiones y, no obstante,
se han derivado pocas conclusiones. Sin embargo, desde principios de los años 70, una nueva,
revolucionaria y sorprendente solución apareció b ajo el nombre de caos. Las consecuencias de este
descubrimiento fueron enormes. Gran parte del desorden que nos rodea resultó ser sólo aparente.
Detras de él se ocu lta un orden que podem os llegar a traducir en m odelos matemáticos simples, los
cuales han m odificado por com pleto la visión clásica de orden-desorden com o conceptos opuestos.
El caos determ inista es, sin em bargo, sólo una pieza (aunque especialmente bien com prendida)
de un enorme con ju n to de nuevos con ceptos que, genéricamente, se agrupan b a jo lo que conocem os
com o teoría de los sistem as complejos. La búsqueda de las leyes de lo com plejo se ha convertido,
en el final del siglo X X , en el ob jetivo de estudiosos procedentes de cam pos m uy diversos. Esta
búsqueda ha sido m u y difícil, pero en su curso se han generado nuevas teorías y modelos. Las redes
neurales, los autóm atas celulares, los ob jetos fractales o la criticalidad autoorganizada han per­
m itido formular, de form a simple, las primeras hipótesis generales. En este libro hemos intentado
recopilar (de form a introductoria) la m ayor parte de los m étodos e ideas im plicados. Es un libro
especial del que. hasta la fecha, no existe equivalente. Se ha procurado que el lector disponga de
las herramientas de partida para com prender los elementos básicos de la teoría. Este tratamiento
no ha sido exhaustivo (con objeto de no duplicar el tamaño del volum en) y, en este sentido, la
bibliografía citada al final de cada capítulo ha sido cuidadosamente escogida a fin de llenar los
posibles huecos.
La teoría de la com plejidad es una teoría aún en fase de crecim iento. Su com pleto desarrollo
requerirá décadas, pero no cabe duda de que es mucho lo que ya se ha logrado. Aunque el camino
a recorrer es largo y los retos muy numerosos, de algo sí podem os estar seguros: el primer asalto
a la fortaleza de la com plejidad ya ha empezado.

http://librosysolucionarios.net
Los autores desean agradecer a la Universitat Politécnica de Catalunya la concesión de una
ayuda para la elaboración de este texto en abril de 1994.

Son muchas las personas que han contribuido a nuestra form ación y con las que hemos tenido
el placer de com partir el entusiasmo por la teoría de la com plejidad. Nuestro más sincero agrade­
cim iento a Montse Aguadé, K osthva Anokhin, Jaume Baguñá, Per Bak, Michael Benton, Adolfo
Borraz. Vera Calenbuhr, Germinal Cocho. Alvaro Corral, A lbert .Díaz-Guilera. Esteban Domingo.
Jordi Flos, Nigel Franks, M arta Ginovart, Charles Godfray, José Manuel Gómez- Vilar. Brian G ood-
win, Deborah Gordon, Emilia Gutiérrez. Hermaun Haken, M ichael Hassell, Christian Holscher, Ku-
nihiko Kaneko, Daniel López, Ram ón Margalef, Norbert Martínez, Robert May, Liset Menéndez
de la Prida, O ctavio M iram ontes, Pedro Miramontes, M. E. J. Newman, Alexander Mikhailov.
Sundaram Parthasaraty, C onrad Pérez Vicente, Steven Rose, Miguel Rubí, Hernán Ruíz Bon.et.
Joan Saldaña, Ton Sales, Juan Manuel Sánchez. Jonathan Silvertown, Joan Manel Solé, George
Sugihara, Joaquim Valls, Esteban Vegas y Jorge Wagensberg. Y muy especialmente a las personas
con quienes pasamos la m ayor parte del día: a nuestros com pañeros del Grupo de Sistemas Com ­
plejos, a nuestras familias y a Ram ón e Isabel, de quienes hemos tom ado tiem po para escribir esta
obra.

http://librosysolucionarios.net
Indice

1 E ntropía, Inform ación y Com plejidad 15


1.1 R andom w a lk e r s ........................................................................................................................... 19
1.2 Entropía y C o m p le jid a d ............................................................................................................. 20
1.3 Entropía m áxim a y principios va riacion a les........................................................................ 23
1.3.1 Distribución u n ifo r m e ................................................................................................... 24
1.3.2 Distribución de B o ltz m a n n ....................................................................... 25
1.3.3 Caso general (n l ig a d u r a s ) ......................................................................................... 26
1.4 Sistemas alejados del e q u ilib rio ............................................................................................... 27
1.5 Información C o n ju n t a ................................................................................................................ 28
1.6 Información en canales con r u i d o ............................................................................................ 30
1.7 Determinación de la c a p a c id a d ............................................................................................... 32
1.8 Canal b in a r io ................................................................................................................................. 34
1.9 Información m utua y función de correlación ........................................................................ 35
1.10 Com plejidad: algunos co m e n ta r io s ........................................................................................ 37
1.11 Apéndice. Procesos e s t o c á s t ic o s .................. •........................................................................ 39

2 Sistem as D inám icos 43


2.1 Sistemas dinám icos c o n tin u o s ................................................................ 46
2.1.1 Sistemas lineales autónom os en R n .......................................................................... 46
2.1.2 Sistemas lineales autónom os en R 2 .......................................................................... 47
2.1.3 Ejemplos en R 3 ............................................................................................................. 49
2.1.4 Estabilidad en sistemas no lineales............................................................................ 52
2.2 El Principio de C ontrol ( Slaving P r in c ip i e ) ........................................................................ 61
2.2.1 O rg a n iz a c ió n .................................................................................................................... 61
2.2.2 A u fco o rg a n iz a ció n .......................................................................................................... 62
2.3 Funciones de L y a p u n o v ............................................................................................................. 65
2.4 Sistemas g r a d ie n te ........................... 67
2.5 Sistemas d i s c r e t o s ....................................................................................................................... 69

3 F r a c ta le s 77
3.1 Caracterización de los ob jetos fractales.................................................................................. 78
3.1.1 Dimensión de “ box-counting’* ................................................................................... 81
3.1.2 E je m p lo s ........................................................................................................................... 82
3.2 Fundamentos M atem áticos de la Geometría F r a c t a l ...................................................... 86
3.2.1 Teoría básica de c o n j u n t o s ........................................................................................ 86
3.2.2 Funciones y L ím it e s ...................................................................................................... 90
3.2.3 M edidas y Distribuciones de M a s a ........................................................................... 93
3.3 Sistemas de funciones iteradas (Iterated function systems, I F S ) ................................... 96

http://librosysolucionarios.net
10 Indice

3.3.1 Transformaciones d** semejanza en R 2 .............................................................. 97


3.3.2 E je m p lo s .......................................................................................................................... 98
3.3.3 El teorema del C o l l a g e ................................................................................................ 99
3.4 í.os conjuntos de Julia y de Mandelbrot .......................................................................... 100
3.4.1 Algebra elemental de los números com plejos. C ................................................. 100
3.4.2 Los conjuntos de Julia ................................................................................................ 104
3.4.3 El conjunto de M a n d e lb r o t ......................................................................................... 106
3.5 Fractales no deterministas ..................................................................................................... 110
3.5.1 M u ltifr a c ta le s ................................................................................................................. 112
3.5.2 Agregación limitada por difusión (D L A ) .............................................................. 116

4 A t r a c t o r e s P e r ió d ic o s y C u a s ip e r ió d ic o s 121
4.1 B ifu rca cion es............................................................................................................................... 122
4.1.1 Un único valor propio n u l o .............................................................................. 122
4.1.2 Bifurcación de P oin care-A ndronov-H opf................................................................. 126
4.2 La aplicación de P o in c a r é ........................................................................................................ 129
4.2.1 Función de d esp la za m ien to ........................................................................................ 131
4.2.2 Análisis cualitativo y numérico de la SP ............................................................. 133

5 C a o s D e t e r m in is t a 1 47
5.1 Atractores e x t r a ñ o s .................................................................................................................. 148
5.1.1 Lorenz: puntos críticos y estab ilid a d ...................................................................... 148
5.2 Duplicación de periodo: / M(x ) = f¿x (l — x ) ...................................................................... 152
5.3 Caos en sistemas d i s c r e t o s ..................................................................................................... 156
5.4 Exponentes de L y a p u n o v ........................................................................................................ 160
5.5 La aplicación tria n gu la r........................................................................................................... 162
5.6 Sistemas discretos : d > 1 ........................................................................................................ 163
5.7 El m odelo de H é n o n .................................................................................................................. 165
5.8 La transformación del p a n a d e r o .......................................................................................... 168
iO «O kO

.9 Mixing y e r g o d i c i d a d ............................................................................................................... 172


.10 Mixing en la ecuación lo g ís t ic a .............................................................................................. 174
.11 Caos determinista: d e fin ició n ................................................................................................. 175
5.12 Dinámica s i m b ó l i c a .................................................................................................................. 176
5.13 Caos en el operador a ( x ) ........................................................................................................ 179
5.13.1 Sensibilidad a la s condiciones in icia le s...................................................................... 179
5.13.2 Puntos periódicos d e n s o s ............................................................................................ 180
5.13.3 M i x i n g ............................................................................................................................. 181
5.14 Caos en la aplicación triangular .......................................................................................... 182
5.14.1 Puntos periódicos d e n s o s ............................................................................................ 183
5.14.2 Sensibilidad a las condiciones in icia le s ..................................................................... 184
5.14.3 M i x i n g ............................................................................................................................. 185
5.14.4 Consecuencias: Caos en f i x( l — x ) ........................................................................... 186
5.15 La herradura de S m a l e ........................................................................................................... 186
5.16 Universalidad en aplicaciones c u a d r á t ic a s ......................................................................... 189
5.17 Universalidad: aproximación de M a y -O s t e r ...................................................................... 192

http://librosysolucionarios.net
Indice 11

6 A n á lis is d e F e n ó m e n o s C a ó t ic o s 2 29
€.1 Función de a u to co rre la ció n ........................................................................................................ 231
6.2 Transform ada de F o u r ie r ........................................................................................................... 233
6.3 Teorem a de Whifcney y re co n stru cció n ................................................................................... 239
6.3.1 Elección de r para r e c o n s t r u ir .................................................................................. 244
6.4 Dimensión de c o r r e la c ió n ........................................................................................................... 245
6.5 Atractores extraños en electroca rd iogra m as......................................................................... 249
6.6 Limites fundamentales en u y A ¿ .............................................................................................. 250
6.7 Exponentes de Lyapunov : m étod o de W o l f ......................................................................... 255
6.8 La conjetura de K a p la n -Y o r k e ................................................................................................. 256
6.9 Detección de d e te rm in ism o ........................................................................................................ 258
6.10 C ontrol del c a o s ........................................................................................................................... 260
6.10.1 El m étodo O G Y ............................................................................................................. 261
6.10.2 C on trol de la aplicación de Hénon por el m étod o O G Y .................................... 264
6.10.3 El m étodo G M ................................................................................................................ 265
6.10.4 C on trol de la aplicación de Hénon por el m étod o G M ....................................... 265

7 F e n ó m e n o s C r ít ic o s 271
7.1 El M odelo de Is in g ........................................................................................................................ 274
7.1.1 El M odelo de Ising .................................................................................... 274
7.1.2 Exponentes críticos y u n iv e r s a lid a d ....................................................................... 275
7.1.3 Ising en 1 dimensión: G rupo de R en orm alización ................................................ 279
7.1.4 Ising en 2 dimensiones: Teoría de Cam po M e d i o ................................................ 282
7.1.5 El m odelo de Ginzburg-Landau .............................................................................. 286
7.1.6 La teoría de L an dau ................................ '..................................................................... 288
7.1.7 Ising en 2 dimensiones: Renormalización en el Espacio R e a l ........................ 289
7.1.8 Simulación del m odelo de Is in g ................................................................................. 290
7.2 P e r c o la c ió n ..................................................................................................................................... 295
7.2.1 Solución exacta en una d im e n s ió n ........................................................................... 296
7.2.2 Exponentes c r í t i c o s .................................................. 298
7.2.3 Percolación en dos dimensiones: renormalización enel espacio r e a l .....................300
7.3 Conclusiones e im p lic a c io n e s .................................................................................................... 303

8 S is te m a s C r ít ic o s A u t o o r g a n iz a d o s 305
8.1 Leyes de e s c a la .............................................................................................................................. 305
8.2 Sistemas críticos autoorganizados ( S O C ) ............................................................................ 309
8.2.1 La pila de a r e n a ............................................................................................................. 310
8.3 El bosque en llamas (Forest F i r e ) .......................................................................................... 313
8.4 T e r r e m o t o s ..................................................................................................................................... 317
8.4.1 Teoría de Campo M edio para el tiempo de r e t o r n o ............................................ 318
8.4.2 Un m odelo sencillo ...................................................................................................... 321
8.5 El Juego del B o s q u e ..................................................................................................................... 322
8.5.1 El m o d e l o ...................................................................................................................... 323
8.5.2 R e s u lt a d o s ...................................................................................................................... 326
8.6 Un m odelo de m o d e l o s .............................................................................................................. 332
8.7 La predicción en SOC. C o n clu s io n e s.................................. 334

http://librosysolucionarios.net
12 Indice

9 A u t ó m a t a s CeluLares 337
9.1 Autómatas celulares d eterm in ista s........................................................................................ 338
9.2 Shigamare: ondas en el b o s q u e ............................................................................................... 340
9.3 Caracterización c u a lit a t iv a ..................................................................................................... 341
9.4 Caracterización c u a n t it a t iv a .................................................................................................. 342
9.5 Com putación, autómatas y ienguajes f o r m a l e s ................................................................ 348
9.6 L ife: com putación universal ........................................................................................... 350
9.7 Parámetro A de L a n g t o n ......................................................................................................... 353
9.8 Autómatas celulares y m edios excitables ........................................................................... 355

10 E s tr u c tu r a s d e T u r in g y C a o s E s p a c io t e m p o r a l 361
10.1 Procesos de d ifu s ió n ................................................................................................................... 363
10.2 La ecuación de d if u s i ó n ............................................................................................................ 365
10.3 Soluciones para dtu — D d ^ u .................................................................................................. 367
10.4 Estabilidad de las s o lu c io n e s .................................................................................................. 369
10.5 M odelos de re a cció n -d ifu sió n .................................................................................................. 369
10.5.1 Estructuras disipativas: el B ru sselator.................................................................... 371
10.5.2 Gradientes y p o l a r i d a d ............................................................................................... 374
10.6 Bifurcación de estructuras estacion a rias.............................................................................. 375
10.7 M odelo de G ie re r-M e in h a rd t.................................................................................................. 376
10.8 Estructuras bidimensionales .................................................................................................. 380
10.9 Redes acopladas y caos espaciotem p oral.............................................................................. 384
10.10 Redes logísticas ......................................................................................................................... 385
10.11 Bifurcaciones: análisis fo r m a l.................................................................................................. 388
10.12 Exponente de Lyapunov e s p a cio te m p o ra l........................................................................... 390
10.13 Supertransitorios y caos e s p a c ia l........................................................................................... 393
10.14 Com petencia y caos espaciotemporal ................................................................................. 396
10.15 Ondas espirales en redes a cop la d a s........................................................................................ 400

11 R e d e s d e K a u ffm a n 4 07
11.1 C ontrol de la expresión genómica ........................................................................................ 408
11.2 Regulación com pleja, m odelos s im p le s ................................................................................. 410
11.3 Redes de K a u ff m a n ................................................................................................................... 413
11.4 Propiedades dinámicas ............................................................................................................ 415
11.4.1 Redes K = N ............................................................................................................... 415
11.4.2 Redes K > 5 ................................................................................................................... 416
11.4.3 Redes K = 1 ................................................................................................................... 417
11.4.4 Redes K c ~ 2(Orden colectivo espontáneo) .......................................................... 417
11.5 Mecánica estadística: m étodo de D e r r i d a .......................................................................... 419
11.6 Percolación: red b id im e n sio n a l.............................................................................................. 421
11.7 Redes de Kauffman g e n e r a liz a d a s ....................................................................................... 422

12 E v o lu c ió n , C r it ic a lid a d y E x tin c io n e s 427


12.1 Extinciones y m acroevolución .............................................................................................. 429
12.2 La hipótesis de la Reina R o j a ................................................................................................. 432
12.3 Criticalidad, fractales y e v o l u c i ó n ....................................................................................... 436
12.4 M odelo de Kauffman ............................................................................................................... 438
12.5 M odelo de Bak-Sneppen ........................................................................................................ 440
12.5.1 Teoría de cam po m e d i o ................................................................................................ 442
12.6 M odelos con extinción explícita ........................................................................................... 445

http://librosysolucionarios.net
Indice 13

12.7 Evolución, caos y c o n tin g e n c ia .............................................................................................. 449

13 R e t r o v ir u s y C u a s ie s p e c ie s : E n tre e l O r d e n y e l C a o s 455
13.1 Información genética ............................................................................................................... 455
13.2 Variabilidad en re tro v iru s ......................................................................................................... 456
13.3 Dinámica de replicación m o le c u la r ........................................................................................ 457
13.4 Replicación con error: c u a s ie s p e c ie s ....................................................................................< 462
13.5 La catástrofe de e r r o r ............................................................................................................... 465
13.6 Virus y la organización del sistema inm un itario.................................... 468
13.7 SIDA: en el umbral de diversidad ........................................................................................ 470
13.8 Dinámica básica y umbral de d iv e r s id a d ............................................................................. 471
13-9 D {v\ , t)„) com o función de L y a p u n o v ............................................................................. 474
13-10 SIDA y evolución de poblaciones C D 4 ................................................................................. 475
13.11 Hiperciclos y evolución molecular ........................................................................................ 476

14 B io d iv e r s id a d , F r a g m e n ta c ió n d e l H á b it a t y E x t in c ió n 481
14.1 M odelo de L e v i n s ...................................................................................................................... 481
14.2 Com petencia entre dos especies ........................................................................................... 482
14.3 Com petencia m u ltie s p e c ífic a .................................................................................................. 483
14.4 Destrucción del hábitat y c o e x is te n cia ................................................................................. 485
14.5 Fragmentación y fenómenos c r í t i c o s .................................................................................... 487
14.6 La deuda de la e x t i n c i ó n ......................................................................................................... 492

15 N e u r o d in á m ic a 495
15.1 Atractores extraños en sistemas neurales ...................................................................... 496
15.2 Sistemas neurales y duplicación de p e r i o d o ...................................................................... 500
15.3 Oscilaciones y caos en el cortex c e r e b r a l............................................................................. 501
15.4 Control de caos en el c e r e b r o .................................................................................................. 506
15.5 Control de caos en redes n e u r a l e s ........................................................................................ 508
15.6 M odelo de H o p f i e l d .................................................................................................................. 510
15.6.1 M odelo teórico : d i n á m i c a ........................................................................................ 511
15.6.2 Función e n e r g í a ............................................................................................................. 515
15.6.3 Red de Hopfield estocá stica ........................................................................................ 517
15.7 Capacidad de la red estocástica ........................................................................................... 518
15.8 Retropropagación (back propagation) 521
15.9 La máquina de B o lt z m a u n ............................. 524
15.10 Redes con in te rm e d ia rio s ......................................................................................................... 529
15.11 Transiciones de fase en el cerebro ....................................................................................... 532

16 R e d e s N e u ra le s F lu id a s 541
16.1 Dinámica de la distribución colectiva ................................................................................ 544
16.2 C om portam iento probabílista: la estrategia del e r r o r ...................................................... 545
16.3 Termitas y orden por fluctuaciones........................................................................................ 548
16.4 Oscilaciones y redes neurales f lu id a s .................................................................................... 551
16.5 Información y transiciones de f a s e ....................................................................................... 555
16.6 Hormigas y máquinas de T u r í n g ........................................................................................... 559

http://librosysolucionarios.net
14 Indice

17 Caos Ham iltoniano 565


17.1 La mecánica de Hamilton y J a c o b i....................................................................................... 565
17.2 Sistemas dinámicos in te g ra b le s ............................................................................................. 569
17.3 T eoría de p e r tu r b a c io n e s ....................................................................................................... 572
17.4 Resonancias y el teorema K A M .......................................................................................... 575
17.5 El teorema de P oin ca re-B irk h off.......................................................................................... 576
17.6 C aos en el Sistema S o l a r ....................................................................................................... 580
17.6.1 El cinturón de a s t e r o id e s ............................................................................................ 580
17.6.2 Los anillos de S a tu rn o.................................................................................................. 582
17.6.3 El movimiento de H ip e r ió n ......................................................................................... 583

http://librosysolucionarios.net
Capítulo 1

Entropía, Información y
Complejidad

La entropía crece sin cesar. El segundo principio de la termodinám ica predice el decaim iento de
todas las estructuras con el tiem po. Lo ordenado dejará de serlo, tarde o temprano, dando paso al
desorden. Pero aunque este principio es ciertamente general, a nuestro alrededor se agitan miles
de sistem as com plejos que, en una form a u otra, exhiben un alto grado de orden. La vida es el
ejem p lo preeminente, pero incluso en Los sistemas no vivos puede darse la aparición de orden en
las situaciones más inesperadas. Imaginemos una reacción química en la que m ezclam os sobre una
superficie ciertos reactivos. La imagen clásica de la termodinámica nos dice que este sistema evolu­
ciona hacia una situación de equilibrio caracterizada p o r la máxima entropía y la hom ogeneidad.
Una vez terminada la reacción, nada ocurrirá de nuevo: veremos ana disolución hom ogénea, del
m ism o color, y nada más.
Sin em bargo, las cosas no siempre son así. Ciertas reacciones químicas generan estructuras
espaciales de enorme com plejidad, com o la que se indica en la figura 1.1. La superficie nos define
para ca d a punto del espacio la concentración local de un o de los com ponentes de la reacción (Nicoiis
y Prigogine, 197T, 1988). Partiendo de una concentración espacial homogénea de los reactivos (que
habrem os agitado previamente) se van creando ondas m acroscópicas de gran tamaño, que forman
espirales en rotación. Estas ondas son visibles a simple vista y por lo tanto afectan a billones de
m oléculas que se han ‘‘ autoorganizado” espontáneamente para dar lugar a una estructura ordenada.
Este resultado fue recibido con enorme escepticismo. El quím ico Boris Belousov descu brió en 1950,
en su laboratorio de biofísica de M oscú, una de estas reacciones que aparentemente contradecían el
segundo principio. En 1951 vio cóm o su primer artículo acerca de est.e resultado era rechazado por
el ed itor de una revista científica. Dicho editor le señaló que su "descubrimiento supuestamente
descu bierto” era del todo im posible (véase Coveney y Eighfield. 1992, para un relato porm enorizado
de esta historia). Más tarde otros científicos darían con resultados similares y A natoly Zhabotinsky
llevó a ca b o un estudio porm enorizado que acabó de convencer a los escépticos. Belousov fue
finalm ente reconocido... postum amente.
A lo largo de este texto verem os la aparición de com plejidad en sistemas de tod o tipo. Pese
a la aparente contradicción con la segunda ley, que se aplica a sistemas cerrados, los sistemas
que nos interesan son sistemáis abiertos que intercambian energía y materia con el exterior. Este
intercam bio tiene a veces un aspecto especial: lo que se intercambia es, de hecho, inform ación. A
partir de sistemas formados por elementos simples, alejados del equilibrio, la vida se autoorganiza
de form as sorprendentes. La segunda ley siempre a ca ba ganando la partida, pero durante ésta
m uchas son las cosas que pueden ocurrir. Una de ellas es la emergencia espontánea de lo com plejo.

15

http://librosysolucionarios.net
16 Orden y Caos en Sistemas C om plejos

Figura 1.1: Ondas espirales en el espacio, generadas por una reacción quím ica oscilante.

Comprender los orígenes de la complejidad no es una tarea fácil. El punto de partida ta m p oco
lo es: no disponem os de una definición simple y diáfana de lo “com plejo” . En el presente texto
intentaremos abordar esta pregunta desde sus fundamentos y volveremos a ella al final del libro.
Nuestro punto de partida en este capítulo será de carácter m acroscópico, más aún, de carácter
probabilista. Partirem os de la idea de entropía e intentaremos analizar la com plejidad desde esta
magnitud y otras que surgen de la teoría de la información.
Puede resultar extraño que, para analizar la emergencia de la com plejidad, empleemos herra­
mientas matem áticas típicas del análisis de los sistemas desordenados. Sea cual sea la definición
que acabemos em pleando, lo com plejo se halla a medio camino entre lo ordenado (un cristal,
por ejem plo) y lo desordenado (un gas). En la figura 1.2 se muestran tres ejemplos de sistemas,
dos de ellos en los extremos de la complejidad y uno intermedio. En el caso (a), tenemos una
estructura ordenada, fácilmente predecible (basta con observar una pequeña parte para hacerse
una idea del com portam iento global) y lo mismo ocurre en (c), aunque ahora se trate de un
sistema totalm ente desordenado. En (b) podemos ver un ejemplo de estructura compleja. Existen
elementos de desorden (al menos aparentemente) que hacen difícil predecir la estructura global a
partir de fragm entos de la misma. Sin embargo, está claro que existe un orden subyacente dentro
de esta estructura. Hay regularidades que podem os intuir, aunque por ahora no sepamos cóm o
medirlas. Pero puesto que hemos hablado de orden y de desorden, la entropía puede servirnos de
punto de partida.
La entropía ju eg a en física un papel preponderante en nuestra exploración de los fenómenos
dinámicos. Es bien conocida la segunda ley de la termodinámica, la cual afirma que la entropía
siempre aumenta. Será por tanto una magnitud a tener en cuenta en nuestro estudio, que tratará
de hecho de las propiedades de la evolución temporal de sistemas muy diversos.
Para medir esta magnitud disponemos de una aproxim ación que posee una tremenda generali­
dad. Sea un sistema cualquiera (un conjunto de átom os, por ejemplo) sobre el que hemos definido
cierta cantidad, de forma que podam os contar cuántos elementos tienen cada valor, y estable­
cer así las probabilidades de tener un objeto escogido al azar en cada estado. Sea

http://librosysolucionarios.net
Entropía, Inform ación y Complejidad 17

Figura 1.2: (a) Sistema ordenado {red regular), (b ) Sistema “com plejo” , (c) Sistema desordenado
(aleatorio).

dicho conjunto. Estas probabilidades verifican obviamente la condición p} í [0.1], así co m o la


normalización

í>=1
i-1

La entropía 1 H se define por:


N

B ~ ~ ^ P i log pi
i= i

siendo N el número de estados posibles (las posibles energías de los átom os).
Veamos ahora cóm o justificar de manera intuitiva la definición de entropía a partir de criterios
de inform ación. Consideremos un conjunto de “ sucesos” { A i , ..., A n} definibles sobre un problem a
dado T (el con jun to de posibles resultados del lanzamiento de un dado, por ejem plo), de tal m od o
que form en una partición, esto es,

(a) A í Q A j = 0 Vi, j = 1 , Ar

(J) u f = l Aj = r

Existirán en general múltiples particiones posibles sobre las que definir probabilidades. Im agi­
nemos que deseamos definir una medida de la información proporcionada por un suceso dado.
Intuitivamente, ésta m edida debería verificar algunos requisitos. En particular:

• Un suceso más improbable (con baja probabilidad) nos da más inform ación2. Esperaremos
por lo tanto encontrar una medida de información que dependa de la probabilidad en la
forma:
I { A k ) = f { l / p k)

siendo f ( x ) una función creciente.

l E l s ím b o lo H se d e b e a L u d w ig B o ltzm an n .
2 P or e je m p lo , a l resolver un crucigram a en c a s te lla n o , la letra Z o la W restringen m á s las p osib ilid ad es y en ese
se n tid o nos d an m á s in fo rm a ción .

http://librosysolucionarios.net
18 Orden y Caos en Sistem as Com plejos

V
Figura 1.3: H{ p) para un sistema con n — 2.

• Supongam os ahora n sucesos equiprobables para los que

Pj - - j = 1 , n

Si consideramos rn realizaciones independientes en un mism o instante, el núm ero total de
posibilidades es nm. Adem ás, cada m-epla tendrá una probabilidad de ocurrir de l / n m y en
este caso parece razonable que la incertidumbre en la realización de m sucesos sea m veces
la incertidumbre asociada a un único suceso, esto es:

I(A,U .4,,,.) = / ( n - m) = m l ( A ik) = m f Q )

Una función f ( x ) que satisface ambas propiedades es la función logaritmo, esto es:

í ( A fc) = log ( 1 / P( Ak) ) - - l o g P { A k)

Tendremos asi la siguiente definición de la entropía asociada a un conjunto de probabilidades:

Definición
La inform ación (autoinform acwn) de un suceso Ak se define com o

/( A * ) = - I o g ( p fc) ( 1 . 1. 1 )

Puesto que en general tendremos un conjunto de sucesos (letras de un alfabeto, símbolos,


etc.) sobre los que definiremos un conjunto de probabilidades, podríam os preguntarnos cuál será
la información promedio de tod o el sistema. Si empleamos la definición general de magnitud
prom edio (la media) de un sistema dado, ésta viene definida por:

http://librosysolucionarios.net
Entropía, Información y Complejidad 19

siendo aquí el valor asociado al k—ésim o ‘‘estado” y Pk la probabilidad de que d icho valor se
observe. Llegamos así a la definición de entropía:

Definición
La entropía H es el valor m edio de la autoinformación, esto es,

.v

H =-¿r,P i ‘o g p . ( 1-1-2 )
1=1

definida para un sistema cualquiera de probabilidades 3 {p*}.

Esta definición probabilista de H fue formulada por vez primera por el genial físico austríaco
Ludwig Boltzm ann. Boltzm ann realizó contribuciones cruciales al desarrollo de la mecánica es­
tadística. Durante toda su vida buscó la solución a un problem a fundamental: la explicación de
la irreversibilidad de los procesos naturales y específicamente de la irreversibilidad expresada en
la segunda ley de la termodinámica. Buscó una explicación mecánica, de carácter m icroscópico,
para la existencia de una flecha del tiem po. La fórm ula de la entropía aparece sobre la lápida de
su tum ba en el cementerio de Viena.
Puesto que I ( x ) mide la incertídumbre, H nos dará un valor medio de la incertidum bre sobre
el sistema. Puesto que p* > 0, se tiene log(pfc) < 0 y H > 0. Vemos claram ente que para un
sistema en el que Pj — 1 , y en consecuencia las demás probabilidades sean nulas [pk-¿; ~ 0)i se
tiene incertidum bre nula (H ~ 0), com o cabía esperar. El limite inferior es p or lo tan to evidente.
El límite superior puede probarse mediante el siguiente

Teorem a
La entropía de Boltzmann H verifica H < log(n ), siendo U — íog(n ) si y sólo si tenemos
equiprobabilidad, esto es p j = V 71* V j — 1 >•••> a -
C om o caso particular, consideremos la entropía definida para un sistema co n sólo dos estados,
i.e. F = ( A i , X 2}. Dado que podem os escribir p\ = p y P2 = 1 — p, se tiene:

H (p) = - [p log(p) + (1 - p) iog( 1 - p)

que se representa en la figura 1.3, y que posee un m áxim o en p ~ 1/2, com o establece el teorema
anterior. Si uno de los sucesos ocurre con probabilidad unidad, £f(p) = 0.

1.1 R a n d o m walkers
A titulo de ejemplo, consideremos un conjunto de partículas que se desplazan al azar o random
walkers (R W ), sobre un retículo (rejilla) de lado L. Tenemos así L2 posiciones accesibles. En un
instante dado, cada uno de los elementos se desplaza al azar a una de sus posiciones vecinas más
próxim as (o bien permanece en su propia posición). Si tomamos una red unidimensional y un
único elem ento, la trayectoria que seguiría se ilustra en la figura 1.4, en la que en ei eje horizontal
se indica el tiempo (que asumimos discretizado) y en el eje vertical la posición del ob jeto.
Supongam os ahora que empleamos una red unidimensional, de manera que un elem ento pueda
saltar a cualquiera de sus dos posiciones vecinas con probabilidad 1/3 o perm anecer en ella con
la m ism a probabilidad. Un punto de la red puede estar ocupado por más de un elemento, e
indicaremos por

3 O b servem os que podem os te n e r sucesos de p ro b a b ilid a d nu la. En este c aso, la e x is te n c ia del lím ite
lim r _ o = 0 e v ita cu alq u ie r p ro blem a.

http://librosysolucionarios.net
20 Orden y Caos en Sistemas C om plejos

Figura 1.4: Trayectoria de un random walker en un espacio unidimensional. La posición de la


partícula se indica en el eje vertical.

Í Pt ( j ) } ; j = L 2, L

la probabilidad (para un instante f) de encontrar un RW en la posición j - é sima. Imaginemos que


inicialmente tod os los elementos se hallan en el punto central, i.e.

y cero para las restantes p o (j). Supongamos que, a partir de ese instante, los objetos pueden
desplazarse, y que seguimos a lo largo del tiem po la evolución de {p t( i ) } . En la figura 1.5 se
resume el resultado de este experimento simulado. Al principio, los elementos se concentran en
el punto central, pero con el tiempo se van dispersando a lo largo de la red dando lugar a una
campana de Gauss m uy achatada. Si esperamos lo suficiente, ei resultado final es una distribución
homogénea.
La tendencia hacia este estado de m áxim o desorden se puede también visualizar con una gráfica
de la evolución de B { t ) - com o la que se muestra en la figura 1.5 (b ). Vemos que, salvo pequeñas
fluctuaciones asociadas al tamaño finito de nuestro sistema, es una función claramente creciente
en el tiempo. A l alcanzar el estado de equilibrio final, la entropía alcanza su valor m áximo, en este
caso.

E {oc) = l og ( PooO' ) ) = - ¿ j- l°g ( ^ ) = log ( ¿ )


>=*i } =i V '

Debemos indicar que, estrictamente, tendremos fluctuaciones cercanas al valor asintótico, tanto
más im portantes cuanto menor sea el tamaño del sistema (el número de RW implicados).

1.2 E n tro p ía y C om plejidad


La entropía de un sistema físico proporciona una primera aproximación en nuestra búsqueda de
una medida de com plejidad. Su em pleo en ecología (Margalef, 1987) es de hecho un m étod o

http://librosysolucionarios.net
Entropía, Información y Complejidad 21

Figura 1.5: (a) Distribución de probabilidad { p ( j ) } obtenida para un con ju n to de N = 8000


random walkers sobre una red de L — 31 puntos, (b) Entropía asociada a la evolu ción del sistema
anterior.

generalizado de medir la diversidad de especies de un ecosistema. ¿No es entonces una medida


adecuada de la com plejidad del sistem a? La respuesta es negativa.
El uso de la entropía de Boltzmann com o medida de com plejidad ha sido sin em b argo habitual en
ciencias de la com putación. Imaginemos un programa que ejecuta cierto número de instrucciones,
y supongam os (razonablemente) que la salida final está form ada por un conjunto d e ceros y unos.
Nuestra intuición nos dice que cu an to más com plejo sea el algoritmo im plicado en esta salida,
tanto más “ com pleja” será. Aquí entendem os por com plejidad la dificultad que su pon e generar la
secuencia. En términos más simples diríamos que un o b je to es com plejo si contiene “ inform ación
difícil de obtener” (Ruelle. 1993).
Más específicamente, imaginemos un ordenador que dispone de un algoritmo de cierta longitud
que le perm ite generar una secuencia dada. Definiremos a continuación la com plejidad algorítmica.
que m edirá la dificultad de generar una secuencia de bits mediante un algoritmo. Si la secuencia es
regular, com o la que vemos en la figura 1 .6(a). el programa necesario para generarla es simplemente
“escribe 110” ju n to con la repetición de esta afirmación. En el caso (b ), en el que hem os generado
una secuencia al azar, el programa será tan largo com o la propia secuencia, y la com plejidad
algorítm ica será la mayor posible. Vemos por lo tanto que la medida de com p lejid a d que nos
proporciona la com plejidad algorítm ica es inadecuada para nuestra intuición de lo que entendemos
por com plejidad. Desde el punto de vista de esta medida, un gas ideal o cualquier o tro sistema en
equilibrio term odinám ico serían los ob jetos más com plejos.
C om o indicábam os al principio de esta sección, la entropía de Boltzmann fue introducida en
ecología teórica por Margalef (1968), dándole el nombre de diversidad ecológica o simplemente
diversidad. La observación de ecosistemas complejos nos muestra cierto número de regularidades
relevantes. Una de ellas es la distribución de especies ordenadas de más a m enos abundante.

http://librosysolucionarios.net
22 Orden y Caos en Sistem as Com plejos

Figura 1.6: Complejidad algorítmica. Cuanto más desordenada sea la secuencia que aparece, mayor
longitud deberá poseer el algoritm o que la genera, (a) Secuencia regular, (b) Secuencia aleatoria.

Al realizar esta ordenación descubrimos una relación decreciente muy típica. Los ecosistemas
reales no están constituidos por una sola especie (H — 0) ni por una distribución uniforme de
individuos de cada especie, com o ocurriría en un museo (H máxima). A m edio cam ino entre
am bos extremos los ecosistemas reales parecen encontrar un balance entre am bas posibilidades. La
vida genera constantemente diversidad, y por tanto no debem os esperar encontrar sistemas de gran
simplicidad (a menos que el m edio ambiente lo im ponga así). Por otra parte, un ecosistema muy
diverso puede tener problemas funcionales. Una observación generalizada es que los ecosistemas
naturales muestran una diversidad acotada en un intervalo bien definido, superando raramente los
5 bits.
C om o ha señalado Ram ón Margalef la diversidad es una expresión de la estructura resultante
de la forma en la que interaccionan los elementos (especies) del sistema. La diversidad es sin lugar
a dudas un elemento necesario para mantener una estructura compleja. Si H es reducida, las
posibilidades de mantener una estructura com pleja se reducen: si H es muy elevada, será difícil
mantener la funcionalidad, a menos que otras propiedades se modifiquen adecuadamente.
La relación entre H y la forma en que las distintas partes del sistema se relacionan entre sí
puede expresarse mediante una medida de conectividad. En la figura 1.7(a) vem os una gráfica de
esta m edida ju n to a la entropía correspondiente. Cada punto corresponde a un circuito electrónico
funcional, para el que se han medido las probabilidades de cada tipo de elemento (diodos, resisten­
cias, etc.) así com o el número de conexiones prom edio que cada elemento posee con los demás.
Podem os observar que existe una clara relación decreciente: a mayor diversidad, menor conectivi­
dad. Otra gráfica útil se muestra en la figura 1.7(b), en la que también observam os una relación
aún más acusada entre el número de piezas distintas (tipos de elementos) y la conectividad. Estas
relaciones expresan el balance existente entre el número de distintos elementos que forman el sis­
tema (ya sean especies o com ponentes electrónicos) y el grado de relación directa que existe entre
dichos elementos. Para lograr un buen funcionam iento, si el número de elementos posibles se hace
mayor, la flexibilidad necesaria se obtiene haciendo menos rígida la relación entre las partes o,

http://librosysolucionarios.net
Entropía, Información y Complejidad 23

C ircu itos Circuitos


E le c tró n ic o s Electrónicos
— 0 .6 0 -
Cj
; B
-tí •tí
t í 0 .6 0 t í 0.60
-tí *tí t
•pj
?*
U o.+o " o 0.40
cu Cú
£ £ •\ ’
O **
O
0 .2 0 ;
K' .

• • ♦%•
2 3 4 5 6 0 50 100 150 200 250 300 3 50
D iv e r s id a d (H ) N u m e r o de p ie z a s d is t in t a s

Figura 1.7: (a) Diagram a de Conectividad-Diversidad (entropía) para un con jun to de 78 circuitos
electrónicos com erciales (datos tomados de M argalef y Gutiérrez. 1983). (b) Diagrama del número
de piezas distintas empleadas versus C on ectividad para el conjunto de circuitos anterior ( op . cit.).
Obsérvese la relación potencial entre am bas cantidades, característica de un gran número de sis­
temas com plejos, incluidos los ecosistemas reales.

lo que es lo mism o, reduciendo la conectividad. Estos resultados, de validez general, nos indican
que para com prender adecuadamente la com plejidad de un sistema necesitamos alguna medida
en la que se introduzca el grado de relación entre las partes. Veremos más adelante una medida
adecuada para caracterizar esta propiedad y la com plejidad del sistema.

1.3 E n trop ía m áxim a y principios variacionales


Hemos visto en el caso de los “random w alkers” que la entropía del sistema crece asintóticainente
hasta alcanzar su valor máximo. La evolución espontánea del sistema lo conduce a un estado de
m áxim o “ desorden” . En situaciones algo más interesantes, la distribución de probabilidad no es,
sin em bargo, tan trivial. Si observamos p or ejem plo la distribución de energías de los átomos de
un gas en equilibrio, veremos que sigue una form a exponencial, del tipo P{ = siendo F, la
energía del nivel i ~ ésim o. A mayores energías, encontraremos pocos átomos, mientras que lo más
probable será encontrarlos en el estado de m ínim a energía. El sistema evoluciona en este caso hacia
un estado de m áxim a entropía, pero la distribución final no es uniforme. Existe un m étodo general
de encontrar dicha distribución si conocem os de antemano las "ligaduras” que operan sobre dicho
sistema. Por ligaduras entendemos cualquier restricción de tipo m acroscópico sobre el conjunto de
probabilidades { p j } , y habitualmente las escribirem os com o:

£ fc (p i,—>Pn) = Ck

Entre otros posibles ejemplos, estas ligaduras pueden ser tan triviales co m o la propia normali­
zación de probabilidades,
¿ i ( p i ,... ,P n ) = ~ 1 (1.1.3)
i
o bien el hecho de que el valor medio de la magnitud relevante (la energía, por ejem plo) sea
constante. Si en nuestro sistema tenemos que la cantidad fk se presenta con probabilidad p*, su

http://librosysolucionarios.net
24 Orden y Caos en Sistemas C om plejos

valor m edio será:

=< f >
i

Para encontrar, dadas las ligaduras, la distribución más probable, basta con hallar el máximo
de la función entropía H restringido por el conjunto L*. Este m étodo, conocido com o formalismo
del M axent (de “máxim um entropy formalism” ) se basa en la resolución de la ecuación variacional:

¿ | H ( { p U ) - E a‘ h _c* ]}= 0

La solución de este problema no es sino la distribución de probabilidad buscada, { p j } . Los valores


ajt son parámetros a determinar, y se denominan multiplicadores de Lagrange. Ilustraremos el
m étodo con dos ejemplos típicos.

1.3.1 D istribución uniform e


Considerem os un sistema carente de toda restricción acerca de su posible com portam iento (no está
lim itado por la energía, etc.). Un ejem plo de este tipo serían los “ random walkers” y a analizados,
que pueden ocupar un cierto número de posiciones (estados) con probabilidad p( j ) . No existe
ningún tipo de interacción entre ellos ni tam poco existe ninguna magnitud conservada, excepto
el núm ero de partículas. Tenemos así que hallar la distribución asociada al m áxim o de H con la
única restricción de normalización de probabilidades, 1.1.3. La ecuación variacional será entonces:

= o

que nos da com o resultado


- log (p j) - 1 - a = 0

luego las probabilidades serán de la forma:

Pj = e - (1+*>

esto es, iguales entre sí. Ahora sólo nos queda evaluar la constante a . Para ello emplearemos la
ligadura de normalización:

Epj = E e-(I+a) = nc‘ (1+a) = 1

o, lo que es lo mismo, e *l +Q) = 1 /n , com o cabía esperar.


Hemos obtenido por lo tanto la distribución de probabilidades que hace máxim a la entropía,
esto es,
1
p’ = ñ

(com o ocurría en los “ random walkers” ) y la entropía es H = log(n ), que se corresponde con la
máxima posible, com o ya indicábamos anteriormente.

http://librosysolucionarios.net
Entropía, Información y Complejidad 25

1.3.2 D istribución de B oltzm ann


Imaginemos ahora un sistema aislado (com o un gas dentro de una caja) en el que el número de
elem entos se conserva así com o la energía total (u otra cantidad en el caso de un sistem a distinto).
Supondrem os nuevamente que la interacción entre elementos no es relevante para nuestro análisis.
Por tanto, nuestro sistema está som etido a una ligadura tal y com o

£ (/) = "^ P k A ~ < f >


j

a la que añadiremos la ligadura 1.1.3.


En este nuevo caso, la ecuación variacional añadirá un término nuevo, es decir,

o
dP_

La ecuación nos da en este caso


pj =

donde hemos reescrito a en lugar de 1 -f a. La aplicación de las ligaduras nos perm itirá calcular
las constantes. La condición de normalización proporciona

= e -“ £ e - ^ = l
i J i

que podem os escribir en la forma - j siendo Z la llamada función de partición ,

J= l

Tenem os así una dependencia exponencial de las probabilidades respecto de los valores / ) . Podem os
calcular explícitamente el segundo multiplicador em pleando la ligadura correspondiente al valor
m edio. Para ello, pasamos al continuo reemplazando los sumatorios p or integrales. Así,
yOO
z - / e-^ d f
Jo

y entonces las probabilidades pasan a ser funciones de densidad de probabilidad:

e ~ 3f
P( f i = —

La segunda ligadura será:

r * > (/)/< * /= < />


Jo
luego tendremos 4:

Jo f 02 &
4 L a fu n ció n g a m m a r(n) verifica las p ro p ie d a d e s siguientes:

X e cd x = — _— Í-A. —
--------- .-7
- ; P in
'
+ 1 )' = n ! n = 0 . 1 . 2 ___
/o jn +a

http://librosysolucionarios.net
26 Orden y C aos en Sistemas Com plejos

y puesto que
f oc 1

se tiene entonces
0 =
< / >

luego la distribución explícita depende de una única magnitud m acroscópica, en este caso el valor
promedio:

j = i

Aunque la distribución que hemos obtenido es típica de sistemas físicos en equilibrio (ba jo
conservación de la energía dentro del sistema) ha sido observada en sistemas abiertos, tales com o
poblaciones de peces (Lurié et al., 1983). En este caso, se midieron las biomasas de los individuos y
se calcularon las frecuencias de cada clase de masa (esto es, se obtuvo un histogram a de frecuencias):

{p(m.1),p (m 2),...,p (rn fl) }

y la distribución observada era efectivamente la de Boltzmann:

plm , ) = i cxp ( _ ^ )

siendo < m > la masa media. Otras aplicaciones a sistemas no-lineales alejados del equilibrio
también han m ostrado la posibilidad de obtener esta distribución (Solé y Luque. 1994) cuando
la ligadura de conservación hace referencia a condiciones de estabilidad estructural de un sistema
dinámico.

1.3.3 Caso general (n ligaduras)


En el caso más general, en el que junto a la condición de normalización poseem os otras N ligaduras
adicionales, nuestro ob jetiv o será resolver la ecuación variacional dada por:

(f e )
) £ p, - £ ^ £ p .I¡ = 0

donde hemos indicado por {A*.} el conjunto de multiplicadores de Lagrange asociados a cada
ligadura f\k\ Empleamos en la normalización el símbolo (A — 1) por sim plicidad en el cálculo. La
derivación respecto a p, nos da:

esto es.

(f e )
Pi = exp

Si ahora aplicamos a este conjunto de probabilidades la ligadura de norm alización, obtenemos:

Y .P ' = e A| S exp ~ Y . Xkf>k) | = 1

http://librosysolucionarios.net
Entropía, Inform ación y Complejidad 27

y com o antes indicarem os la función de partición Z como:

-x>/: ik)

es decir,
eA = Z

A = ln{Z)

lo cual nos permite determinar A una vez conozcamos {A*.}.


Para hallar las ecuaciones para los multiplicadores A*, insertamos p, dentro de las ecuaciones
que definen las ligaduras, esto es, en

>

Tenemos entonces

< /< * > > = e - 1 £ e x p V " \ f<k (*)

i k

que podem os reescribir, obteniendo

<*)

= — ln (Z {A ,,....A n))

Si insertamos las p¿ deducidas del principio variacional en H, obtenem os la máxima entropía


com patible con las ligaduras,

ffm ai = " E P' log ^

fc)
= E exp - a - E a* ^ } _A~ E Atjr<
¿ L fc J L
^ E p- E ^ E ^ ’
I fc i

= A+ Aj,-/(-

Vemos así que la m áxim a entropía puede ser representada por los valores m edios y los multipli­
cadores de Lagrange.

1.4 Sistem as alejados del equilibrio


La elección del con ju n to apropiado de ligaduras puede no ser evidente. T a m p oco lo es, en principio,
el con jun to de restricciones que deben considerarse acerca del sistema em pleado. El hecho de
que tratemos com o ejem plos estándar sistemas en equilibrio term odinám ico y, p or lo tanto, p o co
proclives a m ostrar com plejidad de algún tipo, podría hacernos creer que el principio anterior

http://librosysolucionarios.net
28 Orden y Caos en Sistemas Complejos

queda restringido a sistemas en equilibrio. Sin embargo, pueden obtenerse excelentes resultados
para sistemas alejados del equilibrio eligiendo las ligaduras apropiadas. Un ejemplo particularmente
brillante de aplicación del m étod o variacional a un sistema físico alejado del equilibrio es el estudio
de Haken (1988). Haken ha dem ostrado que. empleando el Maxent con ligaduras que introducen
las correlaciones macroscópicas a través de los momentos de orden superior, pueden obtenerse de
forma exacta las distribuciones de probabilidad asociadas a las medidas experimentales obtenidas
en experimentos con láseres (y, en general, para sistemas alejados del equilibrio cercanos a puntos
críticos). La aproximación general (tratada por Haken en su libro. 1953) consiste en la siguiente
idea. Partim os de un sistema descrito por el vector de estado

q = ( ? i . ? 2, - . 9 a 0

cuyas com ponentes son m edibles por el experimentador. Aquí el subíndice i de puede ser
una célula o distintos tipos de cantidades físicas o químicas. Asumiremos que los promedios
estadísticos sobre las g, y sus momentos hasta orden cuatro son conocidos. Introducim os entonces
com o ligaduras:
fi = < qt >

fij ~ < M j >

fijk = < q.qjqk >

fijkl = < QiQj >


Con las que llevaremos a ca b o la maximización de la entropía. Puede com probarse que la dis­
tribución de probabilidad p(q) viene dada por:

p(q) = expj^ T
/(A , q

siendo V (A , q) una función lineal de los multiplicadores de Lagrange y no-lineal de las com ponentes
del vector de estado q, definida por

^ Atqi + ^ '^ijkqiQjQk + ^ijklQiqjQkQl


i i,j t.j-fc t.j.k.l

donde V (A ,q ) cumplirá, mediante un adecuado cam bio de coordenadas, el requisito

5 V (A , q)
dq,

com o esperaríamos en el m arco de la teoría de transiciones de fase de no-equilibrio (Haken, 1987;


1988). Este estudio va más allá de nuestras pretensiones en esta introducción. Aconsejam os ai
lector las monografías de Haken acerca de esta aplicación y posibles extensiones.

1.5 Inform ación C on ju nta


Un sistema en el que no hay interacción entre sus elementos ni entre éstos y el entorno (un sistema
aislado) evoluciona al estado de máxima entropía. Esta situación ha quedado manifiesta en el
ejem plo anterior de los urandom waLkers". Sin embargo, el intercambio de inform ación se halla
siempre presente en los sistemas com plejos. En ocasiones este intercambio es muy sim ple (el enlace
entre átom os) y en ocasiones más sutil (la comunicación entre neuronas). La emisión, recepción y
elaboración de los mensajes está detrás de la mayoría de los fenómenos que nos rodean. La teoría
de la inform ación intenta cuantificar estas magnitudes y nos será muy útil en nuestro desarrollo

http://librosysolucionarios.net
Entropía, Información y Complejidad 29

posterior de algunas ideas fundamentales. Definiremos a continuación algunas cantidades de interés


así com o nuevas medidas de entropía, para terminar definiendo la inform ación transmitida.
Supongam os dos variables aleatorias X , Y definidas con valores sobre los conjuntos

5 =

R — Bm j"

tales que las respectivas probabilidades vienen dadas por { p ( A j) } y | p (B ¿ )}. Am bas están nor­
malizadas, obviamente. Sea
P (A i n B j ) = p ( A i,Bj )

la probabilidad conjunta del par (A ,, Bj ) , esto es, de que ambos sucesos se den simultáneamente.
Definiremos también las probabilidades condicionadas: P {A i\ B j) será la probabilidad de que se dé
Ai si sabemos que se ha dado B ¿, y análogamente definiremos P( Bj \Ai ) . Estas probabilidades
están relacionadas entre si a través de las igualdades:

p {A i iB j ) = P { A i ) P { B j \Ai )

p ( A „ B j ) = P ( B j ) P ( A i \B} )

P odem os entonces definir la entropía condicionada p or Y = B j com o la sum a:

H (X \ Y = B , ) = - Y í P( A. \Bi ) log P( A, \Bj )


l-\

que será de hecho el grado de incert.idumbre existente sobre el conjunto 5 si se ha dado B } E R. En


térm inos de un canal de com unicación, en el que S sería el conjunto de sím bolos de entrada y R el
con jun to de símbolos del receptor (n = m y supondrem os los mismos sím b olos), las probabilidades
condicionadas nos dan de hecho la fiabilidad del canal de comunicación. La entropía condicionada,
sin más, será el prom edio de estos valores, es decir, la suma ponderada sobre los A¿:
m

H(X\Y) = - Y , P ( B j ) H( X\Y = B, )
j =i

tn n
= log P Í A í \Bj )
; = 1 .=1

la cual medirá la incertidumbre sobre S con ocido R.


Si definimos también la entropía conjunta com o la entropía asociada a las probabilidades
P (A ¿, B j) , esto es
m n

H(X, Y) = - E P ( A <-Bi ) lo8 ( p (A, , Bj ) )


J = 1 ¿=1

algunas relaciones y desigualdades pueden ser obtenidas de manera simple:

Propiedades

(i) H ( X t Y ) = H ( X ) + H( Y\X)

(n ) H ( X , Y ) < H ( X ) + H ( Y )

http://librosysolucionarios.net
30 Orden y Caos en Sistemas C om plejos

De especial im portancia es la desigualdad Zf(X |Y ) < -ff(X ), que establece que la entropía de
A’ condicionada a 5' no puede exceder la de la propia X .
Llegamos ahora a la definición clave que nos servirá, más adelante, com o medida de com plejidad:
la inform ación conjunta, transferencia de información o, simplemente, información:

Definición

La inform ación que aporta el conocim iento de Y sobre X , I ( X , Y ), se define por:

I ( X , Y ) = H { X ) - íf(X | Y ) > 0

De form a inmediata, se tiene que 7 ( X ,Y ) se mide también por:

Z (X , Y ) = H ( X ) + E ( Y ) - H ( X , Y )

que emplearemos en nuestro análisis cuantitativo de la definición de com plejidad. Vemos que

/ ( X , Y ) < H ( X ) + -ff(Y )

lo que en la práctica equivale a decir que en ausencia de correlaciones entre am bos conjuntos fsi
las probabilidades conjuntas son P ( A i , B j ) = la inform ación es la suma simple de entropías
independientes. Este tipo de medidas conjuntas se ha empleado en distintos cam pos. Una posible
aplicación a la estructura de las redes de transferencia de energía en ecosistemas parece indicar que
los valores observados de información y entropía conjuntas están acotados en un estrecho margen
(Wagensberg et al., 1991).
C om o veremos más adelante, numerosos sistemas parecen presentar, cuando evolucionan en
el tiem po, un com portam iento especial (¿la com plejidad?) que podríam os situar a m edio cam ino
entre los estados de orden y los de “ caos” : Orden —* Com plejidad —►Caos. Para esta ordenación,
veremos que la información nos servirá, en general, de medida de com plejidad.

1.6 Inform ación en canales con ruido


Consideremos un canal en el que se emplea un alfabeto de entrada A = { A\ 4 n) y de salida
B — { S i , ..., Bm} así com o cierto conjunto de relaciones estadísticas entre entradas y salidas. Está
claro que la salida (un símbolo d ad o de B ) será en general una función del conjunto de sím bolos
de entrada así com o, eventualmente, de los símbolos de salida que le precedieron, y del “ estado”
del canal. En esta sección daremos algunas definiciones básicas y analizaremos el problem a de los
canales con ruido.

Definición

Un canal de comunicación (C C ) se denomina canal sin mem oria (C SM ) cuando la aparición de


un sím bolo dado en la salida depende únicamente del sím bolo de entrada presente en ese instante,
y no de los sím bolos precedentes.

Aquí nos limitaremos a este tipo de canal, y las relaciones de tipo estadístico a las que aludíamos
serán el con jun to de n x m probabilidades condicionadas

PtJ = P { B } \At) ; B . e B - AitA

de obtener el sím bolo B} £ B cuando se ha emitido E A. Las definiciones previas de entropías


(condicionada, conjunta, etc.) así com o la información I ( A , B ) son aplicables. En particular.
I( A. B) nos dará una medida de la cantidad media de inform ación sobre la entrada recibida a la

http://librosysolucionarios.net
En tropía, Información y Complejidad 31

salida. La inform ación depende no sólo de las probabilidades condicionadas p¿j sino tam bién de
las probabilidades de entrada ( P ( A j ) } .
P ara una matriz {pi} } dada, existirá en general una distribución de entrada que haga máxima
la inform ación. Este valor,
C ~ m<ixp(Ax) [I( A, Bj\

se denom ina capacidad d d canal.


A continuación definiremos varios tipos de canal de com unicación, que verifican algunas pro­
piedades de interés.

C anal sin pérdidas

Un C C se denom ina canal sin pérdidas si H (A \B ) = 0 para cualquier distribución de entrada


| P (A ,-)}. En este caso, se tiene:

C = ma x P{At)[ I ( A , B ) } = ma x P(A¡ ) [ # ( A ) ] = log (n)

v com o vem os en este caso la salida determ ina la entrada de forma única. .

Canal determ inista

Un C C se denom ina determinista si H ( B ) A ) = 0 para cualquier distribución de entrada ( P ( A , ) } .


Esta restricción nos lleva a:
C = m a x p (Ai) [P (P )] = log (m )

y ahora la entrada determina la salida de forma única.

C anal sin ruido

Un C C se denom ina canal sin ruido si cumple las dos condiciones anteriores: es por lo tanto un
canal sin pérdidas y determinista. A h ora tenemos una relación biunívoca entre entrada y salida, y
obviam ente n = m.

C anal independiente

Si la entrada y la salida son independientes, entonces I ( A. B) = 0, V { P ( A , ) } , su capacidad es cero


y no perm ite la transmisión de inform ación.

C anal sim étrico respecto a la entrada

Se llam a así al canal en el que cada fila de la matriz de probabilidades P{ Bj \ At) contiene (en algún
orden) los mismos elementos. Un ejem plo sería (n = 2, m = 3):

/1 /3 1/2 1/6 \
L \ l/ § 1/2 1 /3 )

Observem os que en estos canales se cumple:

H (B U ,-) = - ^ P ( B í |.4.) log P ( B J\A,) = B ( B \ A r ) = H 0


j= 1

http://librosysolucionarios.net
32 Orden y Ca.os en Sistemas C om plejos

siendo A r £ A cualquier otro sím bolo del alfabeto A. A quí Ho es independiente de r, y la entropía
condicionada es:
m n

H ( B \ A ) = - £ p ( . 4 , ) / í ( B ¡ A , ) = £T0 £ P ( A ¡ ) = Ho
3= 1 i= 1
y por lo tanto no depende de las probabilidades de entrada.

C anal sim étrico respecto a la salida

Un canal de este tipo nos presenta los mismos elem entos en todas las columnas. Un ejem plo sería:

/ 1 /3 2 /3 \
II = 1 /2 1/2
\ 2 /3 1 /3 /

Para este canal puede probarse que si P (A ¿) = 1 /n entonces P ( B j ) = 1 /m .

Canal simétrico

Un canal de comunicación se llama totalmente sim étrico (o simplemente sim étrico) si es simétrico
en la entrada y la salida. Por ejemplo:

/1 /3 1 /3 1 /6 1/6
\ 1/6 1 /6 1 /3 1/3

Para este canal, se tiene:

J5T(B|Ai) = H ( B \ A k ) = H ( B \ A ) = H 0

y por lo tanto
I{A,B) = H { B ) - H 0

Puede probarse entonces (empleando la desigualdad H ( B ) < log(m )) que

C = m a x P(At) [ H( B) - H 0] = log (m ) - Ho

lo cual se obtiene para entradas equiprobables.

1.7 D eterm inación de la capacidad


Para canales simétricos, el cálculo de la capacidad no ofrece grandes dificultades. El caso más
general, asimétrico, no siempre es analíticamente resoluble, pero existe un procedim iento general
analítico para el caso de matrices II cuadradas no singulares.
Se trata de encontrar el m áxim o de la función

/( A , B ) - H { B ) - H( B\A) > 0

con las siguientes restricciones:


P ( A t ) > 0 VA, G A
n
£ ^ (-4 ,) = !
«=1

http://librosysolucionarios.net
Entropía, Información y Complejidad 33

El cálculo puede llevarse a cabo mediante el m étodo de los m ultiplicadores de Lagrange, bus­
cando el m áxim o de C b a jo las ligaduras anteriores. Para simplificar la notación, indicaremos:

= P( Ai )
n n n
y, = P ( B , ) = £ . ? ( * , £ ) , ) = Y . P ( A , ) P ( B j \A,) =
1= 1 1= 1 1=1
e indicaremos íf(5|A ,-) en la forma:
n n
H, = B { B ] A ¡ ) = - ] T P (B j\ A i) log ( P{ Bj \A¡ ) ) = - lo8 (PO )
J=1 ¿=1
Em pleando esta notación, construimos la función:
n n
,x„) = I{ A, B) + \ (J 2 * ' - 0 = B(B)~ H( B[ A) + a ( J 2 x > - 1
1=1 1= 1
y trataremos de resolver la ecuación variacional

6 G { x x, = 0

para lo cual debemos calcular

j=i <’J j=i


y además:

dH {B \A ) r. V- , , ,
Í = h k = ~ > Plcjlog {Pkj)
dzt jtí

lo que nos da

n
dGa JL rr
- — = A ~ S k ~ Y l P k j log ( yj ) + loge k = 1 ,.... tí
3xt

Si empleamos la condición de normalización, Yl j Pkj = 1' >r Ia notación

Aj = - l o g ( y j ) - log e + A

tendremos un sistema de ecuaciones:


n

^ P f c j A j = Bj
j= i
Puesto que la matri2 es no-singular, podemos hallar la solución del sistema anterior. A} = b} . que
nos permita escribir:

~ l o g ( y j ) - lo g e -h Á = b¿

o lo que es lo mismo,

y,J = -z
e
x- b’

http://librosysolucionarios.net
34 Orden y Caos en Sistemas C om plejos

Ahora harem os uso de las ligaduras impuestas en la búsqueda de C . La normalización es ahora

_ £ - 2A-6; = 1
; =i
lo que nos lleva a obtener el m ultiplicador de Lagrange,

A = log
[ £ U 2' bil
que perm itirá calcular C . V olviendo a la ecuación variacional tenemos que:
n
log e — A — ~ ^ p k j log ( y ,) ~ H k
3= 1

que, después de multiplicar por x k y sumar, nos da:


n n n n

2 2 ^í1os e ~ ^ = ~ 2 2 H zkpki lo&(w)~2 2 XkHk


k= l k=lj =l k=í

esto es
lo g e ~ A = m a z [ B ( B ) - B ( B ¡ A ) j ~ C

Sustituyendo el valor hallado de A, obtenemos la capacidad del canal,

c - b , l 5 ! " ‘V
El resultado que hemos obtenido será válido (C > 0) sólo si la desigualdad log e —A > 0 se cumple.

1.8 C a n a l binario
Este es un ca so particularmente simple del problema analizado en la última sección, para un canal
con matriz II de n = 2 . Será de la forma:

i -p p
n= q 1 ~q

y en este ca so debemos resolver el sistema:

A] A (H
n
\2

donde ahora tendremos:


y = P { B i ) = x ( l - p) + (1 - x)q

1 - y = P ( B 2) = x p + (1 - i ) ( l - q)

S ( B ) = - y log (y) - (1 - y) log (1 - y)

B ( B\ A ) = z h(p) + (1 - x) h( q)

Con lo que:

http://librosysolucionarios.net
Entropía, Inform ación y Complejidad 35

n -‘ = ( l q 'P )
i-p -9 v i-p y
y la solu ción se obtiene de resolver la ecuación

jb2J \$2/
lo que nos da:

(1 - q ) h { p ) - p h { q )
h =
1~ p -q
- q h ( p ) ~ (1 - p ) h ( q )
b2 ~
1- p - q
luego la capacidad para este canal es:

C = I o g ( 2 ' 61 + 2 ~ b-

1.9 Inform ación m u tu a y función de correlación


La inform ación conjunta, también con ocid a com o inform ación mutua, es una m edida de la depen­
dencia entre variables. Es además una m edida de carácter general, que tiene en cuenta correlaciones
de to d o tip o (y no sólo lineales) y que emplearemos en distintos lugares de este texto. En cualquier
caso, si las variables son independientes, I será cero, y su valor será tanto mayor cuanto m ayor sea
la correlación entre ambas (con algunas precisiones).
O tro tipo de magnitud m uy em pleada en física (y en el estudio de los sistemas com plejos)
es la denom inada función de correlación. Es también (com o su nombre indica) una m edida de
dependencia (correlación) entre variables, aunque en este caso la correlación es de tip o lineal.
Junto a esta diferencia im portante, existe otra aún más relevante en el cam po de estudio que nos
ocupa: la inform ación mutua puede ser empleada sobre secuencias de símbolos y sobre secuencias
numéricas, mientras que la función de correlación sólo puede aplicarse en el segundo caso. D a d o que
en la m ayoría de los casos dispondrem os de cierta inform ación parcial acerca de nuestro sistema,
que aparecerá com o una colección ordenada de sím bolos (por ejemplo, binarios), el ínteres de la
inform ación m utua sobrepasa al de la función de correlación.
En esta sección com pararemos am bas medidas con el ob je to de comprender sus propiedades y
su relación. Supongamos para empezar que nuestro con jun to es una secuencia finita

{ x , } ; i = 1 ,2 .V

dentro de un con jun to de estados posibles E:

j = 1, 2, K

La función de correlación (capítulo 7) se definirá aquí por:

K K / K

r (r) = E E a,aJF,^ r) " ( X 0^


i ■ V j
donde lasprobabilidades de cada sím bolo Pj y la probabilidad conjunta de tener Los sím bolos a,
y ( i j , separados una distancia r, esto es, P,>(r), se calculan sobre la secuencia. La inform ación
mutua, definida también sobre pares separados una distancia r, puede escribirse en la forma:

http://librosysolucionarios.net
36 Orden y C aos en Sistemas C om plejos

* " > (') = Z E r .í(r )

que puede ser fácilm ente generalizada (Li, 1990) para conjuntos de “ bloques'’ (secuencias de tamaño
L) en la forma:

lo g ( ^ g )

Podemos restringir nuestra comparación a secuencias binarias (esto es E = { 0 ,1 } ) y analizar la


relación entre la función de correlación y la información / ( ^ ( r ) , que de ahora en adelante indicare­
mos simplemente por I { r ) . Para nuestra cadena de símbolos binarios, el núm ero de probabilidades
conjuntas independientes se reduce de cuatro a una. C om o consecuencia, la función do correlación
puede relacionarse de form a directa con la información mutua.
Puesto que sólo los valores no nulos pueden contribuir a la función de correlación, tendremos
que:
T (r) = P n ( r ) ~ P t

siendo P u ( r ) la- probabilidad conjunta de tener dos sím bolos “ 1” separados una distancia r, y P\
la probabilidad de observar dicho símbolo. Podemos encontrar una relación formal entre ambas
funciones del siguiente m od o (Li. 1990). En primer lugar, supongamos que la secuencia no posee
una dirección particular, esto es, la secuencia puede ser analizada de derecha a izquierda y viceversa.
Esta restricción de simetría nos lleva a la igualdad:

Pii = P »

para i , j € { 0 , 1 } . En segundo lugar, de la definición de probabilidad con ju n ta tenemos que:

P i = E p >Ár )
¿= o,i

Y finalmente una condición de normalización dada por:

E E F‘Á r ) = 1
»=0,1 ¿=0,1

que es equivalente a la condición Pj — 1 Y no proporciona de hecho más restricciones al número


de valores independientes de PXJ. El número de variables independientes se reduce a una. Tenemos:

pQl(ij = P l0(r) = Pi - F n ( r )

P o o ( r ) = ( l - 2 P 1) + JP l l ( r )

que, en términos de la función de correlación, nos dan:

P 11(r) = r(r) + Pj2

Poo(r) = l?(r) + P02

PoiOO = P io(r) = - r ( r ) + PoPi


Así, la relación general entre la información mutua y la función de correlación entre variables
binarias es:

http://librosysolucionarios.net
Entropía, Información y Complejidad 37

,\
I ( r ) - T { r ) loe
(l + T(r)/PÍ)(l+T(r)/Pg)
(1 — T ( r ) / P qP i )2
+ P? log 1+
r in
+
Pi

r(r ) T(r)\
p ¿ 1Qg 1 + + 2P q.Pi log 1 -
^02 PoPi j

De esta expresión podem os obtener una aproximación útil cuando la función de correlación decae
a cero para grandes valores de r y E (r)/P iP j son pequeños. En este límite los términos de primer
orden de T (r ) se cancelan y sólo nos quedan los de segundo orden:

„ , r 2(r) 1 1 2 r(i
2 ( P02 + P * + P iP 0 PoPi

De esta últim a expresión vemos que la inform ación decae a cero con m ayor rapidez que la función
de correlación. Así, si T (r) a entonces tendremos / ( r ) oc r ~ 2/). C om o veremos más adelante, la
iuformación m utua nos servirá de m edida efectiva de com plejidad. Sus propiedades y especialmente
su generalidad (no considera sólo correlaciones lineales) la hacen especialmente apta en nuestro
estudio.

1.10 C om p lejid a d : algunos com entarios


Nuestro interés por el valor m áxim o de I ( A, B ) es debido a la propuesta teórica (realizada por
diversos autores) de esta cantidad co m o medida de com plejidad. Aunque hemos hablado de canales
de com unicación, estas medidas son aplicables a sistemas com plejos de cualquier tipo. En estos
sistemas, podem os medir la inform ación transmitida entre dos subsistemas (de algún tip o) a partir
de un con ju n to adecuado de probabilidades. Este hecho hace particularmente útil este conjunto
de medidas.
Esta propuesta tiene mucho que ver con la aparición de cierto tipo de estructuras com plejas
(los ob jetos fractales) y de correlaciones de gran alcance en puntos críticos, bien con ocid os en física
(véase capitulo 7). Observemos que la información I ( A , B ) puede ser pequeña en dos situaciones
extremas, de gran interés en nuestro estudio. La primera es la más obvia: si H corresponde a la
matriz de un sistema en el que la entrada y la salida son totalm ente independientes (de forma
que las partes que intercambian inform ación no influyen de hecho entre sí) entonces H ( A , B ) =
H{ A) + ff(jB ). y la información es nula. Si imaginamos un sistema particular com o una colonia
de insectos sociales (fig. 1.8). la idea sería que el cam bio de estado de un elemento, aunque pueda
transmitirse, lo hace tan defectuosamente que de hecho no es '‘entendido" por el sistema, y los
elementos son básicamente independientes.
O tra situación, menos evidente, aparece cuando los elementos del sistema se com portan exac­
tamente de la misma forma (por ejem plo: permanecen todos en el mism o estado o cam bian exac­
tamente igual). En este caso los elementos de la matriz serían:

IIij — óij
V i, j — 1, 2 ,..., n
/
de manera que la información queda reducida a la entropía de un subsistema, I ( A. B ) = H( A ) .
Así, si n = 2, y una de las probabilidades (en el alfabeto) es m uy pequeña, tendremos nuevamente
I( A , B ) « 0.
Los dos casos indicados son de interés por un buen m otivo: corresponden a dos situaciones
extremas den tro de las posibilidades dinámicas de un sistema com plejo. La primera corresponde

http://librosysolucionarios.net
38 Orden y Caos en Sistemas Com plejos

Figura 1.8: Insectos sociales. Derecha: cerebro de una hormiga. Izquierda: hormigas en inter­
acción. El com portam iento del colectivo no es reducible al de un solo individuo.

a una situación de azar, de independencia entre elementos. En el segundo caso no tenemos (nece­
sariamente) una transmisión real de información, sino que los elementos del sistema presentan una
sincronía asociada a una dinám ica uniforme para todos ellos o bien al seguimiento de una señal
externa. En e) primer caso, puede ocurrir que los elementos del sistema envien información, pero
ésta se pierde de alguna form a y por lo tanto no puede almacenarse. En el caso opuesto, la sin­
cronización (que puede deberse a un fenómeno dinámico interno, com o veremos) es tan fuerte que
todos los elementos se igualan entre si. Puede decirse que el sistema almacena información pero
cualquier intento de transmitirla se enfrenta con la rigidez del propio conjunto (Solé' y Miramontes,
1995).

El m otivo de esta discusión es que los sistemas com plejos, que almacenan y transmiten in­
form ación. no parecen ocupar ninguno de los extremos antes expuestos. Es necesario transmitir
inform ación para procesar las señales procedentes del exterior del sistema (estamos suponiendo,
naturalmente, sistemas abiertos) así com o dei propio sistema. Pero tambie'n es necesario con­
servarla en alguna forma, ya sea permanente o temporalmente. Tomemos nuevamente un grupo
de insectos sociales, a los que volveremos más adelante. Si uno de ellos descubre una fuente de
alim ento o percibe un cam bio externo, esta información debe ser transmitida de m od o efectivo
a través de la colonia, alcanzando a un número mayor o menor de individuos. Por otra parte,
la señal debe ser mantenida (esto es, almacenada) durante cierto tiempo. Esta memoria a corto
plazo perm ite responder a la señal. La complejidad emerge por lo tanto a m edio camino entre
el orden y el desorden (m ás adelante hablaremos de orden y caos) y am bos son necesarios. ¿Es
entonces cualquier punto interm edio igualmente probable? o, ¿existe algún pun to especial en el
que la com plejidad suela aparecer? La segunda pregunta tiene una respuesta afirmativa (Solé et
a l, 1996).

http://librosysolucionarios.net
Entropía, Información y Complejidad 39

1.11 A p én d ice. Procesos estocásticos


El ejem plo paradigm ático de proceso dinámico al azar viene perfectamente representado por el lla­
m ado paseo al azar que, en la literatura especializada, suele indicarse a m enudo com o randorn walk
(introducido anteriormente). Obtendremos ahora analíticamente la ecuación asociada al proceso
de difusión y su generalización, la ecuación de Fokker-Planck.
Supongamos dado un espacio unidimensional, en el cual una partícula puede desplazarse al azar
a derecha o izquierda con igual probabilidad. Supongamos que la probabilidad de que la partícula
lleve a ca b o un salto durante el intervalo tem poral (t, t + é t) es

P ( í , f + ¿f) = 0 6t + 0 { é t )

donde 0 ( S t ) indica (posibles) términos de orden superior. Si los saltos son de cierta longitud fija,
<5x , entonces las probabilidades de transición serán:

P ( x —* x -f ó x ) ~ -

P(x - * x ~ ó x ) = ~

Sea P¡(t) = P [x (i) = i ¿x]. A partir de las hipótesis anteriores, tenemos que:

P¡(t + 6t) = (1 - 0 6t)P¡(t) + i /3 ót [ P ;_ i ( 0 + p i+ i(f)] + 0 ( 6 t )

Esto es, podem os escribir

Pi(t + Í>t) = - P i ( t ) = - 0 6 tP ¡{i) + i /3 [P i_ !( í) + J>i+ 1(t)] + 0 ( ¿ i )

luego dividiendo por 6t y tom ando el límite St —* 0, obtenemos:

= ~QP¡ ( t ) + i / ? [ * _ , ( < ) + Pi + l(i)

A continuación eliminaremos la dependencia en la variable x respecto de la discretización éx. Si


empleamos la notación Pt(t) = f ( x , t ) , podem os escribir

-SxJ) + f{x + ¿x,t]

Desarrollando en serie de Taylor los términos en diferencias, obtenemos ahora:

df{xJ) ¡3 *\(6 x )2 ,
-Qf ■ = - ^ d x f { x , t ) 6 x + - d í f ( x . t ) ^ 2— +

+ + | t) + ...

3 d 2f { x , í )
2 dx2 +
A quí 0 se tomará proporcional a l ( ( 6 x ) 2. Si definimos a = 0 ( ó x ) 2. obtenem os finalmente la
ecuación estocástica:

http://librosysolucionarios.net
40 Orden y Caos en Sistemas C om plejos

que es una ecuación de difusión. Sus soluciones nos proporcionarán la densidad de probabilidad
/ ( x , í ) de encontrar la partícula en algún lugar del espacio. Puede com probarse que una solución
posible de esta ecuación, com patible con la condición inicial v(x, 0) = ¿ ( 0). esto es, con una
partícula situada en el origen en el instante inicial, será:

x.
exp
y/2'irat 2~at

Si com param os esta solución con la obtenida anteriormente de forma numérica para un con jun to
de partículas moviéndose al azar, obtenem os, com o cabía esperar, un com portam iento m uy similar.
La probabilidad de encontrar una partícula dada f ( x , t ) debe coincidir con las frecuencias de
encuentro asociadas al colectivo de partículas independientes.

A continuación, consideraremos un resultado teórico general de gran im portancia. Derivarem os


las ecuaciones de difusión generales en el caso en que las probabilidades de transición dependan
de la interacción de una form a no-trivial. Partiremos de x( t) , un proceso estocástico. Sea la
probabilidad de transición (infinitesimal) definida por:

q( x , £ , ó t ) — P \f < óx < f + d£ |x(¿) - x]

Donde com o sabemos debe cumplirse

J q( z , £i 6t ) dt ~ 1

Luego tendremos:

f{x, t + é t ) = j f(x - t )q( x - C¿ 0 + O(St) (l.A.l)


f ( x , t ) puede ser representada en la form a

f(x,t) = J q(x,CSt)df (1.A.2)


Si restamos l .A .2 de l .A .l, obtenemos:

6f{x,t)-f{x,t + St)-f{x,t) = J
Desarrollando el integrando en serie de Taylor, obtenemos:

<
5/ = y {-ÍMf'l) + \edl(fq) + ...
éf = -dx Ja fq)r.^df + Idl j e(fqh,í,td£ + ...

óf = - d 3 f(x,t) j £q{x,f,ót)d£ +^dl f{x,t) J £ 2? ( - c . £ , ¿ ¡ + ...

Ahora realizaremos dos hipótesis acerca de los momentos de la distribución f ( x , t ) . Estas son:

E[Óxjx(í) —x] —J £q(z,£, ét)df = b(x)ét + O(ót)

http://librosysolucionarios.net
Entropía, Información y Complejidad 41

E [(é z )2|x(f) = r] — J ^2q( x, f i, ót ) df = a(x)St + O(ht)

De estas expresiones se sigue que:

6 f ( x , t) = ét

esto es,

d
J ^ l = ^ {b{x ) f { x , t ) ) + i ¿ ( - ( « ) / ( . . * ) )

expresión que se conoce com o ecuación de Fokker-Planck. Existe un tratamiento general de los
problemas de autoorganización (planteados a lo largo de este libro) basado en el em p leo de este
formalismo (Nicolis y Prigogine, 1977; Haken, 1988).

B ibliografía
1. P. C oveney y R . Highfield, La flecha del tiempo. Plaza y Janes, 1992.

2. H. Haken, Self-organization and Information. Physica Scripta 35 247 (1987).

3. H. Haken, Information and self-organization. Springer-Verlag, Berlín, 19S8.

4. W . Li, Mutual Information fun ction s versus correlation functions. J. Stat. Phys. 6 0 823
(1990).

5. D. Lurie, J. Valls y J. W agensberg, Thermodynamic approach to biomass disiribution in


ecological systems. Bull. Maih. B iol. 45 869 (1983).

6. R. Margalef, Perspectives in ecological theory. C hicago U. Press, Chicago, 1968.

7. R. M argalef y E. Gutiérrez, H ow io introduce connectance en a frame o f an expression fo r


diversiiy. A m er. Natur. 121 601 (1983).

8. G . Nicolis e I. Prigogine, Selforganization in Nonequilibrium Systems. John W iley, New York,


1977.

9. G . Nicolis e I. Prigogine, Ezvloring Complexity. Freemau, New York. 19S9.

10. D. Ruelle, A zar y Caos. Alianza Universidad A l’ 752, Madrid, 1993.

11. R. V. Solé' y O. Miramontes, Inform ation ai the edgc o f chaos in fluid n eural networks.
Physica D 80 171 (1995).

12. R. V . Solé y B. Luque, Phase transitions and antichaos in generalized Kauffm an networks.
Phys. Leit. A 196 331 (1995).

13. R. V . Solé, S.C. Manrubia, B. Luque, J. Delgado y J. Bascompte, Phase transitions and
Complex Systems. Complexity en prensa, (1996).

14. J. W agensberg, A. García y R. V . Solé, Energy flow networks and the M áxim um E niropy
Formalism. En: Máximum en irop y and Bayesian methods, W . T . Grandy y L. H. Schick
(eds.), Kluwer Acad. Publishers, The Netherlands, 1991.

http://librosysolucionarios.net
Capítulo 2

Sistemas Dinámicos

En este capítulo estudiaremos en qué forma podem os representar, analizar e interpretar los sistemas
físicos que presentan una variación de las magnitudes que los definen (la posición, la velocidad,
el número de elementos activos, la presión, o variables más abstractas, que pueden ser incluso
com binación de las anteriores) en el tiem po. De forma genérica, estos sistemas se denominan
sistem as dinámicos. Las ecuaciones que los representan serán de la forma

dx .
- = x = F ( x ,< ;r f

y entonces diremos que el sistema dinámico es continuo y está representado por una ecuación
diferencial ordinaria (E D O ), o bien

x i— ►g ( x ; fi)

caso en que se denom ina discreto y la ecuación que lo representa es entonces una aplicación, o
ecuación en diferencias. El conjunto de variables del sistema está representado por x , que es un
punto de un conjunto abierto en R n: x € U C R n *• El tiempo se representa usuaimente por t £ R ,
aunque se puede considerar, de forma más general, com o la variable encargada de parametrizar
las trayectorias (o soluciones), descritas por el vector x. El vector ¡s representa una colección de p
parámetros, | iG R p que son fijados en cada evolución del sistema, com o por ejem plo la cantidad
de energía suministrada o perdida cada tiem po T . la viscosidad de un fluido, una diferencia de
temperaturas o muchos otros. Finalmente, F £ R n y puede ser en general cualquier función
arbitraria.
Una solución de una ecuación diferencial tiene la interpretación geom étrica de una curva en
R n, y la ecuación diferencial proporciona el vector tangente en cada punto. D ebido a ello, a una
ecuación diferencial ordinaria se la denom ina tambie’n campo de vectores. El espacio R n. donde no
aparece el tiempo f, sino las variables x dependientes se denomina espacio de fases. La geometría
de las soluciones en el espacio de fases nos proporcionará toda la inform ación sobre la dinámica
del sistema.
C uando integremos una EDO aparecerá una constante C que puede ser fijada de forma ar­
bitraria. Usualmente se debe dar, junto con la ED O , lo que se llama condición inicial a fin de
obtener una solución única para la dinámica del sistema. La condición inicia] (c.i.) consiste en la
especificación del pun to xq en donde se encuentra el sistema en un instante ¿o determinado. Ve­
remos que la condición inicial puede hacer que el sistema evolucione hacia un estado estacionario,

1 P a r a u n a d escripción b re v e de la teoría de c o n ju n to s req u erid a en este c ap ítu lo véase la sección 3 .2 .

43

http://librosysolucionarios.net
44 Orden y Caos en Sistemas C om plejos

Figura 2.1: Variación temporal de la posición y la velocidad en el movimiento circular uniforme.


A la derecha, representación del espacio de fases, independiente del tiem po.

fijo en el tiem po, o bien oscile, o escape al infinito, en una form a que será especificada a lo largo
del capítulo.

Ilustrem os con un ejemplo sencillo las definiciones dadas. Consideremos el siguiente sistema:

x=v
v = —x

En este caso, n = 2, y ésta es la dimensión del espacio de fases. Si tomamos la c.i. ¿o = 0’


(x(ío)> u(^o)) = (0>1)? la solución del sistema en función del tiem po es

(x(<), i’(í)) = fsin(í), c o s (í))

Para obtener una ecuación independiente del tiempo (trayectoria en el espacio de fases) es suficiente,
en este caso, con elevar ambas variables al cuadrado,

x 2 + v2 = 1

que es la ecuación de una circunferencia. La representación de cada variable en función del tiem po
y el correspondiente espacio de fases se puede ver en la figura 2 .1 .
En tod os los sistemas dinámicos tratados en este libro se supone que la solución de la EDO
correspondiente existe. Obsérvese que prácticamente todas las EDOs que veremos pertenecerán
a sisteméis físicos, reales, que efectivamente tienen una cierta evolución temporal, por tanto las
soluciones de las ecuaciones que los describen deben existir, ya sea en forma analítica o numérica.
El lector interesado en la existencia y unicidad de solución de las EDOs puede consultar Arnold
(1995) o B oyce y DiPrirna (1983), por ejemplo.

En cu a n to a las aplicaciones, x >— ►g (x ; p ), rara vez seremos capaces de encontrar una solución
cerrada para la iteración m -é sim a en función de la condición inicial. La aplicación también se
escribe usualm ente en la forma

Xm+I = g(xm:p)

http://librosysolucionarios.net
Sistem as Dinámicos 45

-i-
O 10 20 30 40 £ 50

Figura 2.2: Evolución temporal de la aplicación x m+ i = ¡xxm para ¡x — —U.y. La línea discontinua
se ofrece únicamente com o ayuda visual.

don d e se indica que el punto x m+ i depende de la localización del sistema en la iteración anterior
( x m) y del conjunto de parámetros fx. La dinám ica de las aplicaciones no es una curva continua,
sino una colección discreta de puntos. Entre un punto y el siguiente dista una iteración, que
representa cierto intervalo de tiem po que depende de cada aplicación. Este intervalo puede ser eí
tiem po de respuesta de un aparato de medida, p o r ejem plo, o en un caso que verem os en todo
detalle, el tiem po entre generaciones en una especie animal, descrito por la llamada aplicación
logística.

Consideremos un caso particular sencillo de aplicación discreta en una dimensión:

2-m+ l = fXXm
Si partim os de cierto punto inicial xo, las iteraciones sucesivas serán x¡ — ¡jxq. X2 = fxxi = /i 2xq ■
X3 = fix 2 = /i2x t = //3xo , y en general,

Xfc = fxkx 0

Para este caso sencillo sí podem os obtener una solución analítica para cualquier iteración cono­
cien do el punto inicial. Además, en función del valor de fx podem os describir rápidamente la
dinám ica del sistema:

1 . si |^| < 1 el sistema tiende al punto final x ¡ — 0. de forma m onótona decreciente si /i > 0 y
de forma oscilante si /¿ < 0,

2 . si |/z| > 1 el sistema diverge a infinito para k —♦ 00, de forma m onótona creciente u oscilante
dependiendo del signo de fc, com o en el ca so anterior,

3. si \(i\ = 1 el sistema permanece en el punto inicial xq para ¡x > 0, y oscila entre xo y —xo si
ix < 0-

La figura 2.2 representa la evolución tem poral del sistema para ¡x = —0.9. El espacio de fases
es en este caso unidimensional.
C uando la aplicación sea ínvertible, es decir, cuando exista la función inversa de g (x ;/¿ ),
g - 1(x ; /í), será posible estudiar la secuencia doblem ente infinita

http://librosysolucionarios.net
46 Orden y Caos en Sistemas C om plejos

{...,g ’1(x 0; ^ ) , . . . , g ~ 1(x 0;/j ) , x 0, g ( x 0; p ) , . . . , g ' l ( x 0; p ) , . . . }

donde g n se define de forma inductiva com o

g n(x 0; p) = g { g n - l (xowO)

Si g (x ; p.) no es invertible, sólo es posible estudiar la secuencia

{ * 0, g ( x 0;p ), g 2(xo; p ), ■••, g n(x 0; /O, •■■}

2.1 S istem a s dinám icos continuos

2.1.1 Sistem as lineales autónom os en R rl


Un sistema autónom o de ecuaciones diferenciales es aquel en el que el tiem po no aparece de form a
explícita en las relaciones que verifican las derivadas temporales de las variables del sistema, es
decir, el sistem a de ecuaciones diferenciales es de la forma

£ = F ( x (í ) ; „ : ( 2 .2 . 1 )

donde x 6 R.n , p representa los parámetros del sistema y el tiem po t sólo está representado de
forma im plícita en la colección de variables x = { i l , i 2r . . , i : n} , y n o aparece explícitam ente en las
ecuaciones. A dem ás, diremos que el sistema de ecuaciones diferenciales es lineal s\ en las funciones
F sólo aparecen términos de la forma 0ijX{ en la definición de la variable t j \ una variable depende
de las demás a través de términos multiplicativos constantes, y no a través de productos de dos o
más variables o de funciones de éstas. Así, si el sistema de ecuaciones diferenciales es autónom o y
lineal tiene la siguiente expresión sencilla:

x = Ax

donde A es u n a matriz de coeficiente constantes 2. De forma más explícita:

/ ¿1 \ / 01 i 3 12 3 ln N
¿2
_ 021 022 ■ 02n *2

3n2 ■ 3nn/ \x« /

En este caso, la solución del sistema se puede hallar analíticamente y es posible conocer el com p or­
tamiento del sistema (dadas unas determinadas condiciones iniciales) en todo el espacio de fases
del mismo.
No vamos a analizar en este libro cuáles son las técnicas que se pueden emplear para solucionar
en general sistemas de ecuaciones diferenciales. Cuando tratábamos con sistemas com plejos, que
presentan com portam ientos "com plicados" en su espacio de fases, no es habitual que se pueda
encontrar una solución analítica para la evolución dei sistema. Esto obliga a utilizar técnicas de
estudio del sistem a a nivel local, esto es, cerca de los denominados puntos fijos. Iniciamos el estudio
de estos pun tos fijos y del tipo de estabilidad que presentan con los sistemas lineales anteriores.

2E n p rin c ip io p o d r ía ap a recer un térm ino in depen dien te que sim p lem en te sig n ific a u n a traslación d e l o r ig e n de
c o ord en ad as, d e fo rm a q u e el sistem a tendría la form a m á s general X = A x + p. E ste térm ino in d e p e n d ie n te
p £ R n puede se r re a b so rb id o m ediante un c am b io a d e c u a d o de c oord en ad as, c o m o se verá m á s ad ela n te.

http://librosysolucionarios.net
Sistem as Dinám icos 47

Un punto fijo es aquel punto del espacio de fases en el que las variables del sistem a presentan
una variación nula (derivada nula) en ausencia de perturbaciones. Por tanto, pueden ser hallados
com o soluciones de la ecuación

Ax = 0

2.1.2 Sistem as lineales autón om os en R 2


Utilicemos un ejem plo sencillo en R 2 que nos permita ver de forma intuitiva cuál será el com por­
tam iento del sistema cuando nos separemos muy ligeramente de un punto fijo. Considerem os el
sistema

j = AS= p .u ( Xl
dí \021 022 j \x2

y supongam os que el determinante de A es no nulo:

d e t(A ) = 0 i 1022 ~ 012021 í 0

En este caso, el origen ( r j , xT) = (0, 0) es de form a trivial un punto fijo del sistema. La soluciones
de este sistem a lineal están determinadas por los valores propios de la matriz A . La expresión

d e t (A — AI) = 0

prop orcion a en este caso dos valores para A, los valores propios de A . Aquí, I — ^ ^ es la

matriz identidad en R 2. Obtenemos

0i\ — A /3i2
— (011 — X)(022 — A) — 012021 — 0
021 022 — A

que p rop orcion a la ecuación de segundo grado

A2 - T r A -fi det A = 0

donde T r A es la traza de A , T r A = 0 n + 022■ Obtenemos, pues

T r A ± s/{T r A )2 - 4 d et ( A )
A4- = : -----------------------------------------
* 2
Considerem os también los vectores propios de la matriz A , que estarán dados p or la ecuación

A x ± = A-fcX± (2.2.2)

Én este caso serán dos vectores propios, cada uno correspondiente a uno de los valores propios
anteriores. El sistema lineal admite finalmente una solución exacta de la forma

x = c1eA+íx+ + C2CX~tX-

Las dos constantes de integración c\ y C2 dependen de las condiciones iniciales del sistema. Se
puede observar en esta expresión general que la tendencia del sistema a largo término depende del
signo de los valores propios, X±:

http://librosysolucionarios.net
48 Orden y Caos en Sistem as Com plejos

1. si 3?(A± ) < 0. para los dos valores propios, entonces el punto xo = (0, 0) es asintóticamente
estable 3,

2. si existe al menos un valor propio con parte real positiva, entonces xo es inestable,

si = 0 para los dos valores propios, o bien la parte real es cero para uno y negativa
para el otro, entonces xo es estable, pero no asintóticamente.

Ilustraremos lo anteriormente visto con un ejem plo concreto.

Ejem plo

¿1 = X \ + 22

¿ 2 = 42! + 22

En este caso, A = ^ ^ j ^ , y sus valores propios están dados por

( l - X 1 \
d et(A - AI) = ( l l ) —A ( 1

<—»

I
>
V4 i /
(1 - A )(l — A) — 4 = 0 proporciona la ecuación de segundo grado A2 — 2A — 3 = 0, la cual tiene
com o soluciones

A+ = 3 , A_ = - 1

Los vectores propios asociados se calculan a partir de (2.2.2), o bien (A — A I)x ± = 0 . Para A+ = 3
obtenemos

-2 1
4 -2

que tiene com o solución x + = (1 ,2 )4. Para A_ = —1,

2 1
4 2

que proporciona x _ = (1, —2). Así que la solución del sistema es

Si tomamos com o condición inicial que en el instante t = 0 el sistema se hallaba en el punto


x (f = 0) = ( 1 , 1 ) podem os determinar las constantes de integración por simple sustitución,

Ci 1 2 j + c2 \ _ 9

que inm ediatamente proporciona c\ = 4 /3 y C2 = —1/3. Incluyendo la condición inicial escogida,

X 3 12 3 1 -2

3 9?(A) sig n ifica parte real de A . V é a s e la sección 3 -5 .1 si se requiere algu n a e xp licación a d icio n a l.
4Y cualquier c o m b in a c ió n lin e al d e este vector.

http://librosysolucionarios.net
Sistemas Dinámicos 49

Los valores propios de la matriz de coeficientes constantes del sistema dinám ico permiten una
clasificación de los diferentes puntos fijos que se pueden hallar en R 2. Utilizaremos la siguiente
notación: p = T r ( A ) , q = d e t(A ).

• a. Raíces reales y distintas: (p2 — 4g) > 0.


1. Si q > 0, las raíces tienen igual signo. Si < 0, x<, es estable.
2. Si \± > 0, xo es inestable.

En estos dos casos el punto fijo se denom ina nodo. Será estable en el prim er caso (las
trayectorias se m overán acercándose al punto fijo) e inestable en el segundo (las trayectorias
se alejarán del punto fijo).
3. Si q < 0, las raíces pueden tener signo diferente. En el caso de que así suceda se denomina
al punto fijo punto de silla.

• b. Raíces iguales: (p 2 — 4<j) = 0.


La solución general de la ecuación no es la dada anteriormente (donde se suponía que los
valores propios eran diferentes). El punto fijo se denomina en este caso nodo propio, si las
trayectorias se aproxim an con pendientes diferentes ai punto fijo, o bien nodo impropio, si
todas las trayectorias acaban llegando al pun to fijo con la misma inclinación.

• c . Raíces com plejas: (p2 — Aq) < 0.


Si p ^ 0, se obtiene un fo co estable para p < 0 y un fo co inestable para p > 0. Las trayectorias
convergen a o divergen del punto fijo xo en forma espiral.

• d . Raíces com plejas puras: p = 0 ,g > 0.


Las trayectorias se cierran en este caso alrededor de x 0, y el punto fijo se denom ina centro.

Un último caso, bastante excepcional, se puede encontrar cuando d e t (A ) = 0, es decir, la


matriz A es degenerada. En este caso, las soluciones poseen un grado de libertad: son trayectorias
paralelas que convergen a una única recta (recta degenerada). La solución al sistem a propuesto
con esta particularidad no es única.

La clasificación anterior se puede resumir en un único esquema donde podem os situar todos los
puntos fijos posibles en función de los valores que toman p v q. El esquem a se representa en la
figura 2.3.

2.1.3 E jem plos en R 3


Cuando pasamos al estudio de la estabilidad de los puntos fijos en R ” , podem os utilizar una total
analogía con el análisis efectuado en R 2. Siempre será necesario obtener el valor del punto(s)
fijo(s) xo £ R n y estudiar el sistema de ecuaciones diferenciales en un entorno de este punto.
Serán los valores propios los que permitirán de nuevo determinar la estabilidad y la tendencia de
las trayectorias a los puntos fijos, independientemente de las dificultades que podam os encontrar
en la obtención de la solución com pleta del sistema (si es que existe). Utilizarem os dos ejemplos
concretos en R 3 para ilustrar la forma de proceder en el estudio de la estabilidad de los puntos
fijos.

http://librosysolucionarios.net
50 Orden y Caos en Sistemas C om plejos

Figura 2.3: Clasificación de los puntos fijos de los sistemas de ecuaciones diferenciales en dos
dimensiones; p = traza de A , q ~ determinante de A .

E jem plo 1

x — —ax

y = x ~Zy

z - - ( z + y)

Este sistema es de la forma x = A x , con

-a 0 0
A = ( 1 -3 0
0 -1 -1

Los puntos de equilibrio corresponden a la solución de x = 0:

ax ~ 0

x — 3y — 0

z-yy ~ 0

que tiene com o única solución el origen, x" = (0 ,0 ,0 ) cuando a £ 0. Los valores propios de A
asociados a x ‘ serán

-a - A 0 0
d et(A - AI) = 0 1 -3 —A 0 = 0
0 _i —1 — A

http://librosysolucionarios.net
Sistemas Dinámicos 51

que proporcion a

Ai ~ —a, A2 = —3, A3 = —1

D ependerá det signo del parámetro « que el punto fijo sea estable o inestable. Para a > 0, x '
será asintóticam ente estable (n o d o estable), y para a < 0 será inestable (punto de silla), con
dos direcciones estables, dadas por los vectores propios asociados a A2 y A3, y una inestable,
caracterizada por el vector propio asociado al valor propio positivo.

E jem p lo 2

x — x — y + 4z + 2

y = 3x -f 2y — z + 1

z = 2x + y ~ z + l

El p u n to fijo resulta ser x ' = ( —1 ,1 , 0). Mediante este ejemplo verem os que con un simple cam bio
lineal de coordenadas podem os trasladar el punto fijo al origen y estudiar el sistema co m o en los
casos anteriores. Realicemos el ca m b io siguiente: x = x - | - l , y = y — 1, z = 2. Derivando estas tres
expresiones y sustituyendo las variables x, y y z por las nuevas con tilde se obtiene:

x = x = x - y Jr 4 z + 2 = . . . — x ~ y + 4z

y — y = Zx 2y — z + l = . . . = 3 x -(-2 y — z

: = ¿ = 2x + y - z + l = . . . = 2x + y — z

Tom em os pues el segundo sistema, sin términos independientes, y estudiemos el com portam iento
del origen, una vez hemos visto que es equivalente al primero. La m atriz lineal asociada es

El estudio de d e t(A — AI) = 0 p roporcion a los valores propios

Ai = l, A2 = - 2 , A3 = 3

Así que el origen es un punto de silla estable en una dirección e inestable en otra. Estas direcciones
están dadas (y se pueden calcular fácilm ente) por los vectores propios asociados a cada uno de
ios valores propios, com o se lia d icho anteriormente. Los vectores propios son los que permiten
diagonalizar la matriz A (mediante un cam bio de coordenadas dado p or estos), y podríam os hacer
coincidir las direcciones de estabilidad e inestabilidad con las de los ejes coordenados.

V ariedad estable, inestable y centro de los puntos fijos

A provecham os la discusión iniciada sobre el papel de los vectores propios en la determ inación de las
direcciones de estabilidad e inestabilidad para introducir la idea de variedad asociada a un punto
fijo.

http://librosysolucionarios.net
52 Orden y Caos en Sistemas Com plejos

Teorem a

Consideremos el sistema lineal x = A x . Entonces R " = E* 0 E c -9 E u, donde E*, E c y E u


son subespacios invariantes, correspondientes a los valores propios A de A con 9?(A) < 0. 3í(A) = 0,
!R(A) > 0. respectivamente, que verifican:

yo £ E ‘ = > lim y (t,y o ) = 0 ' lim y (f,y o ) = oo, exp on en cia lm en te


t —-OO t — — oo

yo £ E v lim y ( t , yo) = oc A lim y (í, yo) = 0, exp on en cia lm en te


t — oo t — — oo

Los subespacios E *, E c y se denominan variedad invariante lineal estable, centro e inestable,


respectivamente.

En el último ejemplo (2) estudiado, dados los valores propios, podem os ver que E s será un
espacio de dimensión 1 (una recta) y E u un espacio de dimensión 2 (un plano). Se puede verificar
que los dos vectores propios que determinarán el plano y el vector propio que determinará la recta
estable son linealmente independientes, y por tanto R 3 = E 3 © E u, el espacio de dimensión 3 se
podrá descomponer com o suma directa de los dos subespacios, o, dicho de otra manera, los tres
vectores propios serán una base de R 3.
Veámoslo de forma explícita. Los vectores propios asociados a cada uno de los valores propios
serán v , = (:c»,yt,z¿), con i = 1 ,2 ,3 , v se obtienen de la resolución explícita de la ecuación
( A - A ;I)v ; = 0:

v.*,)(::).(»)
(3 -I 4\ / z 2\ /0\
A2 = - 2 = > ( 3 4 - l j j = ^0 j = > » 2 = (1 ,-1 ,-1 )

Una base de E * es el vector i>2 = (1, - 1 , - 1 ) . Una base de E u la constituyen los vectores tq =
( 1 , —4 , —1) y t?3 = ( 1 ,2 ,1 ). Se puede comprobar que son linealmente independientes, aunque no
ortogonales. Véase la figura 2.4, donde se han representado los dos subespacios determinados por
los vectores propios.

2.1.4 Estabilidad en sistemas no lineales


Quizá es ahora el momento de formalizar aígunas de las cuestiones relativas a la estabilidad de los
puntos fijos de un sistema. Y a hemos visto que los valores propios de la matriz de coeficientes, en el
caso lineal, proporcionan en criterio de estabilidad para los puntos de equilibrio. D ada la relativa
facilidad con que podem os calcular la solución explícita de un sistema lineal, es fácil demostrar
cóm o los valores propios determinan la convergencia o la divergencia de pequeñas perturbaciones
alrededor del punto fijo. Pero cuando comenzamos a trabajar con sistemas no lineales, es lícito
cuestionarse si podem os adoptar sin ningún problem a el mismo criterio de estabilidad. En esta
sección justificaremos el uso de ciertos criterios y veremos cuándo el estudio del sistema lineal es
suficiente para determinar el com portam iento del sistema no lineal.

http://librosysolucionarios.net
Sistemas Dinámicos 53

Figura 2.4: Representación de los subespacios invariantes del sistema resuelto en el ejem plo 2 de la
sección 2.2.3. El plano rayado es una variedad inestable, y la recta que lo interfecta es la variedad
estable.

Consideremos, en primer lugar y a m o d o de introducción (también útil para fijar conceptos ya


vistos), el com portam iento de un sistema no lineal en una dimensión alrededor de un punto de
equilibrio. Supongam os una ecuación diferencial de la forma

d x t í \

Los puntos de equilibrio satisfacen /^ ( x ) = 0. Supongamos que la solución de esta ecuación


proporciona el punto fijo x ", y realicemos un pequeño desplazamiento alrededor de él.

y(t) = x(f) - j;-

con |y(í)| < < 1 , lo que significa que la trayectoria x (í) será muy cercana al punto fijo. Podem os
entonces considerar un desarrollo

+ 0 (2)

donde indicamos por 0 ( 2 ) las derivadas de orden superior respecto de x. Considerando únicamente
el desarrollo a primer orden

dy _ df pj x)
dt dx

que puede ser inmediatamente resuelto:

y(t) = y ( 0) e ' > ‘ )í

Este resultado da un crecimiento de la perturbación para

X= dfÁ*) > 0
dx

http://librosysolucionarios.net
54 Orden y Caos en Sistem as C om plejos

y un decrecim iento en caso contrario (A < 0). Veremos que, en el caso marginal A = 0 laestabilidad
ha de ser decidida mediante el estudio de los términos de orden superior, ya que, si elsistema es
no lineal, serán estos los que influirán decisivamente sobre este caso de estabilidad indecidible.
Podem os tener varios puntos de equilibrio x ’ , y su estabilidad puede analizarse grá/i« cimente con
m ucha facilidad simplemente inspeccionando la pendiente local de la gráfica de /^ ( x ) en los puntos
de corte con el eje x, que corresponden obviamente a los puntos críticos.

Consideremos de nuevo un sistema en R " , ahora no lineal, de la form a general

~ = F „ (x (í)) (2.2.3)

d onde F p es una función arbitraria de las coordenadas del sistema. O btendrem os los puntos
estacionarios com o las soluciones de F ¿,(x(t)) = 0. En general, tendremos un con ju n to de puntos
de equilibrio

r „ = { a * ; F m(x ¿ ) = 0 , ke'N}

que verifican la condición.


Daremos a continuación las definiciones básicas que posibilitan la definición y la clasificación
de los diferentes tipos de estabilidad.

D efinición

Sea Xo £ W un punto de equilibrio de F fl(x (í)) E C l { W ) Diremos que xo es un punto de


equilibrio estable si y sólo si para tod o entorno U de xo £ existe un entorno U\ € U de xo tal
que cualquier solución x ( í) que parta de Ui está definida y permanece en U, Vf > 0.

O bien podem os considerar la definición alternativa:


Una solución x (í) del problem a (2.2.3) es estable en el sentido de Lyapunov si:

Ve > 0 , Vt > 0, 3 tj > 0; ¡¡x0 - x¿|| < r¡ = > Vi > ¿0, Jjx - x '¡¡ < e

donde x '( í ) es solución de 2.2.3 con condición inicial dada por Xq.

Definición

Una solución x (t) del problem a (2.2.3) es asintóticamente estable (en el sentido de Lyapunov)
si:

Vf € R 3 t] > 0; ||xo - x¿|| < r; = > iim ||x - x'j| = 0


í — oo

La siguiente definición es particularmente im portante, y hace referencia a la estabilidad cuali­


tativa global de las trayectorias del sistema.

Definición

El sistema definido por 2.2.3 es estructuralmente estable si se verifica que

Ve > 0, Vi £ R . 3í7 > 0; ||/J - p'¡l < r) =>■ ||x — x'|| < e

donde x ' es una solución de 2.2.3 con parámetro p'.


En otras palabras, 2.2.3 es un sistema estructuralmente estable si permanece equivalente a sí
m ism o tras una pequeña perturbación del cam po vectorial.

s ig n ific a que la prim era d eriv a d a d e u n a función es c o n tin u a en el d om in io W requerido.

http://librosysolucionarios.net
Sistem as Dinámicos 55

E jem p lo
La ecuación que describe el m ovim iento de un péndulo físico de longitud l y masa ni .-n presencia
de rozam iento (con coeficiente p) para pequeñas oscilaciones y sometido a la acción de la gravedad
g es

dt ¿ +
nil2~r¿ dt =o
para ¡x > 0 y 9 zs 0, el ángulo que el péndulo forma con la vertical. Si realizamos el cam bio

dd __ dx\
dt dt
— Xi

obtenem os

__ _ g _ p-
dt ~ l Xl rn l X2
dx i
dt X2
que representa un sistema autónom o lineal en R 2. En ausencia de rozam iento {fx = 0) el péndulo
describe trayectorias cerradas en su espacio de fases. Sin embargo, un cam bio infinitesimal en
el valor del parámetro da lugar a un nuevo com portam iento del cam po. Aparece un amor­
tiguam iento que provoca un cam bio de órbitas cerradas a un punto com o atractor del sistema. Si,
una vez ¡x 0 aumentamos su valor, obtendremos un cam bio cuantitativo (suave) en la velocidad
con que el sistema alcanza el punto crítico, pero no hallaremos ningún cam bio cu alitativo (com o el
paso anterior, de centro a foco) más. Aplicando la n oción de estabilidad estructural podem os decir
que el péndulo con rozamiento es estructuralmente estable, mientras que en ausencia de rozamiento
( estado marginal) no lo es.

T eorem a
Sea W C R n abierto, y sea el sistema dinámico 2.2.3. Supongamos que Xo e> un punto de
equilibrio estable de 2.2.3. Entonces, ningún valor prop io de la matriz D F M(x o ) tiene parte reai
positiva. La matriz D F ^ (x o ) es la llamada matriz jacobian a de la función F^, y sus elementos son
las derivadas

dF'
[DF„]i> = “
dxj

Definición
Direm os que un punto de equilibrio es hiperbólico si D F ^ fx o) no tiene valores propio» con parm
real nula.

C om o consecuencia del teorema y la definición anteriores, un punto de equilibrio hiperbólico e-


o bien inestable o bien asintóticamente estable.

C u an do debamos analizar la estabilidad de los puntos de equilibrio de un sistema de EDOs n<>


lineal, hallaremos primeramente cuáles son estos puntos fijos, y seguidamente efectuaremos un:;
linealización del sistema alrededor de éstos. Consideremos xo com o la solución de equilibrio dei
sistem a 2.2.3 y la aproximación definida por

http://librosysolucionarios.net
56 Orden y Caos en Sistemas Com plejos

F"(xo + x') = F , M + ( ^ i) *+¿(5£) x* +

Esta expresión podría ser muy com pleja, pero es posible simplificarla utilizando el principio de
estabilidad lineal, que establece la relación entre el sistema no lineal y el linealizado, en el que se
omiten los térm inos de orden superior. Esta relación será inm ediatamente formalizada. Utilicemos:

MEL -h*=Hf£Lxx+--
para los términos lineal y no lineal, respectivamente, con lo cual los sistemas

dx = L
r „ x +, u ( \
h „(x) y dx
a<-=^x

representan el sistem a no lineal y el lineal asociado, admitiendo am bos com o solución el punto fijo
xo - 0. Los teorem as que los relacionan son los siguientes:

T e o r e m a de Hadamart-Perron (puntos hiperbólicos)

Si F € C T y xo es un punto hiperbólico, entonces existen dos variedades invariantes. W a y


TU* que pasan p or xo y son tangentes a las variedades invariantes lineales estable e inestable,
respectivamente. Se verifica:

x GWs lim <£(£,x) = xo, ex p on en cia lm en te


t —* c c

x GWu=> lim $ ( f , x ) = xo, ex p o n en cia lm en ie


t—► —oo

donde $ ( f , x ) es una solución del sistema 2.2.3.

T e o r e m a de Hartman-Grobman

Sea U C R ” un subconjunto abierto que contenga el origen, sea F ^ (x , t) € C l {XJ) y el flujo


del sistema no lineal dtX = F ^ (x, £). Supongamos que F (0 ) = 0 y que la matriz A = D F (0 )
no posee ningún valor propio con parte real cero. Existe un hom eom orfism o 6 H de un conjunto
abierto V con 0 £ U en un conjunto abierto W (también con 0 G W ) tal que para cada punto
xo G V >existe un intervalo abierto / q G R que contiene el cero tal que Vxo G V y Vt G -fio se verifica

i f o 4 . « ( x „ ) = CA ' i f ( x 0 )

es decir, H aplica las trayectorias del sistema no lineal cerca del origen en las trayectorias del
sistema lineal, también cerca del origen, y preserva la parametrización.

Queda finalmente por establecer cuándo se dau ias condiciones necesarias para que aparezca
una variedad centro, ya que acabamos de ver la correspondencia que es posible establecer entre
las variedades lineales estable (E *) e inestable (E “ ) y las variedades no lineales correspondientes
(lU* y respectivamente), esto es, en los casos en que la parte real de los valores propios de la
matriz lineal es no nula.

V é a s e la sección 3 .2 .3 p a ra la definición d e h o m eom orfism o.

http://librosysolucionarios.net
Sistemas D inám icos 57

T e o r e m a . Existencia de variedad centro

Si F E C r *~í y xo es un punto fijo:


i) Existen tres variedades invariantes \VU, W s (que son C r+ 1) y W c (que es C r ) tangentes
a las variedades lineales estable, inestable y centro, respectivamente. El com portam iento de las
soluciones en W u y IV S es el mismo que en el teorema de Hartm an-Grobm an. Se puede demostrar
que W c contiene dos subvariedades invariantes, W cu E C T y W cs E C r que satisfacen

x € W Ci = > lim $ ( í , x ) = x 0
í— 00

x E W cv = » lim x) = xo
I— -o o

ii) Existe un homeomorfism o h en un entorno de xo tal que la ecuación transformada se escribe

x = —x, para h ~ l ( x ) E W ‘

y ~ y, para h ~ l( x ) E W u

z = /( - ) > para h ~ 1( x) E W c
Las variedades W 1, W c y W u se denom inan variedad invariante estable, centro e inestable, respec­
tivamente. La variedad centro no es única.
El com portam ien to de las soluciones sobre la variedad centro depende de los términos no lineales
de la ecuación, y por tanto los límites para í —* ±00 no serán en general exponenciales. Esto im plica
que, usualm ente, será posible observar la dinámica sobre la variedad centro, dado que W s y W u
producen una variación mucho más rápida sobre las soluciones $ ( x , í), y éstas caen a W c . Veremos
claramente cóm o se produce esta pérdida de importancia de unas variables respecto de otras en la
próxim a sección, donde estudiaremos el llamado principio de con trol ( “slaving principie” ).

C on los teorem as anteriores hem os demostrado que, en el caso de tener valores propios con
parte real n o nula, podem os estudiar y determinar la estabilidad del sistema no lineal utilizando
su linealización correspondiente alrededor del punto fijo. Los ejem plos siguientes ilustran la forma
general en que debem os proceder.

E je m p lo 1

Estudiarem os brevemente un sistema dinámico bastante co n o cid o , el Brusselator. Este sistema


proviene de un m odelo de reacción quím ica que, para ciertos valores de los parámetros, puede
producir oscilaciones en la concentración de los com ponentes (ciclos limite). No llegaremos al
cálculo de estos ciclos límite, que serán introducidos en el capítu lo sobre atractores periódicos,
pero clasificarem os la estabilidad de sus puntos fijos ateudiendo al criterio enunciado en la sección
2 .2 . 2 .
La reacción química que da lugar al m odelo del B russelator consta de dos pasos intermedios
acoplados y de un paso autocatalítico, y se la trata habitualm ente com o reacción irreversible:

a >— » x

b 4- x <
— ►y + d

2x + y •
— ►3x
x .— > /

Se supone que las concentraciones de a y b se pueden gobernar desde el exterior y que el sistema es
espacialmente hom ogéneo, con lo cual las ecuaciones correspondientes a las velocidades de reacción
son

http://librosysolucionarios.net
58 Orden y Caos en Sistem as Com plejos

d.X n
— = a - b x + x*y - x
dt
dy 2
-di = bx- x v
con a, 5 > 0, lo cual corresponde a las soluciones con significado físico. Cuando igualarnos ambas
derivadas a cero obtenem os el único punto fijo del sistema (para cada pareja de parám etros),

b
a, ~
a
La estabilidad de x* puede estudiarse a partir de la traza y el determinante de la matriz lineal en
el punto:

a partir de la cual obtenem os


= i)
q = det ( D F ) = a2 > 0, p ~ T r ( D F ) = b - 1 - a2

El determinante de la matriz lineal es positivo para cualquier com binación de parám etros, mientras
que el signo de la traza y su valor permitirán una clasificación del espacio (a, 6) en diferentes
dominios con diferente estabilidad para el punto fijo. P odem os establecer lo siguiente:

• p > 0 y p 2 > 4q b > 1 + a2 y 6 > a2 + 2a + 1, y tendremos en este dom inio nodos


inestables.

• p > 0 y p 2 < 4q = > b > 1 + a 2 y b < a 2 + 2a + 1 , dom inio de focos inestables.

• p < 0 y p 2 > 4q ==$> b < 1 + a2 y 6 < a 2 — 2a + 1 , donde encontramos n odos estables.

• p < 0 y p 2 < 4q = > b < 1 + a 2 y b > a2 — 2a + 1, correspondiendo a focos estables.

Las curvas sobre las que se da la igualdad en los casos anteriores corresponden a puntos par­
ticulares, com o centros, que no hallaremos en realidad, ya que resultan destruidos en este caso
por los términos no lineales. La figura 2.5 muestra el espacio de parámetros del sistema con los
dominios correspondientes a cada tipo de punto fijo.

E jem plo 2

x — ~ a x + X2

y= x-Zy
z = ~ ( z + y)

que podem os escribir com o x = A + F (x , y, z) , con

F ( x , y ,z ) =

En este caso los puntos de equilibrio corresponden a la solución de x = 0,

—a x + x 2 = 0

http://librosysolucionarios.net
Sistemas Dinámicos 59

Figura 2.5: Espacio de parámetros del Brtisselator, donde se muestra el tipo de estabilidad que
presenta el punto fijo en función de los parámetros a y ó.

x — 3y — 0

-(z f y) = 0

que tiene com o solución los puntos x j = (0 ,0 ,0 ) y = (a, a / 3 , —a /3 ) , para a 0, que es el


parám etro del sistema. Tenem os, por tanto, dos puntos alrededor de los cuales linealizar. En
general 7

/ —a + 2x 0 0
L= 1 -3 0
\ 0 - 1 - 1

Para x^ = (0, 0, 0),

—a 0 0 \
1 -3 0
0 -1 - l )

y obtenem os los valores propios de

.- A 0 0
OJ

1 0
1
1

det (Lx* — AI) = = 0


>

0 -1 -1 -

que proporciona A^ — —a, A2 = —3, A3 = —1 .


Para x j = (a, a /3 , —a /3 )

Lx . = 1 -3 0

7 E l c a m b io de c o o r d e n a d a s que se h a realizado an teriorm ente p a r a trasladar un p u n to fijo a r b itra r io al origen es


e q u iv a le n te a c o n sid e ra r l a m a triz L d e derivadas p rim eras del s is te m a y sustituir e n e lla e l v a lo r d e c a d a uno de los
p u n to s fijo s, c o m o e l le c to r p u e d e fá c ilm e n te com p rob ar. E n el c a s o d e los sistem as n o Lineales, e l u so de la m atriz
de d e riv a d a s es m á s sim p le .

http://librosysolucionarios.net
60 Orden y Caos en Sistemas C om plejos

y sus valores propios son Xi = a, A2 = - 3 , \3 — —Y.


Observemos que depende deí signo del parámetro a que los puntos sean estables o inestables.
Si a > 0, xj es asintóticamente estable (todos sus valores propios tienen parte real n egativa) y
X2 es inestable, por existir un valor propio con parte real positiva. Si a < 0, la estabilidad de los
puntos fijos se intercambia. En el caso a = 0 la estabilidad es indecidible, y está determ inada por
el término de orden superior x 2. En este caso, sin embargo, la estabilidad se puede decidir por
simple inspección. Observemos que el término x 2 (el único presente en la ecuación de x cuando
a — 0) implica en cualquier caso un crecimiento de la variable x (x 2 > 0 = > ^ > 0), así
que cualquier pequeña variación alrededor del punto x = (0, 0, 0) im plica que éste escapará en la
dirección del vector v c = ( 3 , 1 , - 1 ) (es el vector asociado al valor propio nulo, que determ ina la
dirección tangente a la variedad centro en el punto fijo), inicialmente. La variedad, ahora, sólo es
lineal localmente, así que la trayectoria se desviará de la recta que m arca v c.

E je m p lo 3

x — a( e x - 1 ) — sin(y)

ij-ay-z
a x 4- a
l - z 1 +

El único punto fijo de este sistema es el origen de coordenadas. Para encontrar la parte lineal de
este sistema, desarrollaremos las funciones que aparecen en series de Tavlor alrededor del origen

dnW = „ - ¿ + g - . . . (e* _ i ) = , + g + J + ...


1 = 1 + z + z2 + z3 + . . . Z - - T = 1 - y2 + y* - yG + . . .
1- z 1+ y
y sustituyendo obtenemos

ax2 v3 „,
x = ax + — y + — + 0 (4 )
¿ o

y - ay - z

¿ = a (l + r + z2) - ( r + o ) ( l - y 2) + 0 (3 )

El sistema a primer orden (parte lineal) queda simplemente

¿ = ax — y

y - a y - z

z = az - x

El cálculo de los valores propios en la forma ya conocida proporciona

Ai ~ a — 1, A.f = — 4 o 4 i v^3, A_ — — -f-a — i \/3


¿d ¿d

Debido a que existen dos valores propios con parte imaginaria, las trayectorias siempre entrarán
al (o saldrán del) punto fijo “oscilando” , en forma de espiral. Un razonamiento sencillo cu alitativo
permite ver porqué esto es así. Pensemos que la solución del sistema de ecuaciones diferenciales
presenta términos de la forma eA', en función de los valores propios. Si A, presenta una parte
compleja, basta con recordar la notación exponencial de las funciones trigonométricas (c o s (0) =

http://librosysolucionarios.net
Sistem as Dinámicos 61

( et&+ e ~iff)/ 2, por ejemplo) para relacionar los valores propios complejos con el m ovim iento circular.
Las partes no lineales de las ecuaciones desviarán la trayectoria de la espiral perfecta, pero la
top olog ía no se verá afectada.
Clasifiquemos ias diferentes situaciones que podem os encontrar en función de los valores de a:

• a < —A en este caso, el origen es estable. Sólo existe W %C R 3. El punto fijo es un fo co (por
la parte com pleja de los valores propios) estable.

• a = — Es éste un pun to singular, en donde el punto fijo pierde su estabilidad y “ emite”


una órbita periódica. Se produce entonces lo que se llama una bifurcación d e H o p f que será
descrita en el capítulo 4. A parece para este valor del parámetro la variedad centro, W c C R 2.
mientras que W * C R .

• ~ < a < 1. En este caso, 3£(A±) > 0 y tenemos W u C R 2 y f t( Ai ) < 0, y resulta


W * C R - Existen p or tanto dos direcciones inestables dadas localmente p o r los vectores
propios asociados, y una dirección estable. Las variedades invariantes ya no son lineales, y
por tanto sólo podem os pensar en planos o rectas en un entorno infinitesimal del punto fijo.
A l alejarnos, los términos no lineales deforman los subespacios W u,í\

• a = 1. Existe aquí una nueva bifurcación, aparece otra variedad centro de dim ensión 1 y
tenem os también una variedad inestable de dimensión 2.

• a > 1. El punto fijo es ahora inestable en todas las direcciones: W v C R 3-

2 .2 E l Principio de C on trol ( Slaving Principie)


Eí principio de control, que describiremos a continuación, fue enunciado por H erm ann Haken
(1977). El principio se basa en la separación de escalas temporales que se puede realizar entre
las n variables de un sistema dinám ico, y permite entender porqué un sistema que aparentemente
posee m uchos grados de libertad puede ser descrito en ocasiones con muy p oca s variables. Se
recom ienda que esta sección se relacione con lo anteriormente visto sobre reducción de la dinámica
a la variedad centro y con las secciones del libro en las que se habla de autoorganización. De hecho,
com o verem os seguidamente, la autoorganización puede también ser entendida considerando las
fuerzas com o parte del sistema dinám ico, y aplicando en el citado sistema el principio de control.

2.2.1 Organización
P odem os definir organización com o la forma coherente en que actúa un sistema b a jo unas órdenes
externas dadas. Se entiende que la finalidad de este com portam iento regulado es la producción de
cierto resultado o producto.
Traduzcam os lo anterior al lenguaje de las matemáticas. Consideremos el caso en que el
‘'efecto” , o la acción de las ‘"órdenes” externas pueda ser representado por una variable q, que
cam biará en un intervalo de tiem po A ? en una cantidad proporcional a la causa F . Así que
considerarem os ecuaciones de la form a

<jff) = F0(<?(f);f) (2.3.1)


En ausencia de fuerzas externas suponemos q — 0. y requerimos que el sistema regrese a este
estado cuando, una vez aplicada, la fuerza externa desaparezca. La ecuación más sencilla que
cum ple ambas exigencias es

q = 7q

http://librosysolucionarios.net
62 Orden y Caos en Sistemas C om plejos

con 7 > 0. Si se añade una fuerza externa, obtenemos

q = yq + F( t )

La solución formal de esta ecuación se puede escribir com o

*(t)= f e - ^ - r )F ( r ) d r (2.3.2)
Jo
despreciando los transitorios. En principio, la respuesta del sistema en el instante t depende de
toda la historia anterior (obsérvese que la integral se realiza sobre todos los valores de r hasta el
instante t considerado, y cuando t —* oo el limite superior de la integral diverge). Consideraremos
en lo sucesivo únicamente sistemas que presenten una respuesta instantánea a la acción de la fuerza.
Para aclarar el significado de esta suposición, considerem os un caso particular de fuerza.

F( t ) = ae ~6t

que permite la realización inmediata de la integral 2.3.2. con el resultado

Podemos ahora expresar cuantitativamente la condición de que q responda instantáneamente a la


fuerza:

7 > > 6

caso en el cual

?(<) « - e - “ = - F ( t )
7 7
Es decir, la constante de tiem po del sistema, t 0 = 1/ 7 debe ser mucho más corta que la constante
de tiempo que caracteriza a la fuerza, a Jas “órdenes", f — l/é. Esta suposición se denom ina
aproximación adiabática.
Observemos que habríamos llegado al mism o resultado de haber supuesto desde el com ienzo
q = 0. con lo cual habríamos obtenido

0 = - 7 q + F( t )

Estos resultados son inmediatamente generalizables a un sistema de n ecuaciones, en donde la


suposición de respuesta instantánea significaría considerar q = 0. para todas las variables.

2.2.2 A utoorganización
Podemos definir autoorganización com o el trabajo conjunto y coherente realizado por un sistema
en ausencia de órdenes externas, simplemente com o resultado del entendim iento m utuo entre las
partes que lo forman.

Debe resultar evidente que las fuerzas que actúan sobre un sistema no son nunca fuerzas exter­
nas e inamovibles. Cuando tratamos con sistemas abiertos (com o son la m ayoná de los sistemas
naturales, fuera del laboratorio) necesitamos introducir las fuerzas com o constituyentes dinámicos
del sistema: son las fuerzas las responsables de las acciones del sistema, pero pueden verse m odifi­
cadas por la respuesta que el sistema presente. Pongamos un ejem plo m ecánico. Imaginemos una
gran montaña (el sistema) sobre la que com ienza a incidir un viento fuerte (la fuerza) de. digamos.

http://librosysolucionarios.net
Sistemas Dinámicos 63

80 k m /h . El viento es el responsable de la lenta erosión de la montaña, para acabar con vertida


en llano (en ausencia de nuevas elevaciones geológicas del terreno). Por otra parte, el ca m b io del
paisaje tiene una influencia clara en la velocidad que este viento tom ará en los distintos puntos del
relieve. Las montañas apantallan el viento, los llanos no. Por tanto, sistema y fuerza no son dos
entidades independientes, sino partes de la descripción global del supersistema que constituyen.
Llamemos en vista de lo anterior 51 a la fuerza F anterior, y <32 ^ la variable q original, y
consideremos el siguiente ejemplo,

Qi = 7 i - aqiq2 (2.3.3)

q-¿ = I 2 Q2 + bq\ (2.3.4)

Supondrem os de nuevo que 52 tenderá a 0 en ausencia de 91, con lo cual 72 = 0. Supongam os que,
por analogía con el caso anterior,

72 > > T i

lo cual perm ite la resolución aproximada del sistema 2.3.4, utilizando <72 = 0 8, para obtener

92( í) « 72 1 b q lit ) (2.3.5)

Se dice, en vista de la respuesta inm ediata del sistema 52 a la acción de g j, que <22 controla la
dinámica. Sin em bargo, el sistema controlado 2.3.4 también actúa sobre 2.3.3. Si sustituim os 2.3.5
en 2.3.3 obtenem os

ab o
q 1 = - 7 i 9 i ---------- <?i
72

Este sistema se verá con detalle en el capítulo sobre atractores periódicos, ya que las ecuaciones
dinámicas de este tipo presentan dos tipos de solución a largo plazo, dependiendo dei signo de 7 *:
si 71 > 0, qi = 0, y por tanto también <72 = 0, así que no se produce ninguna respuesta en el
sistema; si 71 < 0, entonces existe una solución para el estado estacionario no nula,

y por tanto también qi ¿ 0. Este es un caso particular de lo que genéricamente se llama rotura de
simetría.

En el capítulo 7, cuando tratemos con los fenómenos críticos, se entenderá la denom inación
parámetro de orden que se da a la variable q\, la cual, a riesgo de resultar redundante, cuantifica
el grado de orden existente en el sistema 9.
En general, podem os denominar a las variables que controlan el sistema parámetros de orden ,
si la dinám ica en otros subsistemas está condicionada a la que presenten estos parámetros. G en e­
ralicemos las ideas anteriores a sistemas con n variables. Supongamos que tenernos un sistem a de
la forma

4i = - 7 iQi •••,«») (2.3 .6 )

8 N ó te se q u e es n e ce sario su p o n e r que las v a ria b le s p erm an ecen a c o ta d a s p ara re a liz a r e s ta a p r o x im a c ió n sin


p ro b le m a s.
9 C o m p á re se c on la tran sición c rítica que se p ro d u c e en los sistem as m a g n é tic o s , d e p a r a - a fe rro m a g n e tic o s . L a
variable <71 c o rre sp o n d e d ire cta m e n te a la m a g n e tiza ció n m .

http://librosysolucionarios.net
64 Orden y Caos en Sistemas Com plejos

S ubsistem as

Figura 2.6: Representación de la interacción entre los subsistemas de un sistema mayor y los
parám etros de orden, las variables que controlan la dinám ica global, y que pueden ser un pequeño
porcentaje del total.

con i = 1 , . . n, y que podem os realizar dos subgrupos. En uno de ellos, en el que i — 1 ,.. .m ,
colocarem os los “ m odos lentos” (que serán los parámetros de orden del sistema), es decir, aquellos
en los que y, < 0 pero de valor absoluto pequeño, y en el otro, con s = m + 1, . - •, n, los “m odos
rápidos” . Si utilizamos la aproxim ación adiabática podem os suponer que q¡ = 0 para $ = m +
1 , . . . , n, y supondremos que, debido a la separación que el valor de y ha permitido, también j^J > >
\qs \, aunque esta suposición debe de ser com probada en cada caso. Podrem os en consecuencia
solucionar el sistema 2.3.6 para <?í , s = r a + l , . . . , r c , y p o r tanto la solución del sistema

q, = “ 7iQx + 0 i(íi- •••,9m ;9fn+i(5i)i •• (2.3.7)

establecerá la posibilidad de un “ resultado" no nulo en el sistema.

El resultado anterior es generalizable a sistemas en los que. en principio, no sea posible realizar
la separación en m odos lentos y m odos rápidos que se ha supuesto inicialmente. Es suficiente con
que exista una ordenación jerárquica del tipo

-v(l > > > y(2) > > t (3> > > . . .

para realizar una eliminación adiabática de variables una por una, com enzando por y O ).
La consecuencia más im portante de todo lo anterior es que. si los m odos rápidos caen b ajo el
control de los m odos lentos adiabáticamente, el com portam iento global del sistema estará contro­
lado p or la dinámica de unos pocos parámetros de orden. Por tanto, incluso sistemas dinámicos
con un gran número de variables pueden presentar un com portam iento coherente y bien regulado.
Adem ás, el hecho de que puedan darse roturas de sim etría en el sistema implica que éste puede
operar en diversos estados, bien definidos por el com portam iento de los parámetros de orden.

http://librosysolucionarios.net
Sistem as Dinámicos 65

2 .3 Funciones de Lyapunov
Hemos visto un cierto estudio que podem os realizar sobre un sistema de EDOs para determinar la
estabilidad de sus puntos fijos. Tam bién hemos p o d id o apreciar cóm o aparecen ciertas dificultades
cuan do tenemos valores propios con parte real nula. Describiremos en esta sección una aprox­
im ación muy útil, debida a Lyapunov, que permite considerar ciertas funciones para garantizar
la estabilidad de los puntos de equilibrio, y que en algunos casos puede resultar más sencilla de
utilizar que toda el álgebra im plicada en el tratam iento de la matriz lineal o de los términos no
lineales.

Definición

Si F E O l (E ), V E 0 1 (E ) y $ t «s el flujo de la ecuación diferencial 2.2.3, entonces para x 6 E


la derivada de una función V (x ) sobre las soluciones es

F ( x ) = ^ V ( * , ( x ))|í=0 = D 7 ( x ) F ( x )

La últim a igualdad resulta de la aplicación de la regla de la cadena. Si V’( x ) es negativa en


F , entonces V (x ) decrece sobre la solución $ ( (x o ) a través de x0 E E en t = 0. A dem ás, en R 2,
si Ú (x ) < 0, con la igualdad sólo en x = 0, entonces, para una constante C > 0, la familia de
curvas V (x ) = C constituye una fam ilia de curvas cerradas que rodean el origen y las trayectorias
de 2.2.3 cruzan estas curvas del exterior al interior con t creciente; es decir, el origen es un punto
asintóticam ente estable.

Una función V : R n —►R n que satisfaga las condiciones del teorema siguiente se denomina
fu n ción de Lyapunov.

Teorem a

Sea E un subconjunto abierto de R n que contenga Xo- Supongamos que F E C l ( E) y que


F (x o , ¿0 = 0. Supongamos también que existe una función V E C 1 ( E) que satisface U (x o ) = 0 y
V ( x ) > 0 si x xo- Entonces

• Si Ú (x ) < 0, Vx E E, xo es estable.

• Si V'(x) < 0, Vx EE — { x o } , xo esasintóticamente estable.

• Si Ü (x ) > 0, Vx EE — { x o } , xo esinestable.

La existencia de una función de Lyapunov es especialmente relevante en m uchos casos reales,


ya que, de hecho, define un potencial para la evolución del sistema.
Si bien no es necesario resolver el sistema de ecuaciones diferenciales para aplicar el teorema
de Lyapunov, debe tenerse presente que no existe un m étodo general para hallar V. El el caso de
m uchos sisteméis físicos, V será la energía potencial del sistema. Veamos algunos ejem plos.

E jem p lo 1

Consideremos el sistema dinám ico definido por

£ = 2* * - 1 )

http://librosysolucionarios.net
66 Orden y C aos en Sistemas C om plejos

dV t n
di = ^ ' (z “ 1]
dz _ 3
dt
El único punto de equilibrio es el origen. Intentemos determinar su estabilidad com o habíamos
aprendido en la sección anterior:

/O -2 0\
L (x o) = 1 0 0
\0 0 0/

que proporciona

Ai = 0. A2 — -bív/2 A3 — —i\p2.

Los tres valores propios tienen parte real nula, así que no podem os decir nada sobre la estabilidad
del punto fijo sin considerar los términos no lineales. Intentemos hallar una función de Lyapunov
para este sistema. Lo habitual es suponer una cierta función con términos de orden 2 y coeficientes
indeterminados. Los términos de orden 2 (o, en el caso de no ser estos suficiente, los de cualquier
orden par), aseguran V (x) > 0 en un entorno de cualquier punto fijo real. Los coeficientes se
determinan utilizando el flujo del sistema e intentando que se cum pla V ( x ) < 0 en el dom inio
estudiado. P robem os en este caso la función

V( x , y , z) ~ a x 2 + by 2 + c z 2

con a, b, c > 0. Se cumple

V (x , y, z ) = 2a x r + 2byy + 2cz¿

= 4 ax y( z — 1) — 2byx( z — 1) — 2cz4

donde se ha utilizado el valor de las derivadas que proporciona el flujo de cada una de las ecuaciones
diferenciales. Observem os que es posible cancelar los dos primeros términos si escogemos 2a = b
(los únicos que podrían ser positivos), y tom ando c > 0 (com o ya se había supuesto) aseguramos
V (x ) < 0 en to d o el dominio. Para el caso particular a = 1, í> = 2, c = 1, obtenemos

V{ x, y, z) = x 2 + 2y2 + z 2

V[ x , y, z) = - z 4

sobre el flujo del sistema, con lo cual se cumplen las condiciones del teorem a y podem os asegurar
que el punto fijo Xo = (0, 0, 0) es asintóticamente estable, en este caso en tod o el dominio R 3, dado
que no hay ningún otro punto fijo.

Ejem plo 2

Consideremos la ecuación diferencial de segundo orden x + p ( x ) — 0, donde la función continua


p (x ) satisface x p { x ) > 0 para r ^ 0. Obsérvese que esta es la ecuación dinámica de un cuerpo
sometido a una fuerza total dependiente de la posición (fuerza = F ( x ) s —p{ x ) ) según viene dada
por la segunda ley de Newton l0. Escribamos el sistema en la forma

¿1 = x 2

l 0 C o n el c a m b io d e variables m o m e n to cinético — x — m e .

http://librosysolucionarios.net
Sistemas D inám icos 67

¿2 = - P ( x j )

donde x* = x. La energía total del sistema es

,2

simplemente la suma de la parte cinética, ^x 2 y la parte potencial (suponiendo que estamos


tratando cou una fuerza conservativa, que por tanto deriva de una cierta función p oten cial). La
energía tota l del sistema proporciona en este caso directamente una función de Lyapunov. O b­
servemos

V ( x ) = p ( x í ) x 2 + Z2( ~ p ( z i ) ) = 0

Las curvas solución están dadas por V ( x ) = c (significa que la energía es constante sobre las
trayectorias del sistem a) y el origen es un punto de equilibrio estable.
Una aplicación directa la podría proporcionar la función p ( x ) = £ sin (x ), para x £ (0, ir). Se
obtiene integrando sin dificultad

= T¿ + ¿m( cos^>) - !)

V = X2— s in (x i) — — s in (x i)x 2 = 0.
m m

2.4 Sistem as gradiente


Se denom ina sistem a gradiente en un conjunto abierto U € R 2 a un sistema dinám ico definido en
la forma

dx „ ,r
Tt = ~vv' x
siendo : V —►R una función C 2 y V el operador gradiente habituad, definido por

que da el ca m p o vectorial VTj, » R " asociado a Vu. Estos sistemas gradiente poseen propiedades
especiales que hacen sus flujos particularmente simples. Daremos a continuación unos teoremas y
dos ejem plos ilustrativos.

T eorem a

Sea dt Vu ( x ) < 0, Vx £ U, y supongamos que V^(xo) = 0. Eutonces. xo es un punto de equilibrio


del sistema dinám ico.

C o r o la r io

Sea xo un mínimo aislado de V^. Eutonces, xo es un punto de equilibrio asín fóticam ente estable.

T eorem a

En los puntos regulares, esto es, los x tales que V^(x) / 0, el cam po vectorial definido por
—VVj, es perpendicular a las superficies de nivel de Vj, del sistema dinám ico.

http://librosysolucionarios.net
68 Orden y Caos en Sistem as Com plejos

Teorem a

Dado un sistema dinámico gradiente, en los puntos regulares las trayectorias cruzan las super­
ficies de nivel ortogonalmente. Los puntos no regulares son de equilibrio.

E jem plo 1

Consideremos el sistema dinám ico definido por

í | = - 2z ( z - l ) ( 2* - l )

~ = —2 y
dt y
Esto puede ser reescrito en la forma de un sistema gradiente, esto es, x = —W ^ , si tom am os com o
función potencia]

V (x , y) - x 2( x - l )2 -I- y 2

con lo que el gradiente viene dado por

- V V = { ~ d x V, - d yV) = ( —2 x (x - l)(2 x - 1}, —2y)

Los puntos de equilibrio obtenidos de igualar a cero las ecuaciones de p artid a son x j = (0 ,0 ),
x 2 = (1 /2 ! 0), x j = (1, 0). Tenem os entonces

D F - ( - ¿ U - 2x ( x - l ) ( 2x ~ l ) } 0 A
V 0 dy { - 2 y } )

que da com o resultado

D F = ( —2(6r2 — 6z + 1)

Un estudio de estos valores revela que los puntos x ¡ y x| son puntos de equilibrio estable (también
llamados en ocasiones sumideros) y x 2 es un punto de silla, y por tanto inestable.

E jem plo 2
Consideraremos ahora un m odelo de sistema neural com puesto por una p ob la ción de neuronas
activadoras e inhibidoras. Si bien las neuronas son elementos discretos y en general altamente
conectados entre si, la aproxim ación continua es adecuada en ciertos casos. Las ecuaciones que
damos a continuación suponen conectividad total, y el m odelo queda definido por

dt
= - i t L + 2cn$(ui) - 2ei2$(u2) +

— - U 2 + 2621$ { u i ) - 2e22$ ( u 2) + w 2

donde $ ( x ) es la función que representa la interacción entre neuronas, y se define en este modelo
por

El sistema lineal correspondiente está dado por la matriz L,

http://librosysolucionarios.net
Sistemas Dinám icos 69

L =
- 1 + 2«, —2e 12
2^21 —(1 -M 22)

Puede com probarse que (iti, « 2) — (6. 0) será un punto de silla si se verifica la condición

f 12«2t „ , o
. en - ¿
<22+ 2
y será un n od o o un fo c o en el caso contrario. Las ecuaciones del m od elo admiten la siguiente
representación:

dtui = u2) - V u,V 2( u u u2)

d t u 2 = - V „ aV i ( u i . u 2 ) - V * 1V2( u i , « 2)

siendo V\ y V2 lns funciones potencial definidas por

V1 = - 2f U u, 4- ln - ( 1 + e “ *) - U?iUi +

1 o
3~~U2 — 2f22 U 2 + l n - ( l + e “ 3) - W2U2

V2 = 2e 21 u i + l n ^¿i ( l + e ' u‘ + 2€i2 u2 + l n - ( l + e ü2)

Para el caso especial € 1 2 = 6 2 1 = 0 se tiene que el m odelo se define así

T " - ''• ■ 'i


du 2
= V tt lV 2
dt
lo cual define un sistema conservativo con hamiltoniano (efectivo) V2.

2 .5 S istem as discretos
Consideraremos en esta sección sistemas discretos unidimensionales, definidos m ediante ecuaciones
de recurrencia del tipo

Zn-M = fv (Z n )
donde x n es por ejem plo la población de una especie en la generación n ~ ésima, habitualmente
normalizada entre 0 y 1, utilizando

no de individuos
n no m á xim o posible
y ft indica un parám etro o conjunto de parámetros. Ejemplos de este tip o de sistema serían

Xn + i = p x n ( i - Xn ) ( 2 .6 . 1 )

( 2 .6 .2 )

x n + 1 = - a x j + ¡3x1 (2.6.3)

http://librosysolucionarios.net
70 Orden y Caos en Sistemas C om plejos

0 .8

0 .6

0 .4

0 .2

0 i 1--------------i-------------- 1--------- -L------------- 1------------ ---1----- '''


2 .6 2 .8 3 3 .2 3 .4 3 .6 3 .8 4
Figura 2.7: Diagrama de bifurcación (véase el capítulo sobre caos) correspondiente a la aplicación
discreta 2-dim ensional 2.6.6, con p =

Los valores sucesivos se obtienen del anterior por iteración de la ecuación Form alicem os las
ideas básicas referentes a las aplicaciones discretas.

Definición

Sea la aplicación

x n+! = F „(x ) (2.6.4)

con i ? Í Í C R , i í £ Z y / í 6 R , donde U y V son conjuntos abiertos. Diremos que 2.6.4 es un


sistema dinám ico discreto.

La definición anterior se generaliza trivialmente para sistemáis de dimensión A', para los que
tendríamos la ecuación vectorial

Xn+t - * V (x ) (2.6.5)

siendo x „ = ( x i , X2, ■■., r v ) . Un ejemplo de este caso lo proporcionan, para N = 2, las ecuaciones
de Lotka-Volterra:

x „ + i = p x n(l - x n - yn )

yn + i = 0 x nyn ( 2 .6 .6 )

donde x „ sería la población de presas en la n —ésima generación e yn la correspondiente a los


depredadores. Un m odelo de este tipo será analizado más adelante.
Estudiaremos en primer lugar sistemas de una dimensión para generalizar posteriorm ente a N
dimensiones.
El primer paso en el estudio de un sistema com o 2.6.4 eshallar suspuntos de equilibrio, tal
y com o se ha hecho con lossistemas continuos. Consideremos elejem plo 2.6.2. Si im ponem os la
condición x „ + i = x n — x", podem os determinar los valores de la población que no varían si son
alcanzados. O btenem os

http://librosysolucionarios.net
Sistemas Dinámicos 71

Figura 2.8: (a) Equilibrio inestable, (b) Equilibrio indiferente, (c) E quilibrio estable.

z* = x ' exp ^ p i 1 — j r J } = > = 0, z^ -K

Tenem os dos puntos de equilibrio. Si el sistema se encuentra exactamente en uno de estos estados,
perm anecerá en él indefinidamente y sin alteración. Sin embargo, la estabilidad de cada punto
puede ser distinta. Para entender esta afirmación, observemos la figura 2.8, en la q u e representamos
tres situaciones que implican puntos críticos. Evidentemente, este símil m ecánico tam bién se aplica
a los puntos de equilibrio de los sistemas dinámicos continuos. En cada caso, la b o la perm anecerá
en su posición si no actúa ninguna perturbación. -Físicamente, sabemos que las fluctuaciones
siempre están presentes, y vem os claramente que el resultado de desplazar la b o la una distancia
m uy pequeña respecto de la posición de equilibrio tiene efectos totalmente distintos en cada caso.
Un punto de equilibrio será estable o inestable si esta desviación respecto d e x" disminuye o
aum enta con el tiem po, respectivamente. Para analizar este punto, consideremos tam bién en estos
sistemas discretos un desarrollo de la función i ^ (x ) cerca del punto crítico, es d ecir, x n = x" 4- yn
11, siendo yn una pequeña perturbación de x ‘ , estudiaremos com o crece ésta a m edida que el
tiem po transcurre. Tendremos

. ^ , dFJx
Vn + l ~ Xfi + i — X = ¿ v (x )+ * '
dx

es decir

dF.j x)
2/n+l — ( * « ~ x ")
dx

que nos ha conducido a una ecuación lineal para el com portam iento de las perturbaciones cerca
del punto de equilibrio:

dF,, (x )
Vn
^ = ~ ~ d t~

11 E l h e c h o d e q u e el sistem a te n g a u n a dínárruea d iscreta n o significa que no p o d a m o s t o m a r d o s cond iciones


in iciales ta n p ró x im a s c o m o d e se e m o s, y d e valor real. A partir d e e s ta condición inicial, los p u n t o s p o r los q u e p asa
el s is t e m a so n d iscreto s y d e te rm in a d o s.

http://librosysolucionarios.net
72 Orden y Caos en Sistemas Com plejos

Esta iteración 110 es más que una progresión geométrica, donde la derivada x ‘ hace de razón. De
esta expresión obtenem os inmediatamente la condición que define la estabilidad. Si definimos

dF,{x)
A=
dx

entonces tendremos

1. Estabilidad: [A| < 1

2. Inestabilidad: [A[ > 1

3. Estabilidad marginal: ¡A| = 1

La condición 3 establece las fronteras entre dominios de estabilidad e inestabilidad. En general,


esta frontera será una función de los parámetros del sistema 12.
Para el ejem plo 2.6.2, tendremos:

ÜEM . = d f IeW l-./K )]} = (1 _ ÍL X j cM- i - i r '


dx w l J V A /
y la condición de equilibrio para nuestro sistema en relación al punto x m — K resulta

dF ^x)
= |1 — < 1
dx

que define un dom inio de estabilidad dado por p € (0 ,2 ). Notemos que la forma en que nos
aproximamos al punto de equilibrio depende del signo de la derivada. Si

dF^j x)
0< < 1
dx

tenemos una aproxim ación monótona hacia el punto de equilibrio. Si su valor es negativo, es decir,
si

dF^x)
-1 < < 0
dx

la aproxim ación se da a través de oscilaciones de tamaño cada vez menor (véase la figura 2.2).
Es importante señalar que este último tipo de dinámica no se presenta en ningún caso cuando
tratamos con sistemas continuos.

E je m p lo

Analizaremos a continuación un ejem plo paradigm ático de aplicación discreta: la aplicación


logística (ñ . May, 1979). Esta aplicación está definida por

Zn+l = p x n{\ - x n> ( 2 .6 . 1 )

con p 6 [0,4] si se pretende mantener el valor de x n acotado entre 0 y 1. Esta ecuación es el


sistema unidimensional no lineal más simple, y su im portancia (com o veremos) es fundamental.

^O bsérvese que se e x ig e , en el caso d iscreto, que


9Fu(zm) < 1, m ien tras que en el c a s o c o n tin u o se exigia que
dx'
e sta m ism a d e riv a d a fuese m e n o r que 0 . P en sem os q u e , a h o ra , sim p le m e n te m u ltiplicam os el valor d e x n p o r el valor
d e A (qu e a n te s a parecía en u n a expresión e x p o n e n c ia l). A si q u e, si ¡A| < 1. los valores se a p r o x im a r á n su cesivam en te
y de form a d isc re ta a l p u n to fijo.

http://librosysolucionarios.net
Sistemas Dinám icos 73

El com portam iento cualitativo de 2.6.1 respecto del parámetro p tiene las mismas propiedades
para todas las aplicaciones que presenten un único máximo en el intervalo unidad. Busquem os los
puntos fijos de 2.6.1. Verifican:

x * — p r ‘ ( l — r*i

que nos proporciona una sencilla ecuación de segundo orden. Sus raíces son

x? = 0. xó = 1 — —
V-
para las que analizaremos la estabilidad de las trayectorias. Tendremos, por tanto:

x=x*

\í ‘ \ ( LO
x^ ) = { - ^ r ) = ^ +2
El origen será estable para A < 1 e inestable en cualquier otro caso, mientras que para el segundo
punto fijo, obtendrem os estabilidad para A < 3 y se inestabílizará cuando se cruce el valor A = 3.
En este p u n to se produce una bifurcación l3, y la aplicación deja de tener puntos estables de
período 1 , y aparece una órbita estable de período 2: existe una alternancia entre dos puntos, que
son puntos fijos de la aplicación doblem ente iterada.
La aplicación logística posee propiedades sorprendentes, entre ellas la alta com plejidad que
pueden generar sus evoluciones, cuando los valores del parámetro p son lo bastante elevados. El
análisis de esta aplicación concreta se con tin ú a en el capítulo sobre caos.

Ejem plo

Analizaremos a continuación una aplicación discreta en dos dimensiones de Lotka-Volterra que


es adecuada para m odelizar una interacción del tipo presa-depredador:

Xn + 1 = p * n( l - x n - yn)

yn + 1 = 3 x n Vn

donde x n e yn son las poblaciones normalizadas de las presas y de los depredadores, respecti­
vamente. Para cada una de las poblaciones, p y ¡3 son los ritmos de crecim iento. Analizando
primeramente los puntos fijos obtenemos que el sistema presenta dos valores estacionarios.

x í = (o,o), - M )
El estudio de la matriz de derivadas parciales en cada uno de los puntos proporcionará de nuevo
el tipo de estabilidad correspondiente:

DF= ( „ ( ! - £ - , )

Consideremos por simplicidad el caso particular Q = p , con lo cual obtenem os para el punto fijo
no trivial X2

13 V ease el capi'tulo 4.

http://librosysolucionarios.net
74 Orden y Caos en Sistem as C om piejos

0 . 7 - 0 .7

0 .6 - 0.6
I
0.5 j- 0.5

0.4 j- 0.4

0.3 0.3

0.2 0.2

o.i ! 0 .1

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.1 0.2 0.3 0.4 0.5 0.6 0.7

0.7 0.7

0 .6 0.6
0.5 0.5

0.4 0 .4

0.3 0.3

ü .2 0.2

0.1 0 .1

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.1 0.2 0.3 0.4 0.5 0 . 6 0.7

Figura 2.9: A specto del espacio de fases del m odelo de Lotka-Volterra en dos dimensiones
para diversos valores del parámetro p. De izquierda a derecha y de arriba a a ba jo, p =
3.41, 3.42, 3.43, 3.45. La situación dinámica del sistema en cada caso se deduce del diagram a de
bifurcación correspondiente (figura 2.7).

http://librosysolucionarios.net
Sistem as Dinámicos 75

que tiene asociada la ecuación de valores propios


df(*MA “i 1

d e t ( D F ( x ; ) ) = d c t ^ “_A2

El p u n to fijo será estable si el m ódulo de ambos valores propios es menor que 1. Esto conduce al
dom in io de estabilidad

S(x£) - {(i; f i e (2,3)}

C u an do se aumenta el valor de ¡x más allá de 3 se obtiene un escenario de bifurcación 14 donde el


caos aparece a partir de p = 3.43.

Bibliografía
1. J. Aracil, Introducción a la Dinámica de Sistemas. Alianza Universidad, A l. Editorial, 1983.

2. V . I. Arnold, Ecuaciones Diferenciales Ordinarias. Rubiños-1860, 1995.

3. W . E. B o y c e y R . DiPrima, E cuaciones Diferenciales y Problemas con Valores en la Frontera.


Limusa, 1983.

4. H. Haken, Synergeiics. Non~equilibrium Phase Transitions and Self-Organisation in Pkysics,


Chemistry and Biology. Springer-Verlag, Berlín, 1977.

5. H. Haken, Advanced Synergeiics. Instability ffierarchies o f Self-Organizing System s and D e­


vices. Springer-Verlag, Berlín, 1983.

6 . A . Kiseliov, M. Krasnov y G . Makarenko, Problemas de Ecuaciones D iferen ciales Ordinarias.


Mir, Moscú, 1973.

l 4 V é a s e el c ap ítu lo sob re caos.

http://librosysolucionarios.net
Capítulo 3

Fractales

Introducim os en este capítulo la geom etría de los objetos fractales, la cual de algún m od o es la
geom etría de los sistemas com plejos, nuestro ob jeto de estudio.
Los fractales, con el nombre de curvas no derivables, o no rectificables, aparecieron en las
m atem áticas hacia finales del siglo X IX . En un principio, los fractales fueron ejem plo de ob jetos
curiosos. Eran curvas o superficies infinitamente plegadas, líneas infinitas com pactificadas de
form a regular en una superficie finita, superficies no derivables en ningún punto, con jun tos de
puntos aislados isomorfos a la recta real, ejemplos en resumen de objetos no rectificables. Los
prim eros nom bres relacionados con esta disciplina (insistimos, aún no se llamaban fractales) son
probablem ente de todos conocidos: Cantor, Peano, Hilbert, Hausdorff, Sierpiñski, von K och. Y
aún m u ch os otros que no estuvieron directamente involucrados, pero que sentaron las bases de
la teoría de la m edida necesaria para realizar una descripción matemáticamente correcta de los
ob jetos de que hablamos: Lebesgue, Poincaré, Menger y algunos de los anteriorm ente citados,
entre otros.

La difusión que actualmente han tenido los objetos fractales está claramente m otivada por
la estética que con ellos se relaciona. No fue hasta que aparecieron los ordenadores que objetos
m aravillosos com o los conjuntos de Gastón Julia pudieron ser visualizados.
El nom bre al que actualmente va ligado cualquier ob je to fractal es el de Benoit B. M andelbrot.
quien les dio el nom bre actual, fractales (del latín fractus, interrumpido o irregular) y popularizó
la nueva geom etría. Mandelbrot vio la naturaleza a través de la geometría fractal. C om o él mismo
dijo

las montañas no son conos, las nubes no son esferas, ni la corteza de los árboles
es lisa.”

Son innumerables los ejemplos de objetos fractales que se han encontrado en todas las ramas
del con ocim ien to, y no únicamente en las relacionadas con la física, las matemáticas o la biología.
El m u n d o m icroscópico, el orgánico pero también el inorgánico, está repleto de ob je tos fractales.
Las fracturas, por ejemplo, presentan esta propiedad. La superficie de las células, la estructura
de nuestros pulmones o del aparato circulatorio, las formaciones de nubes, las montañas, quizá la
distribución de m ateria en la galaxia, las fluctuaciones en la intensidad de radiación de un quasar.
los árboles, los liqúenes, los relámpagos, ... son parte de la inacabable serie.
Se ha dirigido la atención incluso hacia la forma de crecim iento de las ciudades. Existe actual­
mente am plio acuerdo en que el crecimiento urbano no se produce de forma que el espacio disponible
se llene de form a com pacta. Dado que la dimensión vertical de las ciudades es despreciable frente a
las d os dimensiones horizontales, se puede caracterizar la geometría de los asentamientos urbanos

77

http://librosysolucionarios.net
78 Orden y C aos en Sistemas Complejos

Figura 3.1: Estructuras fractales en el desarrollo urbano. A la izquierda, Londres, y a la derecha,


Nueva York. Cada cuadro pequeño tiene 10 km de lado.

con una dimensión que varia entre 1 y 2. Algunos cálculos realizados en más de 30 ciudades asignan
una dimensión entre 1.6 y 1.8 a la mayoría de ellas. Un claro reflejo de la fractalidad de la ciudad
se puede hallar en la autosimilaridad de la red de transportes urbanos (M . B atty y P. Longley,
1994).
En las páginas siguientes, intentaremos describir esta nueva geom etría de la naturaleza.

3.1 C aracterización de los o b je to s fractales.


Fractal es tod o ob jeto que posea autosimilaridad. Esto es, a todas las escalas a las que podamos
contem plarlo, descubrimos que la parte es semejante al todo. En consecuencia, una primera imagen
intuitiva corresponde a un ob jeto infinitamente doblado sobre sí mismo, con infinitos pliegues, con
infinita estructura. C on una cierta práctica es fácil reconocer a simple vista los ob jetos fractales.
Pero también necesitamos una descripción cuantitativa, un valor numérico que pueda ser asociado
a cada uno de ellos, que describa su estructura y que perm ita diferenciarlos.
Esta caracterización la proporciona, en primer lugar, la llamada dim ensión fractal del conjunto.
Introducirem os este con cep to con la ayuda de un caso particular; la curva de Helge von Koch.
La m atemática sueca Helge von Koch fue quien, a principios de este siglo, estudió la geometría
de los conjuntos actualmente llamados fractales. Su curva apareció com o contraejem plo a las curvas
rectificables, “ suaves” , que tan importantes son en muchas ramas de la m atem ática. La curva de
von Koch data de 1906, y es un ejemplo de curva no diferenciable en ningún punto, es decir, no
existe lugar en donde su tangente pueda ser definida o trazada. Es de construcción sencilla, pero
proporcionó una inspiración fundamental para generalizaciones posteriores. Se puede ver la curva
de von K och representada en la figura 3.2.
Se construye de la forma siguiente: tomemos un segmento de recta de longitud unidad (To,
norm alizado), y sustituyamos su tercio central por dos segmentos de longitud 1/3 que formen
un triángulo equilátero con la base central anterior, que debe de ser eliminada. Este primer paso
proporciona el ob jeto T llamado generador. El segundo paso consiste en repetir el proceso anterior

http://librosysolucionarios.net
Frac tales 79

r0

r\

r2

r3

r4
Figura 3.2: Primer paso (T o), generador (F i), y algunos estadios posteriores de la construcción de
la curva de von K och .

en cada uno de los segmentos de longitud 1 /3 restantes (ahora 4 ): sustituim os su tercio m edio (de
longitud 1 /9 respecto de la unidad inicial) por otros dos segmentos tam bién de longitud 1 /9 , en la
misma disposición anterior. Este proceso debe iterarse infinitas veces, a fin de conseguir el fractal
m atem ático real llam ado curva de von Koch.
Estudiemos ahora cuál es la longitud de la curva poligonal a m edida que avanzan las iteraciones:

Iteración r0 Ti r2 r3 Tn
Longitud i 4 ^ 1 /3 ) 42 ( 1 /3 )2 43 (1 /3 )3 4n ( l / 3 ) n

Esta sucesión proporciona la siguiente longitud para la curva estudiada:

lim ( í ) -.o o
n—«5 \ ¿ /
Por tanto, el o b je to que estamos considerando es no acotado, tiene una longitud infinita, y ello
nos proporciona una primera idea de la com plejidad de un viaje a lo largo de su perím etro: giros
en el interior de los giros, entradas y salidas incesantes. Pensemos también que, por causa de la
autosimilaridad, la distancia entre cualquier par de puntos en esta curva es infinita.
Necesitamos alguna forma de caracterizar el ob je to descrito. A n tes de dar ningún resultado,
véase la figura 3.3, en la que se repasa brevemente la forma en que m edim os curvas, superficies y
volúmenes.
En los casos particulares allí representados, es un número entero ( D = 1, 2, 3) el que se ocupa
de establecer la ley de escala existente entre el número de elem entos (iV) con una cierta longitud
lineal característica (r ), necesarios para recubrir una recta, una superficie o un volumen, de forma

http://librosysolucionarios.net
80 Orden y Caos en Sistemas C om plejos

N =4
r = 1/4 / / /
/ / / N - 8
/ r — 1/2
N = 4 /
r = 1/2
/
/

Figura 3.3: Relación entre las partes realizadas de un ob jeto D —dimensional y la dim ensión del
mismo, suponiendo que el hipervolumen está normalizado a valor 1 en cada espacio de trabajo. De
cada uno de los objetos se realizan .V partes. El factor lineal de escala es, en cada caso (de arriba a
aba jo) rr = 1/iV , rs = l/ N 1 ^ 2 y r v = 1/N1/>3. Obsérvese que se mantiene la longitud, la superficie
o el volum en totales si se verifica N r D = 1, donde D = 1, 2, 3 es la dimensión top ológica de cada
uno de los objetos.

que el p rod u cto N r D se mantenga acotado. Este producto tom a valor 1 si hemos partid o de un
elemento original normalizado. Vistos los ejemplos anteriores, se nos ocurre una generalización
inmediata a aplicar a la curva de von Koch. ;,Cuál sería el valor de D que mantendría el producto
N r D finito? Recordem os que el número de elementos recubridores crecía en cada iteración en un
factor 4, en tanto que su longitud lo hacía en un factor 1/3. Buscamos, pues, un valor D tal que

1 \ nD
lim N r ° = lim 4n í - =1

Esto sólo ocurrirá si 4 /3 ^ = 1. ya que en caso de no producirse la igualdad, el lím ite n co


provocaría, o bien la divergencia (si 4/ZD > 1), o bien un valor nulo (si 4 /3 -° < 1). Obtenem os,
por tanto,

D = ^ « 1.2619
In 3
Este valor se denomina dimensión de medida ( D\j ) y y coincide con la dimensión fractal ( Dp )
siempre y cuando sea posible establecer el límite n —♦ oo (o, de form a equivalente, 1 /r —» 0). El
ejem plo y la definición anteriores proporcionan las bases del m étodo más habitualmente utilizado
para calcular la dimensión fractal de un objeto: es el denom inado “ box-counting” (recuento por
cajas), que describiremos más adelante.
Recordem os ahora el con cepto de dimensión topológica, que unido a la dim ensión de me­
dida definida proporcionará la primera caracterización cuantitativa de los objetos fractales. La
dimensión topológica ( D p ) de un ob jeto es un valor entero (0, 1, 2, 3...) que coincide con la di­
mensión del espacio de soporte. Por ejemplo, un punto tiene dimensión topológica 0, y una curva,

http://librosysolucionarios.net
Frac tales 81

sea del tipo que sea, posee D p — 1, tanto si se trata de una recta com o de la curva de von Koch.
Cualquier superficie presenta D t — 2, y para los volúmenes, D p = 3, com o casos particulares
contenidos en el espacio habitual de 3 dimensiones. Tenemos así la siguiente:

D efinición
Se denom ina fractal a to d o o b je to tal que posea dimensión topológica de valor menor que su
dim ensión de medida l :

Dt < Dm

D m proporciona, pues, un valor numérico que describe la estructura del fractal estudiado. En
el caso particular de una curva, con D t = 1, observaremos que la dimensión de m edida D m puede
tom ar m uy diversos valores, dependiendo de cada caso particular. Por ejemplo, verem os que para
curvas fractales contenidas en el plano, 1 < D\j < 2, con cualquier valor posible entre estos dos.
El caso límite, D t = 1, D m = 2, lo proporcionarán las llamadas curvas de Peano. P ero no existe
un valor máximo que D m pueda tomar. El movimiento browniano, por ejem plo, descrito en el
capítu lo 1, ocupa tod o el espacio que tenga disponible (en tiem po infinito). Por tan to, aún con
D t = 1 , es decir, tratándose de una curva unidimensional, D m > 1 ) y si el espacio que contiene el
m ovim iento browniano corresponde a un caso teórico de dimensión 5, obtendrem os D m = 5.

3.1.1 Dim ensión de “ b ox -cou n tin g ”


Introducirem os en este apartado la form a práctica más utilizada para estimar la dim ensión fractal
de un ob jeto. Definimos, prim eram ente, la dimensión fractal com o:

6—0 lnc
don d e N ( é ) es el número de elementos de longitud característica 6 necesarios para recubrir el
con ju n to estudiado. En la práctica, es en general imposible la realización del limite <5 —►0, debido
a la inexistencia, en la m ayoría de los casos, de una expresión analítica que proporcione N ( é ) en
función de <5, lo cual impide el cálculo teórico del límite anterior. La solución para estim ar D p la
a p orta el m étodo que nos ocu p a. Observemos que es posible escribir:

ln JV(¿) = D / I n Q )

Si representamos ln(l/<5) en el eje x y ln .Y (¿) en el eje y, debemos obtener aproxim adam ente
una recta de pendiente D p ' = D p c 2- Este valor, D b <: ■es la llamada dimensión de “ b ox-cou n tin g” ,
y en la mayoría de los casos coincide con D p , o bieu la aproxim a de forma acertada. El cálculo
p ráctico de D p c consistirá, pues, en conseguir unos cuantos puntos experimentales para realizar
una buena estimación de la pendiente de la recta. Centrémonos en un caso con creto: el conjunto
de la figura 3.5. Este con ju n to es un atractor extraño procedente de un sistema dinám ico del
tip o Lotka-Volterra, que será descrito en el capítulo sobre sistemas dinámicos. Inicialm ente, debe
colocarse el atractor en el interior de un cuadrado de lado unidad (la normalización es necesaria).
Este cuadrado se divide en subunidades de longitudes características 1 /4, 1 /8, 1 /1 6 , 1/25, 1/50
1 /1 0 0 y 1/200, en el ejem plo. Debem os contar, a cada escala, el número de cajas necesarias para
contener el fractal. La representación en ejes logarítmicos de las dos series obtenidas permite la

l E n el c a so d e o b je to s n o fr a c ta le s , sie m p re se verifica la relación D j = D m -


^ E s c r ib im o s D f 1, en lu gar d e D f.-. d e b id o a que en principio n o tien en p orqu e ser valores c o in cid e n te s. U no
p ro v ie n e de un lim ite in fu u to, y o tr o se o b tie n e a partir de u n a recta de regresión.

http://librosysolucionarios.net
82 Orden y C aos en Sistemas C om plejos

1 / 1 0

= 100

Figura 3.4: Ejem plo de recubrimiento de un sistema a la escala l para aplicar el m étodo del
“box-counting” .

realización de una recta de regresión y la determinación de D b c ■ Los resultados están representados


en la figura 3.ó.
Uno de los primeros ejemplos de cálculo de dimensión fractal con el m étodo del '‘box-cou n tin g”
lo dio Fry Richardson. Fue el cálculo de la Dj? correspondiente a la costa de Gran Bretaña.
Richardson se dio cuenta de que la longitud de la costa variaba en función del detalle con que fuese
dibujada, o, de forma equivalente, dependiendo de la longitud de ia ‘ regla’ elemental utilizada para
medirla. Postuló que, en caso de disponer de precisión infinita, la longitud de la costa no sería una
cantidad acotada, y estableció para ella una dimensión D ? ss 1.3.
A partir de ahora no distinguiremos entre dimensión de medida, dim ensión de “box-cou n tin g”
y dimensión fractal, y en todos los casos descritos en esta sección nos referiremos a esta última.

3.1.2 Ejem plos


Veremos a continuación unos cuantos casos particulares de objetos fractales. Detallaremos su con ­
strucción y calcularemos su dimensión fractal. Son fractales de construcción geométrica bastante
sencilla, y no será necesario el uso del m étodo del ‘‘box-counting’1 para determinar D p . Este
método tendrá amplia utilización en el capítulo reservado a dinámica caótica, en particular en
relación a los atractores extraños que allí aparecen.
Los fractales siguientes se han escogido por su carácter paradigm ático y por la relevancia
histórica que han tenido. Podríam os decir que son ya clásicos de la geom etría fractal.

P o lv o d e C a n t o r (C antor Dust)

George Cantor (1845-1918), matemático alemán, centró su trabajo principalm ente en lo que ac­
tualmente llamamos teoría de conjuntos. Fue el primero en distinguir diferentes tipos de infinitos,
darles un nombre y establecer un álgebra para ellos. El conjunto que ahora describiremos fue
publicado por vez primera en 1883, y es un ejem plo de toda una clase de conjuntos patológicos y
excepcionales.
El conjunto se denomina polvo de Cantor (o simplemente conjunto de Cantor, Các) debido a
que está form ado por una cantidad infinita (y no numerable) de puntos disjuntos. Se construye de
la forma siguiente: de un segmento de longitud inicial unidad se elimina el tercio central; en los dos
segmentos restantes, ahora de longitud 1 /3, se realiza la misma operación, y esta se repite sobre
los segmentos que queden ad infinitum. El resultado final es un conjunto de puntos aislados en el

http://librosysolucionarios.net
Frac ta,¡es 83

Figura 3.5: A tractor extraño producido por un m odelo de Lotka-Volterra. Para el cálculo de la
dimensión de ^box-counting^ se divide el cuadrado unidad que contiene el fractal en cajas iguales de
diversos tamaños, que proporcionarán los datos experimentales para realizar la recta de regresión.
En la parte inferior derecha se puede ver la recta de regresión calculada a partir de las divisiones del
conjunto especificadas en el texto. La dimensión de t*box-counting” del atractor es D b c — 1.687

--------------------- r,

r*

r4

Figura 3.6: Detalle de los primeros pasos de la construcción del p olvo de C antor descrito en el
texto. A medida que las iteraciones avanzan, el conjunto se hace cada vez más difuso, hasta que
es imposible de distinguir, debido a su naturaleza puntual (en el limite n —» o c ).

http://librosysolucionarios.net
84 Orden y Caos en Sistemas C om plejos

Ti r< r-
Figura 3-7: Las tres primeras iteraciones en la construcción de una de las curvas de Peano. A
m edida que las iteraciones avanzan se hace más difícil recordar que habíamos partido de una
curva, y el o b je to resultante cada vez parece más una p orción sólida del plano.

intervalo real [0,1]. Evidentemente, el conjunto límite es im posible de representar. Los primeros
pasos de la construcción se pueden ver en la figura 3.6. Observem os que, debido a su naturaleza de
conjunto form ado por puntos discretos, D t = 0 para el p o lv o de Cantor. Calculemos su dimensión
fractal. Para ello sólo es necesario apreciar que, en el paso n de su construcción, son necesarios 2”
segmentos para recubrirlo, que tendrán una longitud ( l / 3 ) n . Por tanto, la dimensión fractal del
conjunto de Cantor es

Df = ^ « 0.6309
ln3
Verificamos aquí que D t < D p , y D p mide la forma en que el conjunto recubre el espacio de
dimensión 1 , en este caso.
C om entem os finalmente que la intersección de la curva de von K och con una recta trazada en
su base proporciona exactamente el descrito polvo de C antor.

La C u rva de Peano

Las curvas de Giuseppe Peano (1858-1932) representan un ejem plo extremo de cóm o un ob je to
de dimensión topoiógica 1 , com o es una recta, puede doblarse sobre él mismo de tal form a que
llegue a cubrir totalmente el plano. Esto provoca que su dimensión fractal alcance el valor 2. com o
calcularemos. Inmediatamente después de Peano fue D avid Hiíbert (1862-1943) quien se dedicó
al estudio de estas curvas recubridoras del plano, y tam bién propuso unos cuantos ejem plos. Su
trabajo en lo que respecta a ios fractales es, sin embargo, prácticamente insignificante, com parado
con las excelentes contribuciones que realizó en otros m uchos cam pos de las matemáticas.
En la figura 3.7 podem os observar los pasos 0, 1 (generador) y 2 en la construcción de una
curva de Peano.
De nuevo es el tercio central el que se sustituye, en este caso por siete nuevos segmentos, en el
orden especificado en la figura. En el paso n de la construcción tendremos, pues, un total de 9”
segmentos, escalados en una fracción ( l / 3 ) n del total. Esto proporciona la dimensión fractal

para la curva de Peano.

http://librosysolucionarios.net
6
Frac taies 85

Á A . .
Figura 3.8: Primeros estadios de la construcción del triángulo de Sierpiñski. La eliminación de
triángulos, llevada al límite, provoca que el o b je to tenga superficie nula. Sus paredes se convierten
en líneas de grosor cero.

P or extensión, y en atención al primer constructor de estas curvas, todos los fractales con
D t = l y D / - = : 2 s e denominan curvas de Peano.

El triángulo de Sierpiñski y la esponja de Sierpiriski-Menger

W aclaw Sierpiñski (1882-1969), matemático polaco, introdujo en 1916 otro fracta] clásico, el
triángulo de Sierpiñski Fue un matemático m uy reconocido en su tiem po, en el m undo entero,
tanto que hasta uno de los cráteres de la luna fue bautizado con su nom bre. La construcción de
su triángulo se realiza en la form a que se puede ver en la figura 3.8. D ado un triángulo equilátero,
se elim ina el triángulo interior delimitado por la unión de los puntos m edios de cada lado. Esto
proporcion a el ob jeto generador. Al igual que en los casos anteriores, el proceso se repite en cada
una de las subunidades restantes, hasta el infinito. Este fractal fue publicado en un artículo de
1916, llamado “Sobre una curva en la cual todo punto es un punto de ram ificación”, título que
describe la principal característica del conjunto: la no existencia de puntos aislados y el contacto
de cad a punto con al menos otros tres del conjunto. Para calcular la dimensión fractal, observemos
que en el estadio de construcción n, necesitamos 3” triángulos de tam año lineal ( l / 2 ) n , con lo cual

ln 3
Df = 1.585
In 2
O tro de los objetos creados por Sierpiñski. la alfom bra de Sierpiñski. inspiró a Karl Menger
un fractal en 3 dimensiones (hasta ahora sólo habíam os visto fractales contenidos en el plano),
la esponja de Sierpiáski-Menger. La alfombra de Sierpiñski es simplemente una proyección en 2
dimensiones de este último. Este objeto, uno de los pocos ejemplos de fractales geom étricos en 3
dimensiones, se construye de la forma siguiente: de un cubo de arista unidad se elimina el cubo
central de arista 1 /3 y los cubos centrales de las seis caras, es decir. 7 en total. El proceso se repite
sobre cada uno de los 20 cubos de arista 1/3 restantes, de nuevo hasta el infinito. El resultado
final es un fractal de hojaldre, con una D t = 2 , y a que el proceso de vaciado ha reducido su grosor
a cero. La dimensión fractal es
3 D e b e rem arcarse que en e l p ro c e s o de elim inación d e trián g u los p ara form ar la fig u ra final se d e ja u n a superficie
d e g r o so r cero, es decir, el triá n g u lo inicial se h a re d u c id o a u n a serie infinita d e lin eas, p o r ta n to c o n d im e n sión
t o p o ló g ic a 1.

http://librosysolucionarios.net
86 Orden y Caos en Sistemas C om plejos

Df = 1^? « 2.727
ln3

3.2 Fundam entos M atem á tico s de la G e o m e tría Fractal


El lector que posea conocim ientos básicos de teoría de funciones, topología y teoría de la m edida
puede saltarse esta sección. Además de los conceptos estrictam ente necesarios para caracterizar
correctamente los ob jetos fractales, introduciremos algunos otros que no son necesarios aquí, pero
a los que se hará referencia desde otros capítulos del libro, y que por continuidad se ha creído
conveniente definir aquí de forma agrupada.

La caracterización rigurosa de un o b je to fractal pasa necesariamente por ciertos conceptos gen­


erales relacionados con la teoria de conjuntos, la topología, con funciones y límites de funciones,
unas dosis de teoría de la medida y algunas nociones de teoría de la probabilidad. Intentaremos
trabajar las bases matemáticas a nivel elemental (pero no trivial) para producir un primer acer­
camiento a la geom etría fractal. Todas las definiciones y con ceptos que veremos en este apartado
se pueden encontrar de forma más extensa en Falconer (1990) y A p óstol (1974), entre otras muchas
más referencias de topología y análisis general.
Fijaremos nuestras ideas en los objetos fractales, que son el propósito de este capítulo, e in­
tentaremos que todas las definiciones dadas en los apartados siguientes estén reforzadas visualmente
por alguno de estos conjuntos. Aprovecharemos para ello las ideas semi intuitivas que hemos dado
en la primera sección del capítulo. Supondremos conocidas ciertas nociones matemáticas a nivel
elemental com o espacio euclidiano, conjunto vacío, etc.

3 .2 .1 T e o r ía b á s ic a d e c o n ju n t o s

Los objetos fractales están localizados en el espacio euclidiano n~ dimensional, R n. Una parte m uy
importante de ellos tiene una representación geométrica sencilla donde n — 1 ,2 ,3 . A esta clase
pertenecen tod os los fractales que iterativamente se han ido construyendo en la sección anterior.
Nuestros conjuntos serán en general subconjuntos de R n. P or ejem plo, consideremos la curva de
von Koch, que podem os denotar por Too- Escribiremos r«> C R 2 para indicar que esta curva es un
objeto conten ido en el plano euclidiano 4. Los puntos de R n serán de la forma x , y, r , ... vectores
n-dimensionales, de n componentes, y escribiremos i G R " para indicar la pertenencia del punto
al espacio. Una bola cerrada de centro x y radio r se define com o

B r í z j ~ { y ; |y - x| < r }

es decir, el conjun to de puntos y tales que la distancia entre el centro x y los puntos del conjunto
Br ( x ) es menor o igual que r. |y — r¡ es la distancia euclidiana habitual,

\y ~ -^1 = - Vi?

^ R ec o rd e m o s q u e u n a curva tiene d im e n sió n to p o lóg ica 1. Si la c u rv a e s fra c ta l, su d im e n sión d e m e d id a es


m ayor que 1. E s t o sig n ifica que la d im e n sió n m ín im a de un e sp a c io e u c lid ia n o que c o n te n g a este o b je to es 2:
D t < D \ j < n , d o n d e n es el prim er en tero m a y o r que D \ f .
5 Es h a b itu a l d e sig n a r las cantidades vectoriales, pertenecientes a R n en n e g r ita , X 6 R n, ta l y co m o se h a v is to
an teriorm ente ( p o r e je m p lo en el capítu lo d e d ic a d o a los sistem as d in á m ic o s ). L a n o rm a en to d o este Libro se rá el
uso de la n e g r ita p a r a d e sig n ar las can tid ad e s vectoriales. U n ica m e n te en e ste ca p ítu lo no lo h a rem o s a sí, ta l c o m o
se define, p a r a n o sob re ca rg a r la n o tación . D a d o que se especifica en c a d a c a s o , n o e xiste p osib le confusión.

http://librosysolucionarios.net
Fractales 87

Figura 3-9: La esponja de Sierpiñski-Menger a la izquierda, en tres de sus primeros pasos de


construcción. A la derecha, otro fractal en 3 dimensiones, construido de forma geom étrica sencilla
por uno de los autores (S-C.M -). La dimensión fractal de este últim o es 2.807, com o el lector podrá
com probar.

http://librosysolucionarios.net
88 Orden y Caos en Sistemas Com plejos

Figura 3.10: De izquierda a derecha: representación esquemática de un con ju n to abierto, A, su


frontera F a y el con junto adherencia de A, Á.

Una bola abierta es

B ? ( x ) = { y - \ y - x\ < r}

Las bolas cerradas contienen la frontera que las separa del resto de R n, no así las bolas abiertas 6.
C om o ejemplo considerem os el conjunto de Cantor de la figura 3.6. En su construcción eliminamos
el tercio central, que es una bola abierta B ° C R 1, y los conjuntos que quedan son bolas cerradas
de R 1. Una inspección cuidadosa de este fractal revela que, en el límite, únicamente los puntos
situados en los vértices de los segmentos restantes tras cada iteración perm anecen en el conjunto.
Si en lugar de sustraer bolas abiertas al segmento inicial sustrajésemos bolas cerradas, el resultado
final sería un con ju n to vacío.
En el caso particular de R 1, denominamos a las bolas abiertas intervalos abiertos, { x ; a < x <
b }, con a < 6, y a las bolas cerradas intervalos cerrados, { x ; a < x < 6} . Se define por extensión
com o conjunto abierto aquel que no contiene ninguno de sus puntos frontera, y com o conjunto
cerrado aquel que contiene la frontera.
Denominaremos U0.40 a la unión de una colección arbitraria de conjuntos {-Aa } y fla A 0 a su
intersección. R ecordem os de nuevo que, por ejemplo, la intersección de la curva de von Koch (Fcc)
con R 1 situado en su base proporciona el conjunto de Cantor { C x ) descrito:

r ^ n R 1 — Coo

La diferencia entre dos conjuntos A y B (A — B) consta de los puntos contenidos en A que


no pertenecen a B . El conjunto R n — .4 se denomina com plementario de A , y lo denotaremos
A. El com plem entario de un conjunto abierto es cerrado, y viceversa. Un con jun to infinito es
numerable si a sus elementos se les puede asignar un lugar concreto en una serie x i, x?, X3, ..., es
decir, si existe una correspondencia entre los números naturales y los elementos del conjunto. Si
esta correspondencia no puede ser establecida, el conjunto se denomina no numerable. Ejemplos
de conjuntos numerables son los números naturales N , los racionales Q , o el número de puntos

6 L a fro n ter a es el c o n ju n to F = ( y ; jx - y| = r } , y ta n to es fron tera de la b o la a b ie r ta c o m o d e la b o la cerrada.

http://librosysolucionarios.net
Fractaies 89

dobles de una curva de Peano (aquellos por los que pasamos dos veces cuando construim os el fractal
utilizando una línea continua). Ejemplos de conjuntos 110 numerables son los núm eros reales R , el
número de vértices de la curva de Helge von K och o el número de puntos del con ju n to de Cantor
Coo-

Si A es un con ju n to de números reales, el supremo de A es el menor número m £ R tal que


m < x, Vz £ .4. Escribiremos m = $itp(A). El ínfimo será el mayor núm ero m tal que m < z,
V r 6 4 : m = i n f ( A ) . El diámetro de un subconjunto A C R será la m ayor distancia entre dos
puntos contenidos en A 7. Un conjunto se llama acotado si tiene diám etro finito.
Una sucesión { z * } de R n converge a un punto x 6 R n cuando h —► 00 si, d ad o s > 0,

3K. ; Ir* — x\ < e Vfc > K,

es decir, si Jz* — xj tiende a cero, x es el límite de la sucesión,

lim Xk = x
i: —»oo
Un conjunto B es un subconjunto denso en A si siempre hay un punto de B arbitrariamente
cercano a un punto de A. El conjunto Q de los números racionales es denso en R , el conjunto de
los reales. Un con ju n to A se denomina compacto si cualquier colección de conjuntos abiertos que
recubra a A contiene una subcolección finita que también sea recubridora de A.
Se puede dem ostrar que cualquier subconjunto com pacto de R n es a la vez cerrado y acotado.
Por esta razón, todos los fractaies geométricos que hemos visto son conjuntos com pactos. La
intersección de una colección arbitraria de conjuntos com pactos es un conjunto com pacto. Se
puede com probar que si A\ D A 2 D ••• es una secuencia decreciente de conjuntos com pactos, la
intersección

OO

n *
«=L
es no-vacía. Este teorema es importante en la construcción de fractaies de form a iterativa por
eliminación de con jun tos abiertos. Consideremos, por ejemplo, la alfom bra de Sierpiúski. Observe­
mos que cada nueva iteración es un conjunto com pacto A, (cerrado, por contener a su frontera, y
acotado, por existir un conjunto finito mayor que lo contiene), contenido en la iteración anterior
A¿ _i . El conjunto lím ite se construye com o la intersección de los conjuntos resultantes de iterar un
número infinito de veces el proceso. El teorema anterior nos asegura que el con ju n to límite existe,
y es no-vacío.
Un subconjunto A C R-n es conexo si no existen conjuntos abiertos U y V tales que V U V
contenga el con ju n to A y se verifique que las intersecciones A H 17 y A 1 1 V son disjuntas y no
vacías. De form a intuitiva (y com o el nombre indica) pensaremos en conjuntos conexos com o
aquellos form ados por una sola pieza. El mayor subconjunto de A que contenga un cierto punto
x se denom ina com pon en te conexa de x. Un conjunto A es totalmente desconexo si la com ponente
conexa de cada p u n to x es únicamente ese punto, es decir, A es un con ju n to form ado por puntos
aislados.
En el caso de los objetos fractaies, es im portante observar que, por causa de la autosimilaridad,
tod o fractal puro es, o bien totalmente conexo (consta de una única pieza con exa), o bien totalmente
desconexo (está form ado por un conjunto discreto de puntos). Un repaso a los fractaies hasta ahora

7E n a lg u n o s c a so s, c u a n d o u tilice m os volúm enes geom e'trícos V e n E " , nos referirem o s a ía lon gitu d característica
( 6 ) , d e fin id a c o m o V « . C u a n d o h a b le m o s de recu b rim ien tos p ara c a lc u la r d im en sion es fra c ta ie s , v erem os que utilizar
el d iá m e tr o o la lo n g it u d cara cte rística d e los elem en tos recubridores n o varía los r e s u lta d o s c u a n tita tiv a m e n te . E n
el caso d e n = 2 , te n d r e m o s superficies recubridoras, y <5 = \ /5 -

http://librosysolucionarios.net
90 Orden y Caos en Sistemas C om piejos

definidos corroborará esta afirmación. Volveremos sobre la conectividad más adelante, cuando
tratemos los llamados conjuntos de Julia.

La noción de conectividad nos proporciona una definición rigurosa de dimensión topológica:


un conjunto tiene dimensión topológica t i si para separarlo en dos partes necesitamos extraer un
conjunto de dimensión n — 1. Así, com o que para desconectar una curva nos basta con restarle
un punto (D t = 0), una curva es un ob jeto con D t = 1- Para desconectar un plano (D t = 2),
necesitamos restarle una curva (D t = 1 ), etc.
Definiremos finalmente conjunto de Borel o boreliano. La clase de conjuntos de Borel es la
menor subcolección de subconjuntos de R n con las siguientes propiedades:

1. T od o conjunto abierto y tod o conjunto cerrado es un boreliano

2. Tanto la unión com o la intersección de una colección arbitraria finita o numerable de con­
juntos de Borel es un boreliano.

3.2.2 Funciones y Límites


Los conceptos que se van a definir en esta sección serán en particular aplicados en una sección
posterior dedicada a los llamados sistemas de funciones iteradas (IF S), en donde ciertas transfor­
maciones bien definidas se aplicarán sobre conjuntos cerrados para producir objetos fractales.
Consideremos dos conjuntos, X e Y . Una aplicación, función o transfoTmaczón f de A' a Y es
cierta regla que asocia un punto f ( x ) £ Y a cada punto x £ A”. Se escribe

f ' X —* Y

X es el dom inio de / . f ( x ) es la imagen de x, y ésta es a su vez antiimagen de f ( x ) . En general,


la imagen y la antiimagen no están definidas necesariamente de form a única. Escribirem os f ( A )
para denotar la imagen de un subconjunto A C X y f ~ l ( B) para referirnos a la antiim agen de
B CY.
Una función / : X —* Y es inyectiva si f ( x ) f ( y) , cuando x y. f se denom ina sobreyectiva
si Vy 6 y , existe un elemento x £ X con f ( x ) = y , es decir, tod o elemento de Y es im agen de
algún punto de X . Una función que sea de forma simultánea inyectiva y sobreyectiva se denom ina
biyectiva (correspondencia uno a u n o). En este caso se puede definir la función inversa / - l : Y —»
A', tomando com o f - 1 (y) el único elemento de X tal que / ( x ) = y. Entonces.

f ~ l(f(x)) - x, Vx £ A

/ ( / " ‘ (y)) = y . Vyer

La com posición de las funciones / : A’ —►Y y g : Y —<■ Z es la función

g o f : X —> Z

dada por

( g o f ) ( x ) = g(f(x))

Se puede com poner un número arbitrario de funciones, generalizando de forma ob via la definición
anterior. Algunas funciones que se aplican de R n en R " tienen un significado geom étrico im por­
tante, y son las siguientes:

http://librosysolucionarios.net
Fractales 91

In y e c c ió n S o b re y e c c ió n

Figura 3.11: Los diferentes tipos de aplicaciones descritos entre diversos con ju n tos finitos.

Una isom eiría S : R n —*■R n es una aplicación que preserva, la distancia entre dos puntos:

\S( x ) ~ S{ y ) \ = \x~y\, Vx,yeR"

También se las denomina congruencias. Son casos particulares de congruencias:

• Las traslaciones, S (z ) = x + a , en donde los puntos son desplazados una d istancia |a| paralelos
al vector a.

• Las rotaciones, )5 {x ) — a) = ¡x — aj, en donde a es el centro de rotación.

• Las reflexiones, en las que los puntos se convierten en su imagen especular respecto de una
hipersuperficie (n - l)-dim ensional.

Una isom eiría d irectaes suma de traslaciones y rotaciones (no reflexiones). Una transform ación
S : R n —» R n se llama de sem ejanza si existe una constante c que verifique

\S(*) - S(y)\ = c\x - y\, Vx,y€ R n

Una aplicación T : R " —►R ” es lineal si

T ( x + y) — T ( x ) + T (y ) y T( \x ) = \T( x) , Vx, y € R n

y A £ R . T se puede representar mediante una matriz, y es no-singular si T ( x ) = 0 si y sólo si


x = 0.
Una afinidad o transformación afín verifica

5 (x ) = X (x ) + a

donde T es una transformación lineal no-singular y a es un punto de R n.


Una función / : X —-» Y es una función de Holder de ez'ponenie a si

! / ( z ) - f{y)\ < c\x - y\°. x , y <= X

http://librosysolucionarios.net
92 Orden 7 Caos en Sistemas Com piejos

Reflexión

Rotación

Figura 3.12: A plicaciones afines sobre el con jun to representado. Las hom otecias contraen en una
de las dos direcciones o en ambas al mismo tiem po, proporcionando figuras que no son isometricas
a la inicial. La reflexión (en este caso según un eje vertical) y la rotación sí conservan la distancia
entre puntos, y son p or tanto transformaciones de isometría.

para alguna constante c. f se denomina fun ción de Lipschitz si c — 1, y bi-Lipsckitz si

ci\x - y \ < \f{x) - f(y)\ < c 2 \ x - y \ , x,y £ X

para 0 < C\ < c 2 < 00.


Consideremos X C R n e Y C R m, / : X —* Y cierta aplicación y a £ X ( X = A' U es decir,
el conjunto A’ más su frontera) 8. Diremos que f ( x ) tiene límite y (o tiende a y) cuando x —* a si,
dado e > 0. 36 > 0 tal que jf ( x ) — y | < e, Vx G X , con |x - a| < ó. En general lo escribiremos
com o
lim / ( * ) = y

f ( x ) tiende a infinito si, dado M , 3<5 > 0 tal que f ( x ) > M , para |ar — c| < 6 . Entonces.

lim f { x ) = oc
x—
y de forma similar para f ( x ) —* —oc. C om o casos particulares, en relación a los cálculos que
realizaremos con ob jetos fractales, estaremos especialmente interesados en los límites x —►0.
Supongamos f : R + —» R . Es posible que el límite no exista, que la función presente infinitas
oscilaciones cuando nos acerquemos a este punto. Definimos en estos casos el límite superior.

lim sup f ( x ) = lim ( s i¿ p { /( z ) : 0 < x < r}


r —o
s u p { f ( x ) : 0 < x < r } es o bien 00 Vr > 0, o bien decrece cuando r decrece, y por tanto el límite
superior siempre existe. El límite inferior se define de forma similar.

8 Ar se d e n o m in a en g e n e r a l adherencia de X . v e s e l m en or c o n ju n to cerrado que c o n tie n e A’ . Si A' es cerrado,


X = a:.

http://librosysolucionarios.net
Fractales 93

Figura 3.13: La aplicación representada es una función continua en los valores reales de x y
discontinua en los racionales. A cada valor de x G [0,1] racional con la form a fraccional irreductible
p fq se le asocia el valor de y = 1/q. En los valores irracionales vale 0. La función tiene propiedades
fractales claramente visibles.

lim in f f ( x ) = lim ( i n f { f ( x ) : 0 < x < r}


i —0 i —*0
Si el límite superior y el inferior coinciden, limx—o f { x ) existe, y limx_ o f { x ) = l i m i n f / ( x ) =
íim sup f ( x ) .
Una función / : X —►Y es continua en un punto a 6 X si f ( x ) —* f ( a ) cu an do x —+ a, y
es continua en X sí es continua en tod os los puntos dei con jun to. Si / : X —►Y es una función
biyectiva y continua con inversa f ~ l : Y —* X continua, se denom ina hom eom orfism o, y en este
caso X e Y son conjuntos homeom orfos.
La función / : R —►R es diferenciable en x con el valor f ' ( x ) com o derivada si

lim & ±*>.zM = /'(* )


/»—0 h
existe. Será diferenciable en continuidad si f ' { x ) es continua en x. En general, f : R n —♦ R n es
diferenciable en x con la aplicación lineal f ' ( x ) : R n — R n co m o derivada si se verifica

lim l / ( * + h ) ~ f ( x ) - f ' {x) h\ _ Q


1* 1-0 ¡A{

Diremos que una secuencia de funciones { / * } , fk '■A' —* Y, X C R n? Y C R m> con verge punto
a punto a una función f \ X —* Y si f i ¡ { x) —* f ( x ) cuando k —►oo, Vx £ A'. La convergencia es
uniforme si

s upx&X\fk(x) - / ( z ) l — 0 ( * — oo)

Si las funciones fk son continuas y convergen uniformemente a f , entonces / es continua.

3.2.3 M edidas y D istribuciones de Masa


El con cepto de medida será de especial utilidad en la sección dedicada a multifractales (ob jetos
que. debido a su com plejidad, necesitan ser caracterizados por un espectro continuo de dimensiones
fractales). Unos ligeros esbozos de la te o n a de la medida serán suficientes para nuestros propósitos.

http://librosysolucionarios.net
94 Orden y Caos en Sistemas Com plejos

Sólo nos referiremos a medidas definidas sobre subconjuntos de R " . La idea será asociar una
cantidad numérica (la medida) a cada una de las partes en que el conjunto pueda ser dividido, o
de las que esté formado.
Llamamos a // medida en R " si a cada subconjunto le asocia un valor no negativo, de la forma
siguiente:

1 . //( 0) = 0, es decir, el conjunto vacio tiene m edida nula.

2. p ( A ) < p ( B ) si A C B

3. Si A i , A 2, ... es una secuencia finita (o numerable) de conjuntos, entonces:

( 00 \ 00

U Ai) ^
:=1 / i= l
La igualdad se cumple cuando la colección {A , } está form ada por borelianos disjuntos (A¿ f~) Aj —

p { A ) es la medida del conjunto A. Dos conjuntos del mismo tamaño (en el sentido geom étrico)
pueden tener medida diferente. Veremos que a un con jun to se le puede asociar una m edida mayor
(numéricamente) que a otro, aún cuando su tam año geom étrico (la “ superficie” que ocupa) sea
menor. C uando la medida de un conjunto es proporcional a su tamaño geom étrico, direm os que
trabajam os con una medida de masa. En este caso particular, si tomamos un conjunto acotado de
R n, 0 < / i ( R " ) < 00, la m edida de masa se puede asociar directamente a la “ masa” dei conjunto:
si lo dividim os en partes, cada una de ellas tiene un valor coincidente con el valor de su masa (o
proporcional a ella).
Llamaremos soporte de una medida, A i, al con jun to sobre el cual ésta se concentra: es el menor
con jun to cerrado X tal que

í¿(R n - X ) = 0
El soporte A i de p siempre es cerrado, y x G A i si y sólo si

p ( B r ( x)) > 0 , Vr > 0


Diremos que p es una medida sobre un conjunto A si éste contiene el soporte de p . En todos
los casos que contemplaremos efectuaremos siempre una normalización sobre la m edida (en ese
caso, podrem os pensar en el valor asociado a cada parte A, de nuestro conjunto A com o en su
probabilidad de ocurrencia). Normalizar la medida significa que p { A) = 1, y si

OO
a = u *
1
siempre p { A { ) < 1. En los casos que nos ocuparán, la división que haremos dei con jun to A será en
n piezas disjuntas, y por tanto

p { Á ) = /¿(A i) -fi /¿(A 2) + ... + p { A n) — 1

Tras esta introducción a las nociones básicas de conjuntos y funciones y la definición dada de
medida estamos en condiciones de introducir la m edida y la dimensión de Hausdorff. La dimensión
de H ausdorff asocia un valor numérico no necesariamente entero a cualquier su bconjunto de R ” .
A unque introducida muchos años antes de la “ invasión” de los fractales, con éstos se reveló de
especial utilidad, ya que permite distinguir, en una primera aproximación, el o b je to con el que
estam os trabajando.

http://librosysolucionarios.net
Frac tales 95

M e d id a de HausdorfF

Considerem os F C R " y una colección { Ui } de conjuntos de diámetro m áxim o ¿ que recubren F:

OO
FclJU i
i- 1
con 0 < |Í7,¡ < «5, Vi, direm os que {£/, } es un ó-recubrim iento de F . Definimos, V¿ > 0, s > 0,
OO
H¡{F) = inf { |F,|J; { Ui } e s un é — recu brim ien to de F }
«=i
Estam os buscando el m ínim o de la suma de las potencias s-ésimas del diámetro del ¿-recubrim iento.
Si 6 —» 0, el número de recubrimientos perm itidos disminuye, y se acerca a un límite,

■H’ ( F ) =

Esta es la medida de Hausdorff s-dim ensional de F . Cuando los conjuntos m edidos son los
volúmenes, superficies y curvas habituales, s tom a valores enteros que se corresponden con las
dimensiones topológicas conocidas. La medida de Hausdorff posee una propiedad de escala funda­
mental 9:

H S{ \ F ) = AsrHs { F )

es decir, cuando el con jun to s-dimensional sobre el que aplicamos la medida se m ultiplica en un
factor A, la medida del conjunto se ve m odificada en un factor A*. Recordem os en este punto
la primera sección de este capítulo, en donde dividíam os una recta, un cuadrado y un cubo en
subunidades y obteníam os un factor de escala D , en aquel caso un número entero. Para un ob jeto
fractal, a continuación, D tomaba un valor irracional. A quel valor D es lo que ahora llamamos s,
dimensión de la m edida de Hausdorff.

D im ensión de H au sd orff

Volvam os sobre ?í¿(.F ), definida en el párrafo anterior. Para cualquier conjunto F y é < l , ' H ¿ ( F ) e s
una función no-creciente con s. así que ? i s( F) , según su definición, también lo es. Si consideramos
/ > s y { Ui } un ¿-recubrim iento de F , se verifica

X > .r
I t
T om an do mínimos,

nl(F) < s ^ n ¡ ( F )

H aciendo el límite ¿ —►0, se observa que si 7í f { F ) < oo, entonces 7 í£(F ) = 0, para t > s. Si
representamos 7i s{ F ) en función de s, observaremos que existe un valor crítico s" en el que H S( F)
cam bia su valor de oo a 0. Este valor crítico s x se denom ina dimensión de Hausdorff de F (dim ^ F ).
o también dimensión de Hausdorff-Besicovitch.
Recordem os de nuevo que. cuando definíamos la dimensión de medida, pedíam os que el producto
N r D se mantuviera finito cuando n —» oo (núm ero de elementos recubridores). O btenem os un claro
paralelismo con las nociones que ahora estamos definiendo: sólo existe un valor de D (ahora s)
que en el límite n —» oo (en la mayoría de los casos equivalente a reducir a cero el diámetro del

9 P a r a m á s d e ta ü e s, y so b re la im p ortan cia d e las fu n c io n e s d e e sc a la , véase la sección 8 .2 .

http://librosysolucionarios.net
96 Orden y Caos en Sistemas C om plejos

oo

3f(F)
I

figura 3.14: Representación cualitativa del valor d<* s ’ (dim ensión de H ausdorff-Besicovitch) que
hace H S( F ) finito.

recubrimiento, Ó —►0) produzca un valor finito de N r D (cantidad análoga a la medida de HausdorfF


de dimensión s), y ese valor es la dimensión de nuestro conjunto.

El cálculo exacto de la dimensión de HausdorfF no siempre es posible, y con frecuencia resulta


muy com plicado. Esta dimensión es el mejor estimador de la dimensión de los objetos fractales,
pero muy a m enudo se utilizan definiciones alternativas de dimensión, mucho más apropiadas en la
práctica. Entre éstas, la más utilizada es la ya descrita dimensión de “ box-counting11. R em arque­
mos que en ese caso no se calcula un límite analítico, sino que se interpola una recta para valores de
¿ no necesariamente pequeños. En ocasiones, esto puede provocar la aparición de dimensiones de­
pendientes de la escala, es decir, puede ser que la pendiente de la recta que debería dar la dimensión
fractal no se mantenga constante. Esta dependencia en ó es con frecuencia importante, y no casual.
Volveremos sobre ella al referirnos a los objetos multifractales. O tra característica im portante del
método del “ box-counting” es que el ¿-recubrim iento se puede escoger de diversas form as, y en
todos los casos se puede demostrar que el valor de la dimensión obten ido es, en el límite, el mismo.
Así, sería equivalente tomar bolas de radio <5, cubos de arista <5, una red n-dimensional de cubos de
lado 6 o conjuntos irregulares de diámetro m áxim o 6 , entre otros. Recordemos que, para obtener
ia dimensión de HausdorfF. este recubrimiento debe ser el mínim o, y en general, con el m étodo de
“box-couuting^, se produce una sobreestimación del recubrim iento necesario.
Muchas otras definiciones de dimensiones alternativas pueden ser halladas en la literatura es­
pecializada. Para nuestros propósitos, lo visto hasta ahora será suficiente.

3.3 Sistem as de funciones iteradas (Iterated function system s,


IF S )
Estudiaremos en esta sección un tipo de fractales deterministas, definidos por transformaciones
afines y com únm ente denominados IFS (sistemas de funciones iteradas). La idea general consiste
en aplicar cierto conjunto de transformaciones afines contractivas (serán de semejanza, con c < 1
10), a un con ju n to cerrado arbitrario de R n. Cuando el sistema d e funciones se ha aplicado un
uúnero infinito de veces, llegamos a lo que se llama punto fijo de la transformación, y éste es, ni

lu V c a s c la secció n anterior.

http://librosysolucionarios.net
FractaJes 97

más ni m enos, un conjunto fractal. Estas nociones serán especificadas más adelante. La form a en
que los fractaies aquí aparecen, com o punto fijo de un con jun to de transformaciones afines, nos
perm itirá ilustrar brevemente el problem a inverso: dado un con ju n to com pacto autosim ilar de R n ,
¿cóm o sería posible determinar el conjunto de transformaciones que lo definen? Esta idea puede ser
de gran im portancia aplicada a la codificación de imágenes. Se conseguiría una gran com presión
de la inform ación si en lugar de ser necesaria la especificación de un color para ca d a píxel de una
imagen (unos 104 parámetros), ésta pudiese ser especificada por unas diez transformaciones de
afinidad (m enos de 102 parámetros serían suficientes). Una descripción más exhaustiva de los IFS
se puede encontrar en los libros de Barnsley (1988) y Peitgen (1992).

3.3.1 Transform aciones de sem ejanza en R 2


En el plan o real R 2, las transformaciones afines toman una form a sencilla cuando se aplican a un
punto arbitrario x = ( xi , x?):

x' es el punto transformado de x, tras aplicar la matriz A (que representa hom otecias u ,
reflexiones y rotaciones), y el vector t, que define una traslación. Estamos interesados en ciertas
formas particulares de las transformaciones afines, que son las transformaciones de semejanza.
Una reflexión, R toma la forma particular

a(*0=U )( - i *>
O bservem os que, simplemente, los puntos de la forma ( xi, X2) pasan a ( x j , —X2), b a jo la acción de
la m atriz R.
U na rotación de ángulo 9 es de la forma

/ x i \ _ / eos9 -s in B \ f xj \
X2 / V cos^ / \ 22 /
es decir, el punto ( xi , X2) se transforma en

(x\ eos 9 — x 2 sin 0, x i sin 9 + x 2 eos 6 )

que es sim plem ente una rotación de ángulo 9 en sentido antihorario (considere el lector los casos
particulares x i = 0 y 12 = 0). Una hom otecia Hc es

en donde simplemente multiplicamos las dos coordenadas del punto x por un único factor c. En las
aplicaciones que veremos, c < 1 siempre, y por tanto las llamaremos contracciones. Unicamente
estudiarem os los casos en que el factor de contracción c es el m ism o para los dos ejes coordenados.
Casos m ás generales contemplan la posibilidad de que exista un factor cj en el eje de abeisas y
otro, C2 c\ en el eje de ordenadas. De hecho, éste es un caso habitual que se da, por ejem plo, en
la transform ación del panadero descrita en el capítulo sobre caos.
Estas transformaciones, R, R# y Rc_, se pueden com poner para ser aplicadas sucesivamente
sobre un punto. Solamente veremos com posición de Rg y fTc , que escribiremos

11 C o n el n o m b r e d e h o m o te c ia d e sig n a m o s genéricam ente las c o n tra c cio n e s y las d ilatacion e s.

http://librosysolucionarios.net
98 Orden y Caos en Sistemas Com plejos

tt j} _ \ c O \ / cos0 —sin$ \ _ ( eco s O —c s i n 1


ücKe- \ o c ) ( sin^ cos0 ) - { csmg e co s 6

operación que es conmutativa:

H cR e -- R 0 H C

así que tanto es contraer primero y rotar después com o hacerlo en orden inverso.
D ado que además de ser una operación conm utativa existe el elemento neutro (la matriz identi­
dad, I 2 x 2)? el elemento inverso (siempre que c ^ 0) y la com posición de rotaciones y contracciones
sucesivas se puede expresar com o una única operación, estas dos operaciones tienen una estructura
de grupo. Este grupo puede ser ampliado con las reflexiones R y las traslaciones t ( x ' = x -+ í),
para constituir el grupo de las transformaciones de afinidad.

3.3.2 E jem plos


Pasemos ya a describir algunos de los fractales conocidos en términos de transformaciones afines.
Dado que trabajaremos con contracciones (c < 1), una única transformación nunca será suficiente
paja describir un o b je to finito: la transformación debe de ser iterada infinitas veces antes de
encontrar su punto fijo 12, y si ésta es una contracción, el punto fijo en R 2 siempre será el origen,
(0 ,0 ). Necesitaremos, p or tanto, una serie de transformaciones afines, W

W = {lü l, Ul2, . . ., lí'rt }

tales que, al ser sucesivamente aplicadas a un conjunto cerrado arbitrario de R 2 generen el ob jeto
deseado.
Com encem os con un caso sencillo: el conjunto de Cantor. Partamos (co m o ya hemos hecho
anteriormente) del segmento unidad, [0, 1], y busquemos cuáles son las transformaciones que pro­
porcionan los dos segmentos [0 ,1 /3 ] y [2/3 ,1 ] correspondientes a la primera iteración. Estos dos
segmentos son idénticos al original, pero 1/3 menores. El factor de escala, c, será por tanto c = 1/3.
Su orientación respecto del segmento inicial no ha variado, por tanto el ángulo de rotación es 8 = 0.
Por otra parte, ahora tenem os dos segmentos, uno situado en el origen, que por tanto no necesita
ser trasladado respecto del segmento original, y otro con origen en el punto P = 2 /3 , que requiere
por tanto una traslación t = (2 /3 ,0 ) en R 2. Las dos transformaciones que definen esta iteración
son, pues

U ’l ( x ) = ( g q I X +
W2i-X) = * i! o 11
En este caso sencillo no es necesario trabajar en R 2, puesto que el conjunto de C antor está contenido
en R 1. Por tanto, podem os reducir las transformaciones a

1
Wl ~ 3 X'
Si aplicam os de nuevo (uq o uq) al conjunto resultante, [0, 1/3] U [2 /3 ,1 ], obtenem os

í, ll 2 , 1 i 2 3 fi 7 8 ,
(w>i o W2 ) u u U U
3’ r 9 9' 9 9’ 9 9’

12L a id e a d e p u n to fijo es in tu itiv a : el p u n to fijo x * de u n a función / ( x ) será aq u el q u e n o v a n e b a jo la aplicación


de la fu n ció n : f ( x ’ ) = x * . P o r e je m p lo , el p u n to fijo (en e ste caso los p u n tos fijos) d e la fu n ció n / ( x ) = x 2 + x — 1
es la s o lu ció n de ( x * ) 2 + x * — 1 = r * , r * = ± 1 .

http://librosysolucionarios.net
Frac tales 99

Las aplicaciones u>i y u>2 , iteradas infinitas veces, proporcionan el con jun to de Cantor. Este
conjunto queda en consecuencia com pletam ente descrito por únicamente tres parám etros: c = 1 /3,
= 0, Í 2 = 2 /3 , correspondientes al factor de contracción y a las dos traslaciones.
D escribam os otro ejem plo, ya en R 2, algo más com plicado: la curva de von K och . En la primera
iteración, el conjunto cerrado inicial se transforma en cuatro, según ciertas transformaciones que
contraen en un factor c = 1/3, todas por igual, y además:

• W\ sitúa el con ju n to en el origen, x t = 0, yi = 0, sin cambiar su orientacióu, por tanto


*i = - 0, 0) y Si = 0.

• W2 rota 60° y sitúa el conjunto en X2 = 1 /3, j/2 = 0, por tanto Í 2 = (1 /3 , 0) y 6 2 = 60°.

• ti>3rota —60° y sitúa el conjunto en 23 = 1 / 2, ^3 = V 3 /6 , por tanto ¿3 = (1 /2 , \ /3/6) y


03 = 300°.

• W4 no rota y sitúa el conjunto en 24 = 2 /3 , t/4 = U. por tanto Í4 = (2 /3 , 0) y 04 = 0.

Así que la curva de von Koch está definida por

wi(x) = 1
( 3
ü\
3
.
ii j x + ( 0 J ; ^ ( z ) = ^ ( q

M x) = 1 J /3 m{x)= £ l ) x +
según la matriz com posición de homotecias y rotaciones descrita en la sección anterior. El número
de parám etros necesarios en este caso es de 13: un factor de escala c y cu a tro transformaciones
en donde cada una necesita ser especificada, por un ángulo 0¿ y dos valores para ca d a traslación, t,-.
De form a com pacta se designa por W ( A ) el conjunto de las transformaciones que iterativamente
se aplicar, sobre el con jun to cerrado inicial A para generar el fractal deseado:

n
W (A ) = U wa(A )
a= 1
Se puede demostrar que una tranformación contractiva (com o lo es W ) en el espacio métrico
com pleto en el que trabajam os ( R 2 con la distancia euclidiana) tiene un único punto fijo, y por
tanto un único o b je to aparece com o límite de las iteraciones. ¿Podría ahora el lector determinar
cuál es el con ju n to de transformaciones que produce la alfombra de Sierpiñski o la curva de Peano?

3.3.3 El teorem a del Collage


El paso siguiente en la construcción de ob jetos fractales a partir de la transform ación genérica
W (A ) es la resolución del problema inverso. Consideremos un ob jeto real, por ejem plo la h oja de
un árbol, o el árbol mism o, que de alguna form a pueda ser visto co m o un con ju n to autosimilar.
¿Seríam os capaces de construir W ( A ) de form a que su iteración sobre un con ju n to cerrado de R 2
(que por sencillez podem os considerar un único punto) produzca la imagen real de forma más o
menos aproxim ada? La respuesta es sí, y la solución viene dada a través del llam ado teorema del
collage. cu e puede ser enunciado de la form a siguiente:

Reah'cense diversas copias de diferentes tamaños del conjunto que se pretende reproducir. R e­
cúbrase con ellas el conjunto, tan aproximadamente com o sea posible. El tam año de las copias
respecto ce i conjunto original da el fa ctor de contracción de cada aplicación. El núm ero de copias

http://librosysolucionarios.net
100 Orden y Caos en Sistema*' C om plejos

requeridas es el número de transform aciones w-, necesarias. El ángulo de rotación de cada


una vien e dado por su orientación respecto del original. Su colocación era d a (t¡) se determina
escogiendo unos ejes y, por ejemplo, situando nuestro objeto en el recuadro {0, 1 ) x [0, 1].

Un ejem plo de la forma de proceder y de las aplicaciones obtenidas {u>, b así com o del conjunto
resultante de tomar las aplicaciones y generar a partir del punto (0, 0) el conjunto inicial se da a
continuación.
Considerem os el grabado de una h oja representado en la figura 3.15, arriba a la izquierda. La
figura de la derecha es una reproducción de la inicial en donde se han utilizado cinco copias de
distintos tamaños. Los factores de escala vienen en este caso directamente determinados por el
factor que daba la “fotocopiadora” utilizada. Si escogemos dos puntos de la imagen inicial que
permitan trazar una recta guía, el ángulo que forme esta recta con cada una de sus réplicas menores
proporcionará los ángulos de rotación de las transformaciones. Si se lleva a ca b o este proceso, las
transformaciones que se obtienen son las siguientes:

• uíi: rq = 0.75, 9i = 0o

• iü2: r 2 ~ 0.60, 0 2 — 0o

• u¡3: r3 = 0.40, 03 = 0o

• ií?4: r4 — 0.37, 8 4 = 61°

• tü5: r 5 = 0.27, 8 s = -5 0 °

Dados los valores de los factores de contracción de cada una de las aplicaciones generadoras del
ob jeto fractal, se puede calcular de form a exacta la dimensión fractal de éste, siempre y cuando no
haya zonas solapantes en el conjunto, sin necesidad de recurrir a m étodos de recubrim iento com o
el “ box-cou n tin g” . El valor de la dimensión fractal para un ob je to generado por una colección de k
aplicaciones con factores de contracción { r j , . . . , r*} se obtiene resolviendo la ecuación trascendente

r f + r f + ... + r f = 1

donde D es la dimensión fractal. La expresión no es aplicable, por ejem plo, al dibujo en form a de
hoja de la figura 3.15, ya que existen zonas de solapamiento, procedentes de distintas aplicaciones.
Sí p odría ser aplicado a los dos ob jetos de la figura 3.16 (IFS y ?), ya que, en éstas, no hay
intersección entre las transformaciones afines.
Se puede adivinar las grandes posibilidades que el m étodo ofrece, una vez que el usuario se
ha fam iliarizado con él. Las imágenes representadas en la figura 3.16 ponen a prueba el grado de
com prensión alcanzado en esta sección. ¿Puede el lector descubrir las aplicaciones que generan
estos dos últimos fractales?

3.4 Los conjuntos de Julia y de M a n d elb ro t

3.4.1 A lgeb ra elem ental de los números com p lejos, C


Antes de iniciar el estudio de los conjuntos de Julia, com o preámbulo a la descripción del conjunto
de M andelbrot, es necesario poder manejar con cierta com odidad los números com plejos, ya que
los conjuntos que van a ser descritos se encuentran definidos en el plano com plejo C , espacio de dos
dimensiones. Empezamos, pues, esta sección con un repaso del álgebra elemental y de la notación
usual de los números complejos.
Un núm ero complejo, formado por el par (x, y) con x , y £ R es de la forma

http://librosysolucionarios.net
Fractales 101

Figura 3.15: Arriba a la izquierda, grabado de una hoja. A la derecha, arriba, reproducción de
la figura inicial utilizando cin co réplicas de distintos tamaños. Su colocación, tam año relativo y
orientación proporcionan los parámetros de las transformaciones afines que reproducirán el dibujo
original. A b a jo, a la izquierda, se representan las aplicaciones afines generadoras. Los rectángulos
son las imágenes del rectángulo mayor exterior b a jo una iteración de cada una de las cin co aplica­
ciones. A la derecha, abajo, se puede ver la imagen obtenida tras unas decenas de iteraciones.

http://librosysolucionarios.net
102 Orden y Caos en Sistemas Com plejos

F5|HBrs EE- ES I
í

í> ; ,

IRUI
y! Vs f
, « 7
%
?

' i 53 >

I5 J lüá EE-ES
Figura 3.16: Para generar estas dos imágenes ha sido necesario permitir la existencia de dos factores
de contracción diferentes en las direcciones x e y, com o se puede apreciar de inmediato. La primera
figura (IFS) requiere 10 transformaciones de afinidad, v 7 son suficientes para generar la segunda
(?)•

z = x + yi

donde x se denom ina parte real, 3?(r) = x , e y es la parte imaginaria, 5 ( z ) = y, que siempre va
acompañada de la unidad imaginaria i. Esta se define com o:

i — y fC 1 => i2 — - 1

Su introducción en las matemáticas fue debida al deseo de proporcionar una solución form al a
ecuaciones en las que aparecían raíces pares de números negativos. C on la introducción de iy el
álgebra de los números complejos se avanzó en el estudio teórico de expresiones del tipo x 2 + 1 = 0,
a la vez que se abrieron campos nuevos de investigación, com o el de la variable com pleja o el que
nos ocupa, el de los conjuntos fractales en el plano com plejo.
Dados dos números com plejos, z — x -f- yi y w = u + vi. su suma es la cantidad

z + w = (x + y i) -f (u + ü¿) = (x + u) 4- (y + v)i

es decir, las partes reales se suman para dar la parte real y las imaginarias para proporcionar la
parte imaginaria. El producto de z y w es

z.w = ( r + y í)-(u + Vl") = xu + + x v * + y v i 2 — (I u — Vv ) d- (x v + uy)i


donde se aplica la definición de i. El cocien te entre z y w se. obtiene com o

2 x + yi x + yi u — vi (u x + yv) + (yu — vx)i ux -+■ yv yu — ex


w u 4- vi u -f vi u — vi u2 + v 2 u2 + v 2 u2 + v 2
Se m ultiplica el denominador por su conjugado (que consiste únicamente en cambiar el signo
a la parte imaginaria) para eliminar i d el denominador, proporcionando así una parte real y una
com pleja separadas com o resultado final. La interpretación habitual de los números com plejos es la

http://librosysolucionarios.net
Fractales 103

Figura 3.17: Representación geom étrica de ios números com plejos. En el eje x se representa la
parte real, y en el eje y la imaginaria. Se indica la notación en coordenadas cartesianas, (x , y) y
en coordenadas polares, (r, ó ).

de puntos en un plano. En el eje x se representa la parte real y en el eje y la imaginaria. Es también


frecuente pensar en el número com plejo com o en un vector situado en el origen de coordenadas. Una
notación alternativa y muy útil de ios números complejos es su forma trigonom étrica. Utilizando
la transform ación de coordenadas cartesianas a coordenadas polares

x — r c o s (ó ), y = r sm(4>)

y la transform ación inversa

r -- y f x "2 + t/2, <¡>= arctan ^

se puede escribir

z — r(cos 4 >+ i sin <p)

donde r es el módulo, que da la distancia al origen de coordenadas, y <p es el ángulo que el “ vector"
forma con el eje x : llamado argumento de z, 4> = arg(z).
Esta representación se puede transformar aún, por medio de la notación de Euler (o forma
polar), que establece la equivalencia

e ,4> = eos ó + ¿sin ó

La igualdad se puede verificar desarrollando las tres funciones en serie de Taylor. Por tanto, el
número com plejo z = x + yi se puede denotar por

con las definiciones ya dadas para r y Esta notación simplica sobremanera el p rod u cto y la
división, y perm ite un cálculo rápido de las raíces n-ésímas de un número com plejo. El producto,
dados z — re ' 0 y w — s e se obtiene com o

z.w = r e '4, s e i4> = r s

y el cociente

http://librosysolucionarios.net
104 Orden y Caos en Sistemas Com plejos

L —
- -I e, * * - * )
w s
Las n soluciones { ün} de la raiz /i-e'sima de un número com plejo * se oi)tienen también fácilmente
de la form a siguiente:

a.k ~ \fr exp j


donde k = 1,2, ...n. Es decir,

m = sfr e'(4,+ 2 Kl ^ a 2 = ^ c i<*+4T/ n> a 3 = ^/re*^ +6ir/í" \ ... an =

3.4.2 Los conjuntos de Julia


Gastón Julia (1893-1978) fue uno de los fundadores de la actual teoría de sistemas dinám icos. Con
tan sólo 25 años publicó su trabajo “M émoire sur Viteration des fonctions ra tion elles’' 13, que le
valió reconocim iento internacional en la década de 1920. La mayoría de sus estudios fueron llevados
a ca b o en un hospital, mientras se encontraba convaleciente de las heridas que, durante la Primera
Guerra Mundial, le produjeron la pérdida de la nariz.
Julia trabajaba con los polinom ios definidos en el plano com plejo. Darem os seguidamente las
ideas que proporcionan la definición de los llamados conjuntos de Julia. Considerem os el polinom io
de segundo grado más sencillo en el plano complejo,

f ( z ) = Z2

y estudiemos el com portam iento de iodos los puntos del piano com plejo, u?o = u 4- vi b a jo infinitas
iteraciones de este polinomio. Por sencillez, escribamos wo = r e 1*, en general, y observem os que
las iteraciones sucesivas serán de la forma

tüo = re '°, 101 = Wq = r 2 e l2*, io2 = wf = = r 4 etA<p, ..., w k — ( r e '* ) 2''

Es sencillo estudiar el com portam iento del punto wq cuando k —* oo. Observem os que, si r < 1,
la potencia r2 tenderá a cero para k —* oo, y por tanto, independientemente del ángulo <p, todos
los puntos que inicialmente se encontraban en el interior del círculo de radio unidad tienen el origen
com o atractor. Por otra parte, si ftooJ = r > 1, cuando k —» oo estos puntos crecen sin límite, y
acaban escapando al infinito. Este es el conjunto de los puntos de escape, que denotarem os por

£ ■= |wq|—* oo s i k —►o o }

El com plementario de £ es el conjunto de los puntos prisioneros, es decir, los que mantienen
un m ódulo finito cuando k —* oo:

V = w0 $ £ }

Este conjunto V contiene tanto los puntos cuyo atractor es el origen ( [wo| < 1) com o aquellos
que constituyen su frontera, F p , que siempre permanecen en ella y que están caracterizados por
tener m ódulo unidad, r = 1. El conjunto frontera de V , F-p, es el conjunto de Julia para el
polinom io } { z ) — z2. Los conjuntos de Julia habituales son objetos fractaies, y provienen de
polinom ios de la forma f ( z ) = z 2 j- c. en donde c es un número com plejo arbitrario en cada caso
y responsable de los infinitos conjuntos de Julia existentes (uno para cada valor de c). El caso

13G«vston J u lia, “M é m o ir e s u r ... Jour. de M a th . Puré et A p p li . 8 ( 1 9 1 8 ) , 4 7 -2 4 5 .

http://librosysolucionarios.net
Fractales 105

ó. •» i.

<? " s

- *

V 7 </ o % v*

Figura 3.18: Cálculo numérico de conjuntos de Julia a partir de un con jun to cerrado inicial.
La secuencia de figuras es de izquierda a derecha, y de arriba abajo. Inicialm ente, se toma la
figura en form a de “ L” y se itera la aplicación inversá de un polinom io com plejo de grado 2,
con c = —0.5 + 0.3i. Se representan las cuatro primeras iteraciones y el con jun to de Julia final.
Este m ism o conjunto (recuadro 6) es el conjunto cerrado inicial para la creación del conjunto de
Julia correspondiente a c = 0.5¿. Se han representado los dos primeros pasos y el conjunto final
correspondiente (última figura).

anterior, que nos ha servido para definir el con jun to de los puntos prisioneros y de los puntos de
escape (de ahora en adelante V c y £c- dependientes del parámetro c) corresponde al caso c = 0 .
Podría parecer que la obtención de los puntos pertenecientes a un cierto con ju n to de .Julia no
es excesivamente com plicada. Sin embargo, no es así. E xcepto en el caso trivial c = 0, es imposible
obtener expresiones com pactas que designen F t>c .
Una primera aproximación numérica al con jun to consistiría en dividir el plano com plejo en una
red discreta de puntos y calcular para cada uno de ellos un cierto número de iteraciones, a fin de
determinar la convergencia o la divergencia de dicho punto. Este m étodo es terriblemente tedioso, y
requeriríamos gran número de iteraciones para llegar a una imagen más o menos cercana al conjunto
final. Existe un m étodo mucho más sencillo, que a provéch a la invertibilidad del polin om io f { z ) -
En efecto, dado f ( z ) = z2 + c, consideremos la aplicación inversa,

/ ' 1 - r I =: ± y / T ^ C

Si, dado cualquier conjunto cercado de C realizamos sucesivas iteraciones de / - 1( z) , el conjunto


de Julia aparecerá com o punto fijo de esta transformación. Por otra parte, se puede demostrar que
todos los puntos wo tales que su m ódulo ¡ir:, sea m ayor que el valor r(c), donde

http://librosysolucionarios.net
106 Orden y Caos en Sistemas C om plejos

Figura 3.19: C álculo de dos conjuntos de Julia utilizando las antiimágenes sucesivas de la circun­
ferencia de radio 2. En cada amtiimagen se produce un cam bio de color. Se han representado las
cuatro primeras iteraciones y en el interior el conjunto de Julia final correspondiente (tras unas
25 iteraciones, que son suficientes en estos casos para dar una imagen indistinguible del conjunto
limite a esta escala). A la derecha, c = —0 . 6 + 0.4t, y a la izquierda, c = —1.3.

r (c ) = max(|c|, 2)

pertenecen a Sc , y por tanto no están en el conjunto de Julia. Según esta condición, las itera­
ciones de / - 1 que permiten encontrar el correspondiente conjunto de Julia se realizan (de forma
muy conveniente) a partir del conjunto com pacto de C form ado por el círculo de radio r(c ). En
pocas iteraciones, unas 10 ó 15, la imagen del conjunto de Julia aparece definida con considerable
precisión.

El con jun to de Julia correspondiente a f ( z ) = z 2 + c es invariante b a jo la acción de f { z ) .


Por tanto, los puntos pertenecientes al conjunto deben de seguir perteneciendo a él tras aplicar
la transformación u>q Wq + c. El conjunto de Julia posee puntos de todas las periodicidades
y puntos que siguen dinámica caótica sobre F-pc- Esto im plica la existencia de sensibilidad a las
condiciones iniciales, en el sentido siguiente: la iteración aplicada a los puntos incluidos en una
pequeña porción del conjunto de Julia provoca que éstos acaben repartidos por todo el conjunto
tras unas pocas iteraciones.

3.4.3 El con ju n to de M andelbrot


Benoit B. M andelbrot nació en Polonia en 1924, pero a los 12 años se trasladó a Francia con su
familia. Su tio Szolem M andelbrojt, profesor del Collége de France, lo introdujo en los trabajos
de Julia y Fatou. B. B. Mandelbrot era un apasionado de la geometría, aun cuando durante
su juventud ésta parecía estar en franca regresión. Recordem os que el trabajo de Julia sobre
los polinom ios de grado dos fue publicado en 1918, pero en aquellos años, sin ordenadores, la
visualización d e los puntos fijos de las aplicaciones, de los conjuntos de Julia, era imposible. Un

http://librosysolucionarios.net
Frac tales 107

Figura 3.20: Ejem plo de la sensibilidad a las condiciones iniciales en el conjunto de Julia correspon­
diente al caso trivial c = 0. Inicialmente, se escoge un pequeño grupo de puntos, com prendidos
entre 2 y 3 grados de arco. Tras tan sólo siete iteraciones de la función : z- + c , pasan a ocupar
la zona del con junto comprendida entre las líneas punteadas.

primer esquem a del aspecto que éstos deberían presentar se dio en 1925 l4, pero la imagen aún era
sum am ente tosca. Recordemos también que los conjuntos de Julia podían ser conexos o desconexos,
dependiendo del valor del parámetro c, y debido a su carácter autosimilar. M andelbrot, entre 1979
y 1980, se propuso la clasificación rigurosa de los conjuntos según c, es decir, calculó los valores
de c que producían conjuntos conexos y los representó ,5 . En principio, podía suceder que la
zona del plano com plejo que contuviese los valores de c responsables de conjuntos de Julia conexos
tuviese una form a geométrica bien definida, podría ser un círcu lo o un polígono sencillo, o bien uoa
colección de piezas desconectadas repartidas por el plano. N o obstante, el citado grupo de puntos
resultó ser de exquisita geometría y extrema com plicación. Se le ha calificado com o “ el o b je to más
bello y com plicad o jamás visto’*. La frontera del conjunto de Mandelbrot posee autosimilaridad a
todas las escalas, estructura infinita. La autosimilaridad no es estricta: podem os obtener copias
ligeramente deformadas del conjunto original a todo lo largo de la frontera, copias de cualquier
tamaño, pero no exactas (en el sentido de que exista una transform ación isométrica que convierta
una en otra ).
Cualquier valor de c que escojam os en el interior del con ju n to proporcionará un con jun to de
Julia cou ex o, y cualquier valor del exterior producirá uno desconexo. En consecuencia, serán los
valores de c cercanos a la frontera los que producirán los conjuntos de Julia con m ayor estructura
(asociada en este caso a una mayor dimensión fractal). Parecía, pues, que B. B. M andelbrot había
conseguido la unificación de su pasión (la geometría) con un cam po nuevo de las m atemáticas que
le iba a proporcionar trabajo y distracción durante toda su vida (y hasta el m om ento, así ha sido).
La descripción del conjunto dada hasta ahora permite una primera definición rigurosa de los

14H . C r e m e r , “ U b e r die Iteración ra tio n a le r F u n k tion en ” , Ja hresberichte der D eu tsch en M a th e m a tisc h en V er eim -
gung 3 3 ( 1 9 2 5 ) 1 8 5 -2 1 0 .
15D e h e c h o , las p rim era s im ágenes d e l c o n ju n to no aparecieron h a s t a 1 9 8 8 , en e l articu lo d e R . B r o o k s y J.
P. M e te lsk i “ T h e d y n a m ic s o f 2 -g e n e ra to r su b g ro u p s o f P S L ( 2 ,C ) ” en R iem a n n Surfaces and R ela ted T o p tc s, I.
K r a y B . M a s k it e d s ., P rin ceton U . P re s s , 1 9 8 8 . Sin e m b a rgo, la e s tr u c tu r a fractal d e l c o n ju n to y a lg u n a s d e sus
c a ra cte rística s con stitu y e ro n el tr a b a jo o r ig in a l de M a n d e lb ro t, “ F ra c ta l a sp e c ts o f th e iteration o f z — \ z ( \ — z)
fo r c o m p le x A a n d z " , /In n a fs N ew York A c a d e m y o f S c ien ces 3 5 7 ( 1 9 8 0 ) 2 4 9 -2 5 9 .

http://librosysolucionarios.net
108 Orden y Caos en Sistemas Com plejos

Figura 3.21: El con junto de Mandelbrot en el plano com plejo. Se ha representado la circunferencia
de radio 2 (que contiene totalm ente al conjunto) y se han realizado divisiones cada 0.5 unidades,
para facilitar la identificación de la zona ocupada.

puntos que lo constituyen. Denotemos el conjunto de Mandelbrot por A i (nom enclatura usual):

{.A/f = c G C ; V c es c o n e x o }

Recordem os que V c representaba el conjunto prisionero para el parámetro c (llam ado a veces
conjunto de Fatou), y su frontera es el conjunto de Julia para c. Si bien la definición dada de
A i lo determina com pletam ente y es rigurosa, el cálculo de los puntos c E A4 es extremadamente
largo, puesto que pasa p or establecer la conectividad de todos y cada uno de los conjuntos de
Julia existentes. Afortunadam ente, algunas propiedades de A i ayudan en el cálculo. Por ejemplo,
en 1982 fue posible dem ostrar que A i es un conjunto conexo lf>, con lo cual es suficiente con
preocuparse de su frontera. La empresa sería ahora fácil de no ser por la infinita sinuosidad del
conjunto de M andelbrot: resulta imposible "seguir” la frontera, ya que ésta tiene una longitud
infinita. Imagine el lector cuán com plejo es el conjunto que hasta 1991 no fue posible determinar
su dimensión de Hausdorff de forma rigurosa, y cuando se consiguió, resultó ser ¡D h — 2! 17
Un argumento de carácter geométrico permite una definición más sencilla (operativam ente)
de A i. Consideremos un conjunto de Julia desconexo. Cuando éste se calcula utilizando las
antiimágenes sucesivas de la circunferencia de radio r — 2 , en cierta iteración debe de aparecer la
desconexión, que se manifiesta por una figura en forma de “ 8” , es decir, una figura de tipo circular

16A . D o u a d y , J. H . H u b b a r d , “ Ite ra tio n d es pólynom es q u a d ra tiq u e s c o m p le x e s” , C R A S P a rts 2 9 4 (1 9 8 2 ) 1 2 3 -1 2 6 .


17M . S h ish ík u ra “ T h e H a u s d o r ff d im e n sión o f the b o u n d a ry o f th e M a n d e lb ro t set a n d J u lia s e ts ” , S U N Y S to n y
Brook, In s titu te for M a t h e m a t ic a l Sciences, Preprint # 1 9 9 1 /7 .

http://librosysolucionarios.net
Fractales 109

Figura 3.22: Dos conjuntos de Julia desconexos en los que aparece la característica figura en forma
de “ 8” en una de las antiimágenes. En un caso la desconexión aparece en la tercera iteración (para
c = - 1 + t), y e n otro en la cuarta (para c = —1 .1 i).

que incluye dos rosquillas de este tipo, separadas. Observemos que los conjuntos de Julia presentan
una simetría de rotación según un ángulo de 180°, debida a que los puntos del conjunto son las
soluciones de una raíz cuadrada, com o se ha visto. La existencia de esta iteración desconexa,
juntamente con la simetría de rotación, im plica automáticamente que el punto z0 = 0 + Oí, el
origen, no "pertenece a ningún conjunto de Julia desconexo, y por ta n to podem os establecer que, si
el origen pertenece a £c (conjunto de los puntos de escape para un parám etro c dado), el conjunto
de Julia será desconexo, y c no pertenecerá a JA.
Esta propiedad proporciona la siguiente definición alternativa de JA, que ya fue de hecho
utilizada en 1979 por Mandelbrot para el cálculo del conjunto:

JA = {c € C : c c 2 + c —> (c 2 A c ) 2 + c es f i n i t o }

Establecer el carácter no divergente de la órbita crítica 0 —» c —* c 2 + c... no es tam poco


inmediato, ya que implica el cálculo de un límite infinito. Usualmente se calcula un cierto número
de iteraciones, del orden de 102, y esto da una aproximación bastante buena del conjunto. Si la
definición de la imagen o la precisión del cálculo requerido es mayor, m ayor también será el número
de iteraciones que deben de ser realizadas. También se pueden calcular aproxim aciones sucesivas
de JA\ sólo es necesario considerar el conjunto de valores de c que escapan, bajo la iteración
anterior, en un paso (de iteración), en dos pasos, en tres,... de la circunferencia de radio r = 2 , y
progresivamente se van produciendo imágenes cada vez más cercanas a JA.
En la figura 3.21 se representa el conjunto de los puntos que escapan tras 25 iteraciones (de
zq —1►z£ + c, com enzando con zq = 0 -f Oí), y la imagen es una m uy buena aproximación de JA,
prácticamente indistinguible a esta escala del representado. A i se extiende desde - 2 a 0.75 en el
eje real, de form a exacta, y desde —1.25 hasta 1.25 en el eje imaginario, de form a aproximada, com o
se puede ver en la figura. Todos los valores de c que se encuentran en su interior (sin considerar
la frontera) producen conjuntos de Julia conexos con interior no vacío, es decir, en el conjunto de
Julia, la eliminación de la frontera no produce su desconexión. Los valores de c localizados en la
frontera de JA producen conjuntos de Julia que en algún lugar m antienen la conexión mediante un

http://librosysolucionarios.net
110 Orden y Caos en Sistemas Com plejos

único punto. Los valores de c en el exterior de A i producen conjuntos de Julia desconexos, tanto
más cuanto mayor es la distancia a A i.
O bservando con atención el conjunto de Mandelbrot se puede descubrir la existencia de zonas
con interior que están conectadas mediante un único punto al cuerpo principal de A i . Cuando
tom am os un valor de c en el interior de una de estas zonas, el conjunto de Julia correspondiente
reproduce esta estructura: existen zonas de interior no vacio conectadas a través de puntos. En
particular, en la “ aguja” de A i existen muchas de estas zonas, visibles a la escala en la que A i se
ve com pleto, y su número aum enta infinitamente con el aum ento de la imagen. En particular, el
"cuello” que une el cuerpo principal con el apéndice mayor de A i (el círculo de centro —1 y radio
0.25) consta de un solo punto, tto = —0.75 + 0i.

Es posible aún una clasificación m ucho más exhaustiva de los conjuntos de Julia atendiendo a la
estructura de A i. En particular, se pueden establecer órbitas de período p para la dinám ica de los
puntos sobre el conjunto de Julia, y cada período puede ser asociado a extremidades o apéndices
del cuerpo principal de A i.

3 .5 Fractales no determ inistas


Hemos considerado en las secciones anteriores un gran núm ero de fractales que podem os denominar
determ inistas, puesto que existe una regla de construcción del ob je to que permite su reproducción
exacta tantas veces com o se desee. Los fractales vistos hasta ahora son interesantes principalmente
com o ob jetos matemáticos, pero la relación caos-fractales-sistemas físicos aún no ha aparecido
de form a clara. Hemos reservado para esta última sección los fractales no determ inistas, que
están relacionados con procesos físicos y con su modelización, y que siempre poseen cierto grado
de aleatoriedad en su construcción. El hecho de que sea un proceso físico el responsable de la
generación de una estructura con distribución espacial (el fractal no determinista) p rovoca que.
si bien ca d a ob jeto generado será único, debido a los términos aleatorios, existirán propiedades
com unes a tod os ellos, originadas por el proceso físico, que es el representante de un orden superior
(véase el capítulo sobre fenóm enos críticos). Cantidades com o la dimensión fractal, la densidad de
masa, la conectividad o el espectro multifractal (que será definido más adelante) se revelarán com o
invariantes de los fractales generados mediante un mismo sistema. Estas magnitudes com unes se
deben en ocasiones a la existencia de cierto tipo de universalidad, de propiedades que son comunes
a diferentes sistemas y que representan un nivel de organización superior 18.

O tro p un to de interés en los fractales físicos es ia existencia de escalas límite para la presencia
de autosimilaridad. En los fractales deterministas vistos, descritos por una ecuación (o varias), no
hay ningún problema en calcular la invariancia del objeto, desde lo infinitamente pequeño hasta lo
infinitamente grande (de hecho, es suficiente con que exista el límite para uno de los dos extremos
y nos situem os a medio cam ino), utilizando su definición misma. Cuando tratam os con sistemas
físicos, se hace evidente la im posibilidad de alcanzar estos dos límites. Por una parte, la mayor
escala de autosimilaridad posible es la determinada por el tam año del sistema, por el espacio físico
que ocupa. C on frecuencia se simulan ciertos sistemas sobre redes con N x N elementos. En
este caso, la escala dada por la longitud Im — N es una escala crítica de corte para la existencia
de fractalidad. Por otra parte la escala menor, lm estará acotada por la escala de definición de
la interacción elemental. Supongam os que utilizamos un sistema con un grupo de hormigas que
interaccionan. Entonces la escala mínima es la propia del individuo, la hormiga, y las partes de ésta
de ninguna manera podrán poseer la invariancia de escala del sistema. Por últim o, encontraremos
sistemas que posean alguna otra escala característica entre ¡m y ím. y éstas nos darán pistas

18 V é a s e e l c a p itu lo 7.

http://librosysolucionarios.net
Fractales 111

1 igura 3.23: Diversos con jun tos de Julia. Unos se han representado con las antiimágenes sucesivas
de la circunferencia de radio 2, y otros sin ellas. El lector puede utilizar el con ju n to de Mandelbrot
para clasificarlos y com probar su conectividad. De izquierda a derecha y de arriba abajo: c =
-1 .4 7 , c = -0.008555 - 0.7879¿, c = -1 .2 5 + 0.25z, c = i.

http://librosysolucionarios.net
112 Orden y Caos en Sistemas C om plejos

sobre los fenóm enos físicos subyacentes. Esta escala (o escalas) intermedia puede manifestarse, por
ejemplo, en un cam bio brusco en la dimensión fractal del sistema, com o se ha observado en los
arrecifes de coral, entre otros casos.

3.5.1 M ultifractales
Introducimos ahora una nueva herramienta analítica con clara interpretación física: el cálculo del
espectro m ultifractal de un ob jeto autosimilar. La definición de m ultifractal constituye una ex ­
tensión de la idea de fractal. Data de 1974, y se debe de nuevo a B. B. Mandelbrot, quien in trod u jo
el concepto a fin de proporcionar una descripción más precisa del fenóm eno de la turbulencia.

Comencemos con una visión intuitiva de la multifractalidad. Imaginemos para ello un fractal,
en el que se pueda reconocer la existencia de la autosimilaridad, com o el ob je to de la figura 8.13,
pero que no esté definido por ninguna regla sencilla de construcción a todas las escalas.
Requerimos en este punto la ayuda del método del “ box-counting” , descrito en la sección
3.1.1. Imaginemos que recubrimos el conjunto con cajas de distintos tam años (<5 variable, co m o el
m étodo requiere), e intentam os conseguir la representación de una recta en la gráfica de ln(jV(<$))
frente a ln(<5). En ocasiones, los puntos no se ajustan a una recta de form a aproxim ada, sino que
aparentemente la dimensión de “ box-counting” (la pendiente de la gráfica) varía con la escala. De
aquí se puede deducir inmediatamente que la medida del conjunto no es autosimilar. En la inm ensa
mayoría de los casos, esto implica que el conjunto que estamos intentando describir no puede ser
caracterizado por una única dimensión fractal. Si la medida está desigualmente repartida, con
zonas más y menos densas en el mismo conjunto, necesitaremos valores diferentes de la dimensión
fractal para caracterizar cada una de estas regiones.
Estaremos pues de acuerdo en reconocer que habrá sistemas que no podrán ser caracteriza­
dos por un único número, la dimensión fractal (calculada mediante Ubox-counting” ), puesto que
cualquier valor para D b será el obtenido a cierta escala, y diferente del que se calcule a una escala
distinta. La solución consiste, precisamente, en no dar una única dimensión fractal, sino to d o un
espectro continuo, que caracterizará con infinita mayor precisión el sistema. A los ob jetos fractales
que necesitan ser descritos por este conjunto infinito de exponentes se les denom ina multifractales.
Pasemos a su caracterización rigurosa.

El primer paso consiste en la definición de una densidad de probabilidad sobre el sistema.


Supongamos (siempre pensando, ahora, en la distribución espacial de cierta cantidad) que el sistema
se divide en m porciones {a i, 02,. ••, a m}, y que a cada una se le asocia una probabilidad p,,
i = 1,2, ...,m . Para fijar ideas, vamos a concentrarnos únicamente en medidas de masa: si el
sistema tiene un volumen V (en n dimensiones) y cada una de sus ni partes tiene un volum en v¡,
entonces la probabilidad (m edida) de cada una de estas partes es

Vj
p' = v
y lo único que representamos es la proporción de volumen contenido en cada parte respecto del
tamaño total del sistema. En la bibliografía del final del capítulo se pueden encontrar definiciones
más generales. Es fácil considerar una imagen geométrica de esta probabilidad: es, precisamente,
la probabilidad de que al escoger al azar un punto del sistema, este pertenezca a la porción a¿.
Escojamos ahora una escala en el sistema, /, que nos pernúta realizar Z-2 divisiones (al igual que
dividíamos en cajas para calcular la dimensión fractal, normalizaremos el sistema a tamaño unidad,
y en principio deberemos realizar una regresión lineal para calcular cada una de las dim ensiones
que van a definirse, con lo cual / será variable). Cada división lleva asociada una probabilidad p¿,
pero puede ser que alguna de ellas tenga probabilidad nula, debido a que no recubre ninguna parte

http://librosysolucionarios.net
Fractales 113

del sistema. En la suma que ahora definiremos, sólo cuentan las cajas con p¿ ^ 0. Considerem os
la cantidad

x{q) =
t=i
que permite definir las llamadas dim ensiones de correlación

1 ln x(q)
D{ q ) ~ lim
q — 1 ln /
Do es simplemente la dimensión fractal (de “ box-counting” , por la forma en que se está definiendo
el cálculo) del sistema. Efectivamente, cuando q — 0 obtenemos

D ( 0 ) = - I i m ln
i—o in /
pero

m
¿=l 1=1
que es en este caso el número de cajas necesarias para recubrir el sistema.
D i se denom ina dimensión de inform ación, y se puede ver que cuando q — 1 (realizando el
correspondiente lím ite).

D(1) = _ lim£ ^ i £ Ü L K
i—o ln l
Obsérvese que

5 (í) = - ^ P ¿ ln p t

es simplemente la entropía de Shannon a la escala /. D (2) es la llamada dimensión de correlación,

D(2) = lim' ° M
/—o ln l
que evalúa en cierto m odo la probabilidad conjunta de dos partes del sistema (en el térm ino pf).
Para q > 2 D( q) ya no tiene un nom bre específico: es simplemente la dimensión de correlación
(o dimensión generalizada) de orden q. Aunque son los valores enteros de q los que tienen una
interpretación directa, D(q) es una función perfectamente analítica para q 6 R (ex ce p to casos
singulares que no describiremos 19) y p o r tanto se extiende su definición para tod o valor de q real,
no sólo entero.
A partir de la definición de D(q) se puede obtener de forma sencilla el espectro de dimensiones
fractales, que llamaremos / ( a ) . Definimos

= j - l(q - 1 W 9 )]
dq
y

/(«) = q <*{q) - D(q){q - 1 )


19 A l le c to r in teresad o se ie recom iend a e l a r tíc u lo de B . B . M a n d e lb ro t, C . J. G . E v e r tsz y V . H a y a w a k a : “E x a ctly
left-sid ed m tiiltfractal m eo.«urea", P h y s. R e v. A .4 2 (1 9 9 0 ) 4 5 2 8 -4 5 3 6 .

http://librosysolucionarios.net
114 Orden y Caos en Sistemas Com plejos

Figura 3.24: Forma genérica de las tres funciones que caracterizan la multífractalidad. Las asíntotas
de r( q) permiten encontrar el valor de los puntos extrem os del espectro multifractal, / ( o ) , según
se indica en la figura. El valor de D( q) en q = 0 coincide con el m áxim o de / ( a ) y da la dimensión
fractal habitual.

Las funciones D{ q) y / ( o ) tienen ciertas propiedades generales, aparte de las ya citadas:

D ( q ) > D( q' ) , V9 < q'

D( q ) es una función decreciente. Sólo se da la igualdad (que se cum ple entonces para tod o valor
de q ) si el ob jeto no es un multifractal, sino lo que se denom ina un fractal puro, perfectamente
descrito por un único valor de D( q ). por Z?(0).
/ ( a ) es una función convexa de a . Su máximo coincide con la dimensión fractal del conjunto,
para <7 = 0,

/ ( a ( 0 ) ) = D ( 0)

/ ( a ) siempre es tangente a la recta de pendiente unidad en el punto q = 1 ( D ( l ) ) :

f ( a ( 1 )) = o ( l )

Por último, / ( o ) se encuentra definida entre dos valores de a , q \{ y a m, y el valor de /( a - ^ )


y /(c*m ) (que puede ser cero) depende del soporte de la medida de probabilidad definida en el
conjunto.
Definimos una última cantidad.

r (?) = D{ q) (q - 1 )

r( g) tiene también propiedades que ayudan a caracterizar la multifratalidad y proporcionan algunos


valores concretos de D( q) y f { o ) . La forma genérica de las tres funciones r( q) , f ( a ) y D( q) está
representada en la figura 3.24.

Hemos introducido formalmente las expresiones que permiten el cálculo de los exponentes multi-
fractales de un conjunto. Las funciones *(?)> T(q) y /(<*) tienen, por otra parte, una interpretación
con creta en el marco de la mecánica estadística ( ME) . Vamos a dar esta formulación alternativa a
fin de profundizar un p oco más en el significado del infinito espectro de dimensiones multifractaies
que un o b je to puede presentar.

http://librosysolucionarios.net
Fractaies 115

Consideremos tic nuevo el conjunto de probabilidades { p ,} definidas sobre nuestro multifractal


y eí histograma H(\u p¿), es decir, la función distribución no de {p i}, muo de {ln p ,} . Com o
tod a función de distribución, esta puede ser caracterizada por sus m om em os, que en este caso se
escriben

Observemos que Z$ es absolutam ente análoga a una función de partición <ie la M E . La expresión
anterior se puede transformar en

donde la suma se realiza ahora sobre todas las configuraciones del sistema (s->hre todas sus partes), y
no sobre las diferentes probabilidades, com o en la primera definición. Dada la función de partición,
se acostum bra a definir la energía libre del sistema, que es la encargada de identificar la posible
existencia de transiciones de fase (véase el capítulo 7),

que se puede transformar en

z0 = l - fw

Así, podem os establecer una dependencia potencial de la función de partición Zp con la escala,
L: F ( 0 ) resulta ser el exponente que determina esta relación. Otras magnitudes tienen tambie'n
su interpretación term odinám ica: 0 es, com o el lector quizá habrá ya imaginado, el inverso de la
tem peratura (o, de form a más general, del parám etro que determina el grado de orden existente en
el sistema), y ln p / ln L es la m agnitud análoga de la energía. Se hace evidente ahora el interés en
usar H (ln p) com o m agnitud equivalente a la distribución de energías en el sistema a una escala
L fijada.
Finalmente, podríam os hallar la entropía del sistema com o la transformada de Legendre de la
energía libre,

S « E» = F(3) -

donde

A0

La equivalencia entre M E y funciones multifractales queda, pues, de la form a siguiente,

F( 0) — r{q)

E <-----►a S ( E ) «— /(a )

http://librosysolucionarios.net
116 Orden y Caos en Sistemas C om p lejos

Figura 3.25: E jem plo de agregado form ado por difusión de partículas desde los bordes del sistema.
Se marca la trayectoria de la última partícula que se ha unido a la agrupación total.

La dem ostración definitiva de la multifractalidad de un o b je to consistiría en observar, por


ejemplo, un cam bio de pendiente en la función r(q) cuando nos encontram os cerca de q = 0. Este
cam bio de pendiente es el responsable del cam bio en D( q) (entre q —►—oc y q —►oo) y de la
dispersión en / ( a ) . Si el objeto tratado es un fractal puro, r(q) no presenta cam bio de pendiente,
D( q ) es una línea recta horizontal y f { a ) está formada p or un único punto.
Existe actualm ente una extensa literatura sobre multifractales. En cualquiera de los libros
citados co m o bibliografía del capítulo es posible encontrar una am pliación de los conceptos vistos.

3.5.2 A grega ción lim itada p or difusión (D L A )


Las estructuras que describiremos a continuación constituyen el primer ejem plo de fractal no deter­
minista. El aspecto general que presentan se puede ver en la figura 3.25. Su forma de construcción
es la siguiente: consideremos una red de N x N puntos. Inicialmente, todas las celdas están des­
ocupadas ex cep to una en el centro de la red. Aleatoriamente se libera un "random walker” a una
distancia r grande del centro. Este "random walkeri se mueve hasta que localiza una de las celdas
ocupadas, m om en to en el cual se adhiere irreversiblemente a estas, ocupando él la última en que
se hallaba 20. La probabilidad de que las partículas se adhieran a las puntas de la estructura en
formación es siempre mayor que la probabilidad de que se adhieran a los lados. Estas probabili­
dades dependen de la estructura del agregado, y son las responsables de la form ación de fiordos
muy profundos que tienen una probabilidad de crecimiento varios órdenes de magnitud inferior a
la de los extrem os.
La distribución de las probabilidades de crecimiento en las celdas desocupadas de la red en los
agregados lim itados por difusión ( DLA) caracteriza su estructura, y se ha observado que presenta
espectro m ultifractal. En este caso, la distribución de probabilidades define directamente una
medida en el sistema, igual que habíamos definido la m edida de masa. Obsérvese, además, que
ambas pueden entenderse com o probabilidades. En ocasiones, este espectro multifractal no está
definido para q < 0 (de hecho, q (—oo) diverge cuando el tamaño del agregado tiende a infinito),

20 E sta es la re g la m á s elem en tal de form ació n d e un agregado d e este ti p o . E x is te n n u m erosa s v a ria n te s, en


las que el c a m in a n te p od ría adherirse con u n a c ie rta p ro b a b ilid ad , o en las q u e las con exion es fo r m a d a s p o d r ía n
e v e n tu a lm e n te ro m p e rse .

http://librosysolucionarios.net
Fractales 117

debido a propiedades que no describiremos. Por otra parte, si intentamos realizar una medida de
masa sobre el sistema y calcular, por ejemplo, la función /(a ), se observa que nos encontramos
ante un fractal puro, con un sólo valor para su dimensión fractal espacial, que resulta ser

D0{DLA) = 1.70 ±0.01


La ausencia de multifractalidad en la distribución de masa se debe a la existencia de una
medida laplaciana subyacente a la generación del fractal, y que comparten todos los sistemas que
presentan DLA. Algunos de éstos son la deposición electroquímica, la solidificación de dendritas
(en la formación de cristales de nieve o en el crecimiento de liqúenes, por ejemplo), la producción
de relámpagos (por ionización del aire o por exceso de potencial aplicado a un dieléctrico), la
digitación viscosa (invasión de una sustancia por otra de diferente densidad, por ejemplo agua
en petróleo para realizar el vaciado de pozos), o la cristalización rápida de lava, entre más de 50
sistemas que forman el mismo tipo de estructuras.

Entre los sistemas que poseen un campo eléctrico como generador (por ejemplo relámpagos y
deposiciones eléctricas), E es una cantidad con gradiente nulo (cumple VE = 0, y si la cantidad
no depende del tiempo es además una magnitud conservada) y por tanto se verifica la ecuación de
Laplace para el potencial eléctrico,

V 2Ó = Ü
En ios sistemas que provienen del campo de la mecánica de fluidos (digitación viscosa), se verifica
una ecuación de Laplace para la presión del fluido,

V 2P = 0
Para los sistemas que forman dendritas y solidifican, constituyendo el agregado (cristales de nieve,
lava, neuronas de la retina), es la concentración del compuesto, c (la variación de la cual da el
ritmo de crecimiento del DLA), la que verifica una ecuación laplaciana,

V 2c = 0
La tabla siguiente proporciona la equivalencia entre estos sistemas y las magnitudes que los carac­
terizan (r denota la posición, y t el tiempo):

Sistemas S. M ecánica Solidificación


eléctricos de fluidos dendrítica
Potencial electrostático Presión concentración
Ó(r,í) P ( r ,t) c(r,f)
Campo eléctrico Velocidad Ritmo de crecimiento
E oc —V<ó(r, f) v c c -V P (r ,í) v oc —V c(r,f)
>

Gradiente nulo VE = 0
II
<
<

>
o

II

Ecuación de Laplace
V 24>~ 0 V 2P = 0 V 2c = 0

Todos los sistemas con medidas laplacianas producen fractales puros en la distribución espacial.
Intuitivamente, se puede entender que un campo eléctrico, una velocidad o un ritmo de crecimiento
uniformes provoquen que la distribución de la masa sea en cierto modo también “uniforme” , que
http://librosysolucionarios.net
118 Orden y C aos en Sistemas C om plejos

aquí significa independiente de la zona espacial considerada, con lo cual no es posible generar
áreas más o m enos densas que estarían asociadas a los distintos valores de / ( a ) , a las distintas
dimensiones fractaies.
Recientemente, la estructura de los agregados limitados por difusión se ha encontrado en colo­
nias de bacterias, en el crecimiento de neuronas e incluso en la configuración del Metro de París.
T odos estos sistemas com parten la misma geometría, característica de la cual es el valor 1.70 de
todas sus dimensiones de correlación. La ubicuidad de estos agregados induce a pensar en alguna
razón de fondo, aún no determinada, que justificaría de forma natural la ventaja de utilizar este
tipo de m orfología. Si incluso la evolución parece haber escogido estas estructuras com o forma
óptim a de construcción, la pregunta abierta es, ¿porque'? De momento, se puede afirmar que estos
agregados proporcionan un “ llenado” del espacio con una conectividad óptim a para los propósitos
del sistema.

Hay muchos otros sistemas físicos que producen fractaies en el espacio. Superpuestos a la
dinámica determinista encontramos en ocasiones términos de ruido que destruyen la autosimilari-
dad exacta, verificándose entonces una autosimilaridad de tipo estadístico.
Pensemos que cualquier sistema que incorpore algún término aleatorio en su dinámica provoca
una independencia de escala en su estructura, debido a que estos términos no deterministas no
poseen un nivel específico de definición, sino que producen fluctuaciones y desviaciones a todas
las escalas. Un ejem plo interesante lo constituye la percolación, que será ám pliamente descrita en
el capítulo dedicado a fenóm enos críticos, así com o algunos otros sistemas físicos y los fractaies
asociados correspondientes, que serán descritos en secciones específicas de este libro.
Veremos tam bién en qué consisten los sistemas críticos autoorganizados, los cuales generan de
forma espontánea estructuras fractaies, y no sólo en el espacio, sino tam bién en el tiem po. Los
atractores extraños aparecerán a codo lo largo del libro, y prácticamente todos serán fractaies (en
muchas ocasiones m ultifractales), con estructura y dimensión dependientes del sistema dinám ico
generador (sea o no determinista). En este caso, la generación de fractalidad es debida a la propia
estructura del espacio de fases, a los infinitos estiramientos y plegamientos que sufre el soporte de
las órbitas. En el capítulo dedicado a caos se describe este caso extensamente.
Los autómatas celulares (descritos en el capítulo correspondiente) son sisteméis generadores en
ocasiones de fractaies (en función de ciertos parámetros) generalmente deterministas. El fractal
no determinista aparece com o consecuencia de la introducción de ruido en la dinámica, o de
probabilidades de transición entre estados. En cualquier caso, debido a términos aleatorios, no
controlados.

B ibliografía
1. A.-L. Barabási y H. E. Stanley, Fractal Concepis in Surface Growtk. Cam bridge University
Press, 1995.

2. M. Barnsley, Fractals Everywhere. Academic Press, 1988.

3. M. Batty y P. Longley, Fractal Cities. Academ ic, San Diego, 1994.

4. A. Bunde y S. Havlin, Fractals and Disordered Systems. Springer-Verlag, 1991.

5. A. Bunde y S. Havlin, Fractals in Science. Springer-Verlag, 1994.

6. K. Falconer. Fractal Geometry. John Wiley y Sons, 1990.

http://librosysolucionarios.net
Fractales 119

7. J. A . K aandorp, Fractal Modelling. Growth and Form in Biology. Springer-Verlag, 1994.

8. H. A . M akse, S. Havlin y H. E. Stanley, Modelling urban growth pattem s. Nature 3 7 7 608


(1995).

9. B . B . M andelbrot, Los objetos fractales. Tusquets, 1975.

10. H .-O . P eitgen, H. Jürgens y D. Saupe. Chaos and Fractah Springer-Verlag, New Y ork, 1992.

11. H .-O . Peitgen y P. H. Richter, The Beauty o f Fractals. Springer-Verlag, Berlín, 1986.

12. H .-O. Peitgen y D. Saupe, The Science o f Fractal Images. Springer-Verlag, New Y ork, 1988.

13. T . Vicsek, Fractal Growth Phenomena. W orld Scientific, 1992.

http://librosysolucionarios.net
Capítulo 4

Atractores Periódicos y
Cuasiperiódicos

Se h a visto en el capítulo 2 la form a en que se puede iniciar el estudio de un sistem a de ecuaciones


no lineal. Es posible conocer ciertas características del equilibrio a nivel loca l, en los casos en
los que, com o se ha descrito, la estabilidad es asintótica. Sin embargo, aún no somos capaces
de decir nada sobre el sistema a nivel global. Por ejem plo, sabemos a partir de la experiencia
qu e algunos sistemas presentan lo que llamamos ciclos límite, que son, co m o su nom bre indica,
trayectorias cerradas a las cuales todas las trayectorias del sistema pueden acabar convergiendo.
La existencia y la determinación de estos ciclos lím ite (que también pueden ser repulsores), de
las llam adas órbitas homoclínicas (órbitas que unen ún punto fijo con él m ism o) o de las órbitas
heteroclínicas (unen dos puntos fijos diferentes) perm ite el estudio de los sistemas dinám icos a nivel
global. Este estudio (global) es un p o co más com plicado que el de los puntos fijos (local), pero es
ca p az tam bién de decir más sobre el sistema. Por ejem plo, si fuésemos capaces de determinar que
en cierto sistema dinámico, para cierto valor de los parámetros, aparecen dos órbitas homoclínicas.
pod ría m os asegurar que el sistema va a tener, en este caso, dinámica caótica.

La aparición del tipo de órbitas citado va ligada a la existencia de la variedad centro (valores
p rop ios con parte real nula en la matriz lineal). Llevaremos en este capítu lo un p o co más allá
el estudio de los sistemas dinám icos con valores propios nulos. Entre las situaciones periódicas
y el caos veremos también que podem os encontrarnos con los llamados atractores cuasiperiódicos
<sobre los que el sistema describe órbitas cuasiperiódicas). En este caso, el m ovim iento posee más
de una frecuencia característica, y tiene lugar sobre los llamados toros n —dim ensionales. Un toro
en dos dimensiones es cualquier curva cerrada, y en tres puede ser la cámara de un neum ático, o un
d on u t, o una ta2a (los tres tienen un único agujero, se dice que son topológicam ente equivalentes).

Tratarem os en este capítulo aún con sistemas disipativos. En el capítulo 10, sobre caos hamil-
ton ian o, describiremos sistemas que exhibirán algunas propiedades idénticas a los aquí descritos.
En particular, hallaremos también caos y órbitas cuasiperiódicas: a diferencia de los sistemas disi-
p ativos, los sistemas hamiltonianos son conservativos, y en consecuencia no poseen atractores de
la dinám ica en el sentido de “ lugar o lugares del espacio de las fases al que el sistema tiende en
tiem p o infinito asintóticamente, para cualquier condición iniciar’ .

Iniciarem os el capítulo con el estudio de la forma en que aparecen los ciclos límite, primer paso
h acia el estudio de la dinámica a nivel global.

121

http://librosysolucionarios.net
122 Orden y Caos en Sistemas C om plejos

4.1 Bifurcaciones
D e fin ició n

Supongamos una EDO de la forma

x = F (x , p)

x <G R n, p G R p- Los puntos fijos

x¿, ; F ( x q , p ) — 0, i£ N

dependerán del valor de los parámetros p . Cuando éstos varían, tanto el número de puntos fijos
com o su naturaleza (estables, inestables o indecidibles; nodos, focos, puntos de silla, ...) pueden
variar. C uando esto sucede se dice que el sistema sufre una bifurcación.

Para tener un cam bio en las características de un punto fijo, y por tanto un cam bio cualitativo
en el espacio de fases del sistema de EDOs, es necesario que se anule alguno de sus valores propios.
Pequeños cam bios en el caso de tener estabilidad asintótica (9?(A,-) ^ O.Vi) no implican cam bios
en la estabilidad. Unicamente cuando los parámetros del sistema permiten cruzar de 3í(Aj ) > 0
a ■íf(Ay) < 0 (o en sentido contrario) para algunos X} . aparecen puntos fijos cualitativamente
diferentes, y por tanto existe la posibilidad de variar la dinámica asintótica del sistema.
Describiremos a continuación brevemente algunos de los casos que podem os encontrar, en
función del número de valores propios con parte real nula y de los términos de orden superior.
Veremos que, com o consecuencia del cam bio cualitativo en la dinámica, el sistema es estructural­
mente inestable cuando el parámetro (o conjunto de parámetros) tom a el valor que provoca la
anulación de la parte real de uno o varios de los valores propios. Es decir, pequeñas perturbaciones
del sistema en este estado cambian su retrato de fases.

4.1.1 U n único valor propio nulo


Si existe un único valor propio nulo debe de tener parte imaginaria también nula, ya que de no ser
así debería presentarse su pareja com pleja conjugada, y el valor propio nulo no sería único. Por
tanto, debe ser

A = 0

En este caso, la variedad centro asociada al valor propio es unidimensional, y podem os escribir
todas las variables del sistema com o funciones de la variable asociada al valor propio nulo, en un
entorno del punto fijo. Véase en el apéndice correspondiente a este capítulo ia forma en que es
posible reducir el sistema de EDOs a tantas ecuaciones com o valores propios nulos aparezcan, y
por tanto tratar el sistema reducido a la variedad centro (siempre en un entorno del punto de
equilibrio). Para más información, consúltese la bibliografía citada al final del capítulo.

B ifu r c a c ió n s illa -n o d o

En este primer caso, el sistema pasa de la no existencia de puntos fijos a la aparición de un


punto de silla para el valor exacto del parámetro en la bifurcación. Este punto pasa a convertirse
inm ediatamente en una pareja de dos nodos que presentan estabilidades contrarias. Veámoslo con
un ejem plo. Considerem os la EDO en una dimensión

i - (p - p c ) - x 2

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 123

Figura 4.1: Esquema de una bifurcación silla-nodo en una dimensión en función del parám etro del
sistema. En todas las figuras sobre bifurcaciones, la línea continua significa que el punto fijo es
estable, y la discontinua, inestable. Los puntos fijos se marcan con un pequeño círculo. Pre'stese
atención en los casos en que existan puntos fijos sobre el eje x.

y calculem os sus puntos fijos, soluciones de (p — p c) - £2 = 0. En general, x ± = ± \ /(/r — p c )-


Observamos que para p < p c el sistem a no presenta ningún punto fijo. En el punto exacto p ~ p c
tenemos una única solución, x “ = 0, (a la cual le corresponde un valor p ropio nulo ) y que resulta ser
un punto de silla. Cuando p > /¿c, tenem os dos soluciones, = ± y / (p — p c )< Que corresponden
a un nodo estable (valor positivo de la raíz) y a un nodo inestable (-). La figura 4.1 contiene un
esquema de la form a en que se p rodu ce este tipo de bifurcación.
En el punto crítico, p = p c , y sólo existe variedad centro, W e, que contiene tod a la recta real.
Cuando p > p c , las variedades estable e inestable son

W ( y / p - f i c) - ( ~ V p -~jue,o o ) W u{ ~y/p - 7 ic) ~ ( - o o , v V - p c )

Obsérvese el solapamiento de las variedades en el intervalo

5 = ( - \/p - Pc, \!p - Pc)

Este intervalo pertenece a la variedad estable para el nodo atractor, y a que los puntos en esta zona
wcaen” a -jji — p c . En cam bio, pertenece a la variedad inestable para el nodo repulsor, ya que se
alejan de —y/p~— p c. Podemos decir que el cam po de vectores F ( x ) = - x 2 es estructuralm ente
inestable, puesto que cualquier pequeña perturbación introducida por un parámetro p hace desa­
parecer el pun to de silla y lleva al sistem a bien a no tener ningún punto fijo, bien a la aparición de
dos nodos de estabilidad opuesta.
Si consideram os un desarrollo del cam po F ( x , p ) que define la ED O .

F (x , p) = ¿ ^ ( 0, 0 )p + ~ F XX( 0, 0) r 2 *f 0 { p 2, p x , a-3)

la condición para que aparezca una bifurcación del tipo citado es

*V(0,0)#0, Fz r ( 0 , 0 ) ^ 0

Bifurcación transcrítica

Consideremos la ecuación en una dim ensión

http://librosysolucionarios.net
124 Orden y Caos en Sistemas Com plejos

Figura 4.2: Esquema de la generación de una bifurcación transcrítica. La estabilidad de los puntos
fijos se intercambia en el punto de bifurcación.

x = ( f ¿ - fie ) r - x 1

Los puntos fijos son soluciones de

x { ( p - p c ) - x } = 0 = > x\ = 0, x'2 = p - p c

El valor ¡j = p.c representa de nuevo un punto de bifurcación en el cual, en este caso, simplemente se
intercambia la estabilidad de los dos puntos fijos existentes. Obsérvese el diagrama de bifurcación
en la figura 4.2.

Bifurcación en horquilla ( pitchfork)

Consideremos

X = ( f i - p c)x - x 3

En este caso, los puntos fijos son

Xi = 0 , x'± - ± v //i - Pe

En el punto y. — p c se pasa de un único punto fijo estable (que existe en todo el dom inio p < p c )
a la existencia de tres puntos fijos: el origen pierde su estabilidad y aparece una pareja de puntos
fijos estables.
Podem os entender esta bifurcación físicamente si tenem os en cuenta que la ecuación de partida
puede expresarse com o la derivada de una función potencial

dx _ dV¡i
dt dx
que en nuestro ejemplo es

y gráficamente se puede ver que presenta un único m ínim o en x = 0 para /¿ > p c y dos mínimos
para p < p c (véase la figura 8 del capítulo 7). Este esquema es muy útil para com prender la

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 125

naturaleza de la bifurcación. Observemos que en tod o momento el potencial es simétrico, con una
única opción (un atractor único) estable que se bifurca en dos nuevos atractores.
Si imaginamos que el estado del sistema se representa al principio por una bola que puede
rodar situada en el origen x — 0, observamos que cualquier perturbación alrededor de este punto
cuando (/i — f¿c ) < 0 no aleja el sistema del origen: el punto de equilibrio es estable. En cam bio,
cuando — f¿c ) > 0, una perturbación de la bola implica que ésta rodará hacia uno de los
dos mínimos posibles. Pese a la existencia de simetría, el sistema se ve forzad o a efectuar una
elección. Esta bifurcación, en la que un sistem a dinámico no lineal realiza una elección entre dos
alternativas posibles después de atravesar un punto crítico recibe el nom bre de bifurcación con
rotura de simetría.
Los fenómenos no lineales que muestran rotura de simetría juegan un papel esencial en nu­
merosas ideas físicas (véase el capítulo sobre estructuras de Turing) pero tam bién en otras áreas.
El econom ista Brian Arthur, que ha aplicado estas ideas en su estudio de las retroalimentaciones
(feedback) positivas en economía, nos da algunos ejemplos. Uno de ellos es la adopción de relojes
“ horarios” en lugar de los “antihorarios” . El reloj de la catedral de Florencia es un ejem plo del se­
gundo caso. Fue diseñado en 1443 por Paolo V icello, en una época en la que la construcción actual
no estaba aún definida. Pero, tal y com o señala Arthur, a medida que algunos relojes de sentido ho­
rario fueron ganando al número de sus contrapartidas antihorarias, una retroalim antación positiva
precipitó el resultado de esta com petencia en una única dirección. Estas roturas de simetría ju e­
gan probablem ente un papel destacado en econom ía. Podem os pensar en otro ejem plo más actual,
com o la im posición del sistema de vídeo VH S sobre el sistema Beta. Obsérvese que prácticamente
no ha quedado lugar para la coexistencia.

La bifurcación transcrítica y la bifurcación en horquilla no son bifurcaciones genéricas. Esto


quiere decir que cierto tipo de perturbaciones puede provocar que desaparezcan y se conviertan
en una bifurcación silla-nodo, que sí resulta ser genérica. Una perturbación del tipo ex no las
destruiría, ya que sim plem ente implica una traslación del punto en el cual se produce la bifurcación.
En lugar de ser en f.i — p.c sería en n = fic — e. En cam bio, el hecho de añadir un parámetro e. por
ejem plo, cam bia los puntos fijos. Consideremos la bifurcación transcrítica. Si el sistema fuese de
la form a

F{x,fi,e) = (n - fze ) x - x 2 + e

obtenem os

http://librosysolucionarios.net
126 Orden y Caos en Sistem as C om plejos

~M c)2 + 4 e
—■ —
* -2

Para e > 0 no exista cruce entre las curvas de puntos fijos, no hay intercambio de estabilidad ni,
por tanto, bifurcación (ya que el número de puntos fijos no varía). Para e < 0 existe un dom inio
((// — fic ) 2 < 4e) en <ú que no hay solución, y no existen puntos fijos.
Una situación semejante aparece en la bifurcación en horquilla para el m ism o tipo de per­
turbación. Sin embargo, existen mecanismos que permiten que, por ejemplo, la bifurcación en
horquilla se observe de forma genérica. Tal es el caso de las ecuaciones de Lorenz, que. debido a
su sim etría (im plícita en el problema físico que se está tratando) no admitirían una perturbación
del tipo -fe , y por tanto la bifurcación en horquilla resulta ser la bifurcación genérica para este
sistema.
O bservem os que en estas dos últimas bifurcaciones no se cum ple iq^O. 0) ^ 0. En el caso de la
bifurcación tiansciítica tenemos Fr (0, 0) 5¿ 0, y en la bifurcación en horquilla Fx (0, 0) = 0.

P odríam os describir muchas otras bifurcaciones, en las que, dependiendo del orden de la parte
no lineal (digam os m) y de sus coeficientes podríamos obtener hasta m puntos fijos diferentes
tras la bifurcación, que presentarían estabilidad o inestabilidad. También podríam os analizar qué
tipo de perturbaciones podrían destruir la bifurcación o parte de ella, o bien si ésta es genérica.
Sin em bargo, lo hasta ahora expuesto es suficiente e ilustra ios tipos principales de bifurcaciones
producidas en sistemas con un único valor propio nulo.

4.1.2 B ifu rcación de P oin ca ré-A n d ron ov -H op f


Esta bifu rcación se produce cuando el sistema de EDOs considerado posee dos valores propios
con parte real nula y con parte imaginaria no nula, siendo por tanto uno de estos valores el
com plejo con ju gad o del otro. El resto de valores propios del sistema se suponen, evidentem ente,
con parte real no nula. Podemos decir que una bifurcación de Poincaré-A ndronov-H opf, o muy
frecuentem ente sólo bifurcación de Hopf, genera un ciclo límite a partir de un punto fijo, cuando
éste se inestabiliza. Secomprende que la parte real de los valores propios nulos sufre pues un.
cam bio, de negativo a positivo. Las definiciones siguientes, ju n to con elteorema en el cual son
necesarias, establecen las condiciones de existencia de una bifurcación de Hopf.

C onsiderem os el sistema en dos dimensiones

x = p x - y + p ( x ,y )

y ~ x + p y + q (x , y) (4.2.1)

donde p y q son funciones analíticas que admiten un desarrollo de la forma

P( X' V ) - Y , aó x V
%+j>2

= (a 2o-r2 + a n x y + a 02y 2 ) -f (a 30x 3 + a 2 l x 2y + o-\2 x y 2 + O03y3) + •• •

q( x , y) =
«+ j >2
= { b ^ x 2 + + &02y2) + (b30x3 + 62i^2y + 12Xy2 + &03Í/3) + •••

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 127

D efinición

El n ú m ero de Lyapunov correspondiente al sistema anterior

O — — [3(030 + 603) + (U12 + 6'21 ‘ 2((l20^2'l “ <202^02) +

o 1 1 ( ^ 0 2 + a .'oj — 61 1 ■
602 + A j o ) '

En particular, si c ^ 0 el origen es un fo c o estable para c < O e inestable para <j > 0, y en el punto
f¿ = 0 tiene lugar una bifurcación de H opf, tal com o enuncia el siguiente teorema.

T eo rem a

Si tr 0, en el origen del sistema plano analítico 4.2.1 tiene lugar una bifurcación de H opf para el
parám etro fx = 0. En particular, si 0 < 0, entonces 4.2.1 tiene un ciclo límite estable único para
(j, > 0 y ningún ciclo límite para y < 0; si o > 0, 4.2.1 tiene un único ciclo lím ite inestable para
p < 0 y ningún ciclo límitepara p > 0. Si o < 0, el mapa de fases local de 4.2.1 es topológicam ente
equivalente al que se muestra en la figura 4.4 y existe una superficie de órbitas periódicas que corta
tangencial y cuadráticamente el plano (¿M /) en el origen en R 2 x R .

P ara un sistema plano analítico de la forma

x ~ ax + by + p (x , y)
y = cx + dy + q (z , y)

con A = ad — 6c > 0 , a + f» = 0 y p (x >y ) Y y) funciones analíticas de la form a antes indicada,

la m atriz ^ ° ^ poseerá una pareja de valores propios com pleja conjugada y el origen será un

foco. El núm ero de Lyapunov <7 está entonces dado por

U ~ 26A ^ 7"2" ^ [a c ^a ^ a n ^02 + « 0 2 6 11 ) + + 020611 ■+ a n 6 o 2 ) - f -

c 2(a n a o 2 + 2002602) — 2qc(6o2 — 0 2 0 Q0 2 ) — 2« 6(¿i2o “ 620602) —

b2(2a2o^20 + 611620) + (6c ~ 2 a 2 ) ( 6 t i6o2 — 0 1 1 0 2 0 ) ] -

(a2 + 6c) [3 (c 6 03 - 6 a 30) + 2a(o2i + 6 12) + (can - 662 i ) ] ¡

C u an d o las condiciones anteriormente exigidas no se satisfacen (en particular, si er = 0) se puede


producir más de un ciclo limite en el punto de bifurcacióu l .
Ilustraremos con un ejemplo la bifurcación de Hopf.

E jem p lo

x — ~ y + x (p - x 2 - y 2)

y - x + y(p - x 2 - y2)

El ú n ico punto crítico de este sistema corresponde al origen, x = (0 .0 ). Si consideram os la parte


lineal del sistema,

1 E s t o d e p e n d e concretam ente de la m ultiplicida d del foco q u e se itiestab iliza. E n el c a s o d e la b ifu rc a c ió n de


H o p f, e l fo c o tien e m u ltiplicidad u n o , y e m ite un único ciclo lím ite. Si tu v iese m u ltip licid a d fc, p o d r ía e m itir h a sta
k c ic lo s lím ite . V é a se la siguiente sección , 4 .3 .

http://librosysolucionarios.net
128 Orden y C aos en Sistemas Com plejos

d f (m ) = ( í - ;)

y calculamos los valores propios asociados A,- obtenem os

A^ - —p ± i

Si p > 0 el origen es un foco estable, y si p < 0 es un foco inestable. Para p = 0 tiene lugar
una bifurcación. Calculem os a para com probar que es una bifurcación de H opf (obsérvese que la
forma del sistema corresponde a la forma genérica dada en el enunciado del teorema sobre esta
bifurcación). En este caso tenemos

p(x,y) ~ - x l - x y 2 q{ x, y) = ~ y x 2 - y3

así que los coeficientes no nulos del desarrollo de p y q son

«30 = —1 , e.\2 — —1

para p y

= —1 , i*03 — 1

para q. Por tanto,

o- — [3(a3o + í>03) + ( « íi’ + ^21)] — —12tr ^ 0

Confirmamos que el origen es un foco estable (cr < 0) } mediante el uso del teorem a visto podemos
afirmar que tras la bifurcación el sistema presentará un ciclo límite único y estable (para p < 0).

El cam bio a coordenadas polares

Una forma alternativa, útil y muy intuitiva de com probar la existencia del ciclo límite consiste
en escribir las ecuaciones del sistema en coordenadas polares. En el caso anterior, realicemos el
cam bio

x — r eos B

y = r sin 9

Si consideramos el cam bio inverso.

r = \ fx 2 + y2

0 = arctan —
x
y derivamos, resulta

2 rr = 2 x i + 2 yy

« = — L ^ - + —

En estas últimas expresiones debemos sustituir x, y en función de r y 9 y la definición de nuestro


sistema,

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 129

tf=0 \ p -1

\ f
^ 3 ^ \ \i

3
^
V
Figura 4.4: Tres estadios de la bifurcación de H opf en el sistema del ejem plo 1. Para p < 0 no
existe ciclo límite. El origen es uu foco estable. En p — 0 se produce la bifurcación. La tendencia
de las trayectorias al origen es muy lenta. Cuando p > 0 aparece un ciclo lírnire. El origen se ha
convertido en un fo c o inestable.

x = —rs in # + r c o s 0(p — r2)

y = rcosfl + r s i n 0 ( p — r 2)

Se hace uso únicamente de x2 + y 2 = r 2 (eos2 8 + sin2 8 = 1 ). lo cual permite llegar, sin excesivo
esfuerzo, a

r = r(p — r 2)

é = 1

Hemos separado el sistema en dos ecuaciones independientes: una para la parte radial y otra para
la parte angular. La últim a tiene una solución trivial, 8(t) — 8o 4- í, lo cual indica que los puntos
sobre las trayectorias se desplazan a velocidad angular constante alrededor del origen. Por otra
parte, para p > 0 tenem os una solución para la parte radial que resulta ser estable, r = + y f p • La
solución negativa de la raíz no tiene sentido, ya que r > 0 en coordenadas polares.
En la figura 4.4 se representan las trayectorias del sistema para diversas condiciones iniciales
antes, en y después de la bifurcación. Para p ~ Olas trayectorias tienden muy lentamente al origen
(o al ciclo límite de radio nulo), así que sólo se ha representado una parte de las mismas.

4 .2 La aplicación de Poincaré
La aplicación de Poincaré es una herramienta básica y geométricamente sencilla para estudiar la
estabilidad y las bifurcaciones de órbitas periódicas. La aplicación de Poincaré, o aplicación de
primer retorno, fue presentada por Henri Poincaré en 1881- Se basa en una idea sencilla que
podem os enunciar de la forma siguiente: si F es una órbita periódica del sistema

x = F (x ) (4.3.1)

a través del punto Xo y E es un hiperplano perpendicular a f en x ü. entonces para cualquier punto


x £ E suficientemente próxim o a x 0, la solución de 4.3.1 que pasa por x eu t =- 0. 4>t(x ). atravesará
E de nuevo en un punto P (x ) cercano a xq. La aplicación

http://librosysolucionarios.net
130 Orden y Caos en Sistemas Com plejos

x i-» P (x )

se denom ina aplicación de Poicaré.

El siguiente teorema establece la existencia y continuidad de la aplicación de Poincaré, P ( x ) y


de su prim era derivada, D P ( x ) .

T eorem a

Sea E un subconjunto abierto de R n , y F 6 C l ( E). Supongamos que $ f( x ) es una solución


periódica de 4.3.1, de periodo T , y que el ciclo

r = { x e R " ; x = $ ,( x o ) ,0 < t < T }

está con ten ido en E . Sea E el hiperplano ortogonal a F en xq.

E — { x € R n; (x - x o )-F (x o ) - 0}

En este caso, existe ó > 0 y una función única t ( x ) , definida y derivable en continuidad para
x 6 iV¿(xo) tal que

t-( xo ), $ r{X) ( x ) G E , V x € A 'á ( x 0)

Según las definiciones dadas en el teorema anterior, y para x € A’ó( xo ) H E. la función

P ( x ) = $ r(X )(x )
se denom ina aplicación de P oin ca ré para F en xo. Los puntos fijos de la aplicación de Poincaré,
es decir, x £ E que satisfacen P ( x ) = x corresponden a órbitas periódicas.
Si realizamos el cam bio t —* —t en el sistema 4.3.1, se puede ver que P (x ) tiene una función
inversa P - 1 (x ) derivable en continuidad, y por tanto P es un difeomorfismo ("fu n ción suave con
inversa suave” ). En ciertas ocasiones es posible calcular analíticamente la expresión de la aplicación
de Poincaré. Consideremos com o ejem plo el sistema estudiado en la sección anterior,

i = - y + x(f¿ - x 2 - y 2)

y - x + y { p - x 2 - y2)

Este sistema tiene, para p > 0, un ciclo límite com o solución,

?(*) — ( valeos t, y/p sin t)T

La aplicación de Poincaré se puede determinar en este caso solucionando el sistema escrito en


coordenadas polares. Recordem os que habíamos obtenido

f = r(p — r 2)

0 = 1

Considerem os las condiciones iniciales r(0) = ro y 0(0) = 0p. La primera ecuación tiene una
solución de la forma

r ( f , r 0) = [ i +
.ú V r() P)

http://librosysolucionarios.net
A tra etores Periódicos y Cuasiperiódicos 131

lo cual se puede com probar por simple sustitución, y la segunda

0 { t J Q) = t + d o

Si £ es la recta que tiene pendiente 9 = 0o y pasa por el origen, entonces £ es perpendicular a T


y la trayectoria a través del punto (r0, #o) 6 S H T en i = 0 intersecta £ de nuevo en t = 2n.
La aplicación de Poincaré estará dada por

- 1/2

P iro) = i + r i - i u —

con lo cual estamos simplemente considerando los puntos de ia trayectoria correspondientes a


intervalos discretos de tiem po con un incremento A i = 2 t. La aplicación de Poincaré proporciona
en cierto m od o una visión ^estroboscópica” de la dinámica. Si buscamos los pun tos fijos de la
aplicación ( P ( r 0) = 7*0), que corresponden al ciclo límite anterior y(t), obtenemos ro = y/p, com o
era de esperar. La derivada de P ( r ) en ro = y/p proporciona

1 1 = e~4ir/i
F'(ro) = - +
LP

C om o se vio en el capítulo 2, en referencia a las aplicaciones discretas y su estabilidad, podem os


utilizar ahora aquellos criterios y estudiar la estabilidad del ciclo limite 7 (t). Este será estable si

P '( r 0) < l = ^ e - Airii < 1

En particular, tendremos la igualdad cuando p = 0, pero 'ip > 0 la función e- 4 ^* será menor que
1. (Obsérvese que es una función m onótona decreciente con el máximo precisamente en p — 0.)

4 .2 .1 F u n c ió n d e d e s p la z a m ie n t o

Relacionada con la función de Poincaré introduciremos ahora la función de desplazam iento, que
perm ite caracterizar la m ultiplicidad de un ciclo límite y de los focos que experim entan la bifur­
cación de Hopf. Los resultados que enunciaremos a continuación se aplican solam ente a sistemas
en 2 dimensiones.
Supongam os que (sin pérdida de generalidad) trasladamos el origen al punto x o £ T fi L. En
este caso, £ siempre pasará por el origen. Ahora, 0 E ü fl £ divide a £ en dos subsegmetitos
abiertos, £ + y £ “ . £ + pertenece por com pleto al exterior de T.
Sea s la distancia al origen de los puntos que intersectan £ , y escojamos s > 0 para los puntos
x + E £ + y s < 0 para x _ 6 £ " . Según el teorema sobre la aplicación de Poincaré, ésta está
definida para |s| < 6, y hem os tom ado P (0 ) = 0. Introducimos ahora la función de desplazamiento
com o

<*(*) - F ( í )

Entonces.

d(0) = 0, rf'(s) = P' ( s) - 1

Observem os que d(s) permite caracterizar la estabilidad de las órbitas periódicas de la forma
siguiente: si <¿'(0) > 0, el ciclo límite es inestable; si <^(0 ) < 0. el ciclo límite es estable.

http://librosysolucionarios.net
132 Orden y C aos en Sistemas C om plejos

Definición.

Sea P (s ) la aplicación de Poincaré para un ciclo T de un sistema analítico en dos dimensiones,


y sea d (s! = P ( s ) — s la función de desplazamiento. Si d(ü) = d '(0 ) = . . . = d^k~ 1\ü) — 0 y
<i,fcV0) 0, T se denom ina ciclo limite múltiple de multiplicidad k. Si k = 1, F se denom ina ciclo
límite simple.

Observemos que las bifurcaciones que habíamos estudiado para los puntos fijos focos podem os
aplicarlas ahora a puntos fijos de la aplicación de Poincaré que sean focos. La generalización
inmediata implica que un ciclo límite puede bifurcarse en hasta k ciclos límite, si k es su m ultipli­
cidad.

Si el sistema 4.2.1 tiene un foco en el origen, entonces es linealmente equivalente al sistem a

x - ax - by + p ( x , y )

y = bx + ay + q ( x , y) (4.3.2)

con b 0.

Teorema

Sea P( s ) la aplicación de Poincaré para un foco en el origen del sistema analítico en dos dimensiones
4.3.2. con b 0 y supongam os que P (s ) está definida para 0 < s < ó0. Entonces, existe b > 0 tal
que P (s) se puede extender a una función anah'tica definida para |s| < <5. Adem ás,

P (0 ) = 0, P '( 0 ) = e x p { ^ }

y si d(s) = P ( s ) — s, entonces el producto

d(s) d ( —s) < 0

para 0 < |s| < 6. El hecho de que d (s ) d ( —s) < 0 para 0 < |s| < <5 se puede utilizar para dem ostrar
que si

rf(O) = d '(0 ) = . . . = d(k- V = 0 y d(k) ¿ 0

entonces k es impar, es decir, k — 2 m + 1. El entero m = ( k - l ) / 2 se denom ina multiplicidad del


foco. Si t u = 0 tenemos un foco simple, y se sigue del teorema anterior que el sistema 4.3.2 con
b 0 tiene un foco simple en el origen si, y sólo si. a 0.
El signo de <¿'(0), es decir, el signo de a, determina la estabilidad del origen en este caso. Si
a < 0 el origen es un foco estable, y si a > 0 es inestable. Si d '(0 ) = 0 (a = 0), entonces 4.3.2 tiene
un foco múltiple o un centro en el origen. Si d '(0) = 0, entonces la primera derivada no nula

a = # 0

se llama número de Lyapunov para el foco. Si cr < 0 el foco es estable, y si cr > 0 el fo c o es


inestable.

Es con frecuencia m uy com plicado llegar a una expresión analítica para la aplicación de P oin ­
caré, y muy a menudo ni siquiera existe (analíticamente). Sin em bargo, la imagen geom étrica
que la aplicación de Poincaré aporta es de suma utilidad en el estudio de los sistemas dinám icos,
especialmente cuando la dimensión del sistema es elevada. Obsérvese que es necesario resolver

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 133

las ecuaciones diferenciales si se pretende obtener P (s ) analíticamente. No obstante, tam bién se


puede resolver las ecuaciones numéricamente y estudiar entonces la sección de Poincaré, a fin de
obtener inform ación sobre el sistema dinám ico. Es suficiente considerar en este caso un hiperplano
o una hipersuperficie que corte las trayectorias del sistema. N o es necesario que la intersección se
realice exactam ente en forma perpendicular. Se dice entonces que la hipersuperficie (en general) £
corta las trayectorias de forma transversal. La sección de Poincaré resultante de una intersección
transversal es topológicam ente equivalente a la que resulta de una intersección perpendicular, así
que las características cualitativas del sistema permanecen invariantes.

4.2.2 Análisis cualitativo y num érico de la SP


Realicem os una breve descripción del aspecto de la sección de Poincaré y lo que de ella se deduce.
Si observam os una serie de puntos que convergen a uno fijo, independientemente de la condición
inicial, es inm ediato concluir que nuestro sistema dinámico posee un ciclo límite estable. También
podríam os observar que los puntos de la sección oscilan alternativamente entre dos, tres, cuatro
o más puntos, y los repiten siempre en el mismo orden. En este caso, estaríamos ante órbitas
de p eriodo dos, tres, cuatro o superior, respectivamente. En algunas ocasiones los pun tos de la
sección pueden acabar llenando una curva cerrada. Nos hallamos en este caso ante una órbita
cuasiperiódica. Las trayectorias del sistema se moverán sobre un toro n — dimensional. Este tipo
de dinám ica será descrito en las próxim as secciones.

Veam os con un ejemplo simple cóm o el estudio de la sección de Poincaré puede proporcionar
considerable inform ación sobre la dinám ica de un sistema. Consideremos un péndulo unidimen­
sional forzado p or una fuerza exterior periódica que depende de la posición del péndulo,

d 2x
—— + d sin(£) = cos(¿.r — wt)
d t¿
d — g/l. donde g es la constante de la gravedad y / es la longitud del péndulo. Si se escoge k =. 1 y
d = JO. p or ejem plo, se puede utilizar la frecuencia w com o parámetro libre del sistema, y estudiar
la variación de la dinámica en función de él. En particular, es posible obtener transiciones caos-cua-
siperiodicidad-periodicidad y tam bién en sentido contrario. En la figura 4.5 se han representado
cuatro secciones de Poincaré para diversos valores de w. En este caso, se resolvió la ecuación
diferencial numéricamente y se representaron en la sección, de Poincaré los puntos que cumplían
las condiciones

)rr| < ó, z < 0

con S ss 0.001. Con este convenio nos aseguramos que los puntos sean prácticamente los corres­
pondientes a la intersección de la trayectoria con el plano x — 0 y consideramos únicam ente los
que atraviesan dicho plano en una única dirección.

En algunos casos, la sección de Poincaré está formada por un con jun to de puntos que ocupan
con densidad variable toda la zona de la sección, y en un orden aparentemente impredecible.
Estamos entonces, muy probablem ente, ante un sistema dinámico que exhibe caos determinista.
Con frecuencia, la sola observación de una trayectoria (solución de un sistema din ám ico) en R 3
(por ejem plo) no es capaz de distinguir entre cuasiperiodicidad y caos. La sección de Poincaré, en
cam bio, discrimina perfectamente los dos casos 2. Es recomendable, en el caso de realizar estudios
numéricos, observar el com portam iento del sistema a largo plazo. La representación gráfica que
se realice de la dinámica puede ser p o co clara sí se representa el estado transitorio, esto es, los

2 E n g e n e r a l, sin e m b a rg o , se e xige a lg u n a o tr a e v id en cia p a r a afirm ar q u e un s is te m a pre se n ta c aos d e te rm in is ta .

http://librosysolucionarios.net
134 Orden y Caos en Sistemas Compiejos

2.0 - 2.0

íy
■i - .

1.0 - 1.0 -i

0 .0 “ f- 1— i r I i I i i i I i i i 1 i i i' i i 1 I I I i 0.0
0.00 1.00 2.00

Figura 4.5: Secciones de Poincaré para el sistema ^ s m íx ) = c o s (k x — w t), con k — 1, d = 10


y, de izquierda a derecha y de arriba abajo, w = 2.95, 2.98. 2.99, 3.00. En este caso, el incre­
m ento en la frecuencia externa provoca una transición del caos a la cuasiperiodicidad. El atractor
correspondiente a la órbita total del sistema sería topológicam ente equivalente a la superficie en­
gendrada por la rotación de la sección de Poincaré' alrededor, por ejem plo, del eje y (en el caso del
atractor caótico esto no sería del todo cierto, com o el lector puede imaginar).

http://librosysolucionarios.net
A tra ctores Periódicos y Cuasiperiódicos 135

estados por los que el sistema pasa anrcs de llegar a un punto fijo, a un ciclo lím iie, etc. Por tanto,
debe eliminarse un cierto intervalo inicial de tiem po en la simulación a fin de determinar el estado
más probable en que el sistema sera realmente observado. Considérese, por ejem plo, el caso de
la aplicación logística. Cerca de los ¡juntos donde se producen las bifurcaciones de periodo n a
periodo 2n, se observa que la dinámica conduce al sistema lentamente a un atractor de periodo n.
El estado transitorio es largo, y un estudio que analizase pocos pasos de tiem po podría conducir a
conclusiones erróneas sobre la dinámic a.

4 .3 Teorem a de P oincaré-B endixson


El teorema de Poincaré-Bendbcson fue enunciado por estos autores a principios de siglo. Sólo es
válido para sistemas en R 2, y permite demostrar la existencia de un ciclo límite sin necesidad de
hallar explícitamente la expresión de éste.

Definamos primeramente lo que se entiende por conjuntos a — y uj—límite de un sistema


dinámico.
Consideremos el sistema autónom o

x — F (x ) (4-4.1)

con F 6 C 1( E) y E un subconjunto abierto de R 2. Llamaremos $ ( í , x ) a la solución del sistema


dinám ico 4.4.1 en E . Para x G E, la función <£(., x ) : R —* E define una curva solución, trayectoria
u órbita de 4.4.1 que pasa por x en E.

D e fin ic ió n

Un punto p € E es un punto oj—límite de la trayectoria $ ( - .x ) del sistema 4.4.1 si existe una


secuencia tn —* tal que

lim = p
n —*oo

Igualm ente, si existe una secuencia t n —*•—oo tal que

lim $ ( * „ , x ) = q
n — oo

y el punto q 6 £\ entonces q se denomina punto a -l ím it e de la trayectoria <£(.,x) del sistema


4.4.1.
El conjunto de todos los puntos u;—límite de una trayectoria de 4.4.1 (T ) se denom ina conjunto
u) —límite (de la trayectoria) y se denota por w(r). El coajunto de todos los puntos a —límite de
una trayectoria es el conjunto a —límite, q (P ). El conjunto unión

c v (r )L M r )

se llama conjunto límite de T.


Se puede demostrar que a (F ) y -¿tT) son subconjuntos cerrados de E , y que si la trayectoria F
está contenida en un subconjunto com pacto de R n, entonces a ( r ) y w ( r ) son subconjuntos de E
no vacíos, com pactos y conexos.

http://librosysolucionarios.net
136 Orden y Caos en Sistemas C om plejos

Teorem a

(de Poincaré-B endixson)


Supongam os que F € C l ( E) , donde E es un subconjunto abierto de R 2 y que -1.4.1 tiene una
trayectoria T contenida en un subconjunto com pacto F C E . Entonces, si u>(r) no contiene ningún
punto critico de 4.4.1. u>(P) esuna órbita periódica de 4.4.1.

Veam os a continuación con un ejem plo cóm o es posible aplicar el teorema anterior para deter­
minar la existencia de un ciclo límite en el espacio de fases de un sistema dinámico.

Ejem plo

Considerem os el sistema

x = x —y — x3

y = x + y - y3

Su únic'- punto fijo es el origen, Xg = (0 ,0 ). Excluyendo, pues, el origen, podem os intentar


encontrar una zona de R 2 que contenga u>(F). Escribamos primeramente (com o empieza a ser
habitual el sistema en coordenadas polares. Sustituyendo en

0 — ~ [ x sin 8 — y eos 8]

r = i eos 9 + y sin 0

(expresiones válidas en general para cualquier cambio a coordenadas polares), con x — rcosO ,
y = r sin f . obtenem os para el sistema anterior

8 = —1 — r 2 sin 8 eos 8

r = r — r 3(cos4 8 -f sin4 9)

La función f ( 8 ) = (cos4 0 + sin4 8) está acotada entre los valores 1 y 1, es decir f ( 8 ) € [^, l ] .
Utilicen*.''os estos dos valores 3 para determinar si, para algunos valores de r, sería posible encontrar
r < 0 en cierta circunferencia y r > 0 en otra. Obsérvese que, si es posible determinar una zona
con r < u. esto significa que todas las trayectorias uentran” en este dominio. De forma equivalente,
si encontram os un dominio con r > 0. sabemos que las trayectorias del sistema “salen” de la zona
establee: da.
C ons:'.erem os, pues, los valores extremos que r puede tomar:

r3
r —r —— r- — r — r 3
2
Busquemos una zona en la que se cumplan las dos desigualdades r — r3/ 2 < ti y r — r 3 < 0
simultáneamente. Para r < 0, obtenemos r > y/2 en el primer caso y r > 1 en el segundo.
Esto significa que en la circunferencia r — V2 + e, con e arbitrariamente pequeño, r es siempre
negativa, para cualquier valor de 9, con lo cual podem os asegurar que el conjunto o--(r) se halla
en el interior de la circunferencia limitada por r = ->¡2 + e. Por otra parte, cambiando el signo de
las desigualdades obtenemos que r > 0 siempre para r = 1 - e, de nuevo con e arbitrariamente
pequeño. A sí que todas las trayectorias salen de la zona r = 1 — e . En consecuencia, tenemos w (T)
confinado a la corona definida por

3 E stos ••a lo re s se o b tien e n c alcu la n d o los extrem os de j ( 8 ) y v ien d o q u e tien e d os m á x im o s, en 6 = O y 0 = j t / 2 ,


de valor 1 y u n m ín im o en 6 = r / 4 , d e valor 1 /2 .

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 137

señalan las dos circunferencias de las cuales las trayectorias “ entran” o “ salen'” , que pueden ser
calculadas analíticamente y permiten la aplicación del teorema de Poincaré-Bendixson.

( t m i n . w ) = (1 - e, V 2 + e ) . V<9

C om o el único punto fijo del sistema es el origen de coordenadas, no hay ningún punto fijo en la
corona anterior, así que p or el teorema de Poincaré-Bendixson podem os asegurar que existe un
ciclo lím ite en esta área. Véase el mapa de fases del sistema dinámico en la figura 4.8.

T o d o lo hasta aquí expuesto sobre la existencia de ciclos límite y cóm o pueden ser determinados
tiene una traducción muy sencilla que resulta ser correcta la mayor parte de las veces cuando
tratam os con sistemas físicos. Imaginemos que en cierto sistema real sabemos que las trayectorias
no pueden escapar al infinito, es decir, la solución está forzosamente acotada a cierta zona del
espacio de fases. Si, además, en esta zona el único pun to de equilibrio que tenemos es inestable,
podem os casi asegurar que la configuración descrita del sistema físico lleva a la existencia de un ciclo
límite para la dinámica, aunque en ocasiones el supuesto ciclo límite puede ser una órbita periódica,
cuasiperiódica o un atractor extraño. Pongamos un ejem plo. Supongamos que disponem os de un
péndulo en el extrem o del cual colocam os un imán que oscilará con él. Supongam os también que
en la vertical del péndulo, allí donde habría un punto de equilibrio estable (debido al rozamiento
con el aire el péndulo acabaría deteniéndose en posición vertical) colocam os un segundo imán con
polaridad opuesta al primero. El punto de equilibrio estable es de esta form a inestabilizado. Y ,
además, el péndulo no puede escapar al infinito (com o es fácil de imaginar). La intuición nos dice
que posiblem ente el péndulo oscilará alrededor de este punto inestable. Así, efectivamente, sucede.
Y com o éste, muchos otros sistemas: reacciones quínúcas (las concentraciones de los reactivos
son finitas y algunas tienen valores fijos inestables), neuronas (potencial eléctrico finito, estado de
reposo inestable), ...

4 . 4 A t r a c t o r e s c u a s i p e r i ó d i c o s

Se ha visto, en el capítulo sobre sistemas dinámicos y en este mismo, la dinám ica a largo término
que pueden presentar los sistemas dinámicos: puntos fijos y ciclos límite. En la escala que acaba

http://librosysolucionarios.net
138 Orden y Caos en Sistemas Com plejos

llevando a los atractores extraños y a la dinámica caótica nos falta el caso que nos ocupa en esta
sección: los atractores (la dinámica) cuasiperiódicos.
Veremos que este tipo de movimiento tiene un papel esencial en el capítulo que dedicaremos
al caos ham iltoniano, donde trataremos con sistemas conservativos. En las páginas siguientes
veremos algunos sistemas disipativos que presentan dinámica cuasiperiódica, en los cuales, por
tanto, la dinámica es atractiva, y no se da sobre (com o veremos) un toro n-dim ensional desde el
principio, sino que tiende asintóticamente hacia él.
Podem os pensar en el m ovimiento cuasiperiódico com o en una com posición de movimientos
periódicos, de diversas frecuencias cuya superposición (en ciertos casos) podrá conducir al sistema
a los citados atractores. Hablaremos de N —cuasiperiodicidad cuando el número de frecuencias
Í7, constituyentes del m ovim iento cuasiperiódico sea N . Las variables dinámicas del sistema de
la forma /(< ) estarán representadas por funciones de N variables independientes G (<i, t -¿,. . . , t/v ),
tales que serán funciones periódicas en cada una de sus variables,

G (íi, Í2i ■■■i ti -f T¡ , .. .í/v ) = G( t t, ¿2, . . . , t i , . . . #;v )

con un periodo X, correspondiente a cada una de las variables. Las N frecuencias implicadas deben
de ser inconmensurables, es decir ninguna de ellas debe de poder ser expresada com o com binación
lineal de las demás. Se cumplirá por tanto que

m jQ j 4- 7712^2 + •••+ —0

donde 6 Z no debe poseer ninguna solución excepto la trivial m4 = 0, Vi. En términos de G ,


las variables del sistema se podrán representar com o

f(t) = G { t ,t , t , . . ., t )

es decir. f ( t ) corresponde al valor de G con todas sus variables t, = t. D ebido a su periodicidad.


G podrá ser fácilm ente expresada com o una serie de Fourier de N factores,

G = '^2 an,...nN exp {í(n if2 i< i + n2f i 2*2 + . •- + n ^ C ly tN )}

Tom ando í,- = t y realizando la transformada de Fourier sobre la función G obtenem os

f(rv) — 2tt ^2 a n,...n,v ¿ (u> - (riií> ií3 -f n-^hU + ■■■+ n NQNt ;v ))


nj,n2)...,n,v

Así que la transform ada de Fourier de una variable dinámica / ( / ) está form ada por todas las com bi­
naciones lineales enteras de las N frecuencias fundamentales. Q j El espectro de potencias
(el cuadrado de la transformada de Fourier) correspondiente a un m ovim iento cuasiperiódico pre­
sentará. por tanto, unos picos característicos a estos valores concretos. Los picos son más agudos
cuanto menor es el valor de los coeficientes n j , . . . n/v- A medida que éstos aumentan de valor, los
picos disminuyen de am plitud hasta que, si trabajamos con un sistema real, serán indistinguibles
del ruido inherente al dispositivo.

4.4.1 2-cu asiperiodicidad


Consideremos brevemente el caso particular en el que sólo dos frecuencias están implicadas en el
m ovimiento del sistema, Í2i y fio. Supongamos que la solución de la dinám ica del sistema, x, tiene
com ponentes vectoriales dados por la ecuación

http://librosysolucionarios.net
Atractores Periódicos y Cuasiperiódicos 139

0.0 0.2 0.4 0.6 0.8 1.0

60-7--------------------------------------------------------------------------------------------

Figura 4.7: E spectro de potencias correspondiente a un movimiento periódico, a uno cuasiperiódico


con dos frecuencias características y a uno caótico. Los picos limpios que se aprecian en ei segundo
caso desaparecen en el segundo, ya que en el caso de tener dinámica ca ótica se obtiene un espectro
amplio, con tod os los valores de las frecuencias representados.

http://librosysolucionarios.net
140 Orden y Caos en Sistem as C om plejos

Considerando que t\ y t 2 sori funciones periódicas con periodos T\ y T2, respectivamente, sólo será
necesario especificar el valor de f, módulo X ,, es decir, las variables f¿ pueden ser consideradas com o
ángulos, y p or tanto definimos las variables angulares

0} — Q jtj m ódulo 2 tt

El estado del sistema puede ser especificado dando únicamente dos ángulos. Desde el punto de
vista geom étrico, la especificación de un ángulo se puede pensar com o la especificación de un punto
sobre un círculo. La especificación de dos ángulos es equivalente a la especificación de un punto
sobre un foro 2 -dimensional (T 2), así que podemos pensar que las trayectorias cuasiperiódicas
están confinadas (asintóticamente) a la superficie de este toro. Efectivamente, el m ovim iento
cuasiperiódico tiene lugar sobre una superficie 2-dimensional topológicam ente equivalente a este
toro.
Observemos que se ha exigido anteriormente que las frecuencias fuesen inconmensurables a fin
de obtener un m ovim iento realmente cuasiperiódico. Si el cociente

R- —
íii
llamado núm ero de rotación fuese un número racional de la forma p/q, entonces las trayectorias
sobre el toro acabarían cerrándose sobre ellas mismas, y el m ovimiento sería periódico, con periodo

pTv = qT2

Cuando R es irracional, el movim iento es cuasiperiódico, y las órbitas acaban llenando densamente
la superficie toroidal.
En el caso de que el m ovim iento fuese N —cuasiperiódico, podríamos igualm ente considerar
A '-to r o s ( T ^ ) , sobre los cuales se daría ahora, el m ovim iento que. estaría especificado por N
variables angulares.

4.4.2 La aplicación circular


Consideremos el sistema dinámico continuo

d s ( 1 ,= « I
dt
d$(2)
= Q,
dt
donde las variables angulares son

0<1>(¿) = n 1í + # )

e w ( t ) = n 2t + e w

Si tomamos una sección de la trayectoria, la correspondiente por ejemplo a ( 00) m ód u lo 2~) = ct,
obtenemos una aplicación unidimensional para 0n = 0 0 ) ( t n ) m ódulo 2t ,

#n+1 = {9n + w) m ódulo 2ir

con w = 2'k O.\_¡Q,2- Siempre que las frecuencias sean inconmensurables, y para cualquier condición
inicial, la órbita que se obtendrá llenará densamente el círculo unidad, mientras que si Q.\/Q.2 — p/q-
un valor racional, entonces la órbita será periódica con periodo q. Las órbitas periódicas sólo se

http://librosysolucionarios.net
A tractores Periódicos y Cuasiperiódicos 141

obtienen para un con ju n to de valores de lc con medida de Lehesgue cero, lo cual significa que estos
valores tienen una probabilidad a priori cero de aparecer.
Esta im posibilidad práctica de obtener órbitas periódicas cambia cuando se introduce algún
tipo de término no lineal, algún acoplamiento entre las frecuencias que puede inducir un tipo
de resonancia y provocar en consecuencia órbitas periódicas con probabilidad no nula. A fin de
estudiar el efecto del acoplam iento en el sistema. Arnold introdujo en 1965 la siguiente aplicación
m odificada

0n+1 = (0n -f w + k sin (0n )) módulo 2tt

llamada aplicación circular. Los parámetros w y k juegan un papel fundam ental en la dinámica
que presenta esta aplicación, así com o el número de rotación, que en este caso está dado por

1 1 m~ 1
¡ 1 = — lim - V " A 0 n
Oír m—•cc
~c. m ‘ '
n=0

donde A &„ = u.1 + k sin 6n . Se plantea ahora el problem a de distinguir cuáles serán los valores de
k , que se utiliza com o parámetro variable en el sistema habitualmente, que producirán dinámica
cuasiperiódica. es decir, un valor irracional para R. La obtención de estos valores en el dominio
k ss 0 plantea el llam ado problema de los denominadores pequeños, con el que nos volveremos
a encontrar en el cap ítu lo sobre caos hamiltoniano. El problem a en cuestión se produce cuando
intentamos realizar un desarrollo para k pequeña, alrededor de cero. En este desarrollo aparecen
términos de la forma

' »xp (im&)


^ 1 — e x p {2zn m fí}

Para cualquier valor de R irracional podem os encontrar un valor de m que nos liaga el denom inador
anterior tan pequeño com o deseemos, ya que cuando el producto Rm ss n, con n un entero, la
parte exponencial se acerca arbitrariamente a 1 . El problem a que entonces se presenta es el de
establecer la convergencia de la serie que se estudia. Si efectivamente R m ss n, obtenem os

1 — exp{27r¿mf?} ís —27rz(mñ — n)

así que la contribución de este término a la serie es aproximadamente

1 ¡
27rm |R - n/m\
Estudiemos el caso en que se producirá movimiento cuasiperiódico, esto es, cuando R sea irracional.
Cuando el valor de R satisface

In n &
i m > m (2+£)
para algún valor p ositivo de A’ y ( y para cualquier valor de m y n, m 0 se dice que R es un número
mal aproximable p or racionales. Sin embargo, los coeficientes {An,| se obtienen del desarrollo en
serie de Fourier de una función analítica, con lo cual presentan un decaimiento exponencial con m,

1 \Aml < i+ £> e x p ( - o j m j ) )


2jrm jR - m /nj
lo que implica que la suma convergerá para todos los valores de R que sean mal aproxim ables
por racionales. Por desgracia, la convergencia de esta sum a no implica la convergencia de la serie
perturbativa.

http://librosysolucionarios.net
142 Orden y Caos en Sistemas C om plejos

Se puede obtener que la medida de Lcbcsgue para los valores de w que presentan cuasiperiod-
icidad en el intervalo w G [0, 2x] es diferente de cero para k pequeña, y que tiende a 2 t cuando
k —►0. Para k pequeña se sigue dando cuasiperiodicidad, y los valores de te para los que se obtiene
ocupan la mayor parte de la medida de Lebesgue en el intervalo de valores estudiado.

4.5 A p é n d ic e
Incluimos en este apéndice un caso más detallado de análisis de un sistema dinámico. Creemos
que el ejem plo ilustra muy bien la form a en que se puede calcular explícitamente la ecuación de
una variedad centro, y la dificultad de cálculo no es excesiva.
Consideraremos el sistema

x = x z — wy

y = w x + yz

z - p + z - ^ - 3 - O'2 + y2){ 1 + qx + e z ) ( A .l)

que proviene del m odelo de Langford para el flujo de Couette-Taylor 4. Los valores de las variables
están fijados a t ü = 10, e = 0.5 q = 0.7, y p actúa com o parám etro de bifurcación.

El primer paso es el cálculo de los puntos fijos del sistema. Las dos primeras ecuaciones
proporcionan

r = 0, y = 0

y de la tercera obtenemos una curva que dará el valor de z en función del parámetro p.

p + z - i z3 = 0 (.4.2)
Esta ecuación tiene diferente número de soluciones (reales, que son las que nos interesan) depen­
diendo de p. Efectivamente,

• Para p < —2 /3 o p > 2 /3 , existe un único punto fijo.

• Para p = ± 2 /3 existen dos puntos fijos.

• Para —2 /3 < p < 2 /3 existen tres puntos fijos.

En la figura 4.8 se representa la curva de soluciones para z en función del parámetro.


Estudiemos la matriz lineal para conocer la estabilidad de los puntos fijos. En general, para un
valor de p dado, el punto fijo será de la forma

-r'(p ) = (0, 0, z0)


con lo cual la matriz lineal en este punto correspondiente al sistema A .l quedará de la forma

/ z0 0 \
A = | xv z 0 0 J
V0 0 1 - z0 /
4 E l le c to r in te re sa d o en el sistem a real p u e d e co n su lta r el articulo d e T . M u llin “ F i n ite -D im e n s io n a l D y n a m ic s
tn T a y lo r -C o u e ttt F lo w , que apareció en I M A Journal o f Applted M a th tm a tic s (1 9 9 1 ) 4 8 1 0 9 -1 1 9 . U n a breve
d escripción se ha realizad o en el capítu lo so b re caos.

http://librosysolucionarios.net
A tra ctores Periódicos y Cuasiperiódicos 143

P
Figura 4.8: Soluciones para la variable del sistema A .l en fun ción del parám etro p.

que tiene com o valores propios

Ai = Co + u)i, A2 = Zq — wt. A3 — 1 — z *

y com o vectores propios

i?i = (i, - 1 , 0), = f - u - 1, 0), c3 = ( 0. ó. 1 )

Los valores propios permiten clasificar los puntos fijos según su estabilidad, d epen dien do del
parámetro p.

• p < —2 /3 =$>• zo < —2, y en este caso existe un único p u n to fijo, para el cual resulta
3í(Ai) < 0. ( A2) < 0, A3 > 0, así que el punto fijo es inestable.

• p = —2 /3 zo = 1, —2 (existen dos puntos fijos ahora, el de valor zo = 1es un p u n to fijo


doble), para los cuales resulta:

1 . zo = 1 : Ai = 1 + w ¿, A-2 = 1 — un. A3 = 0, el punto fijo es rnestable


2. zo = —2: Ai = - 2 + u'i. A2 = - 2 - wi. A3 = —3, el pun::- fijo es estable.

• —2 /3 < p < 0 tenem os los siguientes dominios de estabilidad, correspondientes a las diferentes
soluciones de A .2:

1. - 2 < z0 < —\/3: 3?(Ai) < 0, 3?(A2) < 0. A3 < 0, el punto fijo será estable
2. 1 < zo < \/3: 3?(Aj) > 0, 3í(A 2) > 0, A3 < 0. el punto fijo será inestable
3. 0 < zo < 1: 3?(Ai) < 0, 3í(A 2) < 0, A3 > 0, el punto fijo será también inestable, aunque
la dimensionalidad de las variedades asociadas cambia.

• p = 0 obtenem os tres puntos fijos,

1 . zo = 0: Ai = n/\ A2 = —iw, A3 = 1, punto fijo inestable


2 . z 0 = \/3: ( A!) > 0, 3Í(A2) > 0. A3 < 0. punto fijo inestarde
3. z0 = - \ /3 : iR(Ai) < 0, jft(A2) < 0. A3 < 0, punto fijo estable

http://librosysolucionarios.net
144 Orden y Caos en Sistemas Complejos

• O < p < 2/3 tenemos otros tres dominios de estabilidad, también correspondientes a las
soluciones de A .2:

1. —\/3 < zq < —1: 3i(Ai) < 0, ^ (A j) < 0, A3 < 0, el punto fijo será estable
2. V 5 < ¿o < 2: 3?(Ai) > 0, 3?(A2) > 0. A3 < 0, el punto fijo será inestable
3. —1 < ¿o < 0: 9í ( A i ) < 0, 3? ( A 2 ) < 0, A3 > 0, el punto fijo será también inestable

• p > 2 /3 = > zq > 2 y resulta en este último caso 3?(Ai) > 0, A2) > 0. A3 < 0, y el punto
fijo será inestable.

Estudiaremos a continuación la variedad centro que se produce cuando el parámetro p pasa


de ser positivo a ser negativo. Obsérvese en la relación anterior que cuando p — 0 se obtiene que
el punto fijo x “ (p = 0) = ( 0, 0, 0) tiene asociados dos valores propios nulos (con cual aparecerá
una variedad centro de dimensión dos) y un valor propio positivo (correspondiente a una variedad
inestable unidim ensional).
Necesitamos en primer lugar escribir el sistema A . 1 en form a de Jordán (o form a norm al), para
lo cual utilizaremos el cam bio que proporcionan los vectores propios y aplicaremos una traslación
en la variable 2 ,

x' — ix — y

y' = - i x - y

z' = z + p

y así podem os escribir el sistema A .l en la forma

x = ( iw — p )x + x z

y = ( - i w - p) y + yz

¿ - p) 3 ~ yx ( l + *| (y - x ) + e ( = - p )) (A.3)

donde se han suprim ido las primas por com odidad. Vem os que la variedad centro está determinada
por las dos primeras variables, x e y. Localmente, sabem os que en la variedad centro se puede
escribir la variable z com o función de x y de y. Consideremos un desarrollo de z a segundo orden
com o función de x e y para encontrar, siguiendo las ecuaciones dinámicas A .3, la ecuación a segundo
orden que corresponderá a la variedad centro,

2 = ap2 + bpx + cpy + d x 2 + f x y + gy2 + 0 (3 )

donde a , b , c , d , f , g son coeficientes que han de ser determinados. Por sustitución directa en

¿ = z ~ ~ P)3 ~ yx ( l + ¿| (y - x) 4- e(z - p ))

e igualando ios términos con las mismas variables obtenem os ecuaciones que nos permiten calcular
los coeficientes del desarrollo de z (indicamos al principio el término que produce cada ecuación),

http://librosysolucionarios.net
A tra etores Periódicos y Cuasjperíódicos 145

• x 2: 2diw — d = > d — O

• y2: —2giu' = g = > <7 = 0

• «t/: /¿a; - /¿iü = / — ] =4>/ = 1

A sí que obtenem os que, loc.-ilmente (para p s s ü), y a segundo orden

z~ xy

y podem os escribir las ecuaciones de la dinám ica reducidas a la variedad centro com o

i = (iw ~ p )x +- x l y

y = ( - i w - p) y + x y 2

En este caso particular se puede ver que no es posible determinar la estabilidad del punto fijo
con la aproxim ación a segundo orden, lo cual haría necesario el cálculo de la variedad centro a un
orden superior si éste fuese nuestro propósito. Se ha visto el mecanismo esencial: desarrollo de z en
función de x, y y p al orden deseado y, siguiendo las ecuaciones dinámicas, cálculo de la variedad
centro. Se puede encontrar en la bibliografía especializada los teoremas que perm iten establecer la
estabilidad del punto fijo en cada caso.

B ibliografía
Jun to con algunos de los textos citados en el capítulo 2, se puede consultar

1. J. Guckenheimer y P. Holmes N onlinear Oscillations, Dynamical Systems and Bifurcaiions


o f Vector Fields. Springer-Verlag, New York, 1983.

2. Y . A . Kuznetsov, Blements o f Applied Bifurcation Theory. Springer Series in Applied Math-


ematical Sciences, voi. 112, New York, 1995.

3. E. Otr. Chaos in Dynamical Systems. Cam bridge University Press. 1993.

4. L. Perko, D ifferential Bquations and Dynam ical Systems. Springer Series in T exts in Applied
M athematics, vol. 7, New York, 1991.

5. S. Wiggins, Introiuction lo Applied N onlinear Dynamical Systems and Chaos. Springer-


Verlag, New Y ork, 1990.

http://librosysolucionarios.net
Capítulo 5

Caos Determinista

Hornos analizado en capítulos anteriores el com portam iento de sistemas que exhiben atractores
p e riód icos o puntuales. Los ejemplos dados hacen referencia p or lo tanto a sistemas intrínsecamente
pr-: decibles. En este sentido, se asumió desde el principio la validez de la im plicación:

D eterm inism o Predicción

L as herramientas básicas presentadas anteriormente nos permiten en m uchos casos con ocer la
d in á m ica de las soluciones, cuanto menos en las proximidades de los puntos críticos. A la pregunta
ce si son éstas todas las soluciones posibles o suficientes en nuestra descripción de la realidad, la
resp u esta es, com o veremos, decididamente negativa.
L a cien cia ha tendido a clasificar los fenómenos naturales en dos grandes grupos, atendiendo
a nuestra capacidad de explicar su com portam iento. En uno de ellos se hallan fenóm enos que
e x a ib e n , en una u otra forma, com portam ientos simples, ya sean estos estados estacionarios o
p eriód icos. Para estos problemas se dispone de un formalismo com o el anterior, y podem os predecir
d ificu ltad el futuro del sistema. Aparece aquí una segunda implicación, intuitivam ente clara:

Dinám ica sim ple = > M od elo simple

c a r . im plícitam ente, hizo válido que se asumiera la implicación contraria:

M od elo sim ple = > Dinám ica simple

P or otra parte están aquellos sisteméis que se com portan de forma com pleja y que estudiamos
•ru:.pleando fundamentalmente herramientéis de tipo estadístico. Para estos sistemas renunciamos
a una descripción detallada y nos contentamos con promedios que, aunque pobres en detalle, nos
■-L2 cu a n to menos algún tipo de inform ación. La conclusión implícita en esta separación fue que la
0 reservación de una dinámica com pleja e irregular en un sistema cualquiera era debida a una com-
c Itiid a d interna del mism o sistema. Si observamos un fluido turbulento, la com pleja estructura de
1 rem olinos nos da un ejemplo de esta idea. Las oscilaciones irregulares de poblaciones naturales.
-•:* ca m b ios en el clima y el registro de la actividad cerebral serían buenos ejem plos adicionales.
T-í adrem os oportunidad de volver a ellos más adelante. Lo que nadie esperaba, y que en gran
m e d id a ha transformado nuestra form a de observar y com prender el universo, es que la m ayoría de
. :s sistem as "com plejos” , que se habían supuesto com o únicamente descriptibles m ediante métodos

147

http://librosysolucionarios.net
148 Orden y C aos en Sistemas Com plejos

estadísticos, son debidos a un fenómeno de baja dimensión, de carácter determ inista y que recibió
el nombre de “ caos” .
La existencia de este fenómeno ha pulverizado la implicación anteriormente indicada acerca de
la capacidad de predecir cuando existe determinismo. Com o veremos, si la dinám ica del sistema
presenta caos, determ inism o no implica predicción. Y más aún: la im plicación acerca de la sim­
plicidad del com portam iento de los modelos simples tam poco se cum ple. Los m odelos caóticos
que analizaremos son enormemente simples, limitados incluso a una sola ecuación. Sin embargo,
poseen en su estructura interna la capacidad de generar una com plejidad asombrosa.

5.1 A tra c to re s extraños


Partamos nuevamente de nuestro sistema dinám ico que, com o sabemos, puede ser descrito geomé­
tricamente a través de su atractor asociado. Consideremos un ejem plo clásico que nos permitirá
introducir el con cepto de caos y un nuevo atractor. Este sistema, con ocid o com o modelo de Lorenz,
se define por:

~ - - a { x - y ) (5.1.1)

~ ~ ’-t -- y ~ z z (5.1.2)

~ = b : + xy (5.1.3)

y describe de manera esquemática la dinámica de una capa de fluido que presenta una diferen­
cia de temperatura A T entre sus superficies inferior y superior. Este sistema es bien conocido
clásicamente: para A T bajos, el fluido transporta el calor por con du cción . Para un cierto valoi
crítico, el fluido enera en régimen convectivo, y aparece una estructura espacial (ya indicada en
el capitulo anterior) que es reemplazada finalmente p o r un com portam iento turbulento para una
diferencia aún mayor. Este com portam iento desordenado aparece en el m ism o sistema que da
lugar a los otros com portam ientos. No hemos m odificado la estructura del sistema (que sigue
siendo simple) y sin em bargo algo nuevo (y aparentemente muy com plejo) tiene lugar.
Estudiaremos en primer lugar la estabilidad de las soluciones. N otem os que el sistema es
siempre disipativo (véase el capítulo 1 ) puesto que para un volumen arbitrario V , se tiene:

d . d . d .
dt V — divFp = + “5“ y + ~ñ~x
OX O ’l oz

puesto que las constantes se definen positivas. El volumen se contrae p or lo tanto exponencialmente
con el paso del tiempo.

5.1.1 Lorenz: puntos críticos y estabilidad


En primer lugar estudiaremos los puntos críticos del m odelo de Lorenz y su estabilidad local.
Partiendo de las ecuaciones del m odelo 5.1.1, 5.1.2 y 5.1.3, los puntos fijos del sistema son:

A'i = ( 0, 0, 0)

A-± = ( ± v/ R 7 = ' I ) . T v / & ( r - l ) , r + l )

El primer punto corresponde físicamente a la situación de fluido estable, sin m ovim iento y con
transporte de calor p or conducción. La matriz asociada al sistema lineal será:

http://librosysolucionarios.net
C aos D eterm inista 149

Figura 5.1: Orden y caos. Clásicamente el orden queda ejemplificado por el ritm o regular de un
reloj (que n o es más que un oscilador armónico simple). El caos, representado por la torm enta, fue
entendido com o e! azar imprevisible. Para com prenderlo, deberíamos ser capaces de con ocer en
detalle tod as las variables implicadas, algo virtualmente imposible de realizar. El caos determinista,
sin em bargo, ha m odificado completamente esta visión.

{ —<7 a 0 \
L(Xi) = I r •- 1 0
V 0 0 ~b)

que nos p roporciona los valores propios:

A l,2 = ± I v V + i p + ^ r - i y

A3 = —6

A’ i será estable si 3?(A¿) < 0, lo cual implica r £ (0 ,1 ), e inestable en consecuencia cu an do r > 1.


Los valores propios evidencian un punto crítico que se com porta, para r > 1, com o un punto de
silla tridimensional.
La con vección de Bénard (su equivalente en este m odelo) se inicia en r = 1, donde Ai = Ü. y
aquí X ± entran en escena. Haremos a continuación un análisis más detallado del com portam iento
de estos puntos. Realizaremos el cam bio de coordenadas (véase el capítulo 2)

x’ = x {ó (r — l ) } 1^2

xf = y i f { f c ( r - 1 ) } 1/2

*' = * - ( r - l )

con lo cual las ecuaciones lineaiízadas son ahora:

http://librosysolucionarios.net
150 Orden y Caos en Sistem as C om plejos

dy

di = x - y T e
d z
= ±e(x + y ) - b z

donde se han suprimido las primas por comodidad y se ha definido e - y/b(r — 1 ).


Los valores propios se obtendrán dei polinomio característico:

P( X) = A 3 + ( o - + 5 + l ) A 2 + ¿(<r + r) \ + 2 b o { r - 1) = 0

Para analizar la estabilidad de esta ecuación podem os recurrir a métodos num éricos o emplear
cierta álgebra simple (aunque algo intrincada). Notemos que todos los coeficientes de P ( A) son
positivos, ya que imponemos r > 1 para que AV y A _ existan. Tenemos así P ( A) > 0 para
cualquier A > 0. Tendremos inestabilidad (es decir, 5?(A) > 0)
únicamente si existen soluciones
A € C com plejas conjugadas en P {\ ) = 0. Es fácil ver que si r = 1,

Ai = 0, A; = —6, A3 - —(tr 4- 1)

y tendremos estabilidad marginal. Para r > 1 tenernos inestabilidad para algún u en el que
•R(A) = 0, y por tanto Ai = iu> y A2 = ~iw. Ahora bien, la suma de los tres ceros de la ecuación
cúbica es:

Ai + A2 + A3 = —
(cr+ b+ 1 ) < 0
y por lo tanto

A3 = -(cr+ 5 + 1) < 0

En el punto de inestabilidad, A i,2 = ± h + y puede probarse en ese punto que

o {<7 + 5 + 3)
r ~ r c = --------------
cr — b — 1

y tendremos inestabilidad para aquellos pares { o . 5} tales que rc > 1. Los puntos críticos X ± serán
estables si
o- < 5+ 1 y r > i

o bien si
cr > 6 + 1 y rc > r > 1

Si se da la inestabilidad, sucede lo siguiente a medida que r aumenta desde 1: Ai decrece, desde


cero hasta que “colisiona’1 con A2 (cuando Ai = A2 < 0), se convierten en una pareja com pleja
conjugada, y finalmente su parte real se hace positiva. A3 permanece negativo para tod os los valores
r > 1. C ada uno de los dos puntos A + y A’ _ tiene un valor propio negativo y dos con parte real
positiva y com plejos conjugados, cuando nos hallamos en la zona de inestabilidad. La dinámica
se localiza sobre órbitas que se acercan al punto fijo en la dirección determ inada por la variedad
estable asociada a A3 y se alejan en forma espiral sobre la variedad inestable que determinan Ai y
A2-
Podem os, pues, hallar ciertas combinaciones de parámetros que arrojarán inestabilidad para
los tres puntos fijos, A j. A + y AT_, y entonces, dado que la dinámica está a cota da en el espacio
de fases y no divergirá a infinito, se presentarán situaciones dinámicas com plejas, corno en el caso
siguiente, lo cual hace necesario recurrir a partir de aquí a un análisis global de la dinámica.

http://librosysolucionarios.net
Caos Determinista 151

30

1 (H

-to

- 10 :

-3 0 -
500 1 00 0 1500 2000 2500
t i e m p o

Figura 5.2: (a) A tractor extraño para el sistema de Lorenz (véase el texto), (b ) Series temporales
correspondientes a las variables x(t) y z(t).

Supongam os que tom am os las siguientes constantes, r — 28, cr = 10, b = 8 /3 y analizamos


numéricamente el com portam iento de las soluciones. Nuestro sistema es determ inista y, sin em­
bargo, exhibe una dinám ica de gran complejidad, que, de hecho, es totalm ente aperiódica. La
existencia de determinismo (y de un número reducido de dimensiones) queda patente cuando es­
tudiam os la estructura del atractor, que vemos en la figura 5-2. Si siguiéram os la trayectoria de
una condición inicial dada a lo largo del tiem po, veríamos que se mueve sobre este o b je to de una
form a errática, pasando de un lado a otro de form a aparentemente caprichosa. El atractor tiene
volum en cero, y su dimensión estará por d eba jo de d = 3. ¿Se trata de algún ciclo límite muy
com plicado, restringido a un subespacio de dimensión d — 2? No: el a tra ctor de Lorenz es un
atractor extraño, un nuevo ob je to de una estructura muy intrincada. En su interior encontraremos
fractales, extrañas propiedades y, sobre todo, un nuevo fenómeno que nos acercará a uno de los
problem as más apasionantes de la com plejidad: el caos determinista. A ntes de volver al atractor
de Lorenz, daremos un rodeo alrededor de los sistemas discretos.

Señalemos que Edward Lorenz partió en su estudio inicial de sistemas de m ayor com plejidad,
form ados por 14 ecuaciones (Lorenz, 1995), que fue simplificando progresivam ente. En 1971, tras
asistir a un congreso acerca del problema de la turbulencia y oír a David Ruelle, que acababa de
publicar un artículo ju n to con F. Takens (titulado “sobre la naturaleza de la turbulencia” . Ruelle
y Takens, 1971) en el que por primera vez aparecía la expresión “ atractor extraño” , Lorenz llevó
a ca b o la última simplificación que convertiría su sistema en un m odelo tridimensional (véase
apéndice). Como señala Lorenz, ésta es una representación muy simplificada de la realidad, pero
si este m odelo exhibiera un com portam ento que, en alguna forma, fuera im predecible, entonces tal
vez el clim a real pudiera serio por motivos distintos a los que supondríamos (esto es, un conjunto
enorm e de variables). Lorenz empleó el ordenador para resolver el sistema, y vio algo realmente
sorprendente: su sistema, totalmente determinista, era completamente aperiódico. Jamás se repetía
y, lo que era aún más sorprendente, era intrínsecamente impredictible. El caos determinista había
entrado en escena una vez más. Esta vez, de form a definitiva.

http://librosysolucionarios.net
152 Orden y Caos en Sistemas C om plejos

x(n )

Figura 5.3: Diagrama de iteración de la aplicación logística para p — 2.< (véase el texto).

5.2 D uplicación de p erio d o : f p ( x ) = fi x( 1 — x)

En esta sección nos detendremos a explorar el com portam iento de uno de los sistemas dinámicos
más simples con ocidos: la ecuación logística (May, 1976). Este sistema discreto unidimensional,
que ya fue introducido en el capítulo de sistemas dinámicos, está definido por:

x n+\ - f ( i ( xn) = p x n( l - x n) (5.2.1)

siendo p E [0,4] un parámetro y x n G [0, 1] (aunque algunos textos'exploran el com portam iento
para valores mayores, véase Devaney, 1986). El sistema logístico puede generar com portam ientos
dinámicos de extraordinaria com plejidad.
Ya vim os que el punto fijo x* = 0 es estable para p < 1 e inestable en caso contrario. En
p — 1 aparece un nuevo punto crítico, x" — 1 — 1 ¡ p que permanece estable dentro del intervalo
p € (1. 3). Más allá de p = 3, este punto deja de ser estable. La estabilidad de estos puntos puede
analizarse em pleando diagramas de recurrencia (x n, x n+ i) com o los que se indican en la figura
5.3. Dibujam os la curva logística f M( x ) dentro del intervalo unidad, así com o la recta bisectriz
£n+i = £fi* Observemos que dicha recta intersecta a la curva logística en dos puntos, que son
de hecho los puntos fijos antes indicados. El procedimiento para iterar sobre este diagrama es el
siguiente:

• Partim os de una condición inicial dada xo (un punto del eje horizontal. x „).

• Trazam os la recta que va hasta el valor de la imagen de Xq, esto es, un punto sobre la curva
logística de valor X\ — /^ (x o ).

• El nuevo valor sirve de condición nuevasobre la que iterar. En lugar de volver al eje horizontal,
simplemente trazamos la recta horizontal que va del último punto a la recta bisectriz, y
repetimos la iteración para alcanzar de nuevo la curva en x-i — /^ ( x j) .

• Iteramos siguiendo los pasos anteriores.

En la figura 5.3 podem os ver el resultado de nuestro experimento numérico: la trayectoria


forma un diagram a que converge hacia el punto fijo x* = 1 — 1/p. Este punto es estable, com o
queda de m anifiesto en el com portam iento de las iteraciones sucesivas.

http://librosysolucionarios.net
Caos Determ inista 153

Figura 5.4: (a) Diagrama de iteración para ¡i — 3.2, que muestra com portam iento p eriódico. En
las proxim idades del punto fijo x£, la órbita se desplaza alejándose de este valor (que es inestable)
para alcanzar alternativamente los puntos x i y x 2■ (b) Diagrama de bifurcación correspondiente.

Para /i > 3, el punto anterior se hace inestable. Si empleamos el diagrama de recurrencia


anterior, encontram os que esta inestabilidad conlleva la aparición de dos nuevos puntos sobre la
curva logística, que dan lugar de hecho a una trayectoria periódica, a una órbita de p eriod o dos

O (2> - { x i , x 2}

esto es, a un par de puntos tales que:


* i = U ( x i)
x 2 = U ( x i)
o, lo que es lo mismo.

= f v 2)(x 0 = f v [ U { * i )

*2 = f¡[2){ x 2) =

El punto fxc — 3 es un punto de bifurcación y a este tipo particular se la denom ina bifurcación
con duplicación de periodo. En general, los puntos fijos de una órbita p-periódica form an un
conjunto:
O l P) = { x - (p) ; i = 1 , . . . , p | z * (p) = / ‘ p ) « (pl

que, para el caso que nos ocupa (p = 2), se obtienen de la ecuación:

* ' = / í 2>(**) = /„[/« .(* •

esto es, para el caso logístico,

x" — = p x ‘ ( l - x*) 1 - p x " ( 1 — x*

lo que nos da una ecuación de cuarto grado (haremos x* = x):

- p 3x4 + 2p 3x 3 - ((i2 4- p 3)x 2 + (p 2 - 1 )x = 0

http://librosysolucionarios.net
154 Orden y Caos en Sistemas Com plejos

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
x ( n ) x ( n )

Figura 5.5: (a) Diagrama de iteración para f ) ? \ x ) con (a) ¡x — 2.8 y (b) p = 3.2 (b ). Vemos la
aparición de dos nuevos puntos fijos correspondientes a la órbita periódica.

aunque esta ecuación sería en principio difícilmente resoluble, dos de sus soluciones son ya cono­
cidas: r j = 0 y i ¡ = 1 — l//¿ , puesto que ambas verifican (trivialmente) las condiciones de la
ecuación de partida. La primera solución permite obtener:

~ p 3x 3 + 2p3x 2 - ( p2 + p 3) x + ( p 2 ~ 1 ) = 0

M ientras que, dividiendo esta ecuación por (x — x£), obtenem os una ecuación cuadrática:

- p 3x 2 + 2¡i3x - ({i2 p 3) = 0

lo que nos lleva a obtener las dos nuevas soluciones a partir de

esto es,
(p + 1 ) ± y/p2 - 2 / 1 - 3
X1,2 2p.
En la figura 5.4 (a) representamos el diagrama de recurrencia para p. — 3.2 ju n to con el cor­
respondiente diagrama de bifurcación (figura 5.4 (b )). Com o es habitual, indicam os con lineas
discontinuas las soluciones inestables y mediante lineas continuas las estables. No olvidem os que
ahora las ramas que aparecen a am bos lados de x* = 1 — l/fj forman parte de la órbita periódica.
Podem os representar esta situación mediante un nuevo diagrama de recurrencia, ahora el cor­
respondiente a los puntos ( x n , x n+ 2 ) (figura 5.5). La curva es ahora que, com o vemos, tiene
un com portam iento algo más com plicado. Los puntos fijos de la aplicación / ¿ 2)(x ) aparecen ahora
eu las intersecciones entre la nueva bisectriz x n+2 = x n y la curva. Para valores inferiores a p ~ 3,
sólo aparecen dos puntos que corresponden a los dos puntos fijos de Para ¡ 1 > 3, surgen las
nuevas soluciones que se mantendrán estables hasta un nuevo valor p'c.
A medida que p aumenta, la amplitud de las oscilaciones en la ecuación logística crece (com o
vem os en el diagrama de recurrencia). Más adelante se da una nueva perdida de estabilidad,
la cual genera una órbita de periodo cuatro. Estas bifurcaciones con duplicación de periodo se

http://librosysolucionarios.net
C aos Determ inista 155

dan sucesivamente y con m ayor rapidez, de form a que aparecen com portam ientos periódicos de
periodos S. 16. 32, 2 ". Las órbitas que se han hecho inestables serán, com o antes, soluciones de
las nuevas ecuaciones de los puntos fijos de las nuevas órbitas, de forma que, a m edida que aum enta
el valor del parámetro, el núm ero de órbitas periódicas inestables va creciendo con rapidez. En la
figura 5.6 vemos el diagrama de bifurcación con duplicación de periodo (descrito por primera vez
p or May y Oster, 1976) en el que se aprecian las propiedades ya indicadas.
La estabilidad de las órbitas de periodo arbitrario puede obtenerse a partir del estudio de la
aproxim ación lineal a la aplicación f¡? \ de manera similar a com o se estudia la estabilidad de los
puntos fijos del sistema de partida. Para p = 2, el criterio de estabilidad se establece a partir de
los puntos fijos que forman la órbita, es decir, x ' = (con i = 1, 2 ).

A(2) =
dx’ 2

esto es, de la desigualdad < 1. Podem os obtener una expresión más manejable em pleando la
regla de la cadena:

X d\ = ( d / ¿ 2)( * A = l d/pQ cA ( fl/y Q c A = f d fA x


dx
v ) xX \ dx JfAxl)\ dx ) , . V
Esta expresión nos permite escribir la forma general del criterio de estabilidad para una órbita
p-periódica arbitraria,

P / % (x )\
a(p)= n dx I
; =1 \ / X’

para la que igualmente tendremos estabilidad siempre que |A*p)| < 1 .

http://librosysolucionarios.net
156 Orden y C aos en Sistemas C om plejos

Un resultado interesante que ya fue iniciahncnte observado por distintos autores (M ay, 1976) es
el hecho de que estas órbitas de periodicidad creciente (que aparecen a través de un proceso de du­
plicación de periodo) se dan en un gran número de sistemas dinám icos discretos unidimensionales.
Así, los siguientes sistemas muestran este com portam iento:

£n+i = J'n e x p ^ f l - x n )^

ax.
r n+ i
[l + *n P
2-n + 1 = sin (xxn)

aunque la aparición de las bifurcaciones tenga lugar en valores distintos y las amplitudes difieran
de las anteriores. Todas estas funciones com parten la exist encia de un único máximo en el intervalo
de definición de x así corno su continuidad sobre dicho intervalo (más adelante veremos que existe
un conjun to bien definido de puntos en común que las agrupa en una clase de universalidad, según
definiremos en el capítulo 7).
Un análisis de la aparición de las órbitas periódicas sucesivas, que generan órbitas de periodo
2n+ 1 a partir de la última órbita de periodo 2n, indica que el límite

6= lim
n -o c p n+ l - p n

(que no es sino el cociente entre las distancias sucesivas en los valores de p que dan lugar a
bifurcaciones con duplicación de periodo), converge a un valor constante dado por <5 = 4.6692. ...
Este es un número trascendente, con ocido com e constante de Feigenbaum (Feigenbaum, 1978).
Observemos que, dado un primer par de valores del parám etro p en los que aparecen bifurca­
ciones consecutivas, podem os llevar a cabo una estimación de los puntos sucesivos p en los que
tiene lugar una bifurcación a partir de la recurrencia:

,
p n ~ P n —1
P n + 1 — P n H------------- ¡f-------------

donde én será:
c P n -i ~ P n -2
Vjl —
Pn ~Pn-1

lo que nos da, empleando el método de Newton, un valor límite para p n dado por

Poc % 3 . 5 6 9 9 4 5 6 . . .

que es, com o vemos, un punto de acumulación para esta serie.


Debem os preguntarnos a continuación qué puede ocurrir más allá de este valor p ^ . El número
de órbitas periódicas inestables ha crecido indefinidamente, de forma que las trayectorias se han
hecho cada vez más complicadas.

5.3 C a o s en sistem as discretos


Más allá del punto poo aparece el caos determinista. En la figura 5.7 vemos dos ejem plos de
diagramas de recurrencia en este dominio, para p = 3.7 y p = 4. Podem os ver el caos en acción y
su efecto sobre la evolución futura del sistema dinámico em pleando dos condiciones iniciales muy
próximas y siguiendo sus cambios a lo largo del tiempo. Tom em os la ecuación logística con p — 4 y
las condiciones iniciales xq = 0.1000 y x fQ — 0. 1001, que sólo difieren entre sí en el cuarto decimal.

http://librosysolucionarios.net
C aos Determ inista 157

Figura 5.7: Caos: aplicación logística en el dominio caótico. Vemos el diagrama de recurrencia
para (a) y, — 3.7 y (b) y = 4.

La separación entre ambas es, por lo tanto, e — 10- 4 . No debemos olvidar que el sistem a dinámico
que empleamos es determinista así que, en principio, tal vez esperaríamos que la evolución de
am bas condiciones iniciales fuera básicamente idéntica al ca b o de mucho tiem po. P odem os ir más
allá: supongam os que estamos modelizando un sistema real perfectamente descrito p or la ecuación
logística. Imaginemos que nuestro m odelo parte de x'0 = xo + f que. de hecho, puede imaginarse
com o una estimación de Xo (el estado “real” ) con un error e. La pregunta es en qué m edida se verá
afectada nuestra predicción por el error inicial.
En la figura 5.8 (a) vemos el resultado de nuestro experimento numérico. C om o era de esperar,
inicialm ente ambas trayectorias se solapan entre sí, sin prácticamente ninguna diferencia apreciable.
En esta escala temporal podem os decir que nuestra predicción de la evolución del sistem a es buena, y
este resultado encaja con nuestras expectativas acerca de lo que implica el determ inism o. Pero muy
p o c o tiem po después observamos que la separación entre ambas trayectorias crece enormemente.
P od em os dar una medida de la separación absoluta mediante la variable:

que también hemos representado, en la figura 5.8 (b). Observarnos que. aunque z\t) fluctúa enorme­
m ente (y por tanto cada trayectoria es básicamente independiente) su valor prom edio el relativa­
mente alto. Esta situación es general en los sistemas dinámicos que exhiben caos: son sistemas
que presentan sensibilidad a las condiciones iniciales (S C I). Com o veremos, existe una conexión
profunda entre las propiedades topológicas de los atractores extraños y esta SCi.
Formalmente, podem os definir esta SCI en la forma:

Definición

Direm os que la aplicación f p ' . U —t U tiene sensibilidad a las condiciones iniciales (SC I) si l :

36 > 0 ; Vx € U, V B (x ). 3 { y € B { x ) , n > 0 }

1 B { x ) es u n a b o la ab ie rta q u e con tie n e a x . V éase la sección 3 .3 .

http://librosysolucionarios.net
158 Orden y Caos en Sistemas Com piejos

tle m p o

Figura 5.8: Sensibilidad a las condiciones iniciales para p = 4. (a) Se indican dos órbitas que
difieren en el valor de sus condiciones iniciales. Aquí, la primera parte de xo — 0.1000 (línea
continua) y la segunda de x'0 = 0.1001 (trayectoria discontinua), (b ) Diferencia (en valor abso­
luto) entre am bas trayectorias. Esta diferencia, que fluctúa enormemente con el tiempo, define la
existencia de sensibilidad a las condiciones iniciales.

tales que
l/» ~ /;(y )l
En forma intuitiva: la aplicación es sensible a las condiciones iniciales si existen puntos arbitrari­
amente p róxim os a x que se separan al menos en <5 bajo n iteraciones de la función / p .
¿C óm o se traduce este com portam iento en el diagrama de bifurcación de la aplicación logística?
En la sección anterior nos habíamos detenido en los límites de la secuencia de bifurcaciones que,
com o vimos, posee un punto de acumulación para cierto valor p ^ . Si continuamos nuestra repre­
sentación de Las órbitas del sistema para valores superiores, vem os por primera vez la estructura
deí diagrama en la región caótica (figura 5.9 (a )), que posee una extraordinaria com plejidad. Las
regiones som breadas corresponden a órbitas aperiódicas (caóticas) que aparecen salpicadas por
ventanas de p eriodicidad de mayor o menor tamaño. Si llevamos a ca b o una ampliación de un
detalle de una de estas ventanas (figura 5.9 (b )) nos encontramos con una sorpresa: el diagrama de
bifurcación anteriorm ente obtenido aparece nuevamente a esta escala de detalle y, de hecho, puede
ser obtenido unía y otra vez, con toda su com plejidad, a partir de detalles de diagramas sucesivos.
Pese a su simp-licidad, la ecuación logística esconde una com plejidad asombrosa.
Podem os iñustrar esta definición con un ejem plo formal simple. Consideremos el sistema
dinámico (M artín et al., 1994)
I n+ l — f ( x n) — x n

demostraremce? que, dentro del intervalo U = [ l .o o ) este sistema simple (pero no-lineal) exhibe
SCI. Para el intervalo U empleado, la órbita que parte de cualquier punto xq > 1 diverge a infinito.
Tenemos:
lim f n( x ) = lim x 2n — oo ; xo > 1
n—oo n—cc

http://librosysolucionarios.net
Caos Determinista. 159

Figura 5-9: Diagram a de Feigenbaum. (a) Diagrama para distintos valores de p desde el dominio
periódico a los límites del dominio ca ótico. En (b ) indicamos una am pliación de un pequeño detalle
del primer diagram a, obtenido de una parte de la ventana periódica.

(y tom a el valor constante 1 si xo = 1 )-


Sea ¿ > 0, 1 > e > 0 y i í [0 ,o o ). Cualquier punto arbitrario y £ ( x^x + e) verifica la
desigualdad
|y - A < f

y, por el teorem a del valor medio, tenem os que

ir (y) - fn(x)\ = \dxr(x)\^\y-x\


donde <£ 6 ( x, x 4- f) y es un punto arbitrario en este intervalo, que existe tal que la condición
anterior se verifica. Aplicando la regla de la cadena.

df»(x:
dx

Ahora, puesto que f ' { x ) = 2x > 2 (y a que x > 1) y dado que

{/*=(€) ; fc = 0, . . . . o o } c [ i , o o )

se verifica que ( / " ) '( £ ) > 2" , luego

i r (y )-/"(*)!
y se verifica 2n \y — x\ > 1 si

" ln(2 )
Por tanto, para el valor de n que verifica la condición anterior se obtiene una separación entre
las dos trayectorias superior a e,

http://librosysolucionarios.net
160 Orden y Caos en Sistem as Com plejos

l /" ( y ) - > 1 > f

esto es, el sistema anterior presenta sensibilidad a las condiciones iniciales, com o queríamos de­
mostrar.

Debe quedar claro del últim o ejemplo que la sensibilidad a las condiciones iniciales es carac­
terística de los sistemas que exhiben caos determinista (con cep to que iremos definiendo). Aunque
el ejem plo anterior es ilustrativo, no lo es de manera com pleta: el sistema dinám ico anterior no
está acotado com o lo estarán los sistemas dinánúcos de ínteres que analizaremos (co m o es el caso
de la ecuación logística). La existencia de un atractor acotado a cierto dom inio del espacio de fases
será un requisito claro a exigir.

5 .4 E xp on en tes de Lyapunov
Hemos definido con anterioridad el con cepto de atractor extraño ligando la geom etría de estos
objetos a la sensibilidad a las condiciones iniciales. El carácter disipativo de la dinám ica garantiza
la convergencia de las trayectorias dentro de la cuenca de atracción hacia cierta región acotada
del espacio de las fases que, com o ya vimos, define la dinámica del sistema y nos da una imagen
del orden (y del deterninism o) subyacente. Por otra parte, la sensibilidad a las condiciones ini­
ciales hace que dos puntos inicialmente próximos situados sobre el atractor se alejen de manera
exponencial con el paso del tiem po. El resultado de ambas tendencias da lugar a un proceso de
estiram iento-y-plegado que origina las propiedades fractales ya comentadas. Verem os ahora cóm o
cuantificar, desde el punto de vista de la dinámica del sistema, la divergencia (y p o r tanto la in­
estabilidad local) de las trayectorias. Emplearemos para ello los exponentes de Lyapunov, que nos
permitirán conectar con la geometría del atractor a través de su proceso de form ación.
Para introducir el con cep to de exponente de Lyapunov, emplearemos co m o ejem plo una
aplicación unidimensional que extenderemos a continuación a un ejemplo bidimensional. Consid­
eremos la aplicación .rn+ i = Ffl( x n) con la expresión F^ = p x ( l — a:) y definida sobre el intervalo
unidad U = [0, Ij. Dadas dos condiciones iniciales muy próximas, el com portam iento de ambas
diverge, en el régimen ca ótico, de una forma rápida que podem os cuantificar.
El ejem plo nume'rico anterior, que estudiábamos para la ecuación logística con p = 4, tiene
sus contrapartidas equivalentes en otros sistemas dinámicos caóticos disipativos, co m o el m odelo
de Lorenz. Consideremos ahora el problema en términos generales, manteniendo por ahora la
aproxim ación 1-dimensionaJ. Tom em os dos condiciones iniciales Xq, x o - U separadas una distancia
f < l , con lo que podem os escribir de hecho j,1, = j-q y Xq = xo + e. Tras n iteraciones de F^, estas
condiciones iniciales habrán evolucionado hasta los nuevos puntos definidos por

*i F J U o)

J-2 ~ ^ (¿'¡1 + f )
La separación inicial e habrá incrementado su valor en un cierto factor, digamos

■- c G( x u, n)

que indicaremos en la forma:


G ( x 0. n) = <rnAí*o)

siendo A(xo) el llamado exponente de Lyapunov. Se tiene por tanto que:

http://librosysolucionarios.net
Caos Determ inista 161

que nos da, tom ando el limite para n —» oo y e —<- 0:

. 1 , \Fm(x o + f ) - F £ ( * u )
A(xo) — lim lim — ln
n — o o < — 0 TI

que obviam ente se reduce a la expresión:

A(xo) = lim - ln
n — c c 71

En este contexto, es el factor (prom ediado) de divergencia entre condiciones iniciales próximas
tras n = l iteraciones. Una expresión más simple se obtiene manipulando la expresión anterior:

d d
A(xo) = lim — ln = lim - ln o )))
« —*oo n d x0 n—cc n d io

y dado que
(d*F¿(x)lo = F '^ x ^ F '^ z o )

con Xx = Ftt(xo), reescribimos A(xo) en la forma:

n—1
A(xo) — lim - ln
n —oo n n
1=1

o lo que es lo mismo:
1 n_1 i
A(x0) = lim - ^ ln ¡ di F^Xj ) (5.4.1)
n—oc 71 ' I
i=0

Si bien esta últim a expresión no nos permitirá (en general) obtener resultados analíticos, es de
fácil m anejo en lo que al cálculo numérico se refiere, y permite observar propiedades cualitativa
y cuantitativamente relevantes. C om o ejemplo (figura 5.10) tomemos la aplicación logística y
calculem os el valor de A para distintos valores de p, promediando N = 5000 iteraciones tras
eliminar los primeras r = 1000. El procedimiento de cálculo seguido, explícitam ente, es:

• Dam os un primer valor de p y una condición inicial (digamos x = 0 .1 ) que emplearemos para
obtener una serie de valores.

♦ Iteramos la aplicación /^ ,(xn) = p x „ ( l —x « ) durante N + t pasos de tiem po, descartando los


primeros r (para evitar incluir el com portam iento transitorio). Tenemos entonces una serie

Sp — { x r_ j.i,...,x r.j.jv}

* Para cada uno de los valores obtenidos Xj € SM. calculamos el valor de

ln |3r /^(xj)| = ln JpXj(1 - x j )|

valor que iremos sum ando para todos los x.j £ SM hasta obtener el prom edio temporal, lo que
nos dará una estim ación del exponente de Lyapunov.

Repetim os el procedim iento anterior para un nuevo p.

http://librosysolucionarios.net
162 Orden y Caos en Sistemas C om plejos

W . x v- •^ i . v KJ - 0 .0 » O .C ' \J. o sJ. O * * . V.

Figura 5.10: A plicación logística: Exponentes de Lvapunov. (a) Exponentes obtenidos para p £
(3.4, 4.0) en los que apreciamos una transición hacia valores positivos para p > p~c que aparecen
salpicados de un gran número de caídas hacia valores negativos o nulos que indican la presencia
de órbitas periódicas, (b ) Ampliación de la gráfica anterior, para p € (3.85, 3.95).

Podem os observar la existencia de una zona de exponentes positivos que corresponde a los
valores de p del dom inio caótico. Previamente, podem os observar las últimas etapas del escenario
de Feigenbaum. Los puntos para los que A = 0 corresponden a los puntos de bifurcación (de
estabilidad marginal). Una propiedad especialmente interesante es la existencia de "ventanas”
periódicas entremezcladas en la zona caótica. De hecho, si ampliamos un detalle cualquiera de
este dominio (véase fig. 5.10 (b )), aparecen otras ventanas. Este hecho conlleva la inestabilidad
estructural del caos en este sistema: cualquier entorno de un p con un exponente asociado positivo
contiene puntos periódicos. Este fenóm eno, com o veremos, no tiene contrapartida en los m odelos
que incluyen el espacio físico en forma explícita.

5.5 La aplicación triangular


Existe un sistema dinám ico discreto unidimensional especialmente interesante debido a su sim pli­
cidad y a la posibilidad de obtener, de forma analítica, su exponente de Lvapunov asociado. El
sistema en cuestión está definido por la aplicación:

Xn+l = f A x n) = / í ( l - 2 “ ín )
2

donde p £ (0 ,1 ). Podríam os reescribir esta aplicación en dos partes, esto es.

x n + \ = 2p x n para x n < 1/2 y x n + 1 = 2 p{ l - x n ) para r,n > 1/2

Esta función se representa en la figura 5.11, en la que hemos indicado además la trayectoria del
sistema para cuatro valores distintos de p. E xcepto para el primer caso, los otros tres muestran una
dinámica com pleja. Demostraremos que, efectivamente, se trata de caos determinista (exponento
de Lvapunov positivo).

http://librosysolucionarios.net
Caos Determ inista 163

1.00

0.80 -

'0 .6 0 -

X 0.40 - 08615483

0.2 0 -

x(n )

Figura 5.11: Aplicación triangular: diagramas de recurrencia para y = U.7 y para /¿ = L.

Para esta función, el cálculo de la derivada nos da, para cada subintervalo {0, 1 /2 ), (1 /2 .1 ).
los valores fx y —/i, respectivamente. Si empleamos la expresión del exponente de Lyapunov 5.4.1,
obtenemos
1 i
A¿ = lim - y ^ l n \dXtf u{ x i )
n — oo IX \
i=:0
^"-i •
= íim - E l n M = ln0 i)
n — oo n ¿ '
1=0

que será positivo si ¡x > 1 /2 y negativo en caso contrario. Así, más allá de ¡j.c — 1 /2 este sistema
siem pre mostrará caos. Aunque la aplicación triangular es un sistema dinám ico m uy simple, sus
propiedades (así com o las de otros sitemas similares) la hacen, com o veremos, de enorm e ínteres
en nuestro estudio.

5.6 Sistem as discretos : d > 1


Los resultados previos pueden obtenerse en sistemas discretos de m ayor dimensión. Para estos
sistemas, definidos ahora por un con ju n to de ecuaciones discretas del tipo

+i )

con x n = ( .r * ,..., *{() y fu = ( ■ • ■ , / £ ) tendremos también com binaciones de parám etros que
darán lugar a dinámicas enormemente complejas. Un ejem plo de éstas ya se vio en el capítulo 2.
en el que se m ostraba la dinámica del m odelo de Lotka-Volterra

z n + i = fiXn( l - x n - y n )

í/n + l = fTXnyn

el cual exhibe atractores de gran com plejidad para ciertos intervalos de valores de //.

http://librosysolucionarios.net
164 Orden y Caos en Sistemas Com plejos

Figura 5.12: Deformación de un entorno de condiciones iniciales bajo la acción del flujo de sistema.

La estabilidad de los puntos de equilibrio se analiza de forma similar a lo que ya se vio con
anterioridad. El sistema lineal asociado en las proxim idades de un punto fijo dado será:

y, por analogía con lo anterior, y empleando notación vectorial, tenemos

x„ = ( I I J t fd jíJ n x o
V k= o /

siendo J k ( d j F p la matriz de Jacobi calculada en el instante k\ Es im portante apuntar que el


producto matricial que aparece entre paréntesis debe mantener el orden indicado

J o J i ... J n - 1

ya que en general J f J m ^
Podemos ahora explorar las soluciones caóticas de forma cuantitativa midiendo ciertas can­
tidades (de carácter estadístico) que se corresponden con la definición anterior de exponente de
Lyapunov. G eom étricam ente, y restringiéndonos al caso d = 2 (sin pérdida de generalidad) p ode­
rnos comprender el significado de los exponentes de Lyapunov {A¿; k = 1, 2 } a partir del esquema
de la figura 5.12.
Una bola de condiciones iniciales de radio r se deform a b ajo la acción de tal y com o se indica
en el esquema. En una dirección se da estiramiento del semieje y en la ortogonal contracción. En
esta forma, los nuevos semiejes a¡t y bk de la elipse tienen un valor en la k —é sima iteración dado
por a * (r ,t/) ss reA'* y bk( x , y ) & reA2* , siendo A1? A2 las tasas de crecimiento. Los exponentes de
Lyapunov se definen entonces com o el logaritmo del prom edio de estas tasas,

Xi(x. y) = lim i ln « * ( * , y)
i — oc K

A2(r , y) = lim i ln bk( x , y )


k —OQK
De forma general, para una aplicación d—dimensional, el procedimiento a seguir para calcular el
espectro de exponentes de Lyapunov será diagonalizar la matriz Jacobiana asociada a la T —¿sirria

http://librosysolucionarios.net
Caos Determinista 165

iteración ( I (1)(T ) (»•! producto de T veces la matriz calculada para cada iteración) y obtener los
valores propios asociados, que denominaremos (para evitar confusiones):

{A* ; * = 1, 2 rf}

y los orden iremos de forma que

(Aj! > |Ay+i| ; V; = l d

Entonces obtendrem os los exponentes de Lyapunov llevando a cabo el límite

Xj = lim — ln ¡Aj i
n—oo n

siempre que dicho limite exista. Para el con jun to de puntos que convergen por iteración ai atractor
(los que pertenecen a la cuenca de atracción del mismo) este límite será independiente d e la
condición inicial escogida.
Veremos más adelante cóm o calcular de form a general los exponentes de Lyapunov. N otem os
de m om ento que, a partir de la propiedad

f [ A j = d et(Z .„(T ))
j =i

en muchos casos de interés (com o el que veremos a continuación) se tiene que d e t(L M( T ) ) = C,
una constante independiente de las variables dinámicas. Bajo estas condiciones, tendrem os que
d e t (¿ (T )) = C T. En este caso particular.

f> i= ln | C |
j a l

Para el caso especial en que el volumen no cam bia con el tiempo, tendremos que \C\ = 1 y p o r lo
tanto para sistemas dinámicos discretos que preservan el volumen (el área en dos dim ensiones)

í > =°
>=i

Una consecuencia adicional del resultado anterior es que Ap < In \C\/p.

5 .7 El m odelo de H énon
U no de los sistemas discretos bidimensionales m ejor conocidos es el sistema de Hénon, que puede
escribirse en la forma
yn+1 + B y n- 1 = 2yn + 2y2
n

y que, para |2?| < 1, es disipativo. Para B = 0 la aplicación anterior se reduce a la logística, mientras
que si B = 1, tenemos un sistema dinám ico conservativo. De manera equivalente, podem os escribir
el sistema de Hénon en la forma:
* » + i = Vn + 1 ~ ox^

http://librosysolucionarios.net
166 Orden y Caos en Sistemas C om plejos

x ( n)

Figura 5.13: (a) Atractor de Hénon (<í = 1.4, b = 0.3), y (b) exponente de Lyapunov m áxim o para
ia aplicación de Hénon.

con Jacobian o asociado (ahora p = (« , 6)),

—2a x n 1
L„ =
b 0

lo que nos da un determinante detfL ^ ) = —5. Dado que es constante, podem os emplear el resultado
obtenido anteriormente acerca de la suma de los exponentes de Lyapunov:

Ai + A2 = ln J61

\ por lo tanto en este caso no es preciso calcular más que el exponente de Lyapunov m áxim o. En
la figura 5.13 se representa el atractor de Hénon, así com o el mayor exponente Ai obtenido para el
m odelo de Hénon, para b = 0.3.
P odem os analizar la estabilidad de los puntos fijos del sistema de Hénon. Estos son X + =
( r ^ , bx +) y JY* = ( x ‘_ . 6 x1 ), siendo

V U - *>)2 +

valores reales para

a > a c = - - ( 1 - ó)2

Para a > a c , los valores propios de la matriz de Jacobi nos dan:

A ± — —a,x'± ± \Ja2( x ± ) 2 + b

con lo que tendremos estabilidad para

1 -5
¡iUl <
2a
Este con ju n to de valores de x constituye la zona contractiva. Tenemos:

http://librosysolucionarios.net
C aos Determinista 167

x(n)

Figura 5.14: Atractor (extraño) de Hénon, para a — 1.4 y b — 0.3. Podem os apreciar el efecto del
estiram iento y plegado de las trayectorias (véase el tex to). A l llevar a cabo sucesivas ampliaciones
de una zona del atractor, descubrim os que se trata de un ob je to fractal.

• (i) Para x'+ la desigualdad anterior permite calcular la frontera de la zona contractiva, dada
p or ai — 3(1 — ó)2/4 . Para a € (0,(1!) el punto fijo £+ es asintóticamente estable.

• (ii) Para x l , puede com probarse que es un punto fijo inestable Va.

C uando a > a i, el punto fijo deja de ser un atractor estable. Al igual que ocurría con la
función logística discreta, nuestro sistema abandona la estabilidad para dar lugar a trayectorias
periódicas. Hénon (1976) (véase también el exhaustivo trabajo de Simó (1979)) estudió el com ­
portam iento de este sistema (que es de hecho una aproxim ación a ciertos problem as físicos más
cercanos al representado por el atractor de Lorenz) observando la aparición de com portam ientos de
gran com plejidad, com o es de esperar a partir de lo anteriormente visto con el cálculo del exponente
m áxim o de Lyapunov. Para a > a* = 0.7056 aparecen bifurcaciones con duplicación de periodo
que alcanzan el régimen ca ótico para a.x . % 1.06... dan do lugar a atractores extraños. En la figura
5.14 (a -c) vemos una representación gráfica de este atractor ju n to con la am pliación sucesiva de un
detalle del mismo. Podemos apreciar con claridad la repetición de la misma estructura a cualquier
escala.
P odem os aprovechar este ejem plo para com probar la riqueza de estructuras asociadas a la
aparición de un atractor extraño, representando gráficamente la cuenca de atracción de esta
solución caótica (fig. 5.15). El estudio de estas cuencas revela una enorme com plejidad en su
estructura, que a menudo es fractal (Grebogi et al., 1987). En el capítulo sobre fractales se ha
representado numerosos ejem plos de conj untos de J ulia. Desde el punto de vista dinám ico, las ecua­
ciones iterativas que dan lugar a estos conjuntos se pueden interpretar com o aplicaciones dinámicas,
del m ism o tipo que las que se están discutiendo, aunque con valores en el plano com plejo. Dábamos
en aquel capítulo la forma en que se calculaban los puntos z € C pertenecientes a cada uno de
los conjuntos de Julia: eran, de hecho, los que separaban la frontera entre los puntos del plano
com p lejo que tenían com o atractor el origen y los que escapaban al infinito b a jo iteración de la
función ¿ —* z2 + c (c € C ). Por tanto, cada uno de los conjuntos de Julia se puede interpretar
com o la cuenca de atracción de la función anterior, para cada valor de c. Los puntos sobre los
con juntos de Julia presentan sensibilidad a las condiciones iniciales b ajo la iteración del polinom io
x 2 + c.

http://librosysolucionarios.net
168 Orden y C aos en Sistemas C om plejos

Figura 5.15: Cuenca de atracción para el atractor de Hénon.

5.8 La transform ación del panadero


Estudiaremos ahora un caso de aplicación bidimensional especialmente interesante por su simpli­
cidad y com portam iento. Se trata de la conocida transformación del panadero, definida por el
sistema dinám ico discreto

( 2*, 2y) si * € [ 0. 1 / 2]
(2* - 1 , p y -fi 1/ 2) si * € ( 1 / 2, 1 ]

que se aplica sobre los puntos del cuadrado unidad E — [0,1] x [0,1], y 0 < p < 0.5. El efecto de
esta aplicación Fu : E —* E sobre E puede verse en la figura 5.16.
Esta aplicación “ estira’1 el conjunto E , dando lugar a un rectángulo de área 2 x p, que es a
continuación “ corta do” por su mitad dando dos partes de área 1 x ¡i que se unen (se pliegan) con
un vacío de lado \ — P entre ambas. AI aplicar sucesivamente la transformación (similar a la que
realiza un panadero al amasar), el conjunto inicial se transforma en Ek = F k( E) , form ado por
una colección de 2fc bandas horizontales de grosor p ~ k y separadas por vacíos de longitud vertical
lk > (0.5 - Puesto que F ^ E k ) = £* + 1. el conjunto com pacto G definido por

k= o

satisface claram ente el requisito de invariancia F^i G) — G. Esta aplicación genera una trans­
formación de estirado-y-plegado sobre el conjunto E. El proceso de estiram iento introduce la
inestabilidad que da lugar a la sensibilidad a las condiciones iniciales, y el plegainiento introduce
la adecuada disipación (confinando los puntos de E a este mismo dom in io). Para este sistema el
cálculo de los exponentes puede realizarse analíticamente. La matriz de Jacobi es ahora:

2 0
ü p

y por lo tanto el produ cto matricial definido por

http://librosysolucionarios.net
Caos Determ inista 169

Figura 5.16: Transformación del panadero: la idea intuitiva de cóm o se origina la sensibilidad a las
condiciones iniciales aparece bien ejemplificada por el procedimiento de amagar pan. A l aplastar
la masa en una dirección, separamos puntos cercanos (sensibilidad a las CI) mientras que al plegar
la masa confinam os el sistema a una región limitada.

j =i
es la matriz diagonal:

los semiejes serán por lo tanto

<*k(z,y) = 2* : bk( x . y ) - n k

y los exponentes de Lyapunov correspondientes serán:

A] — ln2 (> 0) , A2 = ln /í (< 0)

Este ejem plo, de gran simplicidad, ilustra con enorme claridad el fenorneno que subyace a la
aparición del caos determinista en sistemas dinámicos disipativos. El ob je to obtenido por iteración
de Fft m uestra sensibilidad a las condiciones iniciales y propiedades fractales: am bos fenóm enos
son caras de la misma moneda.
Para el con jun to invariante generado por este sistema, podemos calcular sin dificultad su di­
mensión fractal. Si tom am os tres iteraciones sucesivas del sistema dinám ico (fig. 5.17), podem os
calcular el número de objetos de tamaño vertical dado (en la horizontal tenernos siempre la misma
longitud) que se requieren para recubrir el conjunto generado. En la figura se indican claramente
las longitudes e consecutivas, así com o el número de objetos necesarios para obtener el recubri­
miento. Tenem os entonces que el conjunto invariante final, resultante de la transformación, Aco>

http://librosysolucionarios.net
170 Orden y Caos en Sistem as Com plejos

Figura 5.17: Iteraciones sucesivas de la transformación del panadero. Se indican las longitudes
del los lados de las sucesivas imágenes obtenidas a través de la iteración. Se indica también el
número de objetos de lado dado necesarios para com pletar el recubrimiento. Este cálculo permite
determinar la dimensión fractal asociada al objeto obtenido (el atractor).

tendrá dimensión (sumamos una unidad para introducir la dimensión horizontal):

ln[iVn(e)] ln[2n] l n ( 2;
D(Aoo) = 1 — lim — — — = 1 — lim = 1 - < 2
ln(f) ln(/2»; \n(p)

Para terminar, estudiaremos brevemente las propiedades estadísticas de la aplicación del pa­
nadero para jj = 2, que define un sistema dinám ico conservativo. Para analizar este problema
recurriremos a algunas herramientas de tipo estadístico com o la ecuación m aestra (capítulo 1 ).
Llamemos p n ( x n,j/n) a la densidad de probabilidad asociada al sistema dinám ico. Tendrem os que:

P n (x „,y n) d x n dyn = p o (x o ,y o ) dx0 dy0 = p n --l( x n- l , y „ _ i ) d xn- i d t/n -i

Ahora bien, puesto que el sistema es conservativo, el Jacobiano asociado a la transformación es


unitario, y p or lo tanto tenemos conservación de la densidad de probabilidad,

Pn(xn, yn) = p „ - l ( x n- l , y n - l ) = •••= Po(xOi yo)


La inversa de la transformación será

x n+ 1 0 SI Xn €
°-5
Xn + 1 + 1 1
ú ( í n , Pn . 12yn + i - 1 si xn e r. 1

o, lo que es lo mismo,

G ( x n, y n) - + si yn
° ’ í-

G ( x n, y tl) = ^ Xn+2 + ^ ityn + i ” si y» e (1 /2 , 1]

http://librosysolucionarios.net
Caos D eterm inista 171

Si reem plazamos par ( x n_ y ^ - j ) por sus expresiones en términos de ( x „ , y n ) a izquierda


derecha de la ecuación p n( x n ,( /„ ) = pn - i ( x n- 1, yn_ i) y haciendo ( x „ , y „ ) = ( x , y ) , obtenem os
ecuación maestra:

P n (x ,y ) = pn- i ( | > 2p) si V


°’ í

P r,(x ,y ) = p * _ i lj si y € Q , 1

Este sistema dinámico presenta una aproximación al equilibrio estadístico (en el sentido ya
discu tido). De esta ecuación podem os obtener los promedios estadísticos de nuestro sistema. En
particular, podem os expresar el prom edio de cualquier variable / ( x , y ) com o

< /(x,y)> = / / pn { x , y ) f { x , y ) d x d y = / / ( x . y) dx dy
Jo Jo Jo Jo

P odem os también obtener una ecuación maestra a partir de la ecuación de Perron-Frobenius.

P „ (x ,y ) = f í pn- i ( x \ y ') S[ x - f ( x ' ) ] b[ y - g{y')\ d x' dy'


Jo Jo
donde f { x ) y g( y) son las funciones

2x x € [0, 1 / 2)
/(* ) = 2x — 1 x € [1 / 2, 1]

g (y ) = í y¡2 .^[0 ,1 /2 )
9Ky) \ l / 2(y + l ) y € [ 1 / 2, 1]

Dado que

é [x - / ( x ') ] - T J F ^ 6 W - f 'W ]

y em pleando el hecho de que el valor de x dentro del intervalo unidad determ ina el nuevo valor de
yn + i, tendremos

f l¡2 í l/2 r xi
Pn (x. y) — J dx' J p „ _ i ( x ' , y ' ) <5 |x' - - j 5[y' - 2y] dy'

, x + 1
= / 1 dx' f 1 p n^ { x \ y ' ) 6 6[y' - { 2 y - 1 )] dy'
J 11/2
/2 J 11/2
J /2

luego, si 0 < y < 1/ 2, obtenem os

Pn{x,y) = Pn-i ( f i 2 y )

y, para y G [1 / 2, 1 ] obtenernos

X "h 1
Pn(x, y) = Pn-I { - . 2y - 1

com o antes. Puede demostrarse (Ford. 1983) que, de hecho, las propiedades estadísticas de este
sistema dinámico son las mismas que las del proceso de lanzamiento de una m oneda.

http://librosysolucionarios.net
172 Orden y Caos en Sistemas C om plejos

Figura 5.18: Mixing: al introducir un fluido (tinta) en el interior de otro (agua) se da una mezcla
(ba jo algún tipo de agitación) que va deform ando las fronteras del primero dentro de los límites del
segundo. Las forméis sinuosas inicialmente visibles (B ’) se van haciendo cada vez más tenues, hasta
la (aparente) mezcla completa. Se cum ple la propiedad de mezcla especificada por la expresión
5.9d.

5.9 M ix in g y ergodicidad
Anteriormente, hemos introducido la llamada transformación del panadero, un sistema dinám ico
bidimensional bien con ocido en la teoría de sistemas caóticos, y que nos permitirá entender algunos
fenómenos básicos, así com o el papel que el caos determinista puede jugar en ellos. Una propiedad
especialmente relevante es la ergodicidad y el llamado mixing (o propiedad de mezcla), am bos
relacionados entre sí. La propiedad de mezcla juega un papel muy im portante en la definición de
caos determinista, y es también conocida com o transitividad topológica. En esta sección daremos
algunas definiciones básicas.
Imaginemos dos fluidos (digamos tinta y agua) que se mezclan entre sí (figura 5.18). Esta
experiencia ¿imple permite acercarnos intuitivamente al problema de la evolución hacia ei equilibrio
en sistemas dinámicos. Inicialmente, el fluido oscuro ocupa una porción reducida del recipiente
(indicada por B ' en la figura). Llamemos 7Z a esta región, e imaginemos que am bos fluidos son
incompresibles, de form a que el volumen de am bos se conserva y supongam os que son no-viscosos,
de forma que podam os ignorar los efectos de la difusión molecular de un fluido a través de su
frontera con el otro.
A m edida que el tiempo transcurre y el fluido es agitado, la región inicial se m odifica, ex­
tendiéndose y deformándose. Indicaremos esta evolución en términos de un sistema dinámico:

n t = f(n)

donde / es el operador que define la evolución temporal de 7Z. Para t —* oo, los filamentos
se van extendiendo uniformemente hasta que el fluido se vuelve rosado. Podríamos decir que,
corno observadores, llevamos a cabo un “ promedio de grano grueso” que nos permite llegar a la
obtención de una evolución irreversible hacia el equilibrio estadístico. Idealmente, sin em bargo,

http://librosysolucionarios.net
Caos Determ inista 173

si observásemos el fluido a una escala microscópica2 veríamos que la tinta estaría form ando hilos
finos de formas muy complejas.
La condición de mixing puede formularse matemáticamente com o sigue: sea B una región del
fluido de volumen ¡l( B) y sea A otra parte (por ejemplo, la cuarta parte del volum en de agua,
situada en el fondo del recipiente, figura 5.18). de volumen /i(.4). Com o es habitual, definimos
fi{C) por:

n (C ) = í ¡i(x)dx
Je
(para C — A, B) . Si T indica el espacio de fases com pleto, debe darse la norm alización

J ¿i(z)d x = 1

B ajo la acción de la mezcla, B evoluciona en el tiempo. Podem os definir una dinám ica m ediante la
aplicación / : R —» R , com o antes (y sobre la que se define la m edida ¡j) . Se dice que la dinámica
es mixing (o que posee la propiedad de mezcla) si:

lim fi f / ~ fc( B) U A — f i( A) ¡ i ( B) (5.9.1)


fc—*00 l

Si además / es una aplicación uno a uno 3, obtendremos:

lim f t\f k( B ) U A \ = (t(A)/i(B)


k —*oo l J

En otros términos, tendremos que si Bt = f l ( B) , entonces

lim f*(Bt U A ) -
t-o o n( B) f i{ B)

lo que no es otra cosa, físicamente, que el cociente entre los volúmenes de A y B . La fracción de
tinta que se esparce por la región A deberá, con gran probabilidad, igualar la fracción del espacio
total ocu pado por A.
En particular, se puede dem ostrar que un sistema mixing posee la siguiente propiedad: si A y
B corresponden a la misma región, entonces se tiene:

lim i ¡j,{x)ft( x) xdx = < x (x0 >


í — °o J r

p.(x)xdx =< >'


'r

esto es, la propiedad de mixing im plica que la función de autocorrelación, definida por

C( t ) = < (xt- < Xo > ) ( x 0- < Xo > ) > = < Xf i'o > - < Xo > 2

decae a cero (el sistema se relaja al estado de equilibrio term odinám ico).
La propiedad de mixing es una caracterización fuerte de caos. En particular, se tiene que:

Mi x i n g caos

2 M á s e x a c ta m e n te , a u n a e scala m ic r o s c ó p ic a y an tes de que la difusión m ole cu lar haya te n id o tie m p o suficiente


de a c tu a r.
3 E s to es. ta l que si ^ i i se te n g a / ( x i ) / ( x 2 )-

http://librosysolucionarios.net
174 Orden y Caos en Sisteimts C om plejos

(en el sentido de Li y Yorke, com o se verá más adelante) pero

C aos mi z i ng

Del mismo m odo, se tiene que

mi xi ng = > crgodiridud

ergodicidad =^=> mi xi ng

Podem os dar un ejem plo sencillo de sistema dinám ico que no exhibe la propiedad de mezcla.
Empleando otra vez el sistema
Xn-fl = f { x n) = *1
en x 6 [0,1 ), distinto del anteriormente considerado. Tom em os los subintervalos

i.25 ’ 24 i L27 ’ 26
Podem os ver fácilmente que, Vn > 1, se tiene

j _ _1_
n í ) u j = [ ¿ r , ¿ ] u
2" ' 26

f (J)Ul [214n>212"] U[ *' 2* 2

luego aquí no se da mezcla, com o queríamos demostrar.

5 .1 0 M ix in g en la ecuación logística
Hemos visto cóm o para valores de p adecuados la ecuación logística (y otras de su fam ilia) muestran
un com portam iento altamente inestable, que hemos denominado sensibilidad a las condiciones
iniciales. La aplicación logística muestra, en el régimen caótico, la propiedad de mixing: si tomamos
cualquier intervalo I C [0. 1] com o punto de partida (tom am os xo € / ) veremos que más tarde o más
temprano las trayectorias que salen de I terminan visitando cualquier otro subintervalo J C [0,1]
que elijamos.
Para com probarlo, tomemos /z = 4 y una partición V del intervalo unidad en N subintervalos:

V = < I k \h =
N ’ SJ ‘............ ........

y tomemos cualquiera de ellos com o punto de partida de nuestras condiciones iniciales xq 6 /,• € V .
¿Llegaremos a cualquier otro Ij por iteración de la ecuación logística? En la figura 5.19 damos un
ejemplo de esta situación. Partiendo de I, (a la izquierda) alcanzamos Ij al ca b o de cierto número
de pasos de tiempo.
Podem os analizar este resultado de forma más sistemática. Siguiendo el tratam iento de Peitgen
y otros (1992). tom am os un conjunto de 1 0 ' condiciones iniciales € / C [0,1], siendo

I = [0.2, 0.2 + 10 - 11]

y tomamos un segundo intervalo J de llegada definido por

J = [0.68,0.69]

http://librosysolucionarios.net
Caos Determinista 175

x(n )

Figura 5.19; (a) M ixing en la aplicación logística (// = 4): partiendo de un intervalo / dado,
alcanzamos, al ca b o de cierto número de iteraciones, otro intervalo J previamente elegido, (b)
Dinámica del número de condiciones iniciales que parten de un subintervalo I = [0.2, 0.2 4- 10” u ]
y que aún no han caído en el intervalo de llegada J = [0.68. 0.69] al cabo de n iteraciones.

Seguimos las órbitas que parten de cada condición inicial Xq * G / y contam os, en cada iteración,
el número de “supervivientes” S (n ), esto es, cuántas trayectorias no han ca ído aún en J al ca b o
de n iteraciones. En la figura 5.19 se muestra el com portam iento de S (n ) en función del número
de iteraciones n. Vem os que se da un decaim iento exponencial

S { n ) ^ e - n/r

siendo r el tiem po característico necesario para reducir el número de supervivientes en un factor


1 /e = 0.368.

5 .1 1 C aos determ inista: definición


Hemos establecido ya algunas propiedades básicas que describen, a uno u otro nivel, la presencia de
dinámicas aperiódicas en sistemas deterministas. Las propiedades de mezcla (m ixing) y sensibilidad
a las condiciones iniciales, junto con la presencia de un conjunto infinito de órbitas periódicas, son
los ingredientes de la siguiente definición:

D e fin ic ió n ( D eva n ey, 1986)

Un sistema dinám ico r n+ i = f n( x n) definido sobre el intervalo U es caótico sí verifica las tres
propiedades siguientes:

1. Los puntos periódicos de f u( x) son densos en U .

2. Es topológicam ente transitivo (presenta mezcla).

3. Es sensible a las condiciones iniciales.

http://librosysolucionarios.net
176 Orden y Caos en Sistemas Com plejos

Señalemos que esta definición, dada inicialmente por Devaney en 1986. ha sido analizada poste­
riorm ente por diversos autores. Banks y sus colaboradores demostraron en 1992 que las propiedades
l y 2 im plican 3. Explícitamente, obtuvieron el siguiente resultado:

T eorem a

Sea f f i - C —* Cr topológicarnente transitiva y supongamos que los puntos periódicos de f fí son


densos en U . Si U contiene un número infinito de elementos, entonces f^ exhibirá sensibilidad a
las con dicion es iniciales.

Más adelante, en 1994, Vellekoop y Berglund demostraron que, b ajo la hipótesis de continuidad
de fp sobre el intervalo de definición de ésta, la propiedad de transitividad topológica im plica las
otras dos propidades. En consecuencia, si U C R es un intervalo (n o necesariamente finito) sobre
el que está definida y ésta es continua, entonces el sistema dinámico anterior será caótico si y
solo si tiene la propiedad de mezcla (transitividad topológica).
Pese a estos resultados, siguiendo el tratamiento de otros textos (Peitgen et al.. 1992) seguiremos
em pleando la definición de caos anterior, dado que las propiedades implicadas son de gran interés
por sí m ism as. A continuación analizaremos algunas ideas suplementarias así corno algún ejemplo.

5 .1 2 D inám ica simbólica


En esta sección definiremos una aproximación distinta a la dinámica determinista. El enfoque
de fon d o consiste en sustituir, en cierta forma, la dinámica definida mediante variables continuas
por un con ju n to de símbolos (pertenecientes a un conjunto discreto) que perm iten tratar las no-
lineaiidades, y el caos en particular, de un m odo especialmente útil (Bai-Lin, 1989).
Considerem os en primer lugar el llamado espacio de secuencias binarias £ 2, definido por:

£2 = { s = («0S1S2- ) ; s< G { 0 , 1 } }

(de form a general, podríamos emplear £ n, donde Sj G {0 , l , 2 , . . . , n — 1 }). Los elementos de £2


serán, p or definición, secuencias infinitas.
P odem os definir una métrica sobre £2 com o sigue. Sean las secuencias s, r G £ 2'

S = (SoSlS'2---)

r = (r0rj r-j...)

cualesquiera (habitualmente se toma 7*0, so = 0). La distancia entre estas secuencias se define por:

00 1 i

«=o

P uesto que |s, — r¿¡ £ ( 0, 1 } , esta serie infinita estará acotada por la serie geom étrica

00 1
£
i=0
? =2
y por lo tan to es convergente.
T om em os por ejemplo s = (000...) y r = (1111...). Su distancia es, directamente, d[s, r] = 2. Si
em pleáram os r = (1010...), entonces

http://librosysolucionarios.net
C aos Determinista 177

,r i V ' 1 1 4
1=0 '

t s t a d istancia define una métrica sobre el conjunto E?. Este rebultado puede c omprobarse con
facilidad. En primer lugar, debemos tener (y así ocurre):

d[s, r] > 0 V s , r G S 2

siendo la igualdad cierta si y sólo si s, = r¿,Vi. Además, se da la condición de simetría d [s,rj =


</[r, s] (pu esto que — r,| = Jri — «,•]) y finalmente se tiene que, para cualquier terna s, r. t e E2,
se d a la desigualdad

d[r, s] + d[s, t] > d[r, t]

que tiene lugar , puesto que

|r¿ — &,■] ¡Sí txi ^ |^i tjj

E sta distancia nos permitirá decidir qué subconjuntos de E 2 son abiertos o cerrados y. especial­
m ente, la proxim idad (distancia) entre secuencias. Un resultado especialmente im portante viene
d a d o p or el siguiente teorema.

T eorem a

Sean s, t 6 £2 y supongamos que s, = ti para i = 0,1 Entonces. d[s. fc] < 1 /2 ” .


Recíprocam ente, si d [s,t] < 1 / 2” entonces = ti para i < n.

L a dem ostración es simple. Si = t, para i < n, entonces

4M ] = ¿ ^ 1 + ¿ ^
»=0 »=n + l

< e - = -
- ^ 2' 2n
t=« + l

P or otra parte, si ti para algún i < n, entonces tendremos

d[s.t]
L
>
1_ i2 , -> —
2„

luego d[s, t] < 1/ 2” y por lo tanto, s,- = para i < n.


Este resultado reviste im portancia en la medida en que podremos decidir rápidam ente si dos
secuencias son o no similares (esto es, próximas en el espacio métrico) siempre que sus primeros
sím b olos (o bits) coincidan.
Un ingrediente esencial para es estudio de la dinámica simbólica es la aplicación (u operador)
xhift (desplazam iento). Se define por:
a : £2 —1■

(so-siS2---) —* ¿r(sciSiS2---) = (•S1S2S3-")


Tam bién se indica por O.S0S1S2 ••• —* O.S1S2S3 . . . , y su dinám ica es, com o se ve, muy simple: <r
desplaza hacia la izquierda la secuencia, “olvidando” el primer símbolo. Esta es una aplicación

http://librosysolucionarios.net
178 Orden y C aos en Sistemas Com plejos

1.0

0.8

* - 0. 6

£
H 0.4

0.2

0.0
0.0 0.2 0.4 0.6 0.0 1.0
x ( Ti)
Figura 5.20: Gráfica del operador <x(x) ( shift), con un ejem plo de órbita caótica.

dos-a-uno, ya que puede ser uno de los dos símbolos posibles. Sobre el espacio £ 2, el operador
shift es continuo.
Gráficamente este sistema dinámico se representa en la figura 5.20 y puede definirse sobre los
reales (escritos en codificación binaria) en la forma:

2x x £ [0, 0.5)
2 x - l x £ [0.5.1)

o también puede indicarse por <x(x) = / r a c ( 2x ), siendo f r a c ( z ) la función definida com o la parte
fraccionaria de z. Para hallar la codificación binaria de un número -x £ [0, 1), basta con hallar
la serie de valores obtenidos a partir de la condición inicial x\ = x generada a partir del sistema
dinámico anterior. Si la serie obtenida es { x i , X2, •••, Xj , ...} la codificación binaria (C B ) de x será

x — 0 .0 1 0 2 0 3 ...

donde los dígitos aj se obtienen de:

üj = 0 ; Xj < 0.5

a} = 1 ; Xj > 0.5

Así. si tom am os por ejemplo las CI dadas por x = 3 /8 y x = 7 /1 1 , las series asociadas son

f3 64 \ ■/ 7 3 6 1 2 4 8 5 7 3 1
\s' s18 1 ’ / ' \ir 11’ ir ii’ 11' ii’ ir ir ii’ ii’ ir ir
lo que nos da las C B siguientes:

^ o , u

^ - » 0.1010001011

(Vem os que los números racionales podrán expresarse mediante una codificación binaria finita
o bien infinita periódica, mientras que los irracionales tendrán una expresión binaria infinita no
periódica).

http://librosysolucionarios.net
Caos Determ inista 179

Esta codificación binaria permite además definir una partición ordenada sobre el intervalo
unidad. Si partim os el intervalo [0. I) en dos mitades iguales, esto es [ 0, 1/ 2) y [1/2. 1), los números
x £ [0, 1 /2) tendrán una CB que empieza por 0.0 y para x € [0 ,1 /2 ) tendrem os una CB que empieza
por 0.1. Si seguimos dividiendo estos intervalos por la mitad, obtendrem os una partición en cuatro
subconjuntos para los cju»- tendremos una CB que empezará por:

1 1
0.00 0.01
4’ 2

1 3
0.10 0 .11
2' 4

y así sucesivamente.
Esta aplicación es enormemente simple, y el hecho de que esté definida linealmente a trozos
(de forma similar a la aplicación triangular que vimos con anterioridad) la hace especialmente
interesante. Este operador/aplicación exhibe caos, y permite estudiar las propiedades básicas del
caos determinista de forma exhaustiva.

5 . 1 3 C a o s e n e l o p e r a d o r <j ( x )

En esta sección demostraremos que el sistema dinámico definido a partir del operador shift es
caótico, em pleando para ello la definición de Devancy anteriormente dada.

5.13.1 Sensibilidad a las condiciones iniciales


De la definición antes dada, debemos demostrar que' existe 6 > 0 tal que V i £ [0.1), Ve > 0. existe
un punto y <E [0, 1) y un entero k > 0 tales que se cumpla

\x - y\ < e

|o-fc(x ) -<r*(y)| > S

En nuestra demostración emplearemos la codificación binaria introducida previamente. Para


un e dado (con 0 < í < 1) y un r definido por:

x = 0.a ia 2a3... £ [0, 1)

Podem os elegir un valor de k > 1 tal que la desigualdad 2 ~ k < e se cum pla. Elegiremos a
continuación el uúmero y com o aquel tal que coincide, en su codificación binaria, con todos los
dígitos de x excepto aquel que ocupa la posición k + 1. Se tiene entonces que

y por otra parte tenemos que:

d(<7*( x) ,<7fcf y ) ) = í /( 0. ut + lrtjc+2... - 0.í>fc-t-ia*+ 2 . . . ) = 0.1 = ^ > ^ = <r

luego el sistema dinám ico es SCI, com o queríamos demostrar.

http://librosysolucionarios.net
180 Orden y Caos en Sistem as Com plejos

Figura 5.21: Orbitas periódicas obtenidas empleando el sistema dinámico definido por el operador
E( x ) (shift), partiendo de dos CI distintas: x i = 1/3 y r. 2 = 6 /7 .

5.13.2 Puntos periód icos densos


Para dem ostrar esta propiedad, notemos que aquellos puntos sobre el intervalo unidad tales que
posean una C B que posea un ciclo periódico serán puntos periódicos de la aplicación <r(z). Esto
es, si
x — 0.d~ia~2a3...d*

entonces x = <rk( x ) (com o requiere la definición de órbita periódica de un sistem a dinám ico).
Podem os com probar que así es aplicando sucesivamente el operador sobre x:

<r(x) = 0.a2C3...afcaia2. . d ¿

o 2( x) — 0.ü3...ü(¡; a 1U2---a*

crk~ l (x) = 0.afcaia2-..afc

<7*(x) = O.tifoTTTok"

Podemo> dar ejemplos de órbitas periódicas partiendo de condiciones iniciales dadas. En la


figura 5.21 se muestra un ejem plo de órbitas periódicas obtenidas partiendo de los puntos x = 1/3
y de x = 6 /7 . cuyas codificaciones binarias son 0.01 y 0.110, respectivamente.
Para demostrar que estos puntos son densos, debemos ver que Vx € [0,1) existen puntos
periódicos tan cercanos a x com o se quiera, esto es. para cualquier entorno de B ( ( x ) de radio €
podem os encontrar un punto periódico y tal que

d(x, y) < í

Este resultado puede probarse con facilidad. Supongamos que para un e dado y x = 0.010203...,
podem os encontrar un entero k > 1 tal que 2~k < e. Consideremos el punto y cu ya codificación
binaria es periódica, siendo sus k dígitos (que se repiten) idénticos a los k primeros dígitos de x:

y = O.aia2o 3.

http://librosysolucionarios.net
Caos Determ inista 181

que es un punto periódico de periodo menor o igual que k y que, com o sabemos,

d( x, y) < < e

luego hemos dem ostrado que los puntos periódicos son densos en el espacio fásico (el intervalo
unidad).

5.13.3 M ixing
C om o hemos indicado anteriormente, los números irracionales poseen codificaciones binarias for­
madas por cadenas infinitas, no periódicas, de dígitos. Podemos intuir que la órb ita asociada a
un irracional recorrerá el espacio de fases dando lugar a un conjunto de puntos denso en él. Para
dem ostrarlo, consideremos dos subintervalos J, J C [0,1) arbitrariamente pequeños. Queremos ver
que siempre podrem os encontrar un entero k > 1 tal que

<r*(/)n/ # 0

Llamemos p (/),p (« 7 ) a la longitud (m edida) de estos intervalos. P odem os elegir un k > 1 tal
que

M > 2¿ T
y supongam os que
z 0 = 0.a ia 2a3... £ I

es el punto medio de este intervalo. Sea

y — 0.íqí>2&3--- C J

un punto arbitrario dentro del segundo intervalo. •


Consideremos un tercer punto i £ (0,1) tal que su CB sea laform ada por los k primeros dígitos
de xo £ I seguidos a continuación por los de y £ J:

x = 0.a 1a203. ..<2*616263...

Ahora, puesto que x y x*o coinciden en sus primeros k dígitos, su distancia será, com o sabemos,
inferior a 2 ~ k y tendremos:
d ( x , x o) < 2 "* ~

o lo que es lo mismo: la distaucia de x al centro de I es inferior que la m itad de la longitud de I.


Se tiene además que:
cr(x) — 0.0203—0 *616263...

cr2( x) = 0.a3O4...afc6l 6263...

a k ~ 1( x) = 0.0*616263...

<rk( x) = 0.6^ 263... = y £ J

Luego hemos dem ostrado que existe un x £ / tal que cxk( x) £ J. es to es. tal que

<rk{ I ) r \ J ¿ 0

con lo que queda demostrado.

http://librosysolucionarios.net
182 Orden y Caos en Sistemas C om plejos

5 . 1 4 C a o s e n la a p l i c a c i ó n t r i a n g u l a r

En una sección anterior hemos introducido la denominada aplicación triangular, que, co m o vimos,
exhibe caos determinista para una amplia región de su espacio de parámetros. El exponente
de Lvapunov asociado era calculable de forma analítica y tomaba valores positivos para dicho
intervalo. Esta aplicación estaba definida por:

x„ + l - $ „ ( ! „ ) = p ( l - 2i - x„| )

y en esta sección demostraremos, empleando la definición anterior, que para p = 1 , esto es. para

_ f 21 i t i £ [0, 1 / 2)
* " +1 “ \ 2( l - x ) si x E [1 / 2, 1)

la dinám ica de esta aplicación exhibe caos determinista (seguiremos, com o antes, el desarrollo pre­
sentado por M artín et ai, 1994). Para llevar a cabo esta demostración emplearemos el form alism o
anterior basado en la dinámica sim bólica así com o el operador shift previamente definido. Dicho
operador, cr(x) = f r a c ( 2 z ) tiene propiedades muy útiles en el estudio del caos.
Señalemos, en primer lugar, que la función f r a c ( x ) cumple, para cualquier m £ N , las siguientes
propiedades:
f r a c ( x + m) — f r a c ( x )

f r a c ( m x ) = f r a c ( m f r a c { x ))

por inducción, puede probarse además que:

<r*(x) = f r a c { 2 kx)

Para continuar, veremos qué relación guardan las funciones # y <r. Si tomamos c ( l ) = 1 (que
es el valor que obtendríamos al aplicar dicho operador sobre x = 1 ), entonces se tiene que

$ k+ l = $ o a k ; Vfc > 1

o, lo que es lo mismo, $ i + 1(x ) = $ (<r*(x)) para cualquier valor de x sobre el intervalo unidad.
P odem os demostrar este resultado por inducción. Para el caso k = 1, si x £ [0 ,1 /2 ) se tiene
que < t(x ) = $ ( 2 ) luego $ 2(x ) = $(<r(x)). Si x 6 (1/2. 1), se tiene que 4>(x) = 2 (1 — x) y
<r(x) = 2x - 1 y dado que <l>2(x ) + c ( x ) = 1 y $ ( x ) es simétrica sobre el intervalo se cum plirá que
$ (2 — 2x) = er(2x — 1), es decir, $ 2(x ) = $ (tr(x )).
Siguiendo el procedimiento de inducción, asumiremos que se cumple para k = n y, em pleando
am bos resultados (para k — 1 y k = n) tendremos que:

$ n+2 - $ o r + 1 = $ o § o ( t ' ' = $ o ( 7 o (T,1 =<f oCTn+l

con lo que queda demostrado.


Finalm ente, antes de estudiar las condiciones para demostrar laexistencia de caos, trans­
formaremos la aplicación triangular $ en términos de codificaciones binarias. Sea ahora x =
0.<210203... 6 [0, 1). Como sabemos, si o í = 0, el punto x pertenecerá a la primera m itad del
intervalo unidad, i. e. x € [0, 1 /2 ). Tendremos entonces:

$ ( x ) = c ( x ) = 0.020304...

luego am bos operadores actúan en igual forma sobre los puntos de la primera mitad. En cam bio,
si x 6 [1 / 2 . 1 ), tendremos:
$ ( x ) - 2(1 — x) = 1 — a{ x)

http://librosysolucionarios.net
Caos D eterm inista 183

1 — 0.a2a3a4--- — O.aju /a^ ...

siendo a" = 1 si a = 0 y a* = 0 en caso contrario. Si tenemos en cuenta que

0 .a 2a ^ 4 ... + O.a^a^a^... = 0. 1 1 1 ... = 1

el operador correspondiente a la aplicación triangular se escribirá com o

, ,n . í 0.020304 si Oi = 0
$ ( 0.a 1a 2a3...) = < . . ,
O.02fl304 $i Oí — 1

a continuación demostraremos que esta aplicación es caótica.

5.14.1 P un tos periód icos densos


Sea x tal que <7k( x) = x (un p u n to ¿-—periódico del operador shift. Se tiene entonces que:

$(ar) = $(o-*'(x)) = $ * + 1(x ) = $ * [$ (* )]

y p or lo tanto <£(z) será un punto ¿-—periódico de la aplicación triangular. Vimos anteriormente


que aquellos puntos tales que su C B estaba formada por un ciclo ¿-—periódico, esto es, de l

0.aia2...ak

son puntos k —periódicos del operador shift. En consecuencia, todas las codificaciones binarias

,,n v j 0.a2a3...ak0 si a i = 0
» ( 0 - ° i a 2 O3 - a t ) = | 0-o ; n- ; - - . 0 a; = 1

son puntos periódicos de periodo fe para la aplicación triangular. Los puntos x tales que su
codificación binaria se escriba en la forma

x = 0.a ia 2...aj;0

serán puntos k —periódicos de $ ( x ) .


C onsiderem os a continuación el punto

x = 0.a ia 2cz3... G [0, 1)

y sea une > 0. Elegiremos un k > 1 tal que 2~k < e y consideraremos el punto periódico de
periodo k + 1 dado por:
y = Ü.aia2a3...afc0 € [0, 1 )

que coincide en los primeros k dígitos con x. luego su distancia será tal que

d(x, y) < 2~k < e

C on lo que queda demostrada la propiedad.


En la figura 5.22 (a,b) se muestran las órbitas correspondientes a los puntos 0.110 = 6 /7 y
O.OOlO = 2 /1 5 .

http://librosysolucionarios.net
184 Orden y C aos en Sistemas Com plejos

Figura 5.22: Orbitas periódicas para la aplicación triangular $ (:c). Los puntos iniciales son: (a)
x — 6 /7 y (b) r - 2/15.

5.14.2 Sensibilidad a las condiciones iniciales


Sea e > 0. tomemos = 1/4 y sea

X = 0 .0 x 0 2 0 3 ... 6 [0 ,1 )

un punto cualquiera. Sea dado un k tal que 2~k < e y a continuación elegim os com o y un punto
del intervalo unidad que sólo difiera de x en el dígito k + 1—ésimo:

y = O.U1O2Q13—a*Ofc+1ajfe+20jfc+3...

con lo que
d{x, y) < 2~k < e

Por otra parte, si u* = 0, tendremos:

|ík(x) - <ík(V)¡ = =

| < £ ( 0 . a ; t a ¡ f c _ r l a (t + 2 O / k + 3 . . . ) — O . a f c a £ + 1 a f c + 2 0 * + 3 . . . ) j

| 0 . O f c + i a f c + 2<1 í ; + 3 - - * “ 0 .a j‘ + 1a j; + 2 a * + 3---| = 0 .1 = - > ó

y, si Ofc = 1, se tiene:

|$*(r) — (t/)| — |0.afe+ 1u í.+2a ¿ + 3 ... — 0.a* + 1a ’£+2a fc+3--'l = 0-1 = - > é

con lo que queda demostrado.

http://librosysolucionarios.net
Caos Determinista 185

.">.14.3 Mixing
Finalmente, probaremos que la aplicación triangular posee la propiedad de mezcla. Consideremos,
siguiendo la definición, dos subintervalos / , J C [0,1) arbitrariamente pequeños. Queremos ver que
siempre podremos eucontrar un entero k > 1 tal que

a k( l ) n j ¿ t

El procedim iento será idéntico básicamente al desarrollado para el operador shift.


Llamemos / í ( / ) , / í ( 7 ) a la longitud (m edida) de estos intervalos. P odem os elegir un k > 1 tal
que

f-t(l) >
2*-i

y sean ahora los puntos:

Xq = 0.aia2a3--- £ I

(en el centro de este intervalo) y

t/O = 0.&1&2&3-" £ J
un punto arbitrario sobre J . Si un punto y posee los mismos k primeros dígitos que xq. entonces
x € 7, ya que si

x = 0.Gia-2a3...afcC*+ iCí;+2...

entonces

d ( * . l 0 ) < 2~* = ± /i( I )

y un razonamiento idéntico puede hacerse para un punto y que tenga la misma proxim idad a yo-
Si a* = 0 y elegimos

x = 0. ai a 2...ajfc&i&2— € I

se tiene que

<hfc(.r) = <J>(<rfc-1(x )) = '$(0.akb1b2...bk) = O.&162...£>*} £ J

Si, por otra parte, cz* = 1 . elegimos

x = 0 .a]_a2 --akb\b’2...bl € I

y tendremos ahora, del mismo modo:

<J>fc( r ) = ^ “ ‘ ( r ) ) = $ ( 0.a t 6-1 65...6; ) = 0.6162-&Jt € J

Luego en cualquier caso se cumple que. dado un punto r 6 i encontram os un k para el que se
cumple $ * (x ) £ ./, y por tanto
^ (/)u ; ¿ 0

http://librosysolucionarios.net
186 Orden y Caos en Sistemas C om plejos

5.14.4 Consecuencias: Caos en px( 1 x)


Los resultados anteriores son extensibles a 3a apliración logística /¿¿(x) = ,ux(l — x ) para el ca­
so límite p — 4. Para demostrar la caoticidad de este sistema dinámico podem os recurrir a
la aplicación triangular, que hemos estudiado en la sección anterior. Consideremos la siguiente
función

que define una aplicación biyectiva sobre ios puntos del intervalo unidad. Puede demostrarse
fácilmente (Holmgren, 1994; Devaney, 1986) que

U ( H ( x ) ) - ff($ (* 0 )

y a partir de esta relación puede probarse que si x es un punto k —periódico de la aplicación


triangular, entonces H ( x ) es un punto k — periódico de la aplicación logística (y viceversa). Este
resultado perm ite demostrar el com portam iento caótico de la aplicación logística.
Señalemos, finalmente, que la partición del intervalo unidad en términos de codificación binaria
de sím bolos permite introducir una conexión eutre las secuencias de dígitos que resultan de la
dinámica de la aplicación logística para p = 4 y la de un proceso aleatorio com o es el lanzamiento
de una m oneda. En 1973, M etrópolis, Stein y St<ún em plearon la partición binaria del intervalo
para analizar esta relación. Una secuencia de caras y cruces generadas por el lanzam iento de
una m oneda se denomina secuencia de Bemouilh. Una posible definición de caos determinista
(Jackson, 1991) es que, para cualquier secuencia de Bernouilli dada, existe una condición inicial
que perm ite generar dicha secuencia.

5 .1 5 La herradura de Smale
Un sistema dinám ico muy bien estudiado y que volverá a aparecer más adelante cuando explorem os
el problem a del caos en sistemas continuos es la denominada aplicación de Smale. En la figura
5.23 vem os el procedimiento básico de actuación de este sistem a dinámico. Partiendo del cuadrado
unidad U = [0, 1] x [0, 1], llevamos a cabo un estiramiento del mismo hasta formar la denom inada
herradura de Smale, que solapamos entonces encima de U . A continuación, nos quedam os sólo
con aquellos puntos que se hallan en la intersección entre am bos objetos, y repetimos la misma
iteración.
De form a similar a lo que vimos en la sección de la transform ación del panadero, podem os
imaginar que esta dinámica queda definida por cierta aplicación bidimensional

/„ : V — V

que actúa sobre los puntos de U. Asumiremos (razonablemente, a partir de la definición anterior)
que esta aplicación es continua e invertible. La aplicación inversa f ~ l transformará la herradura
fn{U ) en el cuadrado invirtiendo los pasos anteriores.
Si llevam os a cabo iteraciones sucesivas, veremos que el resultado de aplicar esla generación
de bandas verticales de grosor cada vez raenor. Si indicamos las bandas verticales resultantes de
la primera iteración por V\ y tendremos que:

/u (L J - Vi U V2
Si ahora llevamos a cabo una segunda iteración, las bandas anteriores setransforman en cuatro
bandas nuevas de menor grosor (figura 5.24} y que indicaremos por

W i-V l2.\ 22.V 2i

http://librosysolucionarios.net
C aos Determ inista 187

Figura 5.23: (a) Sisterna dinám ico que genera la herradura de Smale: a. partir del cuadrado unidad
U, llevam os a cabo un estiram iento-plegado del mismo y solapamos la herradura con el cuadrado
unidad, reteniendo sólo aquellos puntos que pertenecen a la intersección, (b ) R epetim os este
p rocedim iento e indicamos los conj untos de puntos resultantes

5 0 /(5 ) 5 f l / ( 5 ) n / ¡( 5)

Figura 5.2-4: Bandas verticales y horizontales generadas por la aplicación de Smale.

http://librosysolucionarios.net
188 Orden y Caos en Sistemas C om plejos

Figura 5.25: Intersección entre bandas verticales y horizontales. La aplicación reiterada de la


aplicación de Smale da lugar, asintóticamente, a un conjunto de Cantor.

escribiremos ahora

v o f r W n f l i u ) = v n u v l 2 u v 22u v n

y, de manera similar, tendremos que las bandas horizontales obtenidas por aplicación de la inversa
f ~ l serán tales que:
u n f ~ \ U ) = Hí uh 2

y
! / n / (r 1( ! 7 ) n / - 2(!7) = h u u s 12u h 22u h 21

Observemos que:

f ll(H i) = Vt ; í=l,2

; * 0 = 1.2

y que por iteración del sistema de Smale vamos obteniendo, después de k iteraciones, 2k bandas
verticales en la intersección U >1 f k(U) (k = 1, 2 ,...) y de forma similar la inversa nos dará, después
de k iteraciones. 2k bandas horizontales en la intersección V H f ~ k{C) (k — i. 2 . .. . '.
La m ayor parte de los puntos de U abandonarán el cuadrado unidad al iterar la aplicación o
su inversa. Si olvidam os estos puntos, podem os preguntarnos qué estructura tendrá el conjunto
invariante A que queda en el cuadrado después de iterar indefinidamente, esto es,

A - |x € U ; / * ( x ) 6 Lr,V - oc < k + o o j

Este conjunto es de hecho la intersección infinita entre las iteraciones empleadas:

A - ... n f ~ k(U) n ... n U { U ) ; 2{U) n /^

c u n f ¿ u ) n f ¿ u ) n f l ( U) n ... n f k(U) n

http://librosysolucionarios.net
Caos Determ inista 189

Este con ju n to será un objeto fractal. Pare U primera iteración de ambas aplicaciones, el conjunto
invariante deberá estar incluido en la interjección dada por:

u ) n u n u ( U )

que estará form ado por cuatro cuadrados (figura 5.25 (a )). Iterando por segunda vez, la intersección
en la que se encontrará incluido A será aliara un conjunto de dieciséis cuadrados menores (figura
5.25 ( b ) ) definido por:
í ; 2( u ) n / , lr ) n o n / , ( ( f ] n H ( U )

El con jun to resultante es obviamente autosimilar (un con ju n to de Cantor).


P odem os emplear el formalismo de la dinámica sim bólica para analizar sus propiedades (W ig-
gins, 1990; Kuznetsov. 1995). Puede demostrarse que existe una biyección entre A y el conjunto
Q2 de las secuencias binarias bi-infinitas, e-to es, el con jun to de secuencias de la forma:

donde
__ f 1 si f j;( x ) 6 H\
*k \0 sif* {x )£ H 2

para k = 0, ± 1 , ± 2 ,.. . y donde / ° es la aplicación identidad.


Esta equivalencia permite, de form a algo más com plicada que en los ejemplos anteriores, de­
mostrar la presencia de caos en este sistema dinámico. El siguiente teorema (Smale, 1963) resume
los resultados más importantes acerca del com portam iento de esta aplicación:

T e o r e m a (Smale, 1963)

La aplicación de Smale posee un conjunto invariante A que contiene un con jun to numerable
de órbitas periódicas de periodicidad arbitrariamente grande, y un conjunto no-num erable de
órbitas no periódicas, entre las cuales están aquellas que pasan arbitrariamente cerca de cualquier
punto de A.

Sin entrar en más detalles (véase Wiggins, 1990) indiquem os que la aparición de este tipo
de estructuras en herradura (que reencontraremos más adelante) sirve para detectar la aparición
de caos así com o para caracterizar formalmente los atractores extraños en sistemas disipativos y
conservativos (véase el capítulo sobre caos hamiltoniano, 17).
O tra propiedad importante del ejem plo de la herradura de Smale es que podem os perturbar lige­
ramente la aplicación sin que tengan lugar cambios cualitativos de im portancia sobre la dinámica,
lo que garantiza la estabilidad estructural del com portam iento.

5 . 1 6 U n i v e r s a l i d a d e n a p l i c a c i o n e s c u a d r á t i c a s

La existencia de una constante universal que caracteriza las propiedades globales del escenario de
bifurcación con duplicación de periodo es de enorme im portancia. La constante de Feigenbaum es
universal en un sentido formal bien definido. Sea

= {/,(* )}
el conjun to de funciones uniparamétricas (conocidas com o aplicaciones cuadráticas) que verifican
las siguientes condiciones:

i- / , ( * ) € C l [0 ,l]

http://librosysolucionarios.net
190 Orden y Caos en Sistemas Com plejos

Figura 5.26: Orbitas superestables para la aplicación logística. Se indica los puntos p\ en los que
aparecen.

2. Existe un punto x m tal que f " ( x m) ^ 0

3. es m onótona en [0, x m) y en (a:m, lj

4. ffi (x ) posee una derivada de Schwarz negativa, esto es,

Esta clase de funciones exhibirá un escenario de Feigenbaum caracterizado por la misma constante
universal ó:

S = Um — +t ~ ^ % 4.6692
k~ o o p k+2 - Pk + 1

Mitchel Feigenbaum (1978) demostró esta universalidad empleando el m étod o del grupo de
renormalización (discutido, en otro contexto, en el capítulo 7). Una primera constante universal
es que puede escribirse com o varible en la ley asintótica de escala (es decir, para n —+ oo),

Pn ~ P do
siendo c una constante.
La segunda constante universal está relacionada con la aparición de órbitas superestables, esto
es, aquellas órbitas tales que

A¡f>j = 0

que aparecerán sucesivamente en los puntos p\. p'3. . .. que se indican en la figura 5.26.
Los ciclos superestables obedecen una relación dn/dn+\ ~ —<*• Estos ciclos incluyen el punto
x = 0.5, y dn es la distancia

http://librosysolucionarios.net
Caos Determinista 191

entre x = 1 /2 y el purii<> de Onn> más cercano a éste. Tendremos por lo tanto una nueva ley de
escala,

<¿n ~ <¿oo C O:

com o la anterior para n —* 00. El exponente a se interpreta de forma análoga a com o se ha hecho
con los exponentes de la teoría de transiciones de fase (capítulo 7). Em pleando las ecuaciones del
grupo de renormalización. Feigenbaum demostró que

a - 2.5029078751...

6 4.6692016091...

^ = 3.5699456...

En la teoría de fenómenos críticos. la universalidad se obtiene debido a que el m étod o del grupo
de renormalización proporciona un conjunto de ecuaciones cuyos puntos fijos describen cierto tipo
de transiciones de fase. A medida que nos aproxim amos a este punto fijo estable, los detalles de la
condición inicial de la que partíamos se pierden. Por lo tanto, la universalidad de los exponentes
críticos surge si el punto fijo posee una cuenca de atracción finita.
La idea de Feigenbaum fue encontrar una descripción iterativa del proceso de duplicación de
periodo tal que, en el límite, proporcionara la misma solución (punto fijo) para todas las apli­
caciones cuadráticas definidas sobre el intervalo, con independencia de sus detalles particulares
(véase McCauley. 1994, para una discusión más general).
Feigenbaum parte de la com posición entre funciones (que son ahora los ob je to s matemáticos
de interés) en la form a

/ r 'o / r ^ / r 41* (5.16.1)


e introduce la siguiente hipótesis de escala.

( ' « ) " / ; ( ( - a )na:) <5 J 6 -2)


siendo / * el punto fijo de 5.16.1. Si combinamos 5.16.1 y 5.16.2, tenemos que

1- = ( - « ) - " /; [ (- < * )" (- « ) -/; ((-« )"* )]

= ( ( - « ) ” !)] (5.16.3)

y d ad o que también se tiene

# ■ " ' ( * ) ~ ( - “ )— ’ r ; [ ( - « r +1z] (5.16.4)


podem os combinar 5.16.1 y 5.16.3 para obtener

(-a)""7; ((-o)" +‘x) «(-a)"/; (f;{-a)"x)


así com o

/■ ( j q = - a f ‘ ( /;( x /q ) )

tod o ello definido en el espacio de aplicaciones cuadráticas, no invertibles.

http://librosysolucionarios.net
192 Orden y Caos en Sistemas C om plejos

Dada una solución es fácil probar que

g {x .p ) - p f

es también solución para cualquier p. Podem os establecer la escala tomando ///" ( O ) = 1. Es­
cribiremos las solucionas de

g ( x ) = - a g [g ( ^ ) ]

en la forma

ff(x) = 1 + bx2 + . . .

con b < 0. Este desarrollo puede resolverse aproximadamente (a orden x ~ )dando 1 = —a ( l 4- 6) y


b = -q /2 . La condición 6 < 0 da

o — 1 + y/3 ~ 2.723

que es una buena aproximación para a = 2.5029...


Un desarrollo formal basado en esta aproximación permite obtener de forma análoga los valores
de ó y //-o (Schuster, 1989). En la siguiente sección daremos un procedim iento distinto, desarrollado
por R. M ay y G . Oster.

5 .1 7 U niversalidad: aproxim ación de M a y -O ste r


Podemos obtener una buena estimación de la constante 6 de Feigenbaum siguiendo un procedi­
miento distinto al del grupo de renormalización. Este planteam iento fue desarrollado p or M ay y
Oster (1976).
Sea fj,k\ x n) la k —ésima iteración de la aplicación /^ ( x ) . Un ciclo de periodo p queda definido,
com o ya sabemos, por el conjunto

0<t) = {z --(t) , i = l . . . . , k : * ; {t) =

Sea A*fcl(/i) el valor asociado a la estabilidad de dicha órbita,

i=i
es decir, la pendiente de la k —ésima iteración de la aplicación. Cualquier ciclo estable de periodo
k aparece, com o sabemos, para cierto valor A'O = 1 y pierde su estabilidad (dando lugar a una
órbita de periodo 2i , i.e. O ^ ) cuando A^fc* = —1.
Para ir de un límite al otro (de AÍ*1 = +1 a A*** = —1) el parámetro sufre cierta variación,
que indicaremos por A p ( k ) . En lo que sigue, estudiaremos el com portam iento del límite

í= lim A>‘ (k)


k—oo A p (2 k )

esto es. del cociente entre la variación de p en dos intervalos de duplicación de periodo consecutivos.
Llamemos p ^ ai valor de p tal que

http://librosysolucionarios.net
Caos Determinista 193

1.0

0.8 -=

0 .6 ^

0.4 -

0.2 z

0.0
2 .0 4 .0

Figura 5.27: Bifurcaciones con duplicación de periodo. Se indica la notación em pleada en el cálculo
de la constante de Feigenbaum <5 m ediante el método de M ay-Oster.

esto es, al valor de fi para el que aparece un ciclo de periodo k. Indicaremos (figura 5.27) los
siguientes valores de n por:

Un desarrollo de Taylor nos da, para valores cercanos a p,

A(l,w=1+f(¥ )^ +0(f2)
Indicaremos la primera derivada mediante la siguiente notación:

d\W
A(*l _
JÍQ — d l n f l k)(x '
dfi Ú h)

Em pleando estas definiciones, podem os estimar el valor de ó mediante el cálculo del cociente
entre -4o2** y -4q**. Sin embargo, no puede ser, en general, calculado analíticam ente. Sin
embargo, podem os relacionar la pendiente A^2* ' asociada con /¿'**(ar) con asociada a /¿ * * (r ).
La órbita de periodo k aparece con A*fc) = 1 y se hace inestable para A<** = —1, en el punto para
el cual emerge la órbita 2 k —periódica, esto es, para A^2*’ = 1. Esta órbita a su vez se hará inestable
para A^2*! = —1. En este punto, el escalar A*** tomará cierto valor negativo, que indicarem os por
A<*>.

Si sustituim os en el desarrollo en Taylor anterior para A(A J(p ) e ignoramos los térm inos de
segundo orden, obtenemos:
A/i(,t) = -■ 2
A <*)

Ac** + 1
& n(2k) =
A (*)

http://librosysolucionarios.net
194 Orden y Caos en Sistemas Com plejos

x(t) x(t)
Figura 5.28: (a) La aplicación se muestra en las proximidades de uno de sus puntos
¿ —periódicos, x'^k\ Para la curva discontinua, la pendiente de / ¿ fc| en la intersección con la
bisectriz es tal que < 1, y el punto fijo es estable. Para la curva continua, se tiene > 1.
esto es, el punto fijo es inestable, (b) La aplicación correspondiente a la bifurcación consecutiva.
/ ¿ 2¿! se muestra en las proximidades del mism o punto fijo ¿ -p e r ió d ic o . Corno se discute en el
texto, la aparición de la inestabilidad de la órbita ¿ —periódica viene acom pañada por una bifur­
cación en la aplicación dando lugar a dos nuevos puntos fijos de periodo 2 ¿, indicados por
x ’ (' fc), a cada lado de

de donde llegamos al siguiente resultado:


_p
6 — lim
*_oo + 1

Queda por encontrar una relación asintótica entre los valores A 'fc) y Al2*h con los que podremos
determinar A ^ . Podem os emplear para ello, siguiendo a May-Oster. un polinom io cúbico (véase
la figura 5.28) que se com porte de la forma en que fl~k) exhibe la bifurcación cuando el ciclo de
periodo ¿ se hace inestable.
Supongamos que desarrollamos / ¿ 2fc* en serie de Taylor hasta tercer orden alrededor de

•f í > « x-'*> + m + 7 s e + I c í 3 + o ( í 4 :
2 o
Necesitamos llevar a ca b o este desarrollo hasta términos cúbicos (al menos) para tener en
cuenta, de forma apropiada. la forma cualitativa de f l ~ k) en las proximidades de x “^k\ esto es, para
describir la bifurcación en un par de nuevos puntos, cada uno a cada lado de x, = 0. Recordemos
que
/i 2t)(x-<11 + O = /<*>(/<‘ ) ( * , ( ‘ ) + { ) ) = /<i|(x-(t| + A<‘ > 0 + . . . )

Podem os expresar los coeficientes del desarrollo (.4. B. ..) en términos de las derivadas de la
aplicación de orden inferior. / ¿ * !. En este caso encontramos:

A = (A(fc>)2

B = (A<*))
: = r*'k>

http://librosysolucionarios.net
Caos Determ inista 195

Notemos qu<- los puntos fijos de periodo k se bifurcan en A'fc) = —1. Por tanto, para fi ju sto
por encim a de este valor, A « 1 y 6 % 0. Para los puntos fijos de periodo 2 ¿, escribiremos
x *(2fc) = x >(k) _|_ £■»_ Los valores de se determinan a partir de:

í* * M ‘ + ~ í* 2 + k ' 3
2 6

Aparte de la solución ¿ —periódica degenerada (<£* = 0). existe un par de soluciones dadas por

o« - 1) + \ b í - + \ c e -
¿ D

Notemos que estas soluciones serán reales si y sólo si A > 1 (esto es, si > 1) de
acuerdo con lo expuesto anteriormente. A continuación, notemos que la pendiente en estos puntos
2 ¿ —periódicos es:
02/(2*)
A'2*' = « A + fl{* + ¿ C í s*
%
5= í*

Empleando las relaciones anteriores, podem os simplificar esta expresión para obtener

A(2fc) ^ ( 3 - 2 A ) - i f í C

La cantidad representa la distancia entre el punto periódico inestable de periodo k y el punto


inicialmente estable asociado a la órbita de periodo 2¿, y será una cantidad pequeña incluso para
valores bajos de k. Adem ás, el coeficiente B es cero cuando tiene lugar la primera bifurcación,
luego podem os despreciar el término ¿?£* ( 2 de la última igualdad.
C on estas aproxim aciones llegamos a la expresión para el valor de A eu el punto para el que
,\(2fr) __i (donde la 2 ¿ —órbita se hace inestable): 2A fu 4, esto es, A & 2. Si empleam os ahora la
ecuación anterior que relacionaba A con A**), tenemos para el valor correspondiente, (que habíamos
llamado Ae*^).
Atfc) « - ^ 4 - 0 ( ^ 2)

Sustituyendo este resultado en la ecuación para ¿, llegamos por fin al resultado analítico para la
aproxim ación a la constante de Feigenbaum:

ó as 2(1 + ¿ 2 ) 4.828...

Com parando este valor con el valor exacto, vemos que existe un aceptable error de un tres por
ciento.

5 .1 8 Período tres im plica caos


En 1975 apareció un artículo de Tien Li y Jim Yorke encabezado por un sugestivo título: uPe-
riod Three Implies Chaos"1 (Periodo tres im plica caos) en el que daban una elegante demostración,
para sistemas dinám icos unidimensionales, acerca de la existencia de puntos periódicos de distin­
tas periodicidades. Este teorema está muy directamente relacionado con o tro muy simple, pero
fundamental, de la teoría de sistemas dinám icos demostrado por A . Sarkovsky (Devaney, 1986).
El teorema, enunciado explícitamente, dice:

http://librosysolucionarios.net
196 Orden y Caos en Sistemas C om plejos

T e o r e m a ( L i y Yorke, 1975}

Sea £f»+i = f f i ( x n) un sistema dinámico definido ->bre un intervalo X C R que presenta un punto
periódico de periodo tres. Entonces, este sistema dinámico tendrá puntos periódicos de todos los
periodos posibles.

P ara dem ostrar este teorema, seguiremos el procedimiento de M artin tt a i (1995), dando en
primer lugar cuatro lemas básicos (que no demostraremos, véase Martín et al. 1995). Estos son:

Lem a 1. Sea x n+ i = /p ( x n) un sistema dinámico definido sobre un intervalo U C R . Si este


sistema posee un punto periódico de periodo tres, entonces

3a G 17 ; / ¿ ( o ) = <■- < U ( a ) < /¿ ( a )

o bien

/¿ (a ) < ¿i ( a) ' a < /¿ ( a )

L em a 2. Sea / C R y í d -> R una función continua. Para tod o com pacto í\ C g{l) existe un
com pacto Q C I tal que g(Q) = I\.

Lem a 3 . Sea J un intervalo, / : J —►J una funci-m continua, y sea

{/„ : n - 0, 1, . . . }

una sucesión de intervalos com pactos con

ln C J | 1 ,+ i C / ( / „ ) Vn > 0 ■

Entonces existe una sucesión de intervalos compactos

{Qt! ; n - 0,1,...}

tales que, para todo n > 0, se cumple que:

1- Qn + I C Qn C 7o

2. f n {Q n ) = 7„

3- r(n r= o « ..) c e
Lem a 4 . Sea J C R y j : J R una función continua, e 7 C -7 un intervalo com pa cto tal que
7 C g ( 7). Entonces 3p £ I tal que g(p ) = p.

Estos lemas nos permitirán demostrar el teorema de Li y Yorke, tal y com o se enunció más
arriba.

D em ostración del Teorema de Li-Yorke

D ado que nuestro sistema dinámico x n+ i = f ( x n) posee un punto periódico de periodo tres (om iti­
mos el subíndice p, por simplicidad), aplicaremos e l lema 1 para encontrar un punto a € X tal
que d = a < b < c o bien c < b < a = d. siendo b = / ( a ) , c = f ( b ) — f 2{a) y d = f(c) =
f 2(b) = / 3(a ) = a. Si se cumple la primera serie de desigualdades, esto es, d = a < b < c y si

http://librosysolucionarios.net
C aos Determ inista 197

K — [a, b], L = [6, c], para cualquier k > 1 demostraremos que existe un punto periódico de periodo
k.
Definamos para ello una sucesión

{ I n ; n - 0, 1 ,...}

de intervalos com pactos com o sigue. Si k > 1, tendremos:

{
L si 0 < n < fc — 2
K si n = k — 1
In- k si n > k

y si k = 1, I n = L para to d o n > 0.
Es decir, tendremos una colección de intervalos de la forma siguiente:

W ” o = {¿’£’ £ .-} si k = 1

si k > 1

Teniendo en cuenta que se dan las siguientes inclusiones:

f(L) = /Ü M ) 3 [f(c ),m ] = [a,c] = L U K

f ( K ) = f ( [ a , b ] ) D [ f ( c ) , f { b ) } = [b,c] = L

tendrem os que { I n }^°_0 verifícalas hipótesis del lem a 3 y por lo tanto podem os hallar una sucesión
{ Q n } n_ 0 intervalos com pactos tal que

••• C Q n + l C Qn C ... C Qo C lo = L

con:
f n( Q n ) ^ I n
oc
r(n 0") cu
Entonces tendremos que:
Qk C Qo — I q — L

f k( Q t ) = h = L

Luego
Q t C f k(Q k)

y, aplicando ahora el lem a 4 a la función /* : Q* —► R existirá un punto pk fc Qk tal que


f k(pk) = pk- SÍ el periodo de pk fuera menor que k, y dado que se tiene

Í
L si n < k — 2
K si t i ~ k - l y L U K — {b}

L si n > k

se debería cumplir entonces que / fc_1(Pfc) — b y p or lo tanto que

/ t + 1( » ) = f ( b ) = d i L

http://librosysolucionarios.net
198 Orden y Cao> en Sistemas C om plejos

pero tenem os que:


f k + I (Pk) = } ( P k ) e ¡ ( Q o ) ~-¡o = l

lo que introduce una contradicción. Es decir: p* es un punto periódico de periodo exactamente k.


Dado que esto es válido para cualquier k > 1, el teorema está dem ostrado
El teorem a de Li-Yorke introduce la posibilidad de hallar órbitas de - norme com plejidad en
sistemas discretos unidimensionales en presencia de órbitas de periodo 3 aunque este resultado
no es general: no es aplicable a sistemas de dimensión superior ni la existencia de cualquier
periodicidad tiene iguales consecuencias. Este teorema nos remite en realidad las consecuencias
del teorema d e Sharkovsky (1964), cuyo enunciado es

T e o r e m a ( Sharkovsky, 1964)

Sea Q el con jun to ordenado

Í2={3<l5<37<l...<]2x3<l2xó<]2x7<]..

. . . 0 22 x 3<]22 x 5<]22 x 7<1...<]8<14<]2<]1|

Sea

U -.u ^ v

cor. U = [0, 1], una aplicación continua tal que /(O ) = / ( l ) = 0 y que posee un único punto
crítico. Si m <1 n, y f u posee un punto periódico de periodo m, entonces también posee un
punto p eriódico de periodo n.

Así, para la aplicación logística, existe una órbita de periodo seis en ¡x = 3.627... (el com ienzo
de una ventana periódica). De acuerdo con el teorema, existirán soluciones periódicas (inestables)
de periodos 2 x 5, 2 x 7, etc., siguiendo la ordenación dada por Q (notem os que el primer elemento
de Q es, precisamente, el valor 3). (Para una revisión introductoria de este teorema véase Kaplan,
19S7.)

5 .1 9 C a o s e n sistem as d in á m ic o s c o n tin u o s
En las secciones previas hemos explorado con cierto detalle la aparición de caos en sistemas discre­
tos. La naturaleza, en general, se nos presenta en forma de variables (aproxim adam ente) continuas,
de forma que la descripción natural será la de las ecuaciones diferenciales.

| = F .(*(0)

(esta expresión en realidad sólo incluye sistemas autónomos, sin dependencia explícita con el
tiempo, de hecho, el tipo de sistemas que trataremos). Notemos sin embargo que ello no impide
que em pleem os sistemas discretos com o modelos adecuados de cierto tipo de fenómenos, com o
puede ser la dinám ica de ciertas poblaciones de insectos (May. 1976) que, de forma natural, poseen
generaciones separadas y una escala real de tiem po que podem os considerar discreta (un año, por
ejem plo). A dem ás, aunque en esta sección introduciremos algunos m odelos continuos que pare­
cen alejados de los resultados obtenidos en los modelos basados en ecuaciones cuadráticas, veremos
cóm o recuperam os los resultados anteriores empleando secciones de Poincaré. El m odelo de Lorenz,
presentado en la introducción, es un ejem plo de sistema dinámico tridimensional que exhibe caos
determinista. Analizaremos este m odelo algo más adelante. Antes, detengámonos en un m odelo
distinto con ocid o com o modelo de Róssler.

http://librosysolucionarios.net
199
Caos Determ inista

http://librosysolucionarios.net
200 Orden y Caos en Sistem as Com plejos

Este m odelo se basa en un conjunto de tres ecuaciones diferenciales ordinarias:

dy 1
di = I +
dz 1 ,
Tt = 5 + ( * - / 0 *
y es, de hecho, un modelo del modelo de Lorenz (Rossler, 1976), un metamodelo. Este m odelo per­
mite simplificar la estructura del atractor de Lorenz (que, recordemos, poseía dos partes simétricas)
en forma similar a si estudiáramos sólo una parte del atractor de Lorenz.
El primer resultado interesante obtenido al explorar el parámetro p desde cero a valores cre­
cientes, es la aparición de un escenario de bifurcación que, pese a las diferencias obvias con el m odelo
ya estudiado, identificaremos rápidamente com o un escenario de Feigenbaum. Para valores cre­
cientes del parámetro de bifurcación, el modelo de Rossler atraviesa distintos valores críticos en los
que el sistema duplica su periodicidad. En la figura ó.29 vemos un ejem plo de estas bifurcaciones.
Del mism o m od o que ocurría en los sistemas discretos anteriormente estudiados, las bifurcaciones
aparecen cada vez con m ayor rapidez, y finalmente alcanzamos un régimen dinám ico aperiódico: el
m odelo muestra atractores extraños para valores suficientemente grandes del parám etro analizado.
¿C óm o construir este m od elo a partir de argumentos geométricos relevantes? Supongam os que
partimos del sistema bidimensional lineal definido por las ecuaciones:

dx
* = - * '- c

dy
-- = x+ay

donde a, c son constantes y a < 2. Este sistema daría un com portam iento ya con ocid o: una
espiral inestable en eí plano (a:, y). Supongamos que el parámetro c fuera en realidad una variable
dinámica, esto es, c = c(t). Puede demostrarse que la solución para el sistem a a u tónom o inicial
(con c constante) es de la forma:

x = a c + a í[ A * ,- ' V ,r/'2

x = ~ c - M [ ( ~ + U ) . 4e,Ví]eai/2

(siendo U/ — / T o S T a j í ) . Si c = c (<), el sistema deja de ser autónom o y p odem os visualizar el


efecto de c (í) introduciendo un nuevo eje de coordenadas. En la figura 5.30 representamos esta
situación. Si c crece, el centro de la espiral tiende a desplazarse hacia a b a jo en el plano ( x, y) .
Si c va variando y vuelve más adelante a tomar el mismo valor que al principio, el centro de la
espiral también es el mismo y el movimiento es ureinyectador sobre el plano (x , y). Pero aquí está
el punto clave: el lugar de reinyección dependerá en general de la historia de c(<) y por lo tanto el
m ovim iento sobre el plano puede ser muy distinto del anterior. La idea de Rossler es precisamente
convertir c ( t ) en una variable dinámica c(í). recuperando así el carácter autónom o de la dinámica.
Llegamos así al modelo general

http://librosysolucionarios.net
Caos Determinista 201

Figura 5.30; (a E jem plo de atractor caótico de Róssler y (b) estructura top ológica del mismo.

de
— = 6 + x (x - n )

Un con junto de parámetros habitual es a = b = 0.2, y se suele tomar com o valor típico para generar
caos fj, — 5.7. Vemos que si x < /.¿, entonces z(t) se aproxim a a ¿>/(p — x ) (ta n to más rápidamente
cuanto m ayor sea fi — x ) mientras que. para x > /i, z(t) crece exponencialm ente. El único término
no-lineal, que aparece en la tercera ecuación (esto es. x z ) da lugar a un estiram iento -f reinyección
de z{t) relativo al m ovim iento “linear’ de las variables del plano (x. y).
De form a similar a los sistemas anteriores, el atractor extraño presenta una estructura geomé­
trica altamente ordenada que, nuevamente, exhibe fractalidad. Podem os estudiar las propiedades
del atractor en varias formas. Una primera imagen del proceso dinámico que genera caos en este
sistema puede obtenerse a partir del estudio de su topología. Para generar sensibilidad a las
condiciones iniciales, el atractor debe poseer una zona de “ estiramiento''' de puntos cercanos. A la
vez, este o b je to debe estar confinado en una zona del espacio de fases: deberá por lo tanto existir
un proceso adicional de "plegado” . Ambas propiedades pueden de hecho observarse si miramos
atentamente uno de estos atractores extraños. En la figura 5.30 mostramos la imagen del atractor
obtenida a partir del sistem a dinámico antes definido ju n to con una im agen aproxim ada de su
estructura topológica.
La topología del atractor es reveladora. Observamos una zona (S) de la “ superficie” (estricta­
mente, no lo es i en la que puntos cercanos pueden separarse, con lo que tendremos sensibilidad
a las condiciones iniciales. Volviendo al modelo planteado antes, la espiral inestable asociada al
com portam iento sobre el plano (x, y) introduce la separación. Esta separación coexiste con otra
zona del atractor (F) en la que las órbitas que previamente se han separado se pliegan para con­
finar el flujo en una región finita (la reinyección de la que hablábamos antes). El resultado es,
de hecho, un proceso de estirainiento-plegamiento que se da una y otra vez. Podem os visualizar
el proceso de dos formas: por una parte, podem os ver de qué forma un con ju n to de condiciones
iniciales sobre U región S se desplaza alrededor del atractor para regresar cerca de su estado ante­
rior. Este proceso se indica en la figura 5.31 (a-c) en tres etapas, que indican cóm o un conjunto de
condiciones iniciales distribuidas' sobre un segmento de línea son estirada-s y plegadas. A l volver
hacia la zona inicial, vem os que nuestra línea se ha estirado y plegado d an d o lugar a una forma
que nos es familiar: una herradura. Al dar otra vuelta, esta herradura se pliega otra vez sobre sí

http://librosysolucionarios.net
202 Orden y Caos en Sistemas C om plejos

Figura 5.31: Generación de autosimilaridad en el atractor de Róssler. (a) Partiendo de un segmento


de condiciones iniciales O, empleamos el m odelo para generar la dinám ica y vemos que se forma
una herradura corno consecuencia del proceso de estiramiento-plegado característico de los sistemas
caóticos. (b ,c) Si repetimos el proceso, obtenemos herraduras plegadas sobre sí mismas.

misma generando una herradura doblada dos veces. Si el proceso continúa, lo que ocurrirá es que
el atractor presentará propiedades fractales, tal y com o esperaríamos.
Existe una segunda forma de explorar este sistema, basada en el em pleo de secciones de Poincare'
(véase también el capítulo 4). Supongam os que cortamos el atractor por m edio de una sección de
Poincare £ tal y com o indica la figura 5.32 (a). En esta gráfica ya vem os que la sección de Poincare
intersectará la trayectoria caótica a lo largo de un conjunto cuasilineal de puntos. Supongam os
que este con jun to viene dado, considerando sólo las coordenadas según x\ por:

A '(E ) = { xi , x 2, x3, .... x n, ...}

Ya sabemos que podemos otener una imagen simplificada del fenóm eno recurriendo al estudio de
la aplicación x n+ i = / M( x n), si es conocida, y que ésta conserva la inform ación relevante acerca del
sistema. Si representamos el diagrama de retorno ( x n, x n+ 1) para esta serie de puntos, el resultado,
que se muestra en la figura 5.32 (b). no es otro que el que esperaríamos de un sistema dinámico
discreto unidimensional, descrito por una aplicación cuadrática.
Sorprendentemente, nos acabamos de encontrar con que la dinám ica subyacente a un sistema
continuo tridimensional tiene profundas conexiones con un sistema m ucho más simple: la familia
de aplicaciones uniparamétricas que analizábamos en nuestro estudio dei escenario de Feigenbaum.
De hecho, podem os obtener una inform ación equivalente representando una serie distinta, obtenida
a partir de la secuencia de máximos sucesivos x ( M ) = {M\, M 2 Mn }, empleando para ello
cualquiera de las variables. Un diagrama ( M n, M n+ i) nos dará una parábola similar a la anterior.
Si en lugar de representar esta gráfica exploramos los distintos valores de p y, para cada uno,
representamos los máximos sucesivos (obtenidos, por ejemplo, de r ( f ) ) , lo que obtendrem os (fig.
5.33) no es sino un diagrama de Feigenbaum en el que apreciamos sin dificultad las sucesivas
bifurcaciones con duplicación de periodo. Este resultado permite aplicar los resultados anteriores
a sistemas reales muy diversos, en los que podem os detectar el mismo tipo de transiciones. En
reacciones químicas, por ejem plo, podem os obtener escenarios de bifurcación de distintos tipos.

http://librosysolucionarios.net
Caos Determinista 203

Figura 5.32: (a) Sección de Poincaré sobre el atractor de Rossler. (b ) Diagrama ( i „ , Xn+i ) obtenido
a partir de los valores que inters'-ctan £ .

Figura 5.33: Escenario de Feigenbaum obtenido para el atractor de Rossler em pleando la serie
resultante de considerar los m áxim os sucesivos en el atractor correspondiente.

http://librosysolucionarios.net
204 Orden y Caos en Sistemas C om plejos

Para la conocida reacción de Belousov-Zhabotinsky (Scort, 1994) es posible demostrar que la


dinám ica de los máximos obedece una aplicación unidimensional. P odem os caracterizar estos
atractores empleando distintos tipos de medidas cuantitativas que se discutirán, en un contexto
general, en siguiente capítulo.

5 .2 0 Caos en sistem as no-autónornos


En todos nuestros ejemplos (y en el desarrollo general) liemos limitado nuestra atención a sis­
temas dinámicos autónom os, sin una dependencia temporal explícita en las funciones no lineales
empleadas. Pero, com o podem os imaginar, la introducción del tiempo p odría relajar la restricción
de una dimensionalidad mínima d — 3 para obtener caos. El tiempo actúa co m o una variable en un
sistema bidimensional (en el que por tanto pasamos a tener tres variables, y con ello la posibilidad
de caos). Un ejemplo es el m odelo del Brusselator forzado periódicamente,

— = a [l 4 -eos (iu/í)] — bx + x 2y —x
<ty , 2
- = bx-x y

(S cott, 1984), el cual exhibe escenarios de bifurcación hacia el caos de una gran riqueza. Así,
para el sistema no perturbado (a = 0) con a = 0.4, b = 1.2. el Brusselator exhibe un ciclo límite
con una frecuencia natural u?o = 0.3776 (periodo T = 16.64). Para distintos valores de a y de
la frecuencia o más exactamente del cociente W f j w o , el sistema experim enta bifurcaciones de
distintos tipos.

O tro com portam iento caótico que se presenta en sistemas no autónom os está propiciado por la
introducción de un tiempo de retardo r, por ejem plo en

dx ,, , . . A 9nx (t — r ¡ .\
- = / ( * ; « , r ) - y x ( t) = 9n + t] - yx(t)

que ha sido empleado com o m odelo de la dinámica de poblaciones de glóbulos rojos ( x( í ) ) en sangre
(M ackey y Glass, 1977). Esta ecuación es biológicamente interpretable en términos simples: las
células sanguíneas poseen una vida media y se produce una renovación constante. Dado que se
requieren unos cuatro días para que las nuevas células maduren, existirá un retardo en la dinámica
que controla la producción de glóbulos maduros.
Los sistemas fisiológicos de control deben mantener las cantidades de células en niveles con ­
stantes (de una forma similar, aunque no igual, a lo que ocurre con un term ostato). Para tiempos
de retardo del orden de r = 2 y parámetros y = 1, 9 = 1. A = 2, el sistema exhibe bifurca*'iones
sucesivas para valores crecientes de n. parámetro que da una medida de la no linealidaci de la
función f { x ) del sistema. Por ejemplo, el caso

f ( x ; t , r) = A ~ r) (5.20.1)
e n + x ( t - r) y 1
genera atractores extraños y periódicos, com o se indica en la figura 5.34. Estas dinámicas en las que
aparecen excitaciones complejas han sido de hecho observadas en algunas situaciones patológicas,
com o ciertos tipos de leucemia (M ackey y Glass, 1977).

En otros casos, los retardos temporales afectan a la dinánúca de poblaciones de insectos (Gurney
et al., 1980), que exhiben com portam ientos com plejos, y 1<> mismo ocurre en algunas poblaciones
de mamíferos (May, 1983).

http://librosysolucionarios.net
Caos D eterm inista 205

Figura5-34: A tractorescorrespondientes al sistema con ;>:tardo 5.20.1, para (a) n = 7 y (h) n = 10.

Un ejem plo m u y distinto procede del estudio de colectivos de elementos que iuteractúan entre
sí y se localizan en un ambiente externo del que po:--en cierta inform ación. Esto* elementos,
conocidos com o agentes predictivos evalúan el estado d< 1 sistema y de los recurso^ y llevan a ca b o
una decisión (o predicción) basada en el estado previo del sistema (el pasado sirve para predecir
el futuro). Puede demostrarse que. si f ( t ) es el númer" de agentes que emplean un recurso dado,
la dinám ica del núm ero promedio de agentes obedece una ecuación con retardo (Kephart et al.,
1990)

~< f i- > = a i<>(/' (i:i' - < / (‘ 1 >]


siendo p (< f m(t) > ) la predicción llevada a cabo por el -.istema partiendo del valor de <
Estos m odelos incorporan de manera natural retardos temporales en la capacidad de predicción
(fiable) y dan lugar a com portam ientos muy com plejos, de im portantes implicaciones para sis­
temas económ icos (Huberman, 19SS). Típicam ente, «-stos sistemas exhiben un com portam iento
com plejo que, en algunos casos, da lugar a periodos de -'stabilidad seguidos de repentinos cam bios,
eventualmente catastróficos (Glance y Huberman. 199'.').

5 .2 1 C a o s hom oclínico
El atractor de Rossler y muchos otros sistemas dinámicos com o ías ecuaciones de Lotka-Volterra
tridimensionales (se verá más adelante) pertenecen a un conjunto amplio de sistemas que presentan
ciertas propiedades comunes entre las que está implicada la existencia de órbitas hom oclínicas.
Recordem os que una órbita Fo que parte de cierto punto x 6 R n se denomina homochnica
respecto al punto fijo xo del sistema dinám ico si ó^(¿ ; —« -Co, para t —» ± o o .
La órbita hom ochnica Fo pertenece a la intersección entre las variedades estable e inestable:

Fo c [ f U u ( x o ) n t r j ( x 0 )j

M ostram os en la figura 5.35 dos ejem plos para sistemas de dimensión dos y tres.

http://librosysolucionarios.net
206 Orden y Caos en Sistem as Com plejos

Figura 5.35: Orbitas homoclínicas en dos y tres dimensiones.

Las órbitas homoclínicas de puntos de equilibrio hiperbólicos son de gran interés en nuestro estu­
dio debido a que presentan inestabilidad estructural. En particular, puede demostrarse (Kuznetsov,
1995) el siguiente lema:

L e m a . Una órbita homoclínica Fo perteneciente a un punto de equilibrio hiperbólico xo del sistema


dinámico

— =f„(x), x e R n

es estructuralmente inestable.

Este lema implica que podem os perturbar un sistema que posea una órbita hom oclínica. To res­
p ecto de xo de tal forma que el retrato de fases en las proxim idades de To U xo es topológicainiente
no-equivalente al original. De hecho (Kuznetsov, 1995) la órbita homoclínica simplemente desa­
parece genéricamente para perturbaciones C 1 del sistema original, lo que representa una bifurcación
(capítu lo 4).

El siguiente teorema, debido a Shilnikov. hace referencia a las implicaciones de la existencia de


una órbita homoclínica en sistema* dinámicos 3-ditnensionales del tipo silla-foco (figura 5.35).

T e o r e m a d e S h iln ik ov

Sea el sistema dinámico

— = f M(x ), x € R3

que supondrem os puede escribirse en la forma

http://librosysolucionarios.net
Caos Determinista 207

— = Az + R ( x , y , z)

d ond e P, >' # son funciones analíticas tales que D ( 0 ) = Q (0) = J?(0) = 0 y P' íOJ — Q'{0) =
R '{ 0) = 0 en el origen (0 = ( 0 ,0 ,0 )) . El origen es un punte fijo del tipo silla-foco, es decir, los
valores propios son de la forma

A± = p ± un', A3 = A (E R "
Supongam os que el origen posee una órbita hom oclínica I V Entonces

1. Si A > - p > 0 (o si —A > p > 0), cualquier entorno de Fo contiene un con ju n to numerable
de soluciones periódicas inestables de tipo silla.

2. En un entorno de To existe un subconjunto de trayectorias que muestran com portam iento


aperiódico, en el sentido de que existe una correspondencia biyectiva con *1 operador u
( “ slnfC1) con un número infinito de símbolos.

Las consecuencias del teorema son de gran im portancia: se desprende de sus conclusiones que
existirá (de forma muy general) una relación entre trayectorias homoclínicas y cao> determinista.
Esperaremos por lo tanto, b a jo las condiciones anteriores, observar atractores extraños (del tipo
del atractor de Rossler).
Existen distintos enunciados alternativos del teorema (véase, por ejem plo, Guc.kenheimer y
Holmes, 19S3). Uno de ellos hace referencia al com portam iento de las trayectorias en un entorno
próxim o al punto xo- Si tom am os una superficie cilindrica Eo alrededor de xo (figura 5.36). que
fuese cubierta, arriba y abajo, por círculos £ 1, y si indicamos por E¿ la parte inferior, podemos
analizar el com portam iento de la aplicación de Shilnikov,

n : V -> S o u Z*o
siendo V C Eo una pequeña superficie sobre el cilindro superior. Podem os considerar V C £0
com o un conjunto de condiciones iniciales. Indicamos dos aplicaciones definibles,

*5o : Eo —i►E i
que caracteriza el com portam iento local de xo, mientras que la segunda

ífi : Ei —*•Eo U E q
tiene en cuenta el com portam iento local de los puntos próximos a la órbita h om oclínica To que no
están en las proximidades de xo-
El teorema afirma (en estos términos) que existirá un conjunto numerable de herraduras de
Smale definidas por ’J'/, sobre Eo U E¿ (indicamos una de éstas por 'J'/J V )).
De form a similar a lo analizado anteriormente, el em pleo de una sección de Poincaré nos permite
visualizar el com portam iento en términos más simples, en este caso en térm inos del sistema de
Smale que, com o sabemos, es ca ótico (Guckenheimer y Holmes, 1983: W iggins, 1990: Kuznetsov,
1995).
U11 problem a altamente no trivial en la aplicación de este teorema reside precisam ente en probar
que Po existe. Aun así, para sistemas que exhiben caos, podem os explorar la posible aparición de
To a partir de argumentos cualitativos simples (A rn eodo et al.. 1980). Considerem os el sistema de
Lotka-Volterra definido en general p or el sistema n —dimensional

http://librosysolucionarios.net
208 Orden y Caos en Sistemas C om plejos

Figura 5.36: Orbitas homoclínicas y herraduras de Smale en el caos tip o Shilnikov.

que pertenece al conjunto genérico de la forma

para el caso particular = 7,- — ^ 2 jP i j N j . Estos sistemas presentan la particularidad de que


todos los hiperplanos

{ N j } = 0, jeJ, J C { 1, . - -, n}

son globalmente invariantes. En n = 3, y eligiendo el punto Ni = N? = N 3 = l com o punto central


de equilibrio (sin pérdida de generalidad) las ecuaciones pueden escribirse en la forma

= 1-" ;)
j —i
y podemos analizar su com portam iento para distintos valores de la matriz ( o tJ). Siguiendo a
Arneodo tomemos la matriz

/ 0.5 0.5 0.1 \


= -0.5 -0.1 0.1
\ p 0-1 0.1 /
en la que sólo 073 = p es variable. Para valores crecientes de p. este sistema experimenta sucesivas
duplicaciones de periodo hasta alcanzar el régimen caótico. En la figura 5.37 (a,b ) mostramos dos
atractores para distintos valores de p.
Arneodo et al. obtuvieron un argumento heurístico de validez general (para este tipo de sis­
temas) que perm ite conjeturar la existencia de una órbita hom oclínica To. Supongamos que con­
sideramos una familia p —paramétrica de ecuaciones diferenciales tales que

1. Para p > po, existe un punto fijo xo del tipo silla-foco que satisface las condiciones del
teorema de Shilnikov (es decir, A > —p > 0 o —A > p > 0).

http://librosysolucionarios.net
Caos Determ inista 209

x X

Figura 5.37: A tractores para los valores de fx (a) y. = 1.43 y ( b ) pe = 1.65 del sistema de A rneodo.
(c,d) Conexión entre el ciclo límite (que aumenta de tamaño con ¡x) y el punto silla-foco inestable,
(e) Formación de la órbita hom oclínica Fo y (f) interpretación de Tq para el sistema de Lotka-
Volterra.

http://librosysolucionarios.net
210 Orden y Caos en Sistem as Com plejos

Figura 5.38: Ventana de periodo tres, (a) Diagrama esquemático d«- la estructura de las bifurca­
ciones en la aplicación logística, (b) Ampliación de la ventana de periodo tres, cerca de la cual se
da intermitencia.

2. Para p = p n > po, el sistema experimenta una bifurcación de H opf supercrítica en otro
punto Xi, que genera una órbita periódica 7 estable para p > p u (figura 5.37 (c)).

3. Para p > p x , la variedad estable del punto Xo converge hacia * cuando ésta es estable.

4. Si // crece, el tam año de 7 crece con mayor rapidez que la distancia ||xo — Xi|| (fig. 5.37 (d)).

B ajo estas condiciones podem os esperar que la variedad inestable de xo se acerque lo bastante
a 7 com o para dar lugar a la órbita homoclínica To considerada por el teorema (fig. 5.37 (e)).
Este procedim iento heurístico ha dado buenos resultados en varios m odelos generales de gran
interés, com o el m odelo de Lotka-Volterra anterior, para el que representamos en la figura 5.37 (f)
la órbita hom oclínica asociada al sistema para p = 1.708.
El caos de "tip o Shilnikov” , com o es conocido tambie'n, ha sido detectado en multitud de
sistemas físicos y biológicos, que van desde láseres hasta, com o veremos, la dinám ica cerebral
(véase el capítulo 15).

5 .2 2 In term iten cia


El escenario de Feigenbaum que hemos analizado es una ruta hacia el caos muy im portante, aunque
no la única posible. Existen dos escenarios distintos que juegan un papel m uy im portante en la
aparición de caos en sistemas naturales tan distintos com o los fluidos o el tejid o cardíaco. Los
analizaremos en esta sección y la siguiente.
El primero se con oce con el nombre de intermitencia. La denominación procede de la form a
peculiar en la que irrum pe el caos a lo largo de la dinámica temporal del sistema: en la misma
evolución temporal se alternan comportamientos regulares (básicamente periódicos) interrumpidos
por ráfagas desordenadas más o menos cortas. En esta sección presentaremos un tipo de escenario
intermitente (no el único, véase Schuster. 1989) conocido com o intermitencia de tipo-I.

http://librosysolucionarios.net
Caos Determinista 211

La aparición de intermitencia tiene lugar, por ejemplo, en sistemas dinám icos discretos que
presentan escenario de Feigenbaum. En el caso de la aplicación logística, esto ocurre en las pro­
xim idades de la ventana de periodo tres que se observa en el interior del dom inio ca ótico (figura
5.38) por encima de p c = 1 -f- >/§•
La dinámica de la aplicación logística cerca de p c. o más explícitanvute. para valores de /¿ tales
que 0 < fic — ft <C 1. es la característica del régimen intermitente. En la figura 5.39 (a) vemos un
ejem plo de esta dinám ica para ¡jc — fj. = 0.002. Esta dinámica aparece com o una com binación de
oscilaciones cercanas a una órbita de periodo tres, interrumpidas por rafagas de tipo no-periódico.
La explicación para este com portam iento puede obtenerse analizando la figura 5.39 (b), en U que
representamos la tercera iteración de /^ ( x ) esto es, f ¡ ? \ x ) frente a x, para un valor de ¡x algo por
d eba jo de p c = l + \/8- Si iteramos esta función (recordemos que ahora los puntos fijos representan
elementos de la órbita de periodo tres) veremos que, en las proximidades de la tangencia indicada,
la dinám ica del sistema pasará muy cerca de la órbita 3-periódica, que es inestable. Tras abandonar
esta región visitará otras zonas de /¿ 3)(x ) dando lugar a nuevas ráfagas desordenadas para volver
a la m ism a región.
Existen diversas propiedades del régimen de intermitencia que permiten caracterizar el com ­
portam iento de estos sistemas en forma cuantitativa. Una de éstas es la longitud prome.dio < l >
de la denom inada "región laminar” , en función del parámetro c = p - fic . El térm ino ■•laminar”
designa a las regiones ordenadas en la dinámica del m odelo considerado, y procede de la dinámica
de fluidos, en la que el régimen laminar corresponde al fluido no turbulento que fluye de forma
suave y continua. El fenómeno de la intermitencia es de hecho bien con ocid o en dinámica de
fluidos.
Si desarrollamos /£ 3l(x ) en las proximidades de x c y //c , definidos por:

/ í ? ( Xc) = XC

obtenem os:

/ í 3,( Xr) = / ¿ 3)(*c + {x ~ Xc)) = Xc + (x - Xc ) + a c(x - Xr l2 + Jc (x - x c )3

siendo o c y ¡3C dos constantes definidas por:

Definiendo y = (x - x c)/l3c y a = a r3c > 0. la aplicación x „ T i = / y ( x n ) nos da. en las


proxim idades de x r . una expresión:

yn+1 = yn + a y n
2+ e

Y las regiones laminares se definirán ahora con un criterio intuitivamente claro: las iteraciones
consecutivas del sistema deben cambiar muy p oco, lo cual puede indicarse form alm ente por la
desigualdad
I.Vnl < B< 1

http://librosysolucionarios.net
212 Orden y Caos en Sistemas C om plejos

1.0 10 3-

0.8 -

' 0.6 -
C-0 10
A
-w ’—O
V
H0.4 :

0.2 -

10

0.0
100 20 O 300 400 10 10 10 10
t

Figura 5.39: (a) Intermitencia en la ecuación logística: para fic — p = 0.002 observamos regiones
de com portam iento laminar interrumpido por ráfagas cortas de com portam iento irregular. Para
visualizar las regiones laminares, sólo indicamos los valores de la aplicación cada tres iteraciones,
(b) Longitud prom edio de la región laminar (aquí 9 = 0.01).

esto es, la distancia a x c debe ser inferior a cierto umbral 6. Si aproxim amos la ecuación en
diferencias para yn + i por la ecuación diferencial correspondiente, tendremos:

dy o
di = a y + e
donde l hace referencia a las iteraciones sobre la región laminar. Integrando entre los límites de la
región (/0 y h)- obtenemos:

Vo Vi
KVo-yi) = arctan — arctan

A continuación, encontraremos la longitud promedio < l > suponiendo que existe P ( y t ), la pro­
babilidad de que, después de una ráfaga caótica, la órbita sea reinyectada cerca del pun to x c . de
forma que se verifiquen las hipótesis anteriores. Esta probabilidad es simétrica respecto del punto
Xc- P (y i) = P ( - y . ) , y tendremos:

1
< l >= P { y t )l{0, Vi)dyi ~ arctan

y, para

obtenemos una expresión asintótica para la longitud promedio de la región laminar:

< l > ¡ x e-1/ 2

La ley de escala anterior es muy general en estos sistemas. Se ha propuesto además que el
mecanismo de intermitencia podría proporcionar un origen para el "ruido 1 / f 1 (Schuster. 1989)
distinto del de la criticalidad autoorganizada. descrito en el capítulo 8.

http://librosysolucionarios.net
Caos Determ inista 213

JZL

t rl .

r-,

Figura 5.40: Experimento de Couette-Taylor.

5 .2 3 Escenario de R uelle-T ak en s-N ew house


Un tercer escenario de bifurcación que desem boca en la generación de caos determ inista tiene
relación, con la aparición de com portam ientos cuasíperiódicos en sistemas dinám icos no-lineales.
La cuasiperiodicidad fue estudiada en el capítulo 4, ju n to con las propiedades de los sistemas
dinám icos que exhiben ciclos límite.
Este escenario fue introducido p or primera vez.en 1978 por Ruelle. Takens y Newhouse. y
también es conocido com o escenario RTN. Estos autores analizaron un estudio llevado a ca b o por
el célebre físico ruso Lev Landau en 1944. concerniente al problem a de la aparición de la turbulencia
en fluidos (Landau, 1986).
La hipótesis de Landau consiste en suponer que el com portam iento turbulento es el resultado
de la aparición de un número infinito de frecuencias independientes asociadas a los remolinos de
distintas escalas que vemos experimentalmente, y que aumentan en número y com plejidad a medida
que nos adentramos en el régimen turbulento. A medida que la velocidad del fluido aum enta (en
alguna form a) aparecen frecuencias de oscilación que van sumándose hasta alcanzar un espectro
continuo (capítulo siguiente). Existen algunos experimentos clásicos que perm iten obervar estas
transiciones hacia el régimen turbulento. Uno de ellos es el experimento de C ouette-Taylor. en el
que un fluido se halla confinado entre dos cilindros concéntricos (figura 5.40) con el interior móvil
que gira a una frecuencia ajustable por el experimentador. Si el cilindro gira lentamente, nada
ocurre. Existen varios parámetros que controlan la dinámica cualitativa de este sistema, com o el
cociente r/ = r xJr2 entre los radios del cilindro externo, r 2, y del cilindro interno. r x, o el numero de
R eynolds, que es de hecho el valor explorado habitualmente. Este número adirnensional se define
co m o

R = Q r id jv

siendo Q la velocidad angular del m ovimiento del cilindro interno, d = m - rq y v = p /p es la


viscosidad cinemática del fluido. Dado que los parámetros r L. d y u están fijados, R refleja la
velocidad de rotación del cilindro interno.
Para valores de R crecientes aparece, para cierto valor crítico R c. una ordenación espontánea
del fluido en forma de estructuras macroscópicas regulares con dinámica periódica (ciclo límite)

http://librosysolucionarios.net
Orden y Caos en Sistemas C om plejos
214

a
(cm/s)
VELOCIDAD

b
Figura 5.4i: Transiciones entre distintos com portam ientos dinámicos para el experim ento de
Couette-Taylor.

http://librosysolucionarios.net
Caos Determ inista 215

que, para velocidades algo mayores, presenta una segunda com ponente de oscilación. Para valores
aún mayores, podem os ver una transición súbita (al menos en apariencia) hacia un com portam iento
desordenado: la turbulencia.
En la figura 5.41 vernos unos ejem plos de estas dinámicas, medidas experim cntalm ente em ­
pleando un registro de la velocidad local del fluido. El sistema presenta oscilaciones que van
ganando com plejidad a medida que el número de Reynolds, que presentamos en la form a R ¡ R C,
aumenta. Estos resultados sugieren que la conjetura formulada por Laudan sería parcialm ente
válida, aunque ello no es claro a partir de los experimentos, en especial porque la transición hacia
el régimen turbulento parece más rápida de lo que esperaríamos a partir de la hipótesis de Landau.
Ruelle, Takens y Nevvhouse demostraron que, de hecho, el escenario mediante el que un fluido
desem boca en el régimen turbulento puede ser considerablemente distinto. En particular, estos
autores (que introdujeron por primera vez el término airacior extraño) demostraron que un com ­
portam iento aperiódico puede obtenerse com o resultado de un escenario de bifurcación en el que,
tras la aparición de las primeras bifurcaciones en las que aparecen nuevas frecuencias, los atractores
cuasiperiódicos se '"rompen” y pueden dar lugar a un atractor extraño.
Este escenario ha sido investigado em pleando sistemas dinámicos discretos bidirnensionales, que
permiten explorar en detalle las propiedades de universalidad de esta transición. En prim er lugar,
recordemos en qué consistía el com portam iento cuasiperiódico. En la figura 5.42 vemos un toro en
R 3 sobre el cual se mueve una órbita que indicarnos por una curva. Las dos frecuencias presentes
en el toro se indican mediante las variables angulares o y 6. En 5.42 (a) la curva se cierra sobre
sí misma (es una órbita periódica). AI cociente entre frecuencias, Q. = f \ f /-¿ se lo con oce com o
número de rotación, y cuenta el número de rotaciones en la coordenada 6 por cada rotación según
é . Para el caso de la figura, tenemos Q = 3. En general, si Q es racional, la órbita se cerrará sobre si
misma, mientras que para valores irracionales, no se cerrará nunca y tendrem os cuasiperiodicidad.
Com o ocurre en otros casos (se ha m encionado en el capítulo 4) el em pleo de una sección a través
de. la trayectoria puede simplificar el estudio de la dinámica resultante. Podem os llevar ca b o esta
sección tal y com o se indica en la figura 5.42 (b ). Cada punto de intersección define un ángulo 9n
y podem os analizar el com portam iento de las órbitas analizando sus intersecciones con E.
Empleando la sección de Poincaré podem os definir una aplicación bidimensional asociada al
sistema dinámico en la forma:
9n + 1 — Qfí {9n )
que, para un caso más general en el que el m ovim iento se desplace en la superficie de un toro
deform ado (con un radio característico variable), deberá completarse con una iteración para la
distancia r.
En sistema dinám ico discreto especialmente bien conocido es la siguiente aplicación disipativa
sobre el círculo:
0 n+1 = + Q ---------- sin( 27r#n ) + b r n ( m o d 1)
2 tt

rn+ 1 = brn - — sin(27r0„)


¿7T
Esta expresión se obtiene (Schuster, 1989) a partir del estudio de una partícula en m ovim iento
circular (en dos dimensiones) golpeada periódicamente. La ecuación de este sistema es:

^ = - £ + * / ( ó ) Í > - nT,
n =0

(con n £ Z ), y donde o indica la posición (angular) de la partícula, V es la constante de am or­


tiguamiento y el segundo término de la derecha introduce la fuerza, aplicada de forma periódica (T
es el periodo). Un análisis de este sistema dinámico (Schuster, 1989) pernüte reducir este sistema

http://librosysolucionarios.net
216 Orden y Caos en Sistemas Com plejos

a una aplicación bidimensional que, bajo un cambio de variables adecuado, nos lleva a nuestro
sistema discreto.
El parámetro K mide la im portancia de la no-linealidad dada por el término sin(2;r0n). Este
sistema muestra cuasiperiodicidad para algunos valores de K . en tanto que para valores mayores
se produce una transición hacia el cao> a través de la rotura del toro invariante. En la figura
•5.42 (a ,b ) se muestra un ejem plo de esti transición, para Í2 — 0.612 y b — 0.25, donde podem os
ver la aparición de cuasiperiodicidad seguida de caos. La deform ación del toro es, típicam ente, el
anuncio de su rotura y de la consiguiente aparición de com portam ientos irregulares. Si volviéramos
al sistem a continuo de partida podríamos visualizar este proceso tal y com o indica la figura 5.42
(a-c) para un sistema dinámico hipotético. Presentamos tres situaciones diferentes, en las que el
sistema exhibe, para cierto valor de un parámetro de bifurcación p, un atractor periódico (al que
puede haber llegado, por ejem plo, a través de una bifurcación de H opf). Si p aum enta, puede
ocurrir que aparezca una frecuencia adicional, con lo que las órbitas del sistema se desplazarán
sobre la superficie de un toro, mostrando eventualmente cuasiperiodicidad. Finalmente, para
valores crecientes del parámetro puede darse deform ación del toro seguida de su rotura. Este
escenario está formalmente descrito por la teoría de Ruelle, Takens y Newhouse.
Para sistemas altamente disipativos. donde b —» Ü, la com ponente radial de la trayectoria
desaparece en el sistema dinám ico antes descrito y se reduce a la llamada aplicación circular:

9n+l - f ( 6 n ) = 9n + fí - ~ sin(27r#n ) (mod 1)


¿ir
que describe la transición cuasiperiodicidad ~ » caos en términos (únicamente) de la variable an­
gular 9n . Esta aplicación perm ite estudiar en forma m uy simple (pero general) la transición al
atractor extraño por rotura del toro invariante. Señalemos que (análogamente a lo que ocurría
con la aplicación logística en relación con el escenario de Feigenbaum) la forma particular de la
función f ( 9 ) es p oco relevante (tendremos otra vez universalidad). En particular, f { 9 ) presenta
las siguientes propiedades

• f ( 0 + l) = l + f ( 0 )

• Si |fc¡ < 1. f { 6 ) y su inversa existen y son derivables (esto es, f ( 9 ) es un difeom orfism o).

• Para k ~ 1. la inversa se hace no diferenciable, y si |¿| > 1, deja de ser única.

Estos com portam ientos quedan ilustrados en la figura 5.43.


Para k < 1 tendremos órbitas no-caóticas. Cuando f ( 9 ) se hace no invertible, aparece la
posibilidad de hallar órbitas caóticas, com o las que m uestra la figura 5.44.
Una enorme cantidad de información arerca de la estructura de las transiciones que tienen lugar
en este sistema dinámico (y que nos da una buena idea de su com plejidad) se obtiene explorando
numéricamente el valor del exponente da Lyapunov k) para cada par de valores (ÍL k).
Para \k\ < 1, observamos un tipo de estructura característica, en forma de triángulos defor­
mados, que recibe el nombre de lengua.s de Amoló, (figura 5.45). En cada una de estas bandas,
el núm ero de rotación es constante y racional. Estas estructuras son densas en el espacio de
parámetros y no se cortan, form ando un conjunto de Cantor. Los límites superiores (donde los
triángulos se ensanchau) están ligados a la transición que convierte a la función en no-invertible.

5.23.1 Cuasiperiodicidad y caos en tejido cardíaco


Existe un estudio experimental acerca de la aparición de atractores extraños en cultivos de células
del corazón que demuestra claramente la aparición de caos a través del escenario R TN (Guevara et
ai, 1981; Glass et al., 1984; Rolden, 1987). La existencia de caos determinista en el corazón humano

http://librosysolucionarios.net
Caos Determinista 217

Figura 5.42: Transición cuasíperiodicidad-caos. (a) Ei sistema converge a una órbita periódica.
A quí, la superficie representa el flujo de una línea continua de puntos iniciales b ajo la acción de la
dinám ica, (b) Aparece una segunda frecuencia que lleva al sistema a moverse sobre la superficie
de un toro, (c) El toro invariante T l se deforma, sufre rotura, y surge el caos. Observem os que
la sección del toro revela con claridad la deformación a que da lugar la transición al caos. En este
sentido, las secciones de Poincaré permiten obtener inform ación suficiente acerca de la naturaleza
de dichas transiciones (véase texto).

http://librosysolucionarios.net
218 Orden y Caos en Sistemas C om plejos

1.0 10 í ;
: / k^0.8 -

/ k-í .1
/ n=o.6 n=o.6
0.8 : 0.8
/
/
0.6 0.6 -

0.4 : //
/
/
/

o
W
0.2 -

/
■TinrTTTT'TI 111 "Viiiiii|iii ii■ii|?i\rri\ii
o
o
0.0

13,

Figura 5.43: C om portam iento de la aplicación f ( 6 ) para distintos valores de k. Para k > 1, vem os
que f ( 9 ) se hace no invertible.

Figura 5.44: O rbita cuasiperiódica y órbita caótica en la aplicación circular. Los parám etros son
los mismos que en la figura anterior.

http://librosysolucionarios.net
Caos D eterm inista 219

Figura 5.45: Regiones regulares y caóticas en el espacio paramétrico (Sl.k) para la aplicación
circular. Para cada valor (Í2, k) se ha calculado el exponente de Lyapunov. Las regiones negras
corresponden a las com binaciones caóticas. En la parte inferior vem os las "lenguas de A rn o k T .

será analizada en el siguiente capítulo. Los experimentos de Glass y sus colaboradores consisten
en estim ular eléctricamente de forma periódica grupos de células de tejido cardíaco. Estas células
se unen de form a que “ laten^ espontáneamente, en forma coordinada. El estímulo de estas células
se lleva a ca b o mediante el empleo de un m icroeíectrodo, a través del cual podem os suministrar
pequeños pulsos de corriente. Por medio de estas manipulaciones se ha obtenido escenarios de
bifurcación m uy diversos, que incluyen intermitencia, duplicación de periodo y cuasiperiodicidad.

En la figura 5.46 vemos un ejem plo del potencial registrado (periódico) que posee periodicidad
7o ju n to con una señal súbita que indica la introducción de un estímulo, ó unidades de tiempo
después del com ienzo de un ciclo. Tras la perturbación, el grupo de células vuelve a su ciclo
anterior. Sin em bargo, la introducción de secuencias periódicas de pulsos permite generar nuevas
dinámicas, en particular, caos a través de un esceuario de RTN.

Para bajas intensidades del estímulo, se obtiene dinámica cuasiperiódica. ro m o la que se indica
en la figura 5.47 (Holden, 1987), en la que la introducción de estímulos se indica p or flechas
verticales. En (b ) se indica un detalle de dicha dinámica. Si represen tainos en un diagrama
(0n50n + i ) la aplicación de primer retorno, veremos una secuencia m onótona de puntos, casi paralela
a la bisectriz. El estímulo periódico da lugar a una transición a la cuasiperiodicidad.

C u an do aum enta la intensidad del estimulo, la aplicación ( 0 „ , 0 „ + i ) presenta un ca m b io evi­


dente: se hace no-invertibk* (fig. 5.48 (b) ) y aparece el caos.

Este tip o de com portam iento abunda en sistemas fisiológicos som etidos a estímulos periódicos
(Holden, 1987) y muy posiblemente se dan en condiciones naturales. Veremos en el próxim o
capítulo que incluso el corazón humano muestra ciaros signos de caos determinista en su dinámica
intrínseca.

http://librosysolucionarios.net
220 Orden y Caos en Sistem as Complejos

5___________________»

500 msec
Figura 5.46-. Registro de la actividad de un grupo de células cardíacas (G u evara et a i . 1981). El
ciclo intrínseco es de duración Tq, y no se ve afectado por la perturbación.

Figura 5-47: (a) Dinámica cuasiperiódica. La introducción de estímulos se indica por una flecha
vertical, (b ) Detalle de la dinámica.

http://librosysolucionarios.net
Caos Determinista 221

1.0
A

# .i 05

0 0 .5 1.0 0 0 .5 !0

Figura 5.48: (a) Diagrama (0n?0n+i) obtenido experimentalmente para el tejido cardíaco som etido
a estimulación periódica, que indica la presencia de periodicidad: (b ) Dinám ica caótica cuando la
intensidad del estím ulo aumenta. Vemos cóm o la aplicación obtenida experimentalmente se hace
noinvertible.

5 .2 4 A p é n d ice A : Caos y principios variacionales


En esta sección aplicaremos el formalismo que fue introducido en el primer tema del libro: e!
m étodo de la m áxim a entropía. Recordemos que la idea básica era encontrar la distribución
de probabilidad asociada a ciertas restricciones genéricas sobre las propiedades estadísticas del
sistema. Calculábam os el valor m áximo de la entropía com patible con dichas ligaduras, y el
método varíacional nos proporcionaba la distribución más probable. En este caso, nos será útil,
entre otras cosas, para calcular el valor del exponente de Lvapunov.
B a jo la hipótesis de ergodicidad, podem os suponer que los m om entos de orden n de un sis­
tema dinám ico r n + j = / ^ ( i n), definido sobre el intervalo unidad [0, 1], están relacionados con su
densidad de probabilidad por:

< s? >= f y np(y)<ty


Jo
donde p{x i > ü para x C [0, 1] y

/ p{y)<Jy = 1
Jo
La evolución tem poral de la densidad de probabilidad viene dada por

p t+ i ( x ) = / Pt(y)S{x - f{y))dy = 1
Jo

para t = 0. 1 ,.... y Po es la densidad inicial.


La densidad de probabilidad asintótica se sigue de la resolución de la ecuación integral de
Perron-Frobenius, definida por:

p{y) = f p{x)Hy - f{x))dx


Jo

http://librosysolucionarios.net
222 Orden y Caos en Sistem as C om plejos

que, com o hem os visto, da resultados analíticos para algunos ejemplos de interés. Por otra parte, si
la densidad de probabilidad es conocida, podremos evaluar el exponente de Lyapunov mediante

dx
'0

Podem os emplear el principio de máxima entropía para obtener p(x) em pleando co m o ligaduras
.V m om entos de la distribución. Siguiendo el estudio de Steeb (Steeb et al., 1994), emplearemos
.V = 2. C om o vimos previamente, la entropía de Boltzmann continua era

H - f p (x )ln [p (x )]d j
Jo

Tom arem os los momentos de orden inferior de las variables dinámicas que, para sistemas
ergódicos, son iguales a los momentos de la distribución de probabilidad para la evolución tem­
poral. Siguiendo los pasos habituales, tendremos, para el caso general, una ecuación variacional
asociada a:

r= ~ J p (x ) ln [ p(x) ]dx + do ^1 - J p (r )d x j +

+ ! > « ( < x n > - J l x np { x) dx \

siendo el con ju n to habitual de multiplicadores de Lagrange asociados a las N -j- 1 ligaduras. La


ecuación variacional nos da en este caso:

p(x) - e x p ^ - 1 -

Aqui Z = e 1+3° queda determinada mediante la normalización de la densidad de probabilidad,


de forma que

Los restantes multiplicadores de Lagrange se obtienen resolviendo el conjunto de -V ecuaciones


no-lineales acopladas:
•i /y
< >= 7
lz L \n=0

para rn = 1, 2..., A*.


Considerem os dos ejemplos resolubles analíticamente. El primero será la aplicación triangular,
con p ~ 2. Este sistema dinámico es mixing y ergódico. La distribución exacta de probabilidad es
p (x) = 1, así que sus momentos asociados son

< xn > - *
n+ 1

Tom ando los dos primeros momentos, < x > = 1/2 y < x* > = 1/3. la distribución será

http://librosysolucionarios.net
Caos Determinista 223

Debem os entonces resolver las ecuaciones no lineales:

1= / e x p f - 1 - fio — 3\x — x'2


= ¡:
di
~ ~ í x e x p [ ~ 1 - 3o — 3 i x ~ &2 X1
- Jo L d3\

Í=
3 Jo
J
x 2 e x p | - l - 0o - 3 i x - # » * 2] = -
' L - J
di
dfo
para hallar los multiplicadores de Lagrange. Se obtiene 3o — —1, 3i = 0, #2 = 0. A sí que
obtenem os p ( x ) = 1, en concordancia con la solución exacta.
Finalm ente, tomemos la aplicación logística para /x — 4. La densidad de probabilidad es
(Schuster, 1989),
1
p{x) =

Los m om entos toman ahora la form a

1 / 2u!
2 2" V??!n!

Luego los primeros momentos serán < r > = 1/2 y < x 2 > = 3 /8. Las nuevas ecuaciones son ahora:

1 = j e x p ^ - 1 - 3o - 3\ x - J j x '

1 = J x e x p j - l — 3o — 3 i x — 32x 2\

2 ri
g = y x2 e x p [ - i - 3o - 3 \x - 32x 2

Resolviendo numéricamente, encontram os los valores

30 = + 2 .6 9 2 4 2

31 = -6 .7 6 8 2 5

3-2 = - /? i
Em pleando estos valores, la integración numérica de la expresión integral para el exponente de
Lyapunov nos da un valor = 0.72, muy próximo al valor exacto.

5 .2 5 A p é n d ic e B : D e riv a c ió n d e las ecu acio n es d e L o re n z


Siguiendo la exposición presentada por Schuster (Schuster. 1989) describiremos aquí el procedi­
miento básico de obtención de las ecuaciones de Lorenz a partir del m odelo basado en las ecuaciones
básicas del m ovim iento de un fluido convectivo.
La idea de partida, descrita por el famoso experimento de Bénard, es estudiar el com por­
tam iento de una capa de fluido emplazada entre dos superficies planas y paralelas, separadas una
distancia h (en el eje vertical, figura 5.49. Si calentamos homogéneamente p o r d eba jo, se pro­
ducirá un transporte de calor entre esta superficie y la de arriba (que estará más fría), el cual,
en principio, tendrá lugar por conducción. Sin em bargo, si esta diferencia aum enta se produce un

http://librosysolucionarios.net
224 Orden y C aos en Sistemas Com plejos

Figura 5.49: Fluido convectivo: aparecen rollos convectivos de form a espontánea.

nuevo fenóm eno de autoorganización: el fluido presenta transporte convectivo y ju n to a éste se


da la organización espacial en forma de rollos convectivos. Si la temperatura sigue subiendo, esta
situación se hace inestable y aparecen nuevas frecuencias que, eventualmente, desem bocan en el
caos.
El fluido estará caracterizado por un cam po de velocidades v( r, í) y un cam po de temperaturas,
X{ r , í ) . Las ecuaciones básicas que describen el m odelo serán:

• La ecuación de Navier-Stokes:

p = F “ V p + /i V 2v

* La ecuación de Fourier para la conducción de calor:

= k V 2T
dt

La ecuación de continuidad:

^ + d iv (p v) = 0
dt

con las condiciones de contorno:

T (x , y, z = 0. t) = T0 + A T

T { x , y , z = h ,t ) = T0

Siendo p la densidad del fluido, /i su viscosidad, p la presión, k es la conductividad térmica


y F indica la fuerza asociada a la gravedad, dada por F = pyk. siendo k el vector unitario en
la dirección negativa del eje z. Las no-linealidades de este sistema de ecuaciones provienen de la
ecuación de Navier-Stokes (que es cuadrática en la velocidad).

http://librosysolucionarios.net
Caos Determinista 225

Supondrem os a continuación que el sistema es invariante bajo traslación en l.t dirección y , de


manera que asumimos que los rollos de convección son de longitud infinita. Supondrem os adicíonal-
mente que todos los coeficientes son constantes, excepto la densidad, que depende Ime.tlmente del
gradiente de temperatura en la forma:

p=p*(l-«A T)

La ecuación de continuidad será entonces:

du dw n
d ¿ + a7 = 0
con w = v. y u — vx . Podernos introducir la función v ( z , z, t) tal que:

dtp dtp
U ~ ~~d~z ; U’ “ ~~di
que satisface autom áticam ente las anteriores igualdades.
El paso siguiente es introducir una perturbación 0(x, z ,t ) del cam po lineal de 'ernperatura, por
medio de la expresión:
T (x. z .t ) = T0 + A T - ^ z -f B(x. z .t)
h
lo que nos lleva al siguiente sistema de ecuaciones:

d , d { t p ,V ¿v ) 4 d9
— VU- = - - 3 7 ------r " + 1' ^ t p + ga —
di d(x,z) dx

* 9 = _ | íM + £ « * +<cv ’ í
dt a (x , z) h dx

Siendo v = fj.jp' la viscosidad cinem ática y en las que hemos empleado la siguiente notación
abreviada:
d(a, b) _ da db da db
d { x , z) ~ dx dz dz dx

Asumiremos finalmente las condiciones de contorno empleadas por Loreuz:

0(0. 0, f ) = 0(0. h .t) = tl>(0.0,t) - tPÍO. h. t ) = V 2t¿(0, 0, f) = Y - ú ( Q J t . t )

y. llevando a cabo un desarrollo de Fourier para v y 0, retendremos sólo los terminas de orden
inferior y emplearemos las relaciones:

7TZ
sin , ,
r f ^ ' =v/^ '(í,SÍn ( T ) S¡ h

WR e = v ^ y ( í ) c o s ( ^ ) s m ( j j ) - 2 : ( í ! Sn / 2;rr
R CA T ' V h 1 \ h ) •' \ h

Donde ahora R = (gah:] j u ) A T es el núm ero de Rayleigh, a está definida po: la figura 5 49 (expresa
el tam año horizontal relativo del rollo con vectivo respecto del grosor del líquido) y R c '-i - Aa ~ 2( 1 +
a 2)3. Insertando las relaciones anteriores en las ecuaciones reducidas para c y 0. obtenem os
finalmente el m odelo de Lorenz:
dx
- = - y)

http://librosysolucionarios.net
226 Orden y Caos en Sistemas Com plejos

dy
- = rx- y - x ;

dz
di = bz + xy
donde las derivadas se llevan a cabo en realidad sobre el tiem po normalizado, cr = i //k es el llamado
numero de PrandI, b — 4 ( l + a 2) - 1 y r = R/Rc es el parámetro de bifurcación que heino-. explorado
al principio y que es proporcional a la diferencia de temperatura.

B ibliografía
1. A . A rneodo, P. Coullet y C. Tresser, Occurrence o f strange attractors in three-dimensional
Voltcrra equations. Pkys. Lett A 79 259 (1980).

2. H. Bai-Lin, Elementary symbolic dynamics. W orld Scientific. Singapore, 1989.

3. J. Banks, J. Brooks, G . Cairns, G. Davis y P. Stacey, On Devaney's Definition o f Chaos.


Am. Math. Montly 332, Abril 1992.

4. P. M. Binder y R. V. Jensen, Simulating chaotic behavior with finite-state machines. Phys.


Rev. A 3 4 4460 (1986).

5. R. H. Dalling y M. G. Goggin, Chaos is not an artifact o f finite-digit aritmethic. Am. J ■


Phys. 6 2 563 (1994).

6. R. L. Dcvaney, An Introduction to chaotic dynamical sysiems. Benjamin Cummings Publ.,


Menlo Park, 1986.

7. M. Feigenbaum, Quantitaiive universality f o r a class o f non-linear iransformations. J. Stat.


Phys. 19 25 (1978).

S. J. Ford. How random is a coin toss? Physics Today Abril 1983.

9. N. S. Glanc.e y B. A- Huberman, Dynamics with expectations. Phys. Lett. A 1 65 432 (1992).

10. L. Glass, M. R. Guevara, J. Bélair y A. Sbrier, Global bifurcations of a periodically forceed


biological oscillator. Phys. Rev. A 29 1348 (1984).

11. C. G rebogi. E. Ott y J. Yorke, Chaos. Strange Attractors and Fractal Basin Boundaries in
Nonlinear Dynamics. Science 238 632 (1987).

12. J. Guckenheimer y P. Holmes, Non-linear oscillations. dynamical systems and bifurcations o f


vector fields. Springer-Verlag, New York, 1983.

13. M. R. Guevara, L. Glass y H. Shrier, Phase-locking, period-doubling bifurcations and irregular


dynamics in periodically stimulated cardiac cells. Science 2 14 1350 (1981).

14. \V. S. C. Gurney. S. P. Biythe y R. M. Nisbet, Nicholson's blowflies revisited. Nature 2 8 7 17


(1980).

15. M. Hénon. A two dimensional man with a stranqe attractor. Commun. Math. Phys. 5 0 69
(1976).

16. A . V . Holden. Chaos. Manchester U. Press, Manchester. 1987.

http://librosysolucionarios.net
C aos Determinista 227

17. R . A. Hoimgrcn. A first cour.se in discrete dynamical systems. Springer-Verlag, New York,
1994.

18. B . A. Huberman, The ccology o f computation. North-Holland, Amsterdam , 1988.

19. E. A. Jackson. Perspectivas o f Nonlinear Dynamics. (2 vols.) Cam bridge U. Press, Cam­
bridge. 1991.

20. H. Kaplan, A cartoon-assisted proof o f Sarkovskii’s theorem. Am. J. Phys. 5 5 1023 (1987).

21. J. O. Kephart. T . Hoff y B. A . Huberman, Collective Behavior o f Predictive Agents. Physica


D 4 2 48 (1990).

22. Y . A. Kuznetsov, Elements o f Applied Bifurcation Theory. Springer Series in Applied Math-
ematical Sciences, vol. 112, New York, 1995.

23. L. D. Landau y E. M. Lifshitz, Mecánica de Fluidos. Ed. Reverte (1986).

24. E. N. Lorenz, La esencia del caos. Editorial Debate, Madrid, 1995.

25. M . C. Mackev y L. Glass. Osciliations and chaos in physiological central systems. Science
1 9 7 287 (1977).

26. M . A . Martin, M. Moran y M. Reyes. Iniciación al caos. Editorial Síntesis, M adrid, 1995.

27. R . M. May, Simple mathematical models with very complicated dynamics. Nature 2 61 459
(1976).

28. R . M. May, Nonlinear problems in ecology and resource management. en ^Chaotic behavior
in deterministic systems1’ , North-Holland, 1983.

29. J. L. McCauley, Chaos, dynamics and fractals. Cambridge University Press, Cambridge,
1994.

30. N. Metrópolis, M. Stein y P. Stein, On finite limit sets f o r transformations on the unit
interval. J. Combinatorial Theory 15 25 (1973).

31. H. Peitgen, H. Jürgens y D. Saupe, Chaos and Fractals. Springer-Verlag, New Y ork. 1992.

32. O. E. Rossler. An equation f o r coniinuous chaos. Phys. Lett. A 57 397 (1976).

33. D . Ruelle y F. Takens, On the nature of turbulence Commun. Math. Phys. 2 0 167 (1971).

34. H. G. Schuster, Deterministic Chaos. Springer, Berlin. 1989.

35. S- K. Scott. Chemical Chaos Oxford University Press, Oxford, 1994.

36. C. Simó, On the Hénon-Pomeau attractor. Jour. Stat. Phys. 21 465 (1979).

37. R. V. Solé, J. ValJs y J. Bascom pte, Spiral waves, chaos and múltiple attractors in lattice
models o f population dynamics. Phys. Lett. A 1 66 123 (1993).

38. S. Wiggins, Introduction to applied nonlinear dynamical systems and chaos. Springer-Verlag,
New York, 1990.

http://librosysolucionarios.net
Capítulo 6

Análisis de Fenómenos Caóticos

Hemos definido con anterioridad el con cepto de atractor extraño y vimos que la geom etría de estos
ob jetos es, al menos en parte, resultante de la sensibilidad a las condiciones iniciales. El carácter
disipativo de la dinámica garantiza la convergencia de las trayectorias dentro de la cuenca de
atracción hacia cierta región acotada del espacio de las fases que define la dinámica del sistema y
nos d a una imagen del orden (y del determinismo) subyacente. Por otra parte, la sensibilidad a las
condiciones iniciales hace que dos puntos inicialmente próximos situados sobre el a tra ctor se alejen
de m anera exponencial con el paso del tiem po. El resultado de ambas tendencias da lugar a un
proceso de estiram ientoy-plegado que origina las propiedades fractales ya com entadas. Veremos
ahora có m o cuantificar, desde el punto de vista de la dinám ica del sistema, la divergencia (y por
tanto la inestabilidad local) de las trayectorias.
Ya hem os visto que podemos calcular la dimensión fractal de los conjuntos atractores, al menos
en algunos casos. Hemos obtenido también expresiones para los exponentes de Lyapunov. Ahora
bien, la im portancia dei caos determinista sería reducida si no fuéramos capaces de aplicar las
ideas anteriores a la realidad. Y , aunque ciertamente las matemáticas son el lenguaje del universo,
la realidad no se presenta anunciándose con ecuaciones diferenciales. Aunque seamos capaces de
intuir cierto orden bajo el azar aparente, debemos medir cantidades relevantes o bien extraer el
orden intrínseco mediante procedimientos formales adecuados.
En algunos casos podemos aplicar de forma directa algunas ideas ya expuestas. Así. la di­
mensión fractal de un atractor extraño generado por una aplicación bidimensional puede ser cal­
culada m ediante el procedimiento de box-counting (ver capítulo 3). Este hecho sugiere que tal vez
podríam os emplear la medida de forma general para cualquier conjunto atractor, pero de hecho se
ha p rob a d o que no es así (Greenside et al., 1982). Para sistemas dinámicos con tres o más grados
de libertad, la convergencia de estas medidas suele ser mala, si la hay. Debemos emplear nuevas
medidas de dimensión fractal. Pero esta no es la mayor dificultad. Los problemas vienen del hecho
ya indicado de que no todas las variables son conocidas o accesibles.
Im aginem os una población de depredadores de la que conocemos (mediante estim as de algún
tipo) su dinám ica (fig. 6.1). Este sería el caso de las fluctuaciones de las poblaciones de los linces
del C anadá, registrados por la Hudson Bay Company, que com erciaba con sus pieles. A lo largo de
casi 200 años, el número de pieles contadas permitió disponer de una estimación de las fluctuaciones
poblacionales. Los linces no son, sin em bargo, un sistema aislado. Se alimentan de liebres árticas
y éstas a su vez lo hacen de la vegetación. A l menos tres variables (si no más) se hallan en juego.
A unque existen también algunos registros de las fluctuaciones de liebres, que tam bién exhiben
ciertas periodicidades, no disponemos de series temporales equivalentes de todas las variables.
Sólo de una. Hay casos aún más dram áticos, com o es el cerebro. Hace mucho tiem po que se
em plean los electroencefalogramas com o fuente de inform ación para el diagnóstico m édico. En la

229

http://librosysolucionarios.net
230 Orden y C aos en Sistemas Com plejos

t iem p o
Figura 6.1: Oscilaciones temporales de la población de linces del Canadá (Lynx canadiensis). Se
observa una periodicidad de unos 10-11 años con una gran variabilidad en la amplitud.

t iem po

Figura 6.2: Oscilaciones temporales de la actividad cerebral registradas a partir de medidas de


potencial en un punto del cuero cabelludo.

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 231

figura C.2 vemos algunos ejemplos de estas señales, obtenidas mediante electrodos colocados sobre
el cuero cabelludo. Estéis señales son irregulares aunque, desde luego, no totalm ente aleatorias.
¿Podrían estar asociadas con un fenómeno ca ótico? De ser así. parece difícil demostrar semejante
hipótesis, ya que no disponemos de una idea a p rion de cuántas variables están implicadas y ni
siquiera la medida que llevamos a cabo nos permite sabor exactamente qué tipo de variable estamos
manipulando. Estos ejemplos nos dan una idea clara de las dificultades a la^ que nos enfrentamos.
Nos preguntamos ahora ¿es posible extraer información de estas m edidas? o, más explícitamente,
¿p odem os conocer cuántas variables están implicadas y deducir la presencia de un atractor? Por
sorprendente que parezca, la respuesta es afirmativa.
En primer lugar estudiaremos en este capítulo el análisis de datos mediante la función de
autocorrelación y la transformada de Fourier. A continuación veremos cóm o resolver el problema
de medir la dimensión fractal de un atractor extraño cualquiera. Posteriorm ente discutiremos
cóm o estimar el exponente (o exponentes) de Lyapunov de un sistema dinám ico sin recurrir a sus
ecuaciones y finalmente veremos cóm o es posible reconstruir la dinám ica subyacente y determinar
el número de dimensiones de un sistema experimental partiendo de una sola variable.

6.1 Función de autocorrelación


Una primera medida, fácilmente realizable, y que nos da cierta inform ación acerca de la serie,
se obtiene a partir de la llamada función de autocorrelación C (~ ). Supongam os dada una serie
tem poral de datos S = {xj., £ 2,.... x/ v}. Sea = f¡¿(x o) — < 1 >• Entonces, la función de
autocorrelación de la serie se define en la forma

.Y -l N -l
C ( t ) — lim V x l+rx¿ ~ lim Y < x,*.T < x > > < x , - < x > >
N — oc N — v.
«=0 i=0 •
donde, para una aplicación unidimensional, en la que xI+ j= /^ (r ¿ ), se tendría

iV-l

i= 0
De esta definición se sigue que la función de autocorrelación proporcion a una medida de la
irregularidad de la secuencia de valores de la serie S. En la definición vemos que se emplean los
productos de las desviaciones respecto de la media < x > . luego si la serie es periódica veremos
que, para ciertos valores de r, en los que el sistema presenta correlaciones (productos del mismo
signo), tendremos m áxim os/m inim os en el valor estadístico de C( r ) .
Si disponemos de una densidad de probabilidad invariante p(x) para la aplicación dada (sobre
el intervalo unidad), la función de autocorrelación puede escribirse en la forma:

C ( T) = Í p(x)xf¿(x)dx- p (x )xd x
Jo

Para la aplicación triangular, por ejem plo, se tiene:

C(t-) = f xf¿(x )d x - xdx


Jo

f 1/2 í \\ 1 f l /2 f 1
d y --
12

http://librosysolucionarios.net
232 Orden y Caos en Sistemas C om plejos

O 25 50 75 100 125 150 175 200


k

Figura 6.3: Función de autocorrelacíón para (a) una serie temporal obtenida a partir de la apli­
cación logística con /z = 3.8 y (b ) electroencefalograma patológico (enfermedad de Creutzfeld-
Jacob).

http://librosysolucionarios.net
Anáfisis de Fenómenos Caóticos 233

y p or lo tanto las iteraciones están delta-correlacionadas. En la figura 6.3 se muestran dos ejemplos
de funciones de autocorrelación obtenidas para la ecuación logística en el dominio ca ótico y para
una serie tem poral de un electroencefalograma.

6 .2 T ran sform ada de Fourier


Cualquier señal (o serie tem poral, que podemos imaginar com o un muestreo de cierta función)
puede ser representada com o la superposición de un número infinito de funciones periódicas. Para
ser más explícitos, si f ( t ) es una cierta función del tiem po, admite una representación en la forma:

OO * *

/(*) = c o s ("7~^) + bk sin ( -7 * í

con ocid a habitualmente com o sen e de Fourier. Los términos dentro de los paréntesis asociados a
las funciones trigonométricas introducen los valores de las frecuencias asociadas a cada m odo de
Fourier, siendo los coeficientes de Fourier a* y bk las amplitudes asociadas a dich os m odos. En
cierta form a, estas amplitudes nos dan una medida de la im portancia del término p eriódico al que
están asociadas (véase el capítulo sobre neurodinámica).
Los coeficientes de la serie pueden determinarse a partir de las integrales definidas por:

j“ J
/
bk sin (^-~-i)f(t)dt k = 0 ,1 ,...
• £*

La descom posición de una función en serie de Fourier admite una representación com pleja que
es la em pleada habitualmente. De la notación anterior, podem os ver que:

e ikx I e -ik x \ ( , i k x __ ¿ , - i k r \
( J + bk I Yi 1 = c ke 'kx + c - k e ~ ' kx

donde (su¡>oniendo = 0) tiene

— i bk flt 4- ibk
ck = x c - k = ----- ------

con lo cual
1 f 1 f
Ck — — i (eos kt — i sin k t) f (t ) d t = — I / ( t )€“ ,fcf dt
27T J0 27r Jo

c-k = f (eos kt + i sin k t) f (t ) d t = £ f f ( t ) e ' kt


2 t Jo 2tt J0

Podem os resumir lo anterior en una sola expresión,

Señalemos que. si f ( x ) es una función real, entonces a* y bk son reales y los números c*. c _ t serán
en general com plejos, mutuamente conjugados.

http://librosysolucionarios.net
234 Orden y C aos en Sistemas C om plejos

f
Figura 6.4: Espectro de Fourier para ej atractor de Lorenz. Pese al carácter determinista de
la dinámica, aparecen infinitas frecuencias representadas en forma de una banda continua, que
sugeriría en primera instancia algún tipo de ruido.

El m étodo de la transformada de Fourier (T D F ) ha sido descrito en numerosos textos especia-


fizados y aquí nos limitaremos a una revisión somera. Para una descripción más detallada, y en
el contexto del caos determinista, recomendamos la lectura del capítulo III de Bergé et ai. (1988).
Para el planteanñento detallado del calculo numérico del problem a,'véase Press et al. (1992).
La idea básica que subyace a la aplicación de este m étodo es la posibilidad de detectar, a partir
de un conjunto de medidas temporales, las frecuencias básicas que participan en el fenóm eno y
su im portancia relativa (en términos de la amplitud asociada). Si el fenóm eno es totalm ente
periódico y sólo aparece una frecuencia, com o sería el caso de una señal sinusoidal, entonces esta
frecuencia nos da la información básica acerca de la serie en relación a su periodicidad. Si la serie
es biperiódica. tendremos dos frecuencias, aunque cada una puede poseer una amplitud asociada
distinta. El método de la transformada de Fourier nos dará los valores de las frecuencias y su
im portancia en relación con las amplitudes. En ocasiones, debido a la naturaleza "ruidosa” de la
señal, el m étodo permite detectar frecuencias no evidentes. En otros casos, no aparecen frecuencias
características sino una distribución continua de éstas, lo que puede estar asociado a ruido o a caos.
Supongamos una serie temporal (obtenida a partir de una señal dada) { x ( f y )} siendo t} = A t,
( j = 1 .2 .V ). La cantidad A t es el intervalo de medida con el que se ha muestreado la señal (o
en su caso el intervalo de integración numérica de las ecuaciones) o bien el tiem po característico
asociado al sistema, com o el que tenemos en sistemas dinámicos discretos.
Los inversos de los tiempos, esto es, / = t j 1 son frecuencias, y una de ellas, la frecuencia de
Nyquist,

= 2At
juega un papel especialmente importante. Si las frecuencias características del fenóm eno estudiado
se limitan a valores inferiores a / c , puede garantizarse que la serie finita contiene la inform ación
suficiente acerca del problema (en cuanto a sus periodicidades). Dicho de otro m odo, la serie
incluye el máximo periodo dentro del cual la dinámica se repite. Si la serie no incluye una muestra
lo bastante com pleta o bien si el muestreo que se realiza se hace con un A i demasiado grande,

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 235

tendremos una serie distorsionada por los componentes de la señal no representados en { z ( í j ) } .


Esta distorsión se denom ina aliasing y puede detectarse por el hecho de que la T D F , que definiremos
algo más adelante, no tiende a cero para / —*•f c. En caso de darse esta situación, la serie tendrá
p oca utilidad, aunque existen formas de salvar este obstáculo, al m enos en algunos casos.
La T D F de un conjunto finito { ^(í ^)} (en el que el tiempo está muestreado eu la form a:
tj = j A i, ( j = 1, 2 , N ) ) se define a partir de la relación

1 jV
r(tj) = x ( j A
k= 1

(i se v7- ! ) . A qui es la T D F del conjunto {x (íy )}. Si empleamos el hecho de que:

(V

E
fc= i
x ke
- ¡7xkj / N
x ke
-t2x-tj/V
= N ó k- ( 6 .2 . 1 )

(donde el asterisco indica la función com pleja conjugada), podrem os escribir la expresión de la
T D F a partir de la serie de partida:

Xk€
i2rkU/S\
* - E

y tenemos ademas, de 6.2.1 la siguiente identidad (teorema de Parseval)

¿ > ( t ) i 2= ^ E Ifc!
j= i j=i

Sí empleamos ahora la función de autocorrelación,

puede demostrarse que C - es:

fc= i
y la inversa de esta relación nos da una expresión de gran utilidad:

.v
k/s:

7=1

La gráfica de P { f k ) — en función de la frecuencia asociada f k = k / { N A t ) se denom ina


espectro de potencia y es el mas habitualmente empleado. La denom inación viene de la asimilación
de P ( f ) a una potencia, esto es. a cierta cantidad de energía por unidad de tiem po. Consideraremos
a continuación algunos ejemplos típicos.
El espectro de Fourier. igual que la función de correlación antes introducida, no es una m e­
dida apropiada para establecer si un fenóm eno dado es o no ca ótico. Los sistemas que exhiben
estocasticidad (cierto tipo de aleatoriedad) también exhiben espectros con una banda am plia de
frecuencias, así que esta observación (por otra parte cualitativa) por sí sola es p o co inform ativa.
Sin embargo, para explorar sistemas experimentales bien controlados, en los que los efectos del

http://librosysolucionarios.net
236 Orden y Caos en Sistemas C om plejos

f f

f f

Figura 6.ó: Espectros de Fourier el m odelo discreto de Lotka-Volterra, con distintos valores del
parámetro de bifurcación. Para las órbitas que exhiben cierta periodicidad, obtenem os espectros
de p oten cia con picos bien definidos, mientas que para los atractores caóticos obtenernos bandas
de frecuencia casi continuas.

http://librosysolucionarios.net
Análisis de Fenómenos Caóticos 237

cj
o

T IM E (t/T!

CÜ-

1.6 2 .4 3.2
F REQ U EN CY (w/Q)

Figura 6.6: Serie temporal y espectro de Fourier obtenidos de experimentos de dinám ica de fluidos
(C ouette-T aylor). La aparición de nuevas bifurcaciones va acom pañada de la aparición de nuevos
armónicos. En esta figura estam os en las proximidades de la transición hacia el caos (régimen
cuasipeciódico). Se indica también una sección de Poincare (Brandstater y Swinney, 1987)

http://librosysolucionarios.net
238 Orden y Caos en Sistemas C om plejos

TIME (t/T)
>-
< E-*
oí M
E-* U1
O 2
U Id
Q

c¿
w
s
oo ,
o
o

1.6 2.4 3.2


F REQU EN CY ( ü>/Q)

Figura 6.7: Serie temporal y espectros de Fourier correspondientes al experim ento de Couette-
Taylor. ya en la zona de caos desarrollado (compárase con la figura 6.6). La aparición de nuevas
bifurcaciones va acom pañada de la aparición de nuevos arm ónicos y de una banda continua de fre­
cuencias. La sección de Poincaré indica la destrucción del toro invariante (Brandstater y Swinnev,
1987).

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 239

Figura 6.8: Partiendo de un toro (izquierda) y deform ándolo de form a suave y progresiva, podem os
obtener distintos ob jetos topológicamente equivalentes.

ruido sean conocidos, la aparición de bifurcaciones puede ser adecuadamente caracterizada y pro­
porcionar inform ación útil. Un trabajo clásico en esta dirección lo llevaron a ca b o Harry Swinney
y sus colaboradores en relación con la aparición de caos en fluidos turbulentos. E m pleando un
sistema de estudio estándar, con ocid o com o el experimento de Couette-Taylor, en el que un fluido
gira entre dos cilindros concéntricos en rotación (Brandstater y Swinney, 1987; capítu lo 5) estos
físicos analizaron las series temporales obtenidas a partir de las medidas de velocidad del fluido,
que vem os en la figura 6.6. La evolución hacia el caos sigue, com o ya vimos, un escenario de
Ruelle-Takens. Los espectros de Fourier correspondientes se muestran a la derecha. La aparición
de arm ónicos sucesivos nos indica la aparición de dinámicas más com plejas con un espectro de
Fourier que muestra una banda continua de frecuencias ju n to a los armónicos dom inantes.

6.3 T eo rem a de W h itn e y y reconstrucción


Hasta ahora hemos supuesto casi siempre que la serie tem poral que analizamos proviene de un
sistema dinám ico conocido, con variables tambie'n conocidas de antemano. Sin em bargo, lo más
probable es que, ante un problema dado, sólo uno de los com ponentes del sistema com pleto sea
accesible a nuestro conocim iento. Así ocurre en los ejemplos de la introducción. En el prim ero, en el
que m ostrábam os la serie de cambios temporales de las capturas de linces en Canadá, disponem os de
inform ación acerca de uno de los com ponentes de una cadena trófica com pleja. P odem os conjeturar
al menos dos variables adicionales: las presas (básicamente liebres árticas) y la vegetación de la
que éstas se alimentan. Si sólo disponem os de una variable, ¿cóm o se puede extraer información
relevante acerca del sistema dinám ico com pleto? En algunos casos, la situación es aún peor: la
medida de los potenciales locales en el cerebro nos proporciona una serie de tem poral para la que
ni siquiera tenemos una variable o con jun to de variables de referencia bien definidas.
Si no existiera alguna forma de extraer propiedades relevantes a partir de estas series, que serán
las que encontraremos en nuestros experimentos o medidas de cam po, p o co sería lo que pudiéramos
decir acerca del caos determinista. Existe, sin embargo, un procedim iento efectivo para recuperar,
a partir de la serie temporal única, las propiedades relevantes del sistema com pleto y, lo que es
aún más im portante: de conocer cuántas variables precisamos para describirlo.
Antes de introducir este procedim iento, detengámonos a definir un concepto m atem ático que
emplearemos más adelante: la idea de equivalencia topológica. Supongamos que partimos de un
ob jeto Q C R 3 tal y com o un toro (figura 6.8). Imaginemos que podem os deform arlo de forma
continua (sin cortar ni pegar) hasta convertirlo en fV. Este segundo ob jeto com parte con el primero
su superficie suave, continua, y un agujero. Podríamos seguir deform ando f i' hasta obtener Q"
(figura 6.8), que sigue manteniendo las mismas propiedades. Está claro también que podem os ir

http://librosysolucionarios.net
240 Orden y Caos en Sistemas Com plejos

Figura 6.9: Botella de Klein: los objetos com o éste, que poseen una sola caxa, n o pueden sumergirse
en R 3 (no existe una inmersión) sin intersectarse a sí mismos. Puede demostrarse, sin embargo,
que dicha inmersión existe en R 4.

de un lado a otro de form a reversible. Los objetos Q, Q,' y O." (y todas sus formas intermedias)
son topológicamente equivalentes. Un toro y una esfera, por ejemplo, no son topológicam ente
equivalentes: no podem os transformar el uno en otro en la forma indicada. Más formalmente, la
equivalencia top ológ ica se define, com o veremos, por m edio de un difeom orfism o que describe en
términos m atem áticos la transformación de un ob jeto en otro. Los atractores extraños son objetos
geom étricos a los que podrem os aplicar esta idea.
Supongamos dada una serie de Ar datos ordenados cronológicamente y correspondientes a una
sola variable, digam os:
T( N) = z ( í 2), i ( Uv) í
La idea intuitiva que analizaremos a continuación es relativamente fácil de explicar. La serie de
puntos anterior corresponde a una de las variables (digamos la ; —ésima) del sistem a D —dimensional
subyacente. El com portam iento de los puntos del conjunto r ( A r) es el resultado de la interacción
con las restantes (D — 1) variables luego, de alguna forma, la información contenida en T(Ar) debe
retener las propiedades del sistema D —dimensional.
Construyamos un nuevo conjunto de puntos a partir de F(A '), de dimensión D:

r(A\ D , t ) = {x , - + r ) , .... x (t t 4- ( D - 1 )t-))}

siendo r > 0. La elección de r y D es por ahora arbitraria, si bien verem os que existen crite­
rios para determinar su valor adecuado. La nueva serie de puntos D ~dim ensional r(A\ D. r ) se
obtiene por tanto tom ando com o coordenadas de los valores de x(ti) y los correspondientes
r-desplazam ientos. Parece intuitivamente claro que el valor de x(t¡ + tit) y el correspondiente
x(ti + (n + l ) r ) se hallarán correlacionados, puesto que am bos han sido generados a través de
cierta ley determinista. También parece claro que r no puede ser en la práctica totalmente ar­
bitrario: si r es muy reducido, los puntos í(í,- -f- nr) y x( t, + (n + l ) r ) se hallarán trivialmente
correlacionados (con una clara dependencia lineal) y si r es excesivamente grande, la correlación
entre am bos puntos puede ser de hecho nula.
Lo que se desprende de lo anterior es que existe una relación topológica entre el conjunto
r( A\ £>, r ) y el correspondiente (y desconocido) conjunto

T (.D ) = { xí - ( x l ( t i ) , x 2( t , ) , . . . , x D( t i ) ) }

que obtendríam os de con ocer las ecuaciones del sistema. Existe de hecho la equivalencia

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 241

v se basa en un teorem a de la topología algebraica con ocid o com o teorema de W hitney.

T e o r e m a ( Whitney)

Si M es una variedad A7’—dimensional, existe una inmersión

<!> : M — ►R 2 v

(véase Takens, 1980).

Por inmersión se entiende un difeomorfismo <£ que aplica M sobre una variedad com pacta
A '—dimensional, M ' C R 2Ar+1. (Un ejemplo trivial de inmersión nos lo da un círculo: se trata de
una variedad 1-dimensional que puede sumergirse en R 2 pero no en R 1, otras dificultades pueden
aparecer en función de las propiedades geométricas del objeto, com o es el caso de la botella de
Klein (figura 6.9). La versión dada por Takens posteriormente es (Takens, 1980):

T e o r e m a ( Wkitney-Takens)

Si M es un con ju n to com pacto y


: M —* R 2jV

tal que $ £ C 2, entonces genéricamente, es una inmersión.

De forma más general, si el ob jeto en cuestión es un atractor generado a partir de un sistema


dinámico y en consecuencia podem os hablar de un cam po vectorial (definido por el flujo del sistema
dinám ico), direm os que dos cam pos C T-vectoriales F, G son C fc-equivalentes (donde k < r) si
existe un C k'difeom orfism o $ que transforma las órbitas <pt{y) de F en órbitas 4 > f { $ ( y ) ) de G de
form a que preservan la orientación. De form a intuitiva, podemos imaginar com o un cam bio de
coordenadas invertible y (posiblemente) no-lineal que, aunque distorsiona el flujo, lo hace de form a
suave y no confunde el orden en que las trayectorias visitan distintos puntos del atractor.
A partir de este resultado, se desprende de lo anterior que, dado un sistema dinám ico

f = F„ ( x( <) )

con x £ R c . y siendo T ^ D ) = { x = ( z q ,..., x q )}, si tomamos la j —ésima variable y la se­


rie correspondiente = {zjt(/i), Xk(tn), •••}, ésta nos permite la construcción de la serie
D —dimensional - ^ ' ( D ) definida por:

y W ( D ) = { x } = { z k( t j ) , x k(tj + T) , . . . , x k(t3 + ( D - 1)7-))} C R °

que es topológicam ente equivalente a Fíí(£)).


Este resultado es de una im portancia trascendental. Si el sistema dinám ico que subyace a la
serie temporal es ca ótico y posee un atractor extraño de baja dimensión, las propiedades de éste se
conservarán en el atractor reconstruido empleando el m étodo descrito. Podrem os, en consecuencia,
disponer de una fuerte evidencia de caos determinista partiendo únicamente de la serie temporal
medida. Podem os ilustrar este resultado empleando com o ejemplo el atractor de Róssler. que ya
hemos analizado con anterioridad. En el dominio caótico, este atractor presenta una topología
bien definida, confinada (aproximadamente) a una superficie bidimensional en la que tiene lugar
el estiramiento que produce la sensibilidad a las condiciones iniciales y el plegam iento que per­
mite confinar las trayectorias y generar la fractalidad. En la figura 6.10 indicamos este sistema
com pleto, en el que vemos la proyección en el plano (zr, y) y la geometría básica. Podem os recons­
truir el atractor em pleando la variable z(í ), que nos permite reconstruir el atractor en el espacio
( x( t ) , z ( ¿ + r ) , r ( t + 2 r ) ) . El resultado de esta reconstrucción se indica d eba jo: la proyección sobre el

http://librosysolucionarios.net
’ __________________________ Orden y Caos en Sistem as C om plejos

Figura 6.10: Equivalencia t o p o lo g ía entre (a) el atractor de Rdssler (indrcamos su proveccidn y su


topologla tridimensional) y (b) su contrapartida reconstruida. Pese a las d iferen cia s/es evidente
que poseen la misma estructura topológica. que, entre otras cosas, refleja la existencia de un
plegamiento que origina la fractalidad estadística del atractor.

http://librosysolucionarios.net
Análisis d e Fenómenos Caóticos 243

Figura 6.11: A tractor reconstruido a partir de laserie tem poral de las capturas de linces del Canadá
(figura 6.1). Se emplea un espacio tridimensional { L( t ) , + t ) , L(t + 2 r ) } con un retardo r de
tres años, (b) Topología asociada al atractor reconstruido.

plano ( x( í ) , x{t -+- r) ) es claramente consistente con la anterior proyección, y la to p o lo g ía del atrac­
tor reconstruido nos muestra las mismas propiedades que el original: divergencia de condiciones
iniciales en una región y plegamiento. Am bos atractores son topológicamente equivalentes.
V olvien do al ejemplo de los linces del Canadá, W illiam SchafFer realizó estudios pioneros acerca
de la reconstrucción de atractores basada en esta idea. En la figura 6.11 m ostram os el resultado
de reconstruir la serie anterior { ¿ ( f j ) } en un espacio tridimensional de coordenadas

{ L( t ) , L(t + t ) , L(t + 2 t ) }

siendo r = 3 años (Schaffer. 1984). Esta reconstrucción sugiere la existencia de un sistem a deter­
minista de baja dimensión. El estudio de Schaffer indica, de hecho, que las evidencias apuntan
hacia un atractor extraño. En la misma figura indicam os la topología del atractor sugerida por la
reconstrucción. Como vemos, aparece la estructura del atractor de Róssler.
Este tipo de tratamiento ha sido extensamente em pleado en muchos sistemas, algunos de los
cuales se analizan en este texto. Uno de los problemas im portantes a tener en cu en ta consiste en
elegir adecuadamente el espacio en el que se reconstruye el atractor así com o el valor adecuado
del tiem po de retardo r. El primer problema requiere conocer la dimensionalidad del sistema bajo
estudio (problem a que se analizará algo más adelante). El segundo se analizará en la siguiente
sección, pero podem os adelantar algunas ideas. En la figura 6.12 indicamos algunos ejem plos de
reconstrucción del atractor de Lorenz. empleando com o variable x(í). Vemos que el efecto de
r sobre el aspecto del atractor reconstruido es considerable. Para valores de r m uy pequeños,
los puntos están muy correlacionados, de forma que tenderán a tomar valores m u y similares, y
el atractor resultante quedará confinado a un dom inio longitudinal muy reducido. Para r muy
grande, los valores de r( f ) son prácticamente independientes (no olvidemos que se trata de un
sistema caótico) y com o resultado la serie presenta valores descorrelacionados. E stá claro por
tanto que deberemos emplear valores intermedios de r tales que permitan un desacoplam iento
significativo entre los valores consecutivos sin llegar a su independencia com pleta.

http://librosysolucionarios.net
244 Orden y Caos en Sistemas Com plejos

T au = 5 Tau ~ 20 Ta.iL - 60

A(t) A(t)

Figura 6.12: Reconstrucción del atractor de Lorenz empleando varios valores de r (expresado
com o m últiplo del intervalo de integración numérica A t). Los valores pequeños nos dan atractores
comprimidos en una zona estrecha y ios valores grandes indican claramente la descorrelación de la
serie a grandes distancias temporales.

6.3.1 E lección de r para reconstruir


Ya hemos visto que la calidad de la reconstrucción depende de la elección del tiem po de retardo
r. Debemos disponer de un criterio claro de elección del intervalo de retardo que no se base en
argumentos cualitativos y en esta sección veremos cóm o estimar r a partir de argumentos basados
en la teoría de la inform ación (Abarbanel, 1993).
Ya vimos con anterioridad cóm o definir la información mutua entre dos (sub-) sistemas A y
B. En un con texto general, podemos llevar a cabo un conjunto de medidas a,- € A y bj £ B.
Si podem os obtener una distribución de probabilidad para las medidas sobre A y B, esto es,
P a ( ci,) , P s(6y) así com o para las medidas simultáneas,

PAFii'hJtj i = P[a¡ € A n bj £ B\

entonces, com o sabemos, la información conjunta I = I { A ,B ) puede calcularse a partir de la


información acerca de una medida de <i, £ .4 y bj £ B , esto es,

PAB(a*,bj)
I(a t,b} ) - log 2
P A { a i ) P B {bj,

(que es obviam ente simétrica). La información mutua será el promedio sobre estas cantidades,

I = Y . E
a,C4 b,cfí

coincidente con las definiciones de información dadas anteriormente. Si es posible definir una
distribución continua, entonces se tiene una expresión integral,

I - JJ Pí r . y) log2
P{x,y)
P{*)P(V)
dxdy

http://librosysolucionarios.net
Análisis d e Fenóm enos Caóticos 245

Debemos trasladar ahora esta definición al problema de las observaciones realizadas sobre un
sistema cualquiera del que poseemos inform ación temporal en form a de una serie de valores {$(< )}.
Ahora, llamaremos A = {a‘(¿)} Y B = i s (* + r )}- ka información m utua será la inform ación
asociada a las observaciones realizadas en t con las obtenidas en t -f r . Así. para un r dado,
tendremos:
N
A r ) = Y p W t )' ^ + r )) loS; P ( s ( t ) ) P ( s ( t A r ))
t=i

Esta medida constituye de hecho una generalización, ahora para cualquier sistema no-lineal, de
la función de correlación (empleada típicam ente en sistemas lineales). Está claro que si las m edidas
temporales son independientes tendremos J (r ) = 0.
Para evaluar I ( r ) = 0 a partir de { s ( í ) } , calcularemos en primer lugar el histograma con una
precisión e para las frecuencias de aparición del suceso s(f). Si la serie es larga y podem os conjeturar
estacionariedad, tendremos P (t) - P ( t A r ). Para obtener la distribución conjunta, contarem os
las frecuencias de aparición de los pares (s (í), s(t A r ) ) según el mismo criterio.
El problem a a continuación es decidir qué propiedad de I ( r ) deberíamos emplear para establecer
el valor de r más adecuado. Como criterio, Fraser y Swinney (1986) propusieron emplear el primer
mínimo de J (r ) com o valor adecuado del retardo temporal.

6.4 D im ensión de correlación


Llegamos en esta sección a otro punto de enorme im portancia en nuestra discusión: estim ar el
número de dimensiones d mínimo necesario para caracterizar nuestro sistema caótico. Una vez
más, partimos de nuestra serie temporal única. Aunque hemos visto que es posible extraer una
primera inform ación cualitativa acerca de la posible existencia de caos p or m edio del m é to d o de
reconstrucción, no sabemos en realidad cuántas dimensiones debem os emplear. Este p rob lem a es
clave: si pudiéramos conocer el valor de d y este valor fuera reducido, dispondríam os de la evidencia
necesaria para atacar el problema de construir un modelo. En definitiva: la existencia o no de
una baja dimensionalidad marca el punto de inflexión que decide si existe o no un m od elo simple
del fenóm eno. C om o veremos, el m étodo de reconstrucción nos permitirá abordar este p roblem a y
resolverlo satisfactoriamente.
El m étodo que describiremos en esta sección fue desarrollado por Grassberger y P roca ccia (G . y
P., 1983a) y es aplicable (b a jo ciertas restricciones que estudiaremos) a cualquier sistema dinám ico
d-dimensional. Señalemos antes de continuar que el método de “box-countíng” , que se introdujo
con anterioridad, no es en general aplicable para dimensiones mayores que d = 2 (Greenside et al.,
1982). Esta medida constituye una cota inferior de la dimensión fractal previamente definida y es
fácilmente calculable a partir de un con jun to de puntos.
Sea dado este conjunto de puntos d —dimensional:

ttd = { X , € R d , i = 1, 2 , . . . , A r }

donde suponemos que los X 7 se hallan sobre el atractor. La integral de correlación para r > L) se
define com o

c W = A¥ .Á F ( i Ñ b ¡ j X f f ( ' - l l x ' - - x íll)


V «<J

siendo H (z ) la función de Heaviside, para la cual H (z ) = 1 si z > 0 y S ( z ) = 0 eri caso contrario.


El sum atorio puede interpretarse fácilmente: es el número de pares (X ¿, X_,) tales que su distancia

http://librosysolucionarios.net
246 Orden y Caos en Sistem as Com plejos

Figura 6.13: (a) Determinación de C (r ) sobre el atractor de Lotka-Yoiterra. (b) Detalle del método.

euclídea es inferior a r. Esta condición vendrá dada por tanto por


1/ 2

[X ¡ — X jf| = < r.
Lfc=i

Para un ob je to dado, el com portam iento de C (r ) con r sigue una ley exponencial,

C (r )« r -'

siendo el exponente u la magnitud que denominaremos dimensión de correlación, estrechamente


relacionada con D . Se define como:

, ln (C ( r ) )
v - - hm ■ —
r—*o ln (r)

Nuevamente, se evalúa v trazando la curva definida por los pares de puntos (lo g (r ), lo g (C (r ))) y
se estima la pendiente en la región lineal (si esta existe) tal y com o se indica en la figura 6.14. En
esta zona lineal, las propiedades de invariancia de escala se ponen claramente de manifiesto. Los
experimentos numéricos demuestran que u se halla en general por debajo de D si bien se aproxim a
mucho a su valor.
Supongam os que cubrim os nuestro atractor dado por el conjunto de puntos Q d con d ~ hipercu-
bos de lado e. Si se trata de un ob jeto fractal, el número de cubos N {e) de estas dimensiones que
contienen puntos del atractor sigue una ley
.-D
N(e\

Llamemos n, {i = 1, 2 ,..., N ) al número de puntos de Qd que se hallan en el interior del i—ésimo


cu bo no vacio. Podemos escribir aproximadamente
M ( ‘ )

N ‘2
1= 1

http://librosysolucionarios.net
Anáfisis de Fenóm enos Caóticos 247

6-

5;

4r

3^

2- ij = 1 . 6
............. - . y . _______________ ________________

cL

Figura 6.14: Función de correlación C (r ) para el m odelo de Lotka-Volterra discreto.

siendo < n 2 > el prom edio sobre todos los hipercubos ocupados. Empleando la desigualdad de
Schwarz, se tiene:

-M(«)
1 1 , —D
C (e ) >
N2 ' " ' " N 2M { e ) . M (e)
L «= 1

donde hemos em pleado el hecho de que

M ( e )

N = Y , n*
1=1

D e este último resultado se sigue, com o queríamos ver, que:

v < D

Para entender m ejor la relación anterior, introducirem os una vez más la entropía de Boltzmann,
dada por
M (e)

s [() - - Y p* 1osp*
i=l

siendo e la precisión (com o antes). Aquí p, es la probabilidad de que un punto pertenezca al


i — ésim o (hiper-)cubo. Es decir.

P' ~ Ñ
para N —* oo. Para un recubrimiento uniforme del espacio de fases, tenemos

1
Pt =
A í(«)

http://librosysolucionarios.net
248 Orden y Caos en Sistemas C om piejos

y la entropía será en este case particular, com o ya sabemos,

50(e) = log[M (e)] = C - D log(e)

Pero en general tendremos que S(e) < So(e). Si suponemos que la entropía puede escribirse en ia
forma:
S(e) = 5 0 - oTog(e)
(<r se denom ina dimensión de información), obtenemos:

<7 < D

Ahora, para probar que v < <r, consideremos dos recubrimientos (encajados entre sí) de pre­
cisión € y 2e, respectivemente. Tenemos obviamente que

M (e) - 2°M{2e)

y si pi es la probabilidad de que un punto caiga en el interior del i —ésimo cubo de la e-partición y


P} la de que caiga en el j —ésimo cubo de la 2e-partición, tendremos:

p, = £ >
*€>
Definamos ahora w,- com o pi = de donde se sigue que

E ^ = 1
«6j
De acuerdo con la ecuación para C (e) previamente obtenida, se obtiene (a primer orden):
M(f) Af(2f)

c u * Ep?= E
i =1 >= 1 »€>
y si asumimos que es independiente de j .

C(e) _ < ^ 2 >


C (2e) _ < o; >
Si calculam os la diferencia entre las entropías correspondientes a las dos particiones, vem os que

s m - S{e) = ' £ PJ log[u>,] =


i ,=i
y si definimos W — u ¡ < u; > , podemos emplear la desigualdad

< x 2 > > exp[< x log(z)]

para ver que, efectivamente, v < a. Combinando a la vez u y D , obtenemos una excelente
estimación del contenido en información del atractor por medio de las desigualdades

1/ < <7 < D

con igualdad sólo para el caso trivial de recubrimiento uniforme.


Tal y co m o han hecho notar Grassberger y Procaccia (1983) el valor de v tiene un Ínteres
suplementario: es en cierta medida una cantidad más interesante que D . ya que es sensible al
proceso dinám ico subyacente. Remitimos al lector al artículo original para un estudio más detallado
de la cuestión.
Q ueda un punto abierto en este apartado: la aplicación de esta medida a un conjunto de puntos
experimentales arbitrario si desconocemos la mayoría de las variables que intervienen o únicamente
disponernos de una de ellas.

http://librosysolucionarios.net
Análisis d e Fenóm enos Caóticos 249

—-- -1 — — —•—•- r

¡i
• •

• -
1
• 1] -
/
/ \
. .— ____ ;
/
\ • *•«*

O

100 200 300


b 400
Figura 6.15: (a) Estructura básica del corazón humano, (b ) Patrón normal de actividad cardíaca,
con el com plejo típico de ondas de despolarización-repolarización.

6 .5 A tra cto re s extraños en electrocardiogram as


Los ejem plos de sistemas reales en los que se ha detectado caos determinista por m edio de los
m étodos antes descritos son muy numerosos e incluyen turbulencia débil en fluidos (Brandstater et
al., 1986), reacciones químicas caóticas (Roux, 1983),' láseres (Ikeda, 1980; Haken, 1975), epidemias
(Schaffer y K ot, 1985) y dinámica de tejido cardíaco (Guevara et al., 1981). Entre los muchos
ejem plos a considerar, está el caso de la dinámica del latido del corazón así co m o sus distintas
patologías.
Si bien el estudio de los electrocardiogramas (E C G ) tiene una larga tradición en m edicina, la
exploración detallada de la dinámica no-lineal del corazón no se inició hasta la aparición de la
teoría del caos (véase Glass y Mackey. 1988, para una revisión de éste y otros sistemas fisiológicos
de interés).
La fisiología del latido cardíaco es bieu conocida. En el corazón humano (figura 6.15 (a))
encontram os cuatro cavidades: dos aurículas y dos ventrículos. La sangre venosa entra por ia
aurícula derecha, de ésta se desplaza al ventrículo derecho que, al contraerse, la envía a los pulmones
en los que se llevará a cabo el intercam bio gaseoso. A continuación esta sangre arterial volverá de
nuevo a la aurícula izquierda, al ventrículo izquierdo y de éste (por contracción) a tod o el cuerpo.
El m ecanism o de contracción muscular viene controlado por un marcapasos situado en la aurícula
derecha, llamado n odo senoauricular. Es en realidad una pequeña tira de músculo especializado en
la que se originan los potenciales de accióu que se transmiten hacia las aurículas. La contracción
de éstas se aprecia en la onda del electrocardiograma sano y se denomina onda P (figura 6.15 (b )).
Esta on d a alcanza entonces un segundo marcapasos. llam ado nodo aurículo-ventricular a partir
del cual se propaga la onda a continuación a través del haz de Hiss-Purkinje (cu ya estructura es
fractal) dando lugar a la contracción de los ventrículos. La onda se transmite desde la cara interna
hacia la periferia. La contracción ventricular es la que da lugar al llamado com plejo Q R S (figura
6.15 ( b ) ) que incluye tres ondas distintas de despolarización. La relajación posterior del ventrículo
introduce el último elemento en la dinámica: la onda T de repolarización.
Las distintas cardiopatías darán lugar a modificaciones im portantes de esta situación. Parece

http://librosysolucionarios.net
250 Orden y C aos en Sistemas Com plejos

evidente que la situación normal, que identificamos con un corazón sano, corresponde a un sistema
totalm ente periódico. Esta regularidad está por supuesto presente pero, de hecho, el corazón
sano es caótico. Este caos determinista puede detectarse de dos formas básicas, que veremos a
continuación. Pero antes, veamos cóm o aparecen los Atractores reconstruidos a partir de distintas
señales obtenidas de un sujeto sano así com o de enfermos que padecen distintas cardiopatías (figura
6.16).
Cualquier cambio en la transmisión del impulso a través del corazón puede dar lugar a m od i­
ficaciones que alteren la form a de las ondas del electrocardiograma. En ocasiones estos cambios
tienen que ver con lesiones del tejido, pero también pueden producirse p or arritmias de diverso
origen, com o el debilitam iento de miocardio. El electrocardiograma puede llegar a ser enormemente
desordenado, com o ocurre en la fibrilación ventricular, en la que se observan cam bios irregulares
espasmódicos de los potenciales. Si analizamos el ECG normal, podem os aplicar las técnicas
antes mencionadas para determinar su dimensionalidad. Partiendo del registro, llevamos a cabo la
reconstrucción del atractor (tal y com o se muestra en la figura 6.16 (a) para de = 2). Aunque la pe­
riodicidad está claramente presente (tenemos un órbita com pleja que se repite) esta representación
ya sugiere cierta variabilidad que podría indicar la existencia de una dinám ica más com pleja que
un simple ciclo límite deformado.
Babloyantz y sus colaboradores (Babloyantz y Destexhe, 1988) estudiaron este sistema y ob­
tuvieron com o resultado una clara prueba de caos de baja dimensionalidad en la dinámica del
corazón sano. Explorando medíante las técnicas anteriores los electrocardiogram as de individuos
sanos, encontraron que los atractores reconstruidos daban un valor de dim ensión de correlación
v E (4 ,5 ) y otras medidas (incluyendo los diagramas de Poincaré) eran consistentes con dicho
resultado.
Una segunda evidencia en favor de dinámicas com plejas en el corazón nos la da el estudio
de una serie de tiempo distinta: la que obtenemos a partir de los tiem pos entre latidos, y que
se denom ina frecuencia cardíaca. Un ejemplo de esta serie para un corazón sano, m ostrada en
la figura 6.17, indica la existencia de autosimilaridad en su estructura, tem poral (confirm ada por
distintas medidas). Incluso en situación de reposo, el ritm o cardíaco fluctúa de form a irregular, lo
que contradice la apariencia de regularidad que antes mencionábamos.
El estudio demuestra que las propiedades dinámicas del corazón sano son consistentes con un
sistema débilmente caótico. El espectro de Fourier da una señal del tipo P ( f ) oc f ~ s siendo 3 es 1,
lo cual, com o veremos, tiene implicaciones considerables en el estudio de los sistemas com plejos.
Por el contrario (y en contra de lo que sugiere la intuición) numerosas cardiopatías dan lugar a
situaciones dinámicas de alta periodicidad. La muerte súbita es un ejem plo claro de esta situación,
en la que el corazón se desplaza de una situación de caos a una situación periódica que, en este
caso, es patológica desde el punto de vista fisiológico.
Estos resultados han sido extendidos a otras situaciones relacionadas con la fisiología humana
y distintas patologías (Glass y Mackey, 1988). El hecho de que podam os caracterizar mediante
sistemas dinámicos simples situaciones patológicas aparentemente com plicadas ha hecho acuñar el
término enfermedades dinámicas a los autores de estos estudios. Existen num erosos ejemplos que
van desde las fluctuaciones de glóbulos blancos en sangre en ciertas leucem ias hasta desórdenes
respiratorios com o la con ocid a por respiración de Cheyne-Stokes en la que el ritm o de ventilación
se hace muy irregular.

6 .6 Lím ites fundam entales en v y


Desde el inicio de los estudios acerca de la existencia de caos determinista en sistemas reales
(especialmente mediante técnicas de reconstrucción) ios análisis de series tem porales han sido nu­
merosísimos. En un buen número de casos, com o los sistemas químicos, láseres o electrocardiogra-

http://librosysolucionarios.net
Análisis de Fenómenos C aóticos 251

V o l is * l e - 2 d e s p r é s de tau«3 (0,03 nis)

Figura 6.16: Atractores reconstruidos a partir de electrocardiogramas obtenidos (a) de un sujeto


sano (b ) de un sujeto con una cardiopatía congénita (c) durante una taquicardia ventricular y (d)
de un sujeto que ha padecido en alguna ocasión una taquicardia ventricular.

http://librosysolucionarios.net
252 Orden y Caos en Sistemas C om plejos

Figura 6.17: Serie temporal de los intervalos entre latidos consecutivos para un corazón sano. Posee
características fractales.

Figura 6.18: Serie temporal del cociente 0 18/ 0 16 (obtenido por interpolación de Grassberger
(1986).

http://librosysolucionarios.net
Análisis de Fenóm enos C aóticos 253

Figura 6.19: (a) Función de correlación C (r ) ¡tara la serie anterior y (h) saturación aparente de v.

mas, los resultados han sido muy claros. Pero estos resultados no siempre han sid o transparentes,
debido a la longitud de las series (a menudo m uy sugerentes, pero claramente insuficientes), al
ruido asociado a éstas o a am bos factores. Un caso particularmente confuso nos lo dan los estudios
de Nicolis y Nicolis (1988) acerca de la existencia de un atractor de baja dim ensión en la dinámica
a gran escala del clima terrestre.
Para obtener la inform ación necesaria, se emplearon los registros de las muestras de profundidad
de hielos polares. A partir de éstas, se estimó el cociente O 18¡ O 16 entre isótop os de oxígeno, que
proporciona una estimación dei volumen de hielo total e indirectamente del calentam iento global del
planeta. En ia figura 6.18 se muestra un ejemplo de estas series (de unos 500 puntos en los trabajos
de Nicolis y posteriores) que nos da las fluctuaciones a lo largo de unos 8 x 10° años. La serie
tem poral es irregular, pero p or otra parte observamos algunos signos de regularidad que sugerirían
algún tipo de estructura subyacente. Podemos reconstruir el posible atractor. y a continuación
estimar la dimensión fractal del conjunto.
Para los datos anteriores, el diagrama (lo g (C (r )) — lo g (r )) así com o la relación entre u y la
dimensión de inmersión de se dan en la figura 6.19. Vemos una aparente saturación hacia v ss 3.1.
El estudio de Nicolis y Nicolis concluía en que sus resultados eran com patibles con un atractor de
b a ja dimensión. De ser válido, este resultado indicaría que las propiedades esenciales del clima a
gran escala quedarían adecuadamente descritas m ediante un sistema dinám ico con cu atro grados de
libertad. La conclusión es fuerte, pero el número de datos es reducido. Los análisis posteriores (ver
Grassberger, 1986) cuestionaron la validez absoluta de estos resultados, especialm ente la existencia
de una adecuada saturación en v. No basta con que la gráfica v — de se desvíe claramente de la
esperada por un sistema con ruido, sino que debem os exigir una clara saturación. De forma
general, necesitamos de un criterio para disponer de una cota en el número de puntos empleados
y las dimensiones estimables.
Eckmann y Ruello (1993) propusieron una estim ación de los límites fundam entales asociados al
cálculo de v y del mayor exponente de Lyapunov A ¿. Expondremos aquí su argum entación básica.
Supondrem os que se tiene una serie temporal { x i , X 2, •••, Xn } sobre la que se aplicará el método
de reconstrucción. En de = m, tenemos una trayectoria m ~dimensional dada por el conjunto de
vectores
X n — (-En - n 4-1^ •••> ^n + m - l )

http://librosysolucionarios.net
254 Orden y C aos en Sistemas C om plejos

El m étodo de G P consiste, com o ya sabemos, en calcular la función de correlación C (r ) que está


acotada según
1 iV2
0 < C ( r } < - { N - m ){N - m + 1) « —

v a continuación estimamos u. El m étodo asume la relación C (r ) % r " , y por tanto si da es el


diámetro del atractor reconstruido, tendremos aproximadamente:

N2
C(da) * T

luego

Com o hem os visto, la estimación de la pendiente de log[C (r)] se lleva a cabo para valores
pequeños de r, com parados con da. Por otra parte, C (r ) debe ser grande así que debem os im poner:

?(*)'*■
T
a„ = p <<: 1
Tom ando logaritm os, obtenemos finalmente la restricción:

2 log(iV ) > v log

Si tomamos el caso límite (la igualdad) se sigue que el algoritmo GP no perm ite estimar dimensiones
v mavores que
r = 2 log(A')

Empleando logaritm os decimales, y si p — 0.1, vemos que para de < 6 necesitaremos N 103,
mientras que para de < 10 serán necesarios N % 1CP.
Un argum ento similar puede extraerse para el exponente m áxim o de Lyapunov. Cualquier
m étodo que se emplee para estimar requiere que cerca de ciertos puntos X n puedan hallarse otros
puntos X n+j; (para algún k) de forma que pueda llevarse a cabo una estim ación de la divergencia
prom edio de las órbitas. El número de puntos en una bola de radio r alrededor de .V es .V (J') ~ rt/
con ,\í(da) = A\ luego tenemos que

Este resultado nos lleva nuevamente a im poner las desigualdades,

r
T = P< 1
da

http://librosysolucionarios.net
Análisis d e Fenóm enos Caóticos 255

Debem os p or tanto exigir que

log(iV ) > i/lo g = Wog

lo que nos lleva al resultado de que el número de puntos N necesarios para estimar es aproxi­
madamente la raíz cuadrada de los em pleados en el cálculo de u.
Finalmente, debemos hacer notar que las desigualdades previas son fuertemente restrictivas, y
se han desarrollado métodos de estim ación adicionales de u, con el ob je tiv o de reducir los requeri­
mientos en el número de datos m anejados (Abraham ei al., 1986; Ellner, 1988). Siempre que sea
posible, deben aplicarse todos los m étodos aquí analizados, unidos al mayor conocim iento accesible
del problem a en cuestión. Los m odelos, si se contruyen con la inform ación suficiente, pueden ser
valiosísimos y complementar en m ayor o menor grado las carencias de datos.

6 . 7 E x p o n e u t e s d e L y a p u n o v : m é t o d o d e W o l f

Una m edida adicional que podem os llevar a ca b o es la estimación numérica de los exponentes
de Lyapunov a partir de una serie temporal. Supongamos que nuestro sistema dinám ico posee
dimensión d (ya sabemos cóm o determ inarla). Si el sistema es caótico, al menos uno de los d
exponentes de Lyapunov será positivo. Si los ordenamos de mayor a menor, un exponente m áxim o
de Lvapunov positivo nos dará evidencia adicional de caos. Existen distintos métodos de cálculo
de exponentes de Lyapunov (ver O tt et al., 1994) y aquí sólo nos detendremos en el más simple,
desarrollado por W olf y colaboradores en 1985.
Supongam os que nuestro atractor Q (típicam ente reconstruido en un espacio de dim ensión d a
partir de una serie temporal) está form ado por un conjunto de puntos X ( í ) 6 ÍL Tom em os uno de
estos puntos X i( 0 ) € Í l y busquemos el punto más cercano X 2(0) tal que su distancia sea

¿(0 ) = | | X i(0 )-X 2(0)||>€

esto es, el punto más cercano por encim a de cierta separación mínima e que corresponde a la
amplitud del (posible) ruido asociado a la medida. Dado que a m enudo este valor no se con oce, el
método requiere ciertas pruebas em píricas (W olf et al.. 1985).
A continuación, calculamos la distancia entre las imágenes obtenidas al cabo de cierto tiem po
T. esto es,
¿ ( T ) = ||X1( T ) - X 2(r)||
a partir de las cuales podemos calcular la divergencia

L {T )
^ iog2
m

que será positiva si las trayectorias divergen. El proceso se repite a continuación em pleando X ¡ (T )
y buscando otra vez el punto más cercano, etc. Promediando, se obtiene la estimación del exponente
de Lyapunov

, __ J _ ■c—', \\Xi{t + T ) — X 2(< + T)||


L ~ rT h ° g2 I ! X i( í) -x 2(í)||
prom ediado sobre r parejas de puntos que cumplen las desigualdades antes indicadas.
El m étod o de W olf posee algunos inconvenientes, entre ellos el hecho de que precisa de va­
rios parámetros para ser empleado. En otros métodos más sofisticados estos parámetros quedan
reducidos a unos pocos.

http://librosysolucionarios.net
256 Orden y Caos en Sistemas Com plejos

6 .8 La conjetura de K ap lan -Y ork e


Los atractores extraños, com o hemos visto, presentan típicamente propiedades geom étricas propias
de objetos fractaies. Este resultado se sigue de la coexistencia simultánea de los procesos de
estirado y plegado. La disipación conlleva el plegado y la sensibilidad a las condiciones iniciales el
estiramiento. Los exponentes de Lyapunov miden el estiramiento de las trayectorias y la dimensión
fractal las propiedades geométricas resultantes de am bos procesos. Parece natural esperar que
exista una relación (tal vez exacta) entre ambas cantidades. De ser así, p odria ser m uy útil en
el estudio de sistemas experimentales a la vez que permitiría com probar el resultado de ambas
medidas. En esta sección daremos argumentos cualitativos que conducen a dicha relación, que ha
sido form ulada com o una conjetura (Jackson, 1991).
Condsideremos para empezar una aplicación bidimensional f^ (x\ y) (que supondrem os en el
dom inio ca ótico) y que apliquemos ésta al conjunto de puntos U definido por el cuadrado unidad

U = [0 ,1 ] x [0, 1]

El resultado de aplicar una vez fp ( x , y) a U es un nuevo conjunto Si E U en el que se ha producido


estiramiento en una dirección y plegamiento en la otra. Obtenemos así un nuevo o b je to con
dimensiones características dadas por L\ > 1 (dirección de estiramiento) y L 2 < 1 (plegado), com o
se índica en la figura 6.20.
Asum iendo disipación, tenemos que L\,L¿ < 1- El área por tanto decrece y obtenem os una
"herradura” dentro de U (recordem os la transformación del panadero, estudiada en el capítulo
anterior). Podem os recubrir 5 1 con cuadrados de lado L-¿. El número de éstos será:

fi
Al repetir de nuevo la operación, obtenemos una nueva herradura de longitud L\ y grosor L\.
Ahora necesitaremos cuadrados de lado L\ para recubrir el nuevo conjunto S^\ su numero será
ahora:

K (L \)

Para la k —é sima iteración, obtendremos

u_
N {L *)
M .

http://librosysolucionarios.net
Análisis de Fenómenos Caóticos 257

elementos.
Consideremos ahora la conocida expresión para la dimensión fractal, dada por

.-D
lim A'(c'
<—o
De esta obtenemos, empleando

Li - (rk\-D
N (ik
2:
L2

una relación para la dimensión fractal y los valores L2'

log ( L i )
D = 1+
log (L 2)\

y, puesto que ios Lk com o sabemos están relacionados con los exponentes de Lyapunov por Lk =
eAk, se sigue la relación entre dimensión y exponontes de Lyapunov

D " l + Ú

Esta sería una expresión particular de la conjetura K -Y . ¿Es este resultado general? Kaplan
y Yorke propusieron en 1979 que efectivamente así era. Podem os esbozar el razonam iento com o
sigue (Jackson, 1991). Si ordenamos los exponentes de Lyapunov en orden decreciente, esto es
Ai > ^ 2 > ••• > Am, y M 6 2 es el mayor entero tal que

j =i

(que equivale a decir que L\L2...L m > 1). Kaplan y Yorke conjeturaron que la dimensión del
atractor sería

Dkv — Af -+•
|Am + 1!

Esta iguaidad es clara en el caso 2-dimensional, donde Ai -f < 0, M = 1 y p or tanto Dky =


D . Para ver que la igualdad es cierta para otros casos (aunque no en todos, com o demostraron
Grassberger y Procaccia. 1983b) analizaremos el caso tridimensional.
Sean ahora las longitudes características L\. L2, L$ y supongamos que L\L2Lj, < 1. de forma
que ¿3 < 1. Consideraremos el caso L\ > L2 > 1 de manera que tenem os expansión en dos
direcciones. L"n ejemplo de este caso se muestra en la figura 6.21. Para recubrir el atractor con
cubos de lado ¿ 3. precisaremos

¿r u
A’ ( £ 3) -
M . M .
cubos. Si iteramos k veces, necesitaremos

L 1 L2
,V (I ‘ ) =
£3
cubos. E11 el límite para k —* oc, se obtiene

http://librosysolucionarios.net
258 Orden y Caos en Sistemas Com plejos

Figura 6.21: Caso 3D, con L\ > L 2 > 1 (véase el text<

= ( ! *k)\ - D

y de aquí,

log(£i.L2) _ 2 _|_ ^1 + -^2


0 = 2+
|log(I3)¡ |A3|
Ahora bien, d a d o que At + A2 + A3 < 1, tenemos M — 2 y por tanto Dky = D.
Ahora considerem os una argumentación adicional para la conjetura K Y . Consideremos un sub-
espacio M -dim ensional de R n que se expande y hacia el cual convergen todas las trayectorias. La
dirección de aproxim ación más lenta se da a lo largo del eje M + 1, luego si tomamos hipercubos
de lado L%f+ 1, podrem os recubrir el atractor empleando un núm ero

N( k) =

Si utilizamos este Ar(fc) para estimar el número m inim ode cubos necesario para recubrir el atractor,
entonces tendrem os

~Di
A ky\LíM + 1) = M + lJ
+ +,
Hay una fuente posible de error al realizar la estimación, que se da debido al hecho de que
podríamos encontrar una colección de hipercubos capaz de recubrir el atractor y tal que su número
fuera inferior a Nky■ Que ello sea así o no dependerá de cóm o tenga lugar el plegamiento definido
por la dinám ica. U11 ejemplo simple (Grassberger y Procaccia, 1983b) nos lo da el caso L\ > 1 >
L '2 > L¿. En la figura 6.22 vemos el plegamiento en la dirección 3. Es obvio que los ¿ 2' cu ^os
pueden incluir muchas capas generadas en el proceso de plegamiento a lo largo de la dirección 3.
Tendríamos así Ar(£ * ) < - " ^ ( L * ) ' esto es> Dky > D.

6 .9 D etecció n de determ in ism o


En presencia de una serie temporal irregular (con un espectro de Fourier sugerente de aperiodicidad
de algún tip o ) una posible forma de detectar caos determinista y distinguir el fenómeno de ruido,

http://librosysolucionarios.net
Análisis d e Fenóm enos Caóticos 259

Figura G.22: C ontraejem plo para la conjetura K Y (véase texto]

E
Figura 6.23: Gráfica del error m edio de traslación con respecto a la dimensión de inmersión E para
el atractor de Hénon caótico y para ruido blanco Gaussiano. Aquí r = 2, k = 4. N r = 100.

consiste en com probar simplemente si la serie está o no generada por un sistema determinista.
La detección de determinismo puede llevarse a cabo de distintas formas ( Kaplan y Glass. 1991:
Wayland et a l 1993) pero todas ellas descansan en la hipótesis de continuidad de las órbitas en
el espacio de fases. Este hecho se considera en estos métodos com o evidencia de determinismo.
Supongam os que partimos de una serie temporal {x (< )} con t = 1,.... N . Construimos en primer
lugar la serie E-dimensional

X (» = { x ( j ) , x ( j -F r ) x(j + ( E - 1)-)}

que, com o sabemos, quedará adecuadamente aproximada por cierta función continua / (que rep­
resenta el cam po vectorial asociado al sistema dinámico, si éste está definido). Para un X (¿ ) dado
arbitrario, un m étod o de detección de determinismo (W ayland et al.. 1993) es buscar k vectores
{ X ( } ) } tales que
l|X(¿) - X(;)|| < e

http://librosysolucionarios.net
260 Orden y Caos en Sistemas Complejos

mas concretamente, el con junto de k puntos más cercanos (según un entorno de radio e) a X(/ ).
A continuación calculam os las imágenes de estos puntos, que llamaremos Y ( j ) y calcularemos el
vector desplazamiento:
V(j) = Y ( j ) - X ( j )

Si el sistema es determinista, deberíamos esperar que estos vectores fuesen aproximadamente


iguales. Si < V > es la m edia de estos desplazamientos,

< v > = r n g vü)


finalmente, podem os calcular el error de traslación e¡, definido por:

i v iiv(j)- <y>ir2
* * + ¡i < v > ¡r2

(empleam os la distancia euclídea). El error de traslación mide la dispersión experim entada por
X 'í ) relativa al desplazam iento promedio < V > . Si la serie temporal es determ inista, los V (t )
serán aproxim adam ente iguales y el error de traslación m uy pequeño. En la figura 6.23 vemos
un ejem plo de cálculo de e*, donde se ha promediado sobre A*r puntos elegidos al azar sobre el
atractor de Hénon (parám etros estándar) y para una serie de ruido blanco. El prom edio < e t > se
ha calculado em pleando N = 1024 puntos, con t — 2, k = 4 y A'r = 100 puntos al azar sobre cada
serie. El sistema de H énon exhibe un crecimiento exponencial en < et > al aum entar E , mientras
que se mantiene aproxim adam ente constante para un sistema aleatorio.
Existen otras medidas de interés que permiten descubrir la presencia de caos determinista en
series temporales. Algunas de ellas se basan en representaciones apropiadas del sistema dinámico
em pleando gráficas que permitan detectar las recurrencias del sistema (Eckm ann et al., 1987).
Otros, de enorme interés, se basan en la existencia de predictibilidad a corto plazo característica
de los sistemas que exhiben caos determinista. Uno de los métodos más interesantes es el método
de predicción no-lineal, desarrollado por G. Sugihara y R. M ay en 1990. Consiste en dividir la
serie tem poral en dos m itades, emplear la primera com o fuente de datos con ocid os y a partir de
esta primera mitad llevar a cabo la predicción sobre la segunda parte. Para cierta dimensión
de inmersión dada reconstruim os el atractor del sistema y, siguiendo una filosofía similar a la del
m étodo anterior, tom am os puntos de la segunda mitad de la serie y buscamos aquellos de la primera
mitad que están más cerca (con cierto criterio de proxim idad). La proyección posterior en el tiempo
de estos puntos (em pleando un criterio geométrico dado) se com para con el valor esperado conocido
en la segunda mitad de la serie. La bondad de la predicción de mide y prom edia. Este método
se aplicó con muy buenos resultados a algunas series bien conocidas de epidemias, confirmando la
existencia de caos que y a se había conjeturado por otros métodos.
Existen diversas m onografías acerca de estas (y otras) aproximaciones (O tt et al., 1994; Abar-
banel et al., 1993; B ascom pte, 1995), que aquí sólo nos hemos limitado a resumir.

6 . 1 0 C o n t r o l d e l c a o s

Tras haber analizado una cantidad considerable de sistemas caóticos, probablem ente se haya llegado
a la conclusión de que la dinámica caótica es en cierto sentido mucho más desordenada que la
dinámica periódica o cuasiperiódica. Por ejemplo, si consideramos un péndulo sim ple no disipativo,
sabemos que éste oscila eternamente con una amplitud fijada que depende de la condición inicial.
Si variamos ligeramente la posición o la velocidad iniciales, el péndulo cam biará su amplitud. Y

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 261

nada más. Si contem plam os su espacio de fases, veremos que antes se m ovía en una órbita y ahora
lo hace en otra. A m bas órbitas son estables e independientes. Dadas las condiciones iniciales, t:l
movim iento siempre tiene lugar en un lugar del espacio de fases lim itado, y no se puede acceder al
resto. El m ovim iento, efectivamente, es altamente ordenado e infinitamente predictible, y pequeños
cam bios en las condiciones iniciales únicamente inducen pequeños cam bios en la dinámica a largo
término.
Pensemos ahora en un sistema caótico. Para empezar, si un sistema es caótico resulta que pro­
bablemente también será ergódico, con lo cual su trayectoria puede acabar visitando tod o el espacio
de fases del sistema. Si variamos ligeramente la condición inicial, ya sabemos que obtendrem os
divergencia exponencial de las trayectorias, pero los lugares del espacio de fases visitados por el
sistema serán los mismos. El sistema, ciertamente, puede parecer m ucho más desordenado, pero
también es mucho más flexible. Si en este sistema realizamos un cam bio arbitrariamente pequeño
en las condiciones iniciales, la dinám ica a largo término sufre un cam bio enorme, que de hecho
im posibilita la predicción. En este sentido, el estudio de la respuesta de un sistema dinám ico a
pequeñas perturbaciones puede ser una medida de la existencia de dinám ica caótica en el sistema.
Recordem os el escenario de Feigenbaum hacia el caos. La dinám ica del sistema, variada en
función de un parámetro, presenta una serie de bifurcaciones sucesivas que tienen un punto de
acumulación, a partir del cual la dinám ica es caótica. En cada una de estas bifurcaciones, una
órbita de periodo p se inestabiliza (n o desaparece, sino que ya no es un atractor estable de la
dinámica) y da lugar a una órbita de periodo 2p. Cuando nos adentram os en el dom inio caótico,
¡as órbitas periódicas aún existen, pero son inestables. En particular, un atractor extraño puede
ser caracterizado mediante estas órbitas periódicas (Lathrop y Kostelich. 19S9), y debido a la
ergodicidad del sistema, puntos infinitamente cercanos a cualquiera de ellas van a ser visitados por
el sistema, en un cierto tiempo característico que puede ser estimado. Más que eso, arbitrariamente
cerca de cualquier punto del espacio de fases, existe una órbita periódica. Esto es, las órbitas
periódicas son densas en el atractor extraño.
La flexibilidad de los sistemas caóticos posibilita el uso de técnicas de control que estabilicen
alguna de las infinitas órbitas periódicas presentes en un atractor extraño, mediante pequeñas
perturbaciones en las variables o en los parámetros del sistema. Esta es la esencia de la teoría del
control del caos. Los primeros pasos los dieron en 1990 E. Ott, C . Grebogi y J. Yorke, quienes
introdujeron lo que actualmente se con oce com o método OGY, y que se basa en la variación
controlada de los parámetros del sistema. Para la aplicación de este m étodo es necesario conocer
la expresión analítica de la órbita que se desea estabilizar, o cuanto menos el punto por donde
intersecta la sección de Poincaré (e{ punto fijo de la aplicación correspondiente). También es
posible el cálculo a partir de precisas estimaciones numéricas, con lo cual en principio no es necesario
conocer a priort la dinámica del sistema de forma analítica.
Rápidam ente se intentó aplicar este tipo de control a dispositivos experimentales, y los resulta­
dos interesantes no se hicieron esperar. Los ejemplos más inmediatos fueron sistemas clasificables
dentro de lo que llamaríamos osciladores caóticos, sencillos de recrear en el laboratorio y también
(com o se vio) sencillos de controlar (D itto, Rauseo y SpaDO, 1990; Singer, W ang y Bau, 1991).
Un segundo m étod o de control, que relajaba las condiciones exigidas por el m étodo O G Y . fue
propuesto por G üém ez y Matías (m étodo GM) en 1994. En este caso, era posible llegar a estabilizar
órbitas de periodo arbitrario p en un sistema caótico aplicando perturbaciones periódicas con este
mismo periodo. La ventaja de este nuevo m étodo es que no es necesario conocer a priori la dinámica
del sistema, ni analítica ni numéricamente. Veamos estos métodos y sus aplicaciones.

6.10.1 El m é to d o O G Y
Seguiremos en esta sección básicamente el artículo de F. J. Romeiras et al. (1992), ya que es la
referencia en donde este método está más ampliamente explicado.

http://librosysolucionarios.net
262 Orden y Caos en Sistemas C om plejos

Consideraremos, pues, sistemas dinámicos discretos del tipo

x í+1 = F (x ¿ ,p ) (6.10.1)

donde p es el parámetro variable del sistema, de valor real pero restringido a un intervalo rela­
tivamente estrecho en este caso. En principio podríamos tratar con sistemas continuos, pero nos
restringiríamos a su sección de Poincaré, con lo cual estos sistema se incluyen en el caso 6.10.1.
El valor de p está restringido porque es el parámetro que se utilizará para controlar el sistema,
así que únicamente se permitirán pequeñas variaciones alrededor del valor p, que es el que da
la dinám ica real del sistema, |p — p¡ < S Supondremos que trabajamos en el régimen caótico,
y por tanto cuando p = p debem os obtener un atractor extraño con infinitas órbitas periódicas
inestables arbitrariamente próximas a cualquier punto. Debem os decidir en primer lugar cuál de
estas órbitas inestables deseamos estabilizar. Será necesario considerar la aproxim ación de primer
orden (lineal) del sistema alrededor del punto fijo de la aplicación de Poincaré (correspondiente a
la órbita periódica). Entonces, de form a local, en un entorno de este punto, se aplicará el m étodo
de control. La dinámica caótica implica que el sistema entrará en este dominio en tiem po finito.
Nos centraremos en la estabilización de órbitas de periodo 1, com o ejem plo de la forma de
trabajar con el método de control O G Y . Llamemos x ’ (p) al punto fijo inestable de la sección de
Poincaré. Para valores de p cercanos a p y en un entorno del punto fijo x*(p ), la aplicación 6.10.1
se puede aproximar linealmente por

x,-+ i - x '( p ) = A [x¡ - x "(p )] + B (p - p) (6.10.2)

donde A es una matriz jacobian a n x n y B es un vector n ~ dimensional,

A = D x ,F ( x ,p ) , B = D PF ( x ,p ) _

con las derivadas parciales evaluadas en los puntos fijos, x * (p ) y p. Supondremos que el parámetro
p es una función lineal de la variable x , ( así es como se introduce el control en el sistema) de la
form a

p~ p~ -K t [x , - x* (p)] (6.10.3)

La matriz 1 x n —dimensional K T debe de ser determinada de forma que el punto fijo x *(p ) sea
estable. Sustituyendo 6.10.3 en 6.10.2 se obtiene

x 1+i - x "(p ) = (A — B K t ) (x, - x "(p )j (6.10.4)

que muestra que el punto fijo será estable si la matriz A — B K T es asintóticamente estable, es
decir, com o se ha visto en el capítulo 2, si todos sus valores propios tienen m ódulo menor que la
unidad.

Técnica del em plazam iento de los polos

El problem a de determinar el valor del vector K T para que la matriz A — B K ' tenga valores
propios previamente especificados se soluciona mediante la técnica conocida com o emplazamiento
de los polos. Los valores propios de la matriz A — B K ^ se denominan polos reguladoras.
Si suponemos que deseamos obtener el conjunto { p i , . . . p n } de valores propios para la ma­
triz A — B K T , los resultados que siguen garantizan la existencia y la unicidad de la solución, y
proporcionan el m étodo para obtenerla (m étodo de Ackerm ann).

http://librosysolucionarios.net
Análisis de Fenóm enos C aóticos 263

1. El problem a del em plazam iento de los polos tiene una solución única si y sólo si la matri
n x n

C = ( B :A B :A 2B : . . . :A ” ~ 1B )

es de rango n. C se llama matriz de controlalnlidad.

2. La solución al problem a del emplazamiento de los polos está dada por

K T = ( o , - an, .. .,<*i - a i) T - i

con T = C W , y

/ Gjj —1 an —2 1\
a n —2 Un — 3 1 0
W =

ai 0 0
\ 1 0 0/

donde { a i , 02, •. . , a „ } son ¡os coeficientes del polinom io característico de A ,

l-sl - A| = sn + O ís "-1 + . . . 4 - an

y { « i , Q2, . . . , a n} son finalmente los coeficientes del polinom io característico de A — B K r ,

JJ(s - p j) - sn + a \ s n 1 + . . . + a n
j = 1

El p a rá m e tro del co n tro l

Hasta el momento, se ha lim itado la aplicación del control a un entorno del p u n to fijo x ‘ . Por
otra parte, dado que se ha lim itado el rango en el que se puede variar el parám etro de control p .
obtenem os una restricción

|Kr [x, - x '( p ) ] | < 6

que define una franja de anchura 2<5/|Kr ]. Se activará el control sólo para valores de x, en el
interior de este dominio, y el parámetro tendrá el valor real p cuando el sistema se halle fuera de
la franja determinada. En resumen, se determina el control por

p -p = -K t [x , - x '(p )] x u (ó - ¡K t [X [ - x ‘ (p)]|)

para valores arbitrarios de x¿, no necesariamente cercanos al punto fijo, y donde u es la función
escalón o de Heaviside (ya vista).
En principio, cualquier elección de los polos reguladores en el interior del círcu lo unidad sería
válida. Sin embargo, si se con oce el punto fijo y el valor de los vectores propios que definen
las direcciones de las variedades asociadas a este punto fijo, se puede imponer por ejem plo que el
vector K 7" tenga dirección paralela a la variedad estable, lo cual optim iza el tiem po de estabilización
necesario.

http://librosysolucionarios.net
264 Orden y Caos en Sistemas C om plejos

6.10.2 C ontrol de la aplicación de H énon por el m é to d o O G Y


Describiremos explícitamente cóm o calcular las magnitudes anteriores en el caso concreto de la
aplicación de Hénon (véase el capítulo sobre caos). Recordemos que esta aplicación 2—dimensional
está dada por

£ n+ i = a - x 2
n + by

yn+ i = x n ( 6. 10. 5)

Fijaremos el valor del parámetro b = 0.3 y consideraremos pequeñas variaciones alrededor del valor
de d = 1.4 a fin de controlar la órbita periódica del sistema. El punto fijo de la aplicación es

x “ = (zo>yo) = 9 (1 ,1 ), q = - c + (c2 + a )1/¿, c = i ( l- 6 )

para a > —c 2. La matriz jacobiana del sistema es

d * .* -(* )= (T o)

La estabilidad del punto fijo está determinada por las raíces de la ecuación característica

¡D x , F ( x ‘ , a) - slj - 0

El punto fijo será estable si —c2 < a < 3c2 e inestable si a > 3c2 (por tanto inestable cu an do
b = 0.3). Las cantidades relevantes que necesitamos son, calculadas a partir de las definiciones
dadas en la sección anterior,

A = ( l I O o) B= Ü ) c ( b :a b ) =(¿ - 2*°

W = ( 2Í° o) T=(l l) K* =
donde

d i — 2q — ~ (A U + A3), a 2 — ~b — AUA¡

É>1 = - ( P l + P 2)i = P l P2

Los valores propios de la matriz A son A, y Au, correspondientes a las soluciones positiva y negativa,
respectivamente, de

A,.u ~ - q ± (q2 4- 5 )l/2

Las cantidades p i y p 2 son los polos reguladores. Una posible elección de estas dos cantidades es

P i = 0, P2 = A,,

y en este caso controlarem os el sistema privilegiando la dirección de la variedad estable. La matriz


K t será

K 7 = A „ (l,-A ,)

http://librosysolucionarios.net
Análisis de Fenóm enos Caóticos 265

Cuando el sistema entra en la zona

|KTx, — x ' ( á ) j < ¿

activamos el control. El tiem po qu*> el sistema tarda en estabilizarse en la órbita elegida es mínimo
para la elección realizada de los polos reguladores.

6.10.3 El m é to d o G M
El m étodo de Güémez y Matías (G M ) de control del caos es más sencillo de aplicar que el anterior,
ya que no im plica ningún conocim iento sobre las órbitas periódicas del sistema. La idea es muy
sencilla: si deseamos estabilizar una órbita de periodo p en un sistema caótico, debem os perturbar
el sistema con pulsos periódicos proporcionales al estado que el sistema presenta. Para algún valor
de la intensidad de la perturbación, que debe ser determinado en cada caso y para cada sistema, la
órbita deseada se estabiliza. En principio, si se vana la intensidad de la perturbación, ?, se obtiene
tod o un diagrama de bifurcación. Para algún valor de 7 , en particular, será posible obtener la
órbita del periodo deseado.
Este m étod o es más apropiado para controlar sistemas en los que no se conozcan los parámetros
que los guían, pero en ios que se pueda realizar una medida sobre las variables. C on ociend o
las variables y actuando sobre ellas se estabiliza el sistema. En particular, podem os pensar en
sistemas químicos, sobre los que se podría añadir fácilmente un reactante externam ente, o en
ecosistemas, con parámetros difíciles de localizar, pero en los que se pueden evaluar adecuadamente
las densidades de población, por ejemplo.
La aplicación del m étodo es muy sencilla. Consideremos una aplicación n —dimensional del tipo

x n + i = F ( x „ , p)

donde p es un parámetro del sistema. Si se desea estabilizar una órbita p —periódica, aplicarem os
una perturbación a intervalos regulares, en la form a que se ha dicho, y de hecho tendrem os una
nueva aplicación de la forma

x j + i = F jixk iP ) 3 = - M +

x ,+ \ = F t(x fc, p) x (1 + 7 ¿,,p)

donde com o se puede ver la perturbación se aplica a una sola de las variables, y 7 es un parámetro
en esta nueva aplicación. La variación de este nuevo parámetro puede inducir, com o y a se ha
com entado, una cascada de bifurcaciones sucesivas hacia el caos. El término <5¿iP significa que sólo
debemos m ultiplicar el estado actual del sistema por 1 + 7 cada p pasos de tiempo.

6.10.4 C on trol de la aplicación de H énon p or el m é to d o G M


Consideremos de nuevo la aplicación de Hénon 6.10.5 y aplicaremos esta vez el m étodo G M para
controlar una zona caótica de esta aplicación. Tomaremos en particular los mismos parámetros
que en la sección 6.10.3, a ~ 1.4 y b = 0.3, pero ahora perturbaremos periódicam ente una de las
variables. Hemos escogido la variable x , que será perturbada cada paso de tiem po, con lo cual
tenemos ahora la aplicación

J'n + 1 = (a - x\ + by) X (1 + 7 )

yn + 1 — Xn ( 6 . 10. 6 )

http://librosysolucionarios.net
266 Orden y Caos en Sistemas Com plejos

Figura 6.24: Control de la aplicación de Hénon según el m étodo GM . Los parámetros de la apli­
cación original son a — 1.4 y b = 0.3. En el eje x se varía el valor del parámetro perturbador 7 , lo
cual permite recuperar un diagrama de bifurcación com pleto.

D onde —1 < 7 < 0, para mantener las variables dentro de su dominio de definición y evitar
divergencias. Obsérvese en la figura 6.24 el nuevo diagram a de bifurcación correspondiente a la
aplicación perturbada 6. 10.6.
C cm o se puede ver, distintos valores del parámetro 7 provocan la estabilización de órbitas de
diferentes periodos. Por ejem plo, podríam os estabilizar una órbita de periodo 2 utilizando valores
de 7 entre -0.4 y -0.2, aproxim adam ente (figuras 6.24 y 6.25).

Los sistemas caóticos son controlables mediante pequeñas perturbaciones, precisamente porque
son caóticos. Un sistema periódico, más regular, no posee esta flexibilidad. El control de sis­
temas regulares implica grandes perturbaciones, tan grandes com o el efecto que se desea obtener.
Parece claro que esta propiedad será una nueva característica a explorar y explotar en los sistemas
caóticos. También funcionará el caso contrario, la desestabilización de dinámicas periódicas. En
una dinámica originariamente caótica que haya sido estabilizada por algún tipo de malfunción,
se puede tornar al caos original mediante pequeñas perturbaciones. Aunque es quizá demasiado
pronto para haber obtenido resultados espectaculares, la idea del control del caos debería de tener
amplia aplicación en medicina: nuestro sistema nervioso y nuestro corazón, los dos m otores princi­
pales de nuestro cuerpo, son débilmente caóticos. Veremos que la periodicidad puede ser patológica
(véase el capítulo sobre neurodinám ica).
A nivel teórico se ha iniciado la aplicación de los m étodos de control a redes neuronales, ya sea
en sistemas continuos (Sepulchre y Bablovantz, 1993) o discretos (Solé y Menéndez de la Prida,
1995), en cualquier caso con resultados espectaculares y muy prometedores. A otro nivel, ya se
em pieza a hablar de la esperanza que estos m étodos ofrecen a disfunciones periódicas, com o la
epilepsia (Glanz, 1994).
Los primeros experimentos de control en sistemas experimentales ya se han sucedido: se ha
eliminado la turbulencia (m anteniendo por tanto el régimen laminar) en fenómenos de convección
térm ica (Singer et al., 1991); se ha estabilizado un oscilador som etido a la acción gravitatoria y a
una fuerza magnética (D itto et al.. 1990); se han eliminado arritmias químicamente inducidas en

http://librosysolucionarios.net
Anáiisis de Fenómenos Caóticos 267

50 100 150 200 250

Figura 6.25: Estabilización de una órbita de p eriod o 2 en la aplicación de Hénon mediante el


m étodo G M . El valor de la perturbación (aplicada cada paso de tiem po) es -■ = —0.2. Se comienza
a perturbar en el paso t\ = 100, y se elimina el con trol en Í2 = 200.

el ventrículo de un con ejo (Garfinkel et al., 1992), e incluso se ha empezado a trabajar y a en tejido
neuronal cultivado ¿n vítro (Schiff et al., 1994). Sin duda, estos ejemplos representan la punta del
iceberg.

B ibliografía
1. H. D. Abarbanel, R. Brown, J. J. Sidorowich y L. Sh. Tsimring, The analysis o f observed
chaotic data in physical systems. Rev. Mod. Pkys. 6 5 1331 (1993).

2. N. B. Abraham, A . M. Albano, B. Das, G. de Guzmán, S. Y ong, R. S. Gioggia, G . P. Puccioni


y J. R. Tredice, Calculating the dimensión o f attractors from small data sets. P hys. Lett. A
1 14 217 (19S6).

3. A. Babloyantz y A . Destexhe, Low-dimensional chaos in an msiance o f epilepsy. Proc. Nati.


Acad. Sci. USA 83 3513 (19S6).

4. A . Babloyantz y A . Destexhe, Is the norm al heart a periodic oscillator? Biol. C ybem . 58


203 (1988).

5. J. Bascompte, Buscant l ’ordre ocult deis sistem es hiológics. en: "Ordre i Caos en Ecología” .
Publicaciones U. de Barcelona, (1995).

6. P. Bergé, Y. Pom eau y Ch. Vidal, L'ordre dans le chaos. Hermann, Paris. 1984.

7. A. Braudstater, J. Swift, H. L. Swinney, A . W olf, J. D. Farmer, E. Jen y J. Crutchfield,


Low-dimensional chaos in a hydrodynamic system . Phys. Rev. Lett. 51 1442 (1983).

8. W . L. Ditto, S. N. Rauseo y M. L. Spano, Experim ental control o f chaos. P hys. Rev. Lett.
6 5 3215 (1990).

9. J.-P. Eckmann, S. Oliffson Kamphorst y D. Ruelle, Recurrence plots o f dynam ical systems.
Burophys. Lett. 4 973 (1987).

http://librosysolucionarios.net
268 Orden y C aos en Sistemas C om plejos

10. J.-P. Eckmarm y D. Ruelle, Fundamental limitations fo r estimating dime.nsions and Lyapunov
expon en ts in dynamical systems. Physica D 56 185 (1992).

11. S. Elíner, Estimating attractor dimtnsions from limited data: a new method, with error
estim ates. Phys. Lett. A 133 12S (1988).

12. A. Fraser y H. Swinney, Independent coordínales fo r strange attractors from mutual Infor­
mation. Phys. Rev. A 3 3 1134 (1986).

13. A . Garfinkel, M. L. Spano, W . L. Ditto y J. N. Weiss, Controlling cardiac chaos. Science


2 5 7 1230 (1992).

14. J. Glanz, D o chaos control techmques offer hope fo r epilepsy? Science 2 56 1174 (1994).

15. L. Glass y M. C. Mackey, From docks to Chaos. Princeton U. Press, New Jersey. 1988.

16. A. L. G oldberger y D. R. Rigney, Sudden death is not chaos, en: “ Com plex Patterns in
Dvnam ic Systems’1, World Scientific Publ., New Jersey, 1988.

17. P. Grassberger e I. Procaccia, Characterization o f strange attractors. Phys. Rev. Lett. 50


346 (1983a).

18. P. Grassberger e I. Procaccia, Measuring the sirangeness o f strange attractors. Physica D 9


189 (1983b).

19. H. S. Greenside, A . W olf, J. Swift y T. Pignataro, Impracticality o f boz-counting algorithm


fo r calculating the dimensionality o f strange attractors. Phys. R ev. A 2 5 3453 (1982).

20. M. R. Guevara, L. Glass y A. Shier, Phase locking, period-doubling bifurcations and irregular
dynam ics in periodically stimulated cardiac cells. Science 2 1 4 1350 (1981).

21. H. Haken, Analogy between higher instabilities and fluid and lasers. Phys. Lett. A 5 3 77
(1975).

22. K. Ikeda, H. Daido y D. Aikm oto, Optical turbulence chaotic behavior o f transm itted líght
from a ring activity. Phys. Rev. Lett. 48 617 (1980).

23. E. A . Jackson, Perspectives in nonlinear dynamics, vol. II, Cam bridge University Press,
1991.

24. D. KaplaJi y L. Glass. Understanding nonlinear dynamics. Springer, New York. 1995.

25. D. P. Lathrop y E. J. Kostelich, Characterization o f an experim ental strange attractor by


periodic orbits. Phys. Rev. A 40 4028 (1989).

26. M. A . M atías y J. Güémez, Stabilization o f chaos by proportional pulses in the system vari­
ables. Phys. Rev. Lett. 72 1455 (1994).

27. C. Nicolis y G . Nicolis. Is there a climatic attractor? Nature 3 1 1 529 (1984).

28. E. O tt, C . Grebogi y J. Yorke. Controlling chaos. Phys. Rev. Lett. 6 4 1196 (1990).

29. E. O tt. T . Sauer y J. A. Yorke. Coping with chaos. John W iley k. Sons, 1994.

30. D. Peak y M. Frame, C haos under control. The art and Science o f co m p lex ity . W . H. Freeman
and C om pany, New York, 1994.

http://librosysolucionarios.net
Anáfisis de Fenómenos C aóticos 269

31. W . H. Press, S. A. Teukolsky, W . T . Vetterling y B. P. Fleunerly, Numerical Recipes. Cam ­


bridge University Press, 1992.

32. F. J. Romeiras, C. Grebogi, E. O tt y W. P. Dayawansa. Controlling ckaotic dynamical


system s. Physica D 5 8 165 (1992).

33. J. C . Roux, Experimental studies o f bifurcitions leading to chaos in the Bclousov-Zhabotinsky


rcaction. Physica D 7 57 (1953).

34. D . Ruelle, D eterm inistic chaos: th e S c ie n c e and the f ic t io n . Proc. R. Soc. Lond. A 2 4 7 241
(1990).

35. W . M . Schaffer y M. K ot, Nearly one-dim ensional dinamics in an epidemic. J. tkeor. Biol.
1 1 2 403 (1985).

36. W . M . Schaffer, Stretching and folding in Lynx fu r reta m s: evidence fo r a strange attractor
in nature? Am . Nat. 1 2 4 798 (1984).

37. 3. A . Sepulchre y A. Babloyantz. Controlling chaos in a network o f oscíllaiors. Phys. Rev.


E 4 8 945 (1993).

38. S. J. Schiff, K. Jerger, D. H. Duong, T. Chang, M. L. Spauc y W . L. Ditto, C ontrolling chaos


in the brain. Nature 3 7 0 615 (1994).

39. T . Shinbrot, C . G rebogi, E. O tt y J. A. Yorke, Using small perturbations to con trol chaos.
N ature 3 6 3 411 (1993).

40. 3. Singer, Y .-Z . W ang y Haim H. Bau. Controlling a chaotic system. Phys. R ev. Létt. 66
1123 (1991).

41. R . V . Solé y L. Menéndez de la Prida, Controlling chaos in discrete neural networks. Phys.
L eti. A 199 65 (1995).

42. G . Sugihara y R . M. May, Nonlinear forecasting as a way o f distinguishing chaos fro m mea-
surem ent error in tim e series. Nature 344 734 (1990).

43. F. Takens, Detecting strange attractors in turbulence. En: Dynamical systems and turbulence.
(D . Rand y L. Young, eds.) Lecture Notes in MathemaUcs. 8 9 8 Berlín, Springer.

44. R . Wayland, D. Bromlev, D. Pickett y A. Passamante. Recognizing determ inism in a time


series. Phys. Rev. Lett. 70 580 (1993).

45. A . W olf, J. B. Swift, H. L. Swinney y J. A. Vastano. D etcnninm g Lyapunov exponents from


tím e series. Physica D 16 285 (1985).

http://librosysolucionarios.net
Capítulo 7

Fenómenos Críticos

En capítulos anteriores hemos explicado la existencia de com portam ientos dinámicos de distintos
tipos. Hemos encontrado soluciones periódicas, cuasiperiódicas y caóticas, de orden y desorden. Ya
en la introducción conjeturábamos que la com plejidad debía ser un fenóm eno emergente a m edio
camino entre las estructuras ordenadas y las desordenadas. Diversas propiedades clave, com o son la
existencia de fractalidad, una elevada capacidad de transferir información o la habilidad de algunos
sistemas para responder a un entorno variable, necesitan cierto grado de orden y cierto grado de
desorden. Hasta ahora no hemos profundizado en el problema de delim itar (si lo hay) el dom inio
en el que la com plejidad aparece más a menudo. Una primera aproxim ación, enormemente valiosa,
nos la proporcion a la teoría de los fenómenos críticos.
Los fenóm enos críticos representan un caso particular de las denom inadas transiciones de fase.
Siempre que un sistema físico pasa de una fase, o estado, a otra, decim os que experimenta una
transición. En ésta, las propiedades físicas del sistema cambian. En la vida cotidiana observarnos
numerosos ejem plos de transiciones de fase: el agua que hierve, la naftalina que se evapora, ei hielo
que se funde. Está claro en estos casos que la geometría de nuestro sistema y sus propiedades
cambian d ebido a la transición. Las dos fases del sistema (por ejem plo, agua líquida antes y
vapor de agua después), están claramente diferenciadas, si la transición se realiza en condiciones
cotidianas, habituales. Podem os encontrar unas condiciones habituales en la cocin a de casa, donde,
si la presión es de una atmósfera, el cambio tendrá lugar a una temperatura de 100°C. C om o ei
vapor de agua es menos denso siempre se coloca sobre el agua líquida. A fin de que la transición
tenga lugar debem os suministrar una cierta cantidad de energía al agua líquida. Esta energía se
emplea en dotar a las moléculas de energía cinética, de m odo que puedan romperse los enlaces por
puente de hidrógeno, responsables del estado líquido habitual del agua. Esta energía suministrada
se denom ina en este caso calor latente de vaporización, y está claro que será una cantidad no nula
en las condiciones habituales.
Supongam os ahora que, paulatinamente, vamos aumentando la presión a la que se produce la
transición. Si la presión es superior a 1 atmósfera, la temperatura a la que el agua hierve aum enta a
su vez. El gas es m ucho más compresible que el agua, así que su densidad aumentará rápidamente
cuando se lo som eta a presión. ¿Qué sucede si aumentamos aún más la presión, hasta el punto
en que gas y Líquido presenten la misma densidad? Esto es posible, y cuanto más nos acercam os
a este punto, más se asemejan las dos fases. Cuando las densidades se igualan, gas y líquido no
son dos fases aisladas y distinguibles, sino que se hallan íntimamente mezcladas: hay burbujas de
líquido dentro del gas, que contienen a su vez más burbujas de gas m enores, rellenas de pequeñas
burbujas de líquido... y así hasta el nivel molecular. En este punto, para estas condiciones, donde
la tem peratura es de Tc = 647yC y las densidades se han igualado a pc — 0.32 3g /cm J, ya 110 es
necesario absorber calor para pasar a la fase gaseosa, así que el calor latente de vaporización se

271

http://librosysolucionarios.net
272 Orden y Caos en Sistemas com plejos

Figura 7.1: Diagrama de fases del agua. Las líneas continuas representan las zonas de coexistencia
entre fases. La línea de coexistencia líquido-gas acaba en un punto crítico. R odean do esta zona se
puede obtener un cam bio de fase continuo (línea de puntos, entre A y B).

anula en este punto. A quí es donde se produce una transición crítica entre las dos fases. En la
figura 7.1 se puede ver el diagram a de fases del agua.
En el caso de la transición sólido-líquido para el agua, la coexistencia crítica de las dos fases
(donde el calor latente de fusión sería nulo y las densidades se igualarían) no se produce para
ningún valor de la presión. T odas las transiciones de este tipo son denominadas de •primer orden,
con calor específico de fusión no nulo y separación explícita de las fases.
El ejem plo de la transición crítica líquido-gas del agua nos sirve para introducir las medidas
cuantitativas que pueden ser aplicadas a las transiciones de fase y, en particular, las utilizadas en
el caso de los fenóm enos críticos.

Transiciones de fase Transiciones de fase de


de primer orden orden superior (críticas)
Calor latente ^ 0 Calor latente = 0
Variables del sistema Las variables del sistema
discontinuas cambian suavemente
(las derivadas no)
Reordenación radical de Reordenación suave de la
la estructura del material estructura (p. de orden)

En la tabla anterior se resumen esquemáticamente las diferencias entre las transiciones discon­
tinuas o de primer orden (calor latente, reordenación del m aterial,...) y las transiciones continuas,
críticas o de orden superior (calor latente nulo, variaciones suaves,...).
Una de las variables im portantes del sistema, que ayuda a definir el tipo de transición, es en
este caso la diferencia de densidad entre la fase líquida (p ¡} y la fase vapor (pg), A p = p¡ ~ pg .
Esta diferencia, finita antes de alcanzar el punto crítico, se anula al llegar a éste, y sigue siendo
cero después de la transición (para temperaturas superiores a Tc ). La m agnitud que p rovoca el
cam bio puede ser la temperatura o la presión, pero obsérvese que en cualquier caso nos m overem os
sobre la curva de coexistencia de las dos fases. La m agnitud A p es el primer ejem plo de lo que
se denomina parámetro de orden. C om o su nombre indica, es una especie de m edida del orden

http://librosysolucionarios.net
Fenóm enos Críticos 273

Figura 7.2: C om portam iento cualitativo del parámetro de orden en la transición líquido-gas del
agua, en función de la temperatura.

existente en el sistema. Siempre tiene valor cero antes de la transición y se hace p ositivo de forma
continua después (o viceversa). X o existe, sin em bargo, ningún m étodo que nos indique cóm o
hallar, en general, un parámetro de orden. Para la transición líquido-gas del agua, el parámetro
es la diferencia de densidades. Veremos que para los fenómenos paramagnéticos ju ega este papel
la magnetización, pero para otros sistemas hallaremos una enorme variedad: e l número de celdas
en la m áxim a agrupación para una transición del tip o de la percolación (se verá más adelante), la
am plitud cuántica de un cierto suceso para una transición a la superconductividad o la diferencia
entre ciertas densidades molares en las mezclas de fluidos binarios, entre otros m uchos.

R esulta esencial en la descripción y comprensión de los fenómenos críticos el estudio del com ­
portam iento de ciertas magnitudes en el tiem po y en el espacio. Ya hemos visto que las dos fases
líquido-gas del agua, antes de la transición crítica, están perfectamente diferenciadas. Sin em­
bargo, en la transición y después de ésta, están fuertemente mezcladas. Está claro que ha habido
un ca m b io en la geometría, en el tipo de homogeneidad que el sistema presenta antes y después.
En particular, justo en el punto en que tiene lugar la transición, la coexistencia de las dos fases
presenta una geometría fracial, únicamente limitada por la escala molecular, p or un lado, y por
el tam año del sistema, por otro. La coexistencia de las dos fases en el p u n to crítico es una co­
existencia dinámica. Existen fluctuaciones que abarcan todas las escalas de tie m p o y también de
espacio. En este sentido, hace terriblemente diñ’cil establecer valores exactos prom ediados, sea
en el tiem po o en el espacio, debido a estas fluctuaciones tan violentas. Por ejem plo, en el caso de la
transición crítica del agua, se produce un fenómeno ó p tico conocido con el n om bre de opalescencia
crítica. El agua pierde su aspecto transparente debido a la dispersión de la luz provocada por las
fluctuaciones de todos los tamaños (dominios de gas o líquido que pasan de una fase a otra), las
cuales le otorgan una apariencia turbia. De ahí el nom bre de opalescencia.
Este tip o de geometría autosimilar es lo que confiere a los sistemas críticos su m ayor interés. No
hay ni un tiem po ni una longitud característicos en el sistema. Los sucesos espaciales y temporales
se repiten a cada escala a la que estos sistemas responden.
En las secciones siguientes formalizaremos todas las ideas descritas y verem os cóm o precisa­
mente los valores de los exponentes que caracterizan las leyes de escala, los llam ados exponentes
críticos, permiten agrupar b a jo clases comunes diversos fenómenos críticos que se producen en
sistemas m uy diferentes a nivel elemental, y que no podrían ser comparados lejos de estas transí-

http://librosysolucionarios.net
274 Orden y Caos en Sistemas com plejos

ciones críticas tan particulares. Este hecho será de gran im portancia en nuestro intento de hallar
propiedades generales comunes a distintos sistemas complejos.

7.1 El M o d e lo de Ising
El m odelo de Ising representa, sin duda alguna, el ejemplo más utilizado para describir una tran­
sición crítica, en este caso entre un estado (o fase) paramagnético y otro ferrom agnético. Fue
ideado por W . Lenz en 1920. pero la primera solución exacta, para el m odelo en una dimensión,
la dio E. Ising en 1925. El modelo en dos dimensiones no fue solucionado hasta 1944 (Onsager),
y a pesar de casi 80 años de esfuerzo, el m odelo en tres dimensiones no ha p od id o ser resuelto
exactamente.
Cuando hablam os de "resolver un m od elo” nos estamos refiriendo, en este caso, a hallar,
analíticamente y de forma exacta, su función de partición. A partir de ella, se calculará el punto en
que tiene lugar la transición (en caso de que exista) y los exponentes críticos que la caracterizan,
si esto es posible.
Resolveremos explícitamente el m odelo en una dimensión (veremos que n o presenta transición
crítica) para introducir las ideéis básicas de las técnicas de la renormalización. Estas técnicas
aprovechan la invariancia de escala que el punto crítico presenta para plantear ecuaciones de re­
currencia, precisamente a escalas diferentes. Si se pueden solucionar, el punto fijo de la recurrencia
proporciona el punto invariante de escala, el punto crítico. Por desgracia, estas ecuaciones son en
general no resolubles, aún en el caso de tratar con modelos (com o el de Ising) extremadam ente
simplificados.

7.1.1 El M o d e lo de Ising
Consideremos una red en n —dimensiones, y coloquem os en el centro de cada una de sus celdas
un ” espín” . La representación más simple de este espín consiste en asignar un estado s¿ = ± 1
a la celda. Se supone que la configuración de energía menor se obtiene cuando todos los espines
están alineados en la misma dirección, paralelos (esto es con idéntico valor). Sin embargo, esta
ordenación sólo sería posible en ausencia de agitación térmica, a temperatura cero. En general,
el estado observado del sistema representará un com promiso entre la situación de mínima energía
(espines paralelos) y las fluctuaciones provocadas por el hecho de tener tem peratura no nula. A l
sistema se le puede añadir un campo magnético externo en el caso más general, con lo cual se m arca
una dirección preferente de orientacióu. El tratamiento analítico del sistema com ienza planteando
su hamütonia.no ( H). Siempre que trabajemos con sistemas conservativos, el ham iltoniano coincide
con la energía del sistema, y en el caso del m odelo de Ising esta función es

H — 2 Xy ® X y S'
‘J i

j _ f J si i y j son vecinos
,J ( 0 en otro caso

con / < 0, com o corresponde a un sólido ferromagnético (la mínima energía se obtiene con espines
paralelos) *. El caso J > 0 representaría un sólido anti-ferromagnétíco. El cam bio no aporta nada
nuevo, ya que las propiedades termodinámicas son idénticas al anterior.

1Los p r o d u c to s entre vectores s , s } y B « , son p ro d u c to s escalares, en general. C u a n d o los e s ta d o s de los esp in es


so n d os, co m o e n lo s casos que tratarem os, resultan ser siem pre paralelos, con lo que el p r o d u c to escalar se c o n v ierte
sim p le m e n te en el p r o d u c to de los estados. E n el c a so del c a m p o extern o B , escrib irem os en o c a sio n e s sim p le m e n te
B , para r e fe rim o s a l m ó d u lo (|B| = B ) cuando se a e ste valor el que se puede u tilizar en la exp resión .

http://librosysolucionarios.net
Fenóm enos Críticos 275

A A / \

4 4 4 4
í 4 At
1
*
A
A
i 4 4 4 t i 4 4 / \ A A
«
i

I 4 4 t 4
i
/

A
«
A

B 4 4 4 4 4 i A
'V

4 4 4 4 i í í ti
4 4 4 4
Figura 7.3: E jem plo de ordenación de los espines en el m odelo de Ising 2-dimensional. Se ha
marcado el mayor dom inio correlacionado en la dirección del cam po B según el vecinaje de von
Neumann.

El número de vecinos en el m od elo de Ising es de 2 en una dimensión (derecha e izquierda),


los cuatro conectados por las aristas en dos dimensiones (vecinaje de von Neum ann). y serían 6 en
tres dimensiones. B representa el ca m p o externo que tenderá a alinear los espines en su dirección.
A partir de H definimos la función de partición del sistema. En general, se define la función de
partición Z com o

-3L,
Z= e 8 =
= £■ knT
{o tado s' }

k e es la constante de Boltzmann, T es la temperatura, y la suma se extiende a todos los estados o


configuraciones del sistema, caracterizados por una energía E, 2. A partir de Z se pueden derivar
todas las funciones termodinámicas del sistema. Para el m odelo de Ising.

Z[ — exp 0 (B I > “

donde { s , } indica que la suma debe ser realizada sobre todas las posibles asignaciones ± 1 a ias
celdas del sistema.

7.1.2 E xpon en tes críticos y universalidad


Ya hemos com entado la com petencia existente en el sólido ferromagnético entre la tendencia a la
mínima energía (alineación de los espines en una sola dirección) y el desorden introducido por la
agitación térmica. Está claro que tenem os dos casos extremos: para T = OA' el orden es total:
todos los espines miran hacia uarriba” o hacia “ abajo” . Por otra parte, si la energía térm ica es
suficientemente grande, el sistema presentará una estructura muy desordenada, aleatoria, en la que
el estado de una celda no proporcionará ninguna información sobre el de sus vecinas. Existe una
temperatura (Tc), la temperatura de Curie, entre estos dos extremos, para la que tiene lugar una

2C o n fre cu e n cia se h a b la d e H c om o d e l a energía de un sistem a , y en ocasiones se tr a ta al h a m ilto n ia n o c o m o


si lo fu e se . D e h e c h o , p a r a ser rigurosos, d e b e ría m o s diferenciar entre am bas cosas, y h a b la r de H c o m o d e un
op e ra d o r m a te m á tic o , d e l c u a l las c a n tid a d e s E ¡ son los valores propios, los ob servab les.

http://librosysolucionarios.net
276 Orden y Caos en Sistemas com plejos

transición crítica, según la fenom enología descrita en la introducción. En este caso, el parámetro
de orden (<£, en general), es una magnitud bastante intuitiva. Observemos: para T pequeñas, de
hecho simplemente por debajo de la temperatura crítica Tc . existe una m agnetización neta en el
sistema, el orden gana al desorden y hallamos una mayoría de espines apuntando en una de las
dos direcciones. + 1 o —1 ; para temperaturas elevadas, con un sistema aleatorio, la magnetización
total se anula. Es sencillo, pues, definir el parámetro de orden com o la magnetización normalizada
del sistema a cada temperatura

,* = m = i í E s'
I
N es la m edida lineal del sistema, y d la dimensión del espacio en que trabajem os. Se observa
experim entalm ente que el parámetro de orden se hace cero com o una potencia de la temperatura
reducida

la cual mide la desviación de la temperatura respecto de su valor crítico:

x t3 (t < 0)

Para todo sistema crítico, se define el exponente 3 com o el que caracteriza la form a en que el
parám etro de orden tiende a cero. Otras magnitudes presentan singularidades, o divergencias,
cu an do T —» Tc , o bien en el mismo punto crítico. Por ejemplo, el calor específico tiene una
singularidad del tipo

C B OLt-a

lo cual define un segundo exponente crítico, a .

Definamos la longitud de correlación, £, com o la m edida de la dimensión lineal típica de la


pieza más grande correlacionada en el sistema. Por “ pieza correlacionada'’ entenderemos que
todas las celdas que la constituyen están conectadas (siempre según el criterio de vecinaje que se
tom e). Obsérvese en la figura 7.4 cóm o aumenta esta longitud a medida que nos acercam os a la
tem peratura crítica.
De hecho, tambie'n presenta una singularidad, caracterizada por un tercer exponente:

u r
La longitud de correlación proporciona el tamaño máximo hasta el cual el sistema tiene propiedades
autosimilares. El hecho de que sea una cantidad divergente en el punto crítico im plica que la
autosim ilaridad se puede extender al sistema completo.
Un cuarto exponente, 77, corresponde a la función de correlación conexa de dos puntos, (?c2^(r).
Para el caso de un espín s,, la función de correlación de dos puntos se define com o

G i2\ i , j ) = < SiSj >

don d e < > indica un promedio térmico sobre la pareja de espines situados en las posiciones i y j.
En general, G^2l(r ) se define en función del parámetro de orden $ ( r ) 3 com o

3 E1 p a r á m e tr o d e orden n o es necesariam en te una cantidad escalar. E n general, tendrá d im e n sió n D , y siem pre
p u e d e ser defin ido lo ca lm e n te. D e a h í la d e p en d en cia explícita an terio r del p u n to del e sp a c io con sid e rad o .

http://librosysolucionarios.net
Fenóm enos Críticos 277

Figura 7.4: Divergencia del tamaño m edio de las agrupaciones en la transición de percolación. El
tam año medio S es proporcional a la longitud de correlación £ (véase la sección 7.3). En el caso
teórico la divergencia es estricta. En el caso experimental, se convierte en un m áxim o debido al
corte impuesto por el tamaño finito del sistema.

G (2í(r) = < $ (0 )3 > (r ) >

A partir de aquí, la función de correlación con exa de dos puntos, que sólo considera las fluctuaciones
en el parámetro de orden, es:

G ? \ r ) = < * ( 0 ) * ( r ) > - ¡ < * ( r ) > |2

C uando T = Tc. se observa experimentalmente que G [2\ r ) presenta la form a asintótica

G!2)(r ) a
para distancias r grandes comparadas con las distancias entre elementos, siendo d la dimensión del
sistema. (?c2Hr ) se reÍ3-ciona con la longitud de correlación

para r grande, y

El parámetro de orden fluctúa en bloques de tod os los tamaños hasta Las fluctuaciones divergen
cuando T —* Tc.
Se pueden definir dos exponentes más aparte de los cuatro presentados. Se define la suscepti­
bilidad térmica de un material com o la variación de la magnetización cuando se varía un campo
externo a temperatura constante:

http://librosysolucionarios.net
278 Orden y Caos en Sisteméis com plejos

y ;,e observa que x t diverge en el punto crítico según un exponente - . Por otra parte, si el ca m p o B
aplicado no es nulo pero es pequeño, se puede calcular el valor de m cuando B —» (i, y se encuentra
que, para T = Tc ,

rn oí B 1**

lo cual define un sexto y último exponente crítico, S.


En la ta bla siguiente se resumen todos los exponentes que caracterizan los sistemas m agnéticos.
Obsérvese que todos se definen para un valor nulo del cam po magnético ( £ = 0), e x ce p to 6.

Exponente Definición

Q CB a O 1 í T-7V ° - lV T -» T B = 0
Tc

0 m oc(Tc - X y , r — T" , B = 0
7 X t cc¡T - T,: | - 7 . r - Tc B = 0
6 m oc B í B - 0, T = Tr_
V oc IT - T c B = 0
n G ^ (r ) « =W - r = T c , B = 0

Los exponentes anteriores no son todos independientes. Verifican relaciones que hacen que sea
suficiente con ocer dos de ellos para determinar todos los demás. Las relaciones que cum plen son
las siguientes

• ex + 2 0 + y = 2 (Ley de Rushbrooke)

• a + 0 (6 + 1) = 2 (Ley de Griffiths)

• vd = 2 — a (Ley de Josephson)

• (2 — tj) u = 7 (Ley de Fisher)

Los exponentes críticos caracterizan totalmente el com portam iento de las m agnitudes del sis­
tema cu a n do nos acercamos al punto crítico. Estos exponentes, de forma rigurosa, sólo estarán bien
definidos en el límite termodinámico, cuando el tamaño del sistema tiende a infinito. En cualquier
tipo de sim ulación, está claro que será necesario restringir esta condición y trabajar con sistemas
finitos 4. Entonces, las divergencias se suavizan y pasan a convertirse en máximos, y el parám etro
de orden resulta ser una función suave, con derivada continua, a diferencia del caso lím ite. Existen
técnicas que permiten esquivar esta dificultad y proporcionan muy buenas estimaciones numéricas.
El análisis del sistema a tamaños finitos pero a muchos diferentes, la introducción de funciones
de corte que simularían el efecto de las fronteras, o la idea de utilizar escalas diferentes en una
representación determinada del sistema son algunas de estas técnicas. También se han hecho apro­
xim aciones analíticas (grupo de renormalización) que en ocasiones han permitido calcular tanto el
punto en el que se produce la transición com o los exponentes que la caracterizan exactam ente, y
en otras con gran aproximación. Daremos algunos ejemplos en las secciones siguientes.

* A u n q u e e n algu n a s sim ulaciones se h a lle g ad o a tra b a ja r con redes de ta m a ñ o h a sta 10 6 x 1 0 s , e s to aú n q u ed a


m u y le jo s d e in fin ito . E n m ecán ica e stad ística puede considerarse que el in finito se alcanza c u a n d o el n ú m e ro de
p a rtícu la s e s d e 1 0 2 3 .

http://librosysolucionarios.net
Fenóm enos Críticos 279

El hecho d<- qu<* sean los exponentes críticos los que caracterizan estéis transiciones ha permitido
definir lo que se conoce con el nom bre de universalidad. Se ha constatado que estos exponentes
tienen valores que son marcadamente insensibles a los detalles específicos del sistema. Por ejemplo,
los exponentes no dependen de la top ología de la red sobre la que coloquem os el sistem a: triangular,
cuadrada, hexagonal ... pero sí de su dimensión. La insensibilidad llega a tal punto en ciertos casos
que, p or ejem plo, sistemas hidrodinámicos y sistemas magnéticos presentan los m ism os exponentes,
dentro del margen de error con que pueden ser determinados. Cuando esto sucede, se dice que
los sistemas pertenecen a la misma clase de universalidad: cerca del punto crítico se com portan
del m ism o m odo, y por tanto nos encontram os ante una ufísica universal” , en la que los detalles
m icroscópicos se hacen irrelevantes d ebido a la aparición de la estructura a gran escala, emergente,
que el sistem a presenta.

7.1.3 Ising en 1 dim ensión: G ru po de R enorm alización


Hasta principios de la década de los 70 no se había conseguido ninguna teoría exacta que posibilitase
la descripción de un sistema cerca de su punto crítico. Se había usado descripciones aproximadas
(principalm ente teorías de cam po m edio, com o la de van der Waals o la de Landau) que fallaban
cerca de las transiciones críticas. Sin embargo, en 1966, Kadanoff publicó un a rtícu lo en donde
daba las ideas generales que, argum entaba, permitirían el cálculo de los exponentes críticos de un
sistema sin necesidad de conocer exactamente su función de partición. Kadanoff puso el énfasis en
las configuraciones del sistema, en su aspecto, y en cóm o la invariancia de escala p o d ía ser utilizada
para la extracción de los exponentes críticos. Las ideas de Kadanoff tomaron cu erpo m atem ático
en un trabajo posterior de Kenneth G . W ilson (1971) y más tarde gracias a la aparición de las
técnicas del ahora llamado grupo de renormalización (W ilson y Kogut, 1974). A ctualm ente, se
divide a estas técnicas en dos subgrupos: unas se aplican directamente al espacio real y utilizan
las coordenadas naturales que lo describen (más en la línea de las ideas originales de K adanoff) y
otras se aplican en el uk — espacio” , y son más usadas en teoría cuántica de cam pos, donde utilizan
com o variables de descripción no las coordenadas, sino los mom entos (k). C uando utilicemos las
primeras hablaremos de renormalizacion en el espacio real.
El grupo de renormalización (G R ) tiene com o propósito calcular exactam ente los exponentes
que caracterizan una transición crítica, o y 0 , por ejem plo. Sería también interesante poder
obtener la función de partición Z a cualquier temperatura, aunque esto no es en general posible.
Sin em bargo, un caso especial, el m od elo de Ising en una dimensión, puede ser totalm ente resuelto
utilizando las herramientas que el G R proporciona. Consideremos la función de partición para el
caso unidim ensional en ausencia de ca m p o externo (esto es, 5 = 0)

¿? = ] T e x p K £ s .s j
{*.} <*}>
donde la suma se realiza sobre próxim os vecinos y K = —0J/2, llamada constante de acoplam iento.
Si desarrollam os la suma

Z ~ 'y ^ exp \K{. •. + S\S¿ + $2i53 + s 3$4 + S4 S5 + . . . ) ]


{id
v escribim os

í 2+í 2<3).A’ ( í j Í4 + ><íj )

aparece únicamente en la primera exponencial. Sus dos estados posibles son ± 1 , así que podem os
efectuar la suma sobre este espín en concreto:

http://librosysolucionarios.net
280 Orden y C aos en Sistemas com plejos

k" i -----------é----------?---------- i- N/4


k' i -----é i---? f — ^----- t r N / Z
k ¿ T i i T i t M 'f f N

Figura 7.5: Ilustración de cóm o se produce la reducción del número de espines en 1 dimensión
según las ideas del grupo de renormalización.

2 _ ^7^ _|_ e -^(íl+-*3) et(j3U+UJ5)

Podem os seguir sum ando sobre todos los espines pares, y obtener

Z ~ 'y " ___ ^ ( íl+ * j) _j_ —■K'C-*i+', 3)J |e í í ( - 1 J + ' j ) g - í í ( s : f + »5)

La suma queda ahora planteada únicamente sobre espines impares. La idea siguiente, ya
propia del grupo de renormalización, es tratar de encontrar un nuevo valor para la constante
de acoplam iento, K \ y una función / tales que

e K( s¡ +j 3) e - K( s i +s 3) ^ f ( K ) e K ' S i S 3

para todos los valores posibles de s i y S3 . f ( K ) es independiente de los espines. Consideremos los
casos particulares S\ = s3 = l y Si = —s3 = 1 (los otros dos son análogos). Entonces

e ™ + e ~ 2K = f { K ) e A"

2 = f ( K ) e ~ K‘

Dividiendo las dos ecuaciones obtenemos

K' — ^ ln [ cosh (2A*) ]

y sustituyendo en la segunda

f ( K ) = 2 cosh^(2A")

A sí que ahora podem os escribir la función de partición com o

Z = ^ . . . / ( A ' ) c k ' , ‘ S3/ ( A > k ' í3J5 . . . - f ( K ) % Y ^ e K'i- + *,,3+$*í i + - )

Esta es la misma función de partición anterior si hubiésemos tenido solam ente N/2 espines y la
constante de acoplam iento fuese K ' . Así obtenem os la relación

Z(.X ,K )=f(K )T z(j.K ''] (7.2.1)

http://librosysolucionarios.net
Fenómenos Críticos 281

Figura 7.6: Flujo hacia o desde el punto crítico en el que podría ser el espacio de parámetros (íu y
(i >< en este caso) de un sistema. Las ecuaciones del grupo de renorm alización llevan al punto fijo.
Si se invierten, la estabilidad de los puntos críticos se intercambia.

La ecuación de recurrencia para K proporciona únicamente dos valores triviales para el punto
fijo ( K = K ' = K ‘ ):

=0, K ^ - oo

Si recordamos que K oc T " 1, vemos que el m odelo de Ising en una dim ensión no presenta transición
crítica para ningún valor finito de la temperatura. La función de partición puede ser calculada en
este caso, sin em bargo, con notable precisión. Recordemos que la energía libre F en un sistema
termodinámico es una función directamente proporcional al tam año del sistema y. excepto una
constante, igual al logaritm o de la función de partición. Así,

I n Z - iV<

donde £ depende de K pero no de N. Por sustitución en 7.2.1,

= i in [/(ir )]+ ! < ( * ')

Invirtiendo la relación y sustituyendo f ( K ) por su valor,

i ,
[K') ~ 2 C(A') - ln |2 cosh*(2Á' 7.2.2)

Esta ecuación, ju n to con

K ~ - c o s h - ^ e 2* ' ) (7-2.3)
2
son los resultados básicos del grupo de renormalización. Son ecuaciones de recurrencia que permiten
calcular el punto fijo K ’ (trivial en este caso) y la función de partición £ (excep to una constante)
con precisión arbitraria. Ahora, dado cualquier valor de K , ia ecuación para £ proporciona el valor
de la función de partición. La iteración sucesiva alternada de las dos ecuaciones define además un
“flujo” en el espacio (C. A '), que se mueve hacia un punto fijo, hacia el punto crítico invariante por
la transformación.

http://librosysolucionarios.net
282 Orden y Caos en Sistem as com plejos

Veamos cual sería la forma de proceder Si K' es muy pequeña (digamos A’ ’ ~ 0.01). eso
im plica una temperatura elevada, y una gran agitación térmica en el sistema. La interacción entre
los espines es despreciable y en ese caso la función de partición corresponde al número de estados
diferentes que el sistema puede presentar:

Z - 2;V

mientras que

£(0.01) ~ ln (2)

A hora calculam os K partiendo de la ecuación 7.2.3, K = 0.100334. Sustituyendo en la expresión


7.2.2 obtenem os £ = 0.698147. Repetim os ahora el proceso con K' = 0.100334, que proporciona
£ = 0.745814, y de nuevo K' — 0.327447. Así podríamos seguir indefinidamente. Las ecuaciones
del grupo de renormalización llevan a A '' y a £ a los valores que les corresponden en el punto fijo.
C om o sólo K~ = 0 , o o son valores invariantes de las ecuaciones, acabaríamos en A " = oc, dado
que la ecuación utilizada provoca un flujo desde 0 hacia oc. Si realizásemos las iteraciones aislando
K ' en lugar de K, el flujo nos llevaría en sentido contrario, hacia K~ = 0.
Para cada valor de K que hayam os ido colocando en las ecuaciones, correspondiente a una
cierta temperatura, habremos obten ido el valor de £ asociado. Estos valores de £, aunque no
corresponden al punto fijo, proporcionan el valor numérico de la función de partición con una
precisión 10- 6 respecto de su valor exacto. Este valor se calcula mediante la solución exacta de
Ising,

J
Z = 2 cosh
kBT

7.1.4 Ising en 2 dim ensiones: Teoría de C am po M edio


A diferencia del m odelo de Ising en una dimensión, el m odelo en dos dimensiones sí presenta
transición de fase. No obstante, su solución tardó 20 años en llegar (respecto a la del m odelo en
una dim ensión, lo cual debe proporcionar una idea de la dificultad que entraña el aum ento de
dim ensión), y fue dada por Onsager en 1944, quien halló que el valor del umbral de transición era

K c = i s i n h _1( l ) = 0.44069

No es sencillo derivar la solución exacta de Onsager. así que trataremos el m od elo en dos
dimensiones de forma aproxim ada (en esta sección) y daremos una guía para el posible tratamiento
numérico (m ás adelante). C om enzam os introduciendo la^ teorías de cam po medio y aplicándolas
en particular al caso que nos ocupa.

La idea básica de las teorías de campo medio consiste en eliminar los términos interactivos
a nivel local, y que dependerán de cada punto en el sistema, para sustituirlos p o r cantidades
medias que consideren la influencia global de toda la colectividad sobre cada uno de los elementos
que la form an. De hecho, cualquier teoría de cam po medio es equivalente a considerar que la
interacción entre los com ponentes del sistema tiene alcance infinito (cuando en la m ayoría de los
Celsos simplemente se estará considerando que la interacción es local y a primeros vecinos). De
hecho, durante mucho tiempo se pensó que la teoría de cam po m edio era exacta en esencia, debido
a poderosos argumentos de L. D. Landau (1908-1968). Ahora se sabe que esto uo es así, excepto
para sistemas que efectivamente tienen alcance infinito, o cuando la dimensionalidad de estos es
suficientemente grande. La técnica del cam po medio fue ideada por P. E. Weiss (1863-1940) corno

http://librosysolucionarios.net
Fenóm enos Críticos 283

teoría del magnetismo, y durante mucho tiempo fue la única que se tenía para las transiciones de
fase.
La teoría de cam po m edio es la aproximación más simple a un m odelo de m odelos, o metamodelo
llam ado de Ginzburg-Landau, el cual contiene toda la descripción de la física que acontece en una
transición de fase continua.
Considerem os el m odelo de Ising sometido a un cam po externo uniforme B 5. Calculem os el
prom ed io térmico de un cierto espín .s,:

exp [-0 Sj J, j - b) ~exp - fi)]


< Si > =

exp j-0 (j2j SjJ,} - b)] + exp [-.i fejSjJij - b)

= — tauh J -B

El numerador pesa la probabilidad de que s, sea positivo o negativo, y el denom inador normaliza
el valor resultante (la función "tangente hiperbólica" está com prendida entre ~1 y + 1 ). Ahora
deberíam os continuar el proceso de cálculo del prom edio térmico considerando los valores que los
vecinos sj irán tomando, promediar, y considerar de nuevo los vecinos de los Sj ... A fin de romper
esta serie infinita se tom a una aproximación simple. Escribamos

Hi - - B j s,

La cantidad entre paréntesis actúa simplemente com o un término efectivo para la interacción del
espín S{. Simplifiquemos el térm ino de interacción considerando únicamente el p rom ed io espacial
de los valores de sj 6,

< Si

con lo cual

B, = < Sj > - B j s,

Definamos

Y. J>j = ~Jqq
i

donde q es el número de coordinación, de próximos vecinos, y tendremos

H - y Hi = - y Si [q j 0 < Sj > +B]


1 t
El prom edio térmico sobre s, queda ahora

5 E l fa c to r I / 2 que aparece e n e l térm in o de interacción en el h a m ilton ian o puede ser r e a b so rb id o en la definición


d e la c o n s ta n te J í j .
6 E s t a su stitu c ió n es la que d a a la teoría de c am p o m ed io su nom bre.

http://librosysolucionarios.net
284 Orden y Caos en Sistemas com plejos

771

Figura 7.7: Solución gráfica de la ecuación m = tanh { 3qJom). Cuando 0qJo < 1, la única
solución es m = 0. Cuando 0qJo > 1, existe otra solución no nula, dada por la intersección d e las
dos funciones y = m, y = tanh (dqJom ).

< sí > = tauh[/3(qJo < > + # )]


o en términos de la magnetización,

m = tanh [¡3 (qJom + B)]

ya que m = < s,- > = < Sj > , dado que el sistema es invariante .por traslación y únicamente
consideramos promedios. Esta ecuación trascendente puede resolverse numérica o gráficamente.
Consideremos el caso B = 0. La función tangente hiperbólica tiene pendiente menor que 1 cuando
el coeficiente (0qJ o) que multiplica a la variable (m ) es menor que 1. Esto implica que, cu an do
0qJo < 1, la única solución de la ecuación 7.2.3 es m = 0, el origen de coordenadas, con lo cual,
si la magnetización del sistema es nula, estamos en la zona de T > Tc . Para ¡3qJo > 1 existe una
solución para m diferente de cero (por tanto en la región T < T C) con lo cual

PcQJo = 1
define el umbral crítico de transición.
La teoría de cam po m edio predice pues la existencia de transición para el m odelo de Ising en d
dimensiones (obsérvese que aún no se ha hecho ninguna suposición sobre este particular), entre las
cuales se halla d — 1, aunque hemos visto anteriormente (mediante una derivación exacta) que tal
transición no existe. Para d = 2 tenemos q = 4, y la teoría de cam po m edio predice una transición
en 0c = 0.25/Jo. a com parar con el valor exacto 0 C = 0-4407/Jo- En d — 3, la predicción de ca m p o
m edio es 0C = 0.133/Jo, y el valor numérico más aproxim ado 3C = 0.222j J q. El cam po m edio
siempre sobreestima el valor de Tc, y esta es una propiedad general de la teoría.
Evaluemos a continuación los exponentes que esta aproxim ación predice. Reescribamos la
ecuación para la magnetización usando variables reducidas.

http://librosysolucionarios.net
Fenóm enos Críticos 285

Donde se utiliza que 3cqJo ~ 1. Examinemos la magnetización espontánea (ni) en ausencia de


cam po ( b ~ 0). El argumento de la función tanh es pequeño, para T rs Tr . y podem os considerar
un desarrollo de la forma

tanh ( r ) = x ~ + 0(x;

Asi que

3
m
l + t 3 Vl-í
La solución no nula corresponde a

m 2 — —3 t(l - t )2

y por tanto, cuando |í| rs 0, rn a ¡t|l/<2, lo cual proporciona el valor 3 = 1/2 para el expolíente que
caracteriza el parámetro de orden.
C alculem os ahora la susceptibilidad térmica para cam po cero. Consideremos un desarrollo de
tan h(x) a primer orden para T > Tc (suficiente, y a q u e impondremos D — 0. y m es nula] para
obtener

m = ( l f 7 ) +6
y la susceptibilidad x

o drn 1
oc -
6=0 t
lo cual proporciona un segundo exponente, 7 = 1 . ’ Para T < Tc debem os considerar también el
térm ino de tercer orden en el desarrollo, y sustituir el valor de m, que ahora no es nulo, para
obtener y' = 1, también.
La m agnetización que resulta ju sto en el punto crítico cuando se aplica un cam po R se obtiene
desarrollando a tercer orden la ecuación 7.2.4,

m = m ■+ b — - m 3 — - b 3 + 0 ( m ° ,
o O
con lo cual, para m y b pequeños,

ba m
~3

lo cual im plica 6 = 3.
C on algo más de esfuerzo es posible encontrar o = a ' — 0 (divergencia del calor específico),
u = 1 /2 (divergencia de la longitud de correlación) y — 0 (divergencia de la función conexa de
dos pun tos en T — Tc).
El problem a que presenta la teoría de cam po medio, y que hace que sus estim aciones, tanto
de los umbrales de transición com o de los exponentes críticos, estén alejadas de los valores reales,
es precisam ente la suposición de la uniformidad del parámetro de orden cerca de la transición.
Localm ente existen fuertes correlaciones en el sistema que alejan los pequeños (o grandes) grupos
correlacionados del com portam iento de la media. La consideración de las fluctuaciones en el punto
crítico y d e las correlaciones a gran escala que allí aparecen vino de la m ano de) m odelo de Ginzburg-
Landau, que describiremos brevemente en la próxima sección.
A ca ba m os con un resumen de los exponentes críticos para la teoría de cam po m edio y para
el m od elo de Ising en 2 y 3 dimensiones. Los del modelo 2-dimensiooal son exactos (dados por

http://librosysolucionarios.net
286 Orden y Caos en Sistemas com plejos

la solución de Onsager), mientras que los del m odelo 3-dimensional son aproxim ados. D e ahí que
estén acompañados de un error. Compárense estos últimos con los exponentes obtenidos para un
sistema real, una pieza de hierro, de forma experimental.

: Exponente C. Medio Ising d = 2 Ising d = 3 Fe


o 0 0 0.119 ± .006 - 0 .0 3 ± -12
id 1/2 1/8 0.326 ± .004 0 .3 7 ± .01
1 1 7 /4 1.239 ± .003 1.33 ± -015
6 3 15 4.80 i .05 4 .3 ± .l
V 0 1 /4 0.024 ± .007 0.07 ± .04
V 1 /2 1 0.627 ± .002 0.69 ± .02

7.1.5 El m odelo de G inzburg-Landau


Esta sección y la siguiente pueden resultar excesivamente áridas para el lector que no esté fami­
liarizado con los métodos de la mecánica estadística e incluso de la teoría de transiciones críticas.
Con ellas se pretende dar una explicación analítica a estas transiciones, pero si el lector lo cree
conveniente puede ignorarlas y saltar sin mayor problem a a la sección 7.2.8.

Describiremos brevemente en qué consiste este m etam odelo, y cóm o incorpora detalles que no
estaban considerados en las teorías de cam po m edio. La esencia del m od elo es la introducción de
las fluctuaciones en el parámetro de orden. Se hace explícita en este m odelo la dependencia de la
dimensión d del espacio de trabajo y también de la dimensionalidad D del parámetro de orden,
mientras que los detalles topológicos de la red, por ejem plo, no aparecen com o elementos relevantes
en la transición.
El m odelo de Landau-Ginzburg (L G ) considera que el parámetro de orden es un cam po continuo
de D com ponentes, # ( x ) : una magnitud vectorial que depende (en principio) de cada punto del
espacio. De esta forma será capaz de considerar las fluctuaciones locales. Vayam os introduciendo
m odificaciones que nos conducirán finalmente al m odelo de LG. Consideremos en primer lugar un
problem a de magnetización en dimensión d arbitraria. El parámetro de orden 4 será la magne­
tización local media, y entenderemos que trabajam os con un volumen de tam año menor que la
resolución que sea posible conseguir con un cierto aparato de medida, pero que es capaz de con­
tener muchos átomos (en ocasiones se denomina a esta escala de trabajo “ escala (o aproxim ación)
m esoscópica” . entre macro y m icroscópica). En general $ es un vector que puede apuntar en
cualquier dirección. Si 4 no varía de punto a punto, entonces la energía del sistema sólo dependerá
del m ódulo de así que se podrá expresar la densidad hamiltouiana ' com o

A = /,0 + Í #«'|<í |*+ I a'(|*|2)í + ..-


donde \i' y A' son parámetros a determinar. Si, cíe form a más general, 4 varía de punto a punto,
aparecerán términos dependientes del módulo de su gradiente espacial, |V#|2. Esta dependencia
se puede incluir en ho-

h o = ^ a '2|V$|2 + . . .

7 S e lla m a a la expresión sig u ien te densi dad porqu e ap a recerá in tegra d a sobre to d a s las con fig u racion es del sistem a
en la exp resión de la p ro b a b ilid a d d e cierto suceso.

http://librosysolucionarios.net
Fenóm enos Críticos 287

donde a ' es una constante real. Tom ando los primeros términos de los desarrollos anteriores
podem os expresar la energía H de un m icroestado com patible con $ ( x ) com o

H = / dáx h{ x) = / ddx I a ' | V * p + i /, > p + i y ( | $ p P

Debemos ahora sumar sobre todos los microestados compatibles con 4>(x). El número N de tales
mic.roestados es la suma sobre todos los volúmenes para los que está definida la magnetización
media $ de las posibles ordenaciones dentro de estos volúmenes que dan com o resultado. Este
número es

N — J ddx exp |u;(j$|2)}

Si desarrollamos u\

tü(|$¡2) = Ct + i tí?2 I2 + “ Uí4(|$|-’ )2 + . . .

Tom ando sólo los primeros términos de este desarrollo se puede expresar la probabilidad de cierto
cam po de magnetización media, $ ( x ) com o

.PfS*] oc exp J ddx (fth — w) a exp | - J ddx Tí l g ^

donde ’H l g -, el hamiltoniano de Landau-Ginzburg es

H l g = b 2|V$|2 + i /P | $ p + Í A ( | $ p ) 2

ex = /i2 = ,3fi' — W2 \ A = JA' — W4

Podem os además generalizar para incluir un posible cam po externo, el cual dará lugar a un incre­
m ento —B<£ en la densidad de energía,

H lg = i a 2lV $ p + ^ 2 |$P + ¿ A (| $ P )2 - PB<S

El funcional de probabilidad .P[$] y la densidad hamiltoniana anterior definen el m odelo de


Ginzburg-Landau. Se observa la dependencia de tres parámetros fenom enológicos: q . una longitud
característica que determina la importancia del térm ino gradiente; p 2, cu ya variación conduce a la
transición crítica, y A (que debe ser positivo para que P sea normalizable).
A través de este m odelo se puede ver que la clase de universalidad de un sistema depende de su
dimensión, d, y de la dimensión deJ parámetro de orden, D , pero, además, tam bién de los grupos
de simetría bajo los que TÍ l g invariante. Por ejem plo, la introducción de un término de la
forma

a - 1

que no es invariante cuando $ es rotado en su espacio D —dimensional podría provocar un cam bio
en alguno de los exponentes críticos.

http://librosysolucionarios.net
288 Orden y Caos en Sistemas com plejos

Figura 7.8: Com portam iento de la energía libre en función del parámetro 0,2 ■ De izquierda a
derecha. 02 < 0. «2 = 0 y > 0.

7.1.6 La teoría de Landau


La teoría de Landau para las transiciones críticas puede ser derivada de la densidad ham iltoniana
de Ginzburg-Landau. Es suficiente con considerar en la función de partición de este m odelo.

Z l g = / 7)$ 0* P { - / dd x 7 ii G ( $ )

el valor de <£, que minimiza la integral en la exponencial, y suponer que la integral sobre Z>$
está totalm ente dom inada por el valor máximo. Es decir:

Z LG % ct Z L, Z L = exp j ddx. ’K £ ,g (^ o)|

El caso $ = ct (esto implica que V $ = 0) hace la integral m ínim a, así que ya podem os prescindir
directamente de este término. Adem ás, si suponemos que la dirección de $ está determinada por
B , entonces podem os fijarnos únicamente en el módulo, ó = |$¡, con lo cual

J ^ x 7 í t G ($ o ) = r + W o )

En ausencia de cam po externo podem os escribir la energía libre del sistema com o

A
/ = fo + 02 m 2 + 04(71'.
0,2 ~ 2/3 ’ °4 4 !(3
Consideremos la energía libre com o función de q-i. Si <22 > 0, resulta que el mínimo de f está en
m = 0 (fase paramagnética). Si 02 < 0 , el mínimo de / se da para un valor finito de m, t t iq (de

hecho, de form a simétrica, para ± m o , lo que refleja la rotura de simetría para privilegiar una u otra
orientación), con lo cual estamos en una fase ferromagnética. <22 = 0 corresponde a la tem peratura
crítica a la cual aparece una magnetización espontánea.
Escribamos «2 -- 0 2 * {t es de nuevo la temperatura reducida). C om o resulta que la m agne­
tización se anula de forma continua, estamos ante una transición crítica, y podem os calcular los
exponentes que la caracterizan.

http://librosysolucionarios.net
Fenóm enos Críticos 289

La m agnetización de equilibrio corresponde al mínimo de / :

df o
- = 202 tm + Aa^m — 0
oí»-
C uando estamos en la zona t < 0, resulta m oc ( —í ) 1//2, y p or tanto obtenemos un primer exponente,
¡3 = 1 /2 . Obtendrem os a derivando dos veces / respecto de la temperatura (C b cc d2f / d t 2).
Observaremos que C b ~-+ d cuando t —*• O- , y que C b ~ 0 cuando t > 0, con lo cual concluim os
que existe una discontinuidad finita en el punto de transición, y por tanto a = 0.
A ñadim os un cam po externo h para calcular los exponentes 7 y ó:

f — fo — hm 4- Ó2Ím 2 + a 4m 4

En el equilibrio,

df o
- — - —h 4- 2a.2tm + Aa+m = 0
om
v sobre la isoterma crítica t = 0, con lo cual m3 oc h y resulta 6 = 3. También se obtiene 7 = 1 . y
los restantes exponentes idénticos a los de la teoría de ca m p o medio que ya hemos visto. La teoría
de Landau es, en consecuencia, una teoría de cam po m edio, y no resultaría com plicado establecer
la correspondencia exacta que existe entre ambas.

7.1.7 Ising en 2 dim ensiones: R enorm alización en el E spacio R eal


Las técnicas de renormalización en el espacio real sólo se aplican a m odelos realizados sobre una
red que posea ciertas características geométricas: debe presentar simetría discreta de escala. Esto
significa que, si la miramos a diferentes resoluciones (con un aumento b discreto) debem os observar
el m ism o tipo de geometría que en la red original. Si realizamos bloques iguales con las celdas
unidad, y reemplazamos estos bloques por nuevas celdas, ahora a otra escala (superceldas) debemos
obtener una red idéntica a la de partida, excepto por el incremento producido en el parám etro a
de la red (distancia entre celdas), ya que

a —> a' = ba

El proceso de renormalización en la red acaba cuando todas las magnitudes han p od id o ser re-
definidas de acuerdo con el factor b. La sección 7.3.4 m uestra dos criterios de renorm alización, uno
para una red triangular y otro para una red cuadrada. En general, si agrupamos p celdas para
formar una supercelda, el factor de escala b es b — f/p, donde d es la dimensión del espacio de
trabajo.
Veam os cóm o definiríamos en el caso del m odelo de Ising en dos dimensiones unas variables
sobre los bloques, y cóm o la invariancia de su distribución (por ejemplo) nos señala el lugar exacto
del p u n to crítico del sistema (pu n to fijo del proceso de renormalización por bloques).
Fijem os ideas considerando un m odelo las variables del cual sean espines, definidos en cada
celda de la red. Supongamos que agrupamos p celdas en un bloque k, para el cual definiremos una
nueva variable, < r ^ (variable de bloque) en función de los espines s¡ de las p celdas que contiene.
Si Sfc es el conjunto de p celdas en el bloque fc, tendremos en general que

- /({s¡})^ V* € S k
Tras la aplicación de esta transformación llegaremos a la misma red original, excepto por el hecho
de que tendremos N/p celdas, en lugar de las N de partida. De forma recursiva es posible seguir

http://librosysolucionarios.net
290 Orden y Caos en Sistemas com plejos

definiendo variables para los bloques en cada nueva escala, que vendrá determ inada por factores
b, 62, 63, . , bn, 6n+1, . . . según

d " + ,, = / ( { d " ) })
Existen diversas formas de escoger la función / ( x ) , que en cualquier raso debe ser representativa
de los p espines s, que el bloque k contiene. Un criterio habitual es la llamada regla de la mayoría:

a (" + i) _ / sgn ( ü crr )) si X > fc ‘ > ¿ (l


\ +1 O- 1 si

La variable vale + 1 si la suma en la iteración anterior es positiva (m ayoría de espines + 1 ) o


bien -1, si la suma es negativa. En el caso de que la suma de los espines en el bloque sea 0 (tantos
en un estado com o en el opuesto) entonces se le asigna aleatoriamente uno de los dos valores.

O tro criterio adecuado en ocasiones consiste en escoger arbitrariamente el valor de uno de los
espines del bloque de la iteración anterior ( “ diezmación” )

(n + 1) («) . _ r
T ' = <j\ >, i G Sk

Aunque estadísticamente los más abundantes siempre estarán más representados cuando la muestra
sea suficientemente amplia, en ocasiones este criterio da resultados notablemente peores que los
obtenidos con la regla de la mayoría, por ejemplo.

Una definición adecuada en ocasiones puede ser la de considerar el valor m edio de los elementos
en cada bloque:

(n + l) 1 V " (") •/- c


= p L ff* ’

Si utilizamos en el caso de tener sólo los estados ± 1 esta definición, está claro que obtendremos
nuevos estados que no aparecían en la red original, lo cual podríamos pensar que es un problema, en
principio. Sin em bargo, este criterio es capaz de agrupar todos los sistemas magne'ticos, con valores
arbitrarios para el estado de los espines, en el mismo punto crítico. Considerando la distribución
de los valores de los obtendríamos una curva invariante, con un pico en el valor + 1 y otro
en el valor -1. que no depende del espín original del sistema. Esta distribución invariante refleja
precisamente la pertenencia de todos estos sistemas a la misma clase de universalidad.

Otras reglas adecuadas, que reflejen el estado de los espines y la mvariancia de la red pueden
ser utilizadas. No existe un criterio universal, y únicamente debemos pensar en el estado de los
elementos del sistema 8 y en las propiedades que queremos preservar.

7.1.8 Sim ulación del m odelo de Ising


Daremos finalmente unas ideas sobre la implernentación de un algoritmo que permite simular en
un ordenador la dinám ica del m odelo de Ising. Es interesante constatar que, a pesar de la gran
dificultad que entraña el tratamiento analítico de las transiciones críticas, algunas simulaciones
sencillas nos acercan notablemente a los resultados exactos. En este caso, el problem a se reduce

8 N o ú n icam e n te a p lic a re m o s e ste tip o de reglas a espines c o n estad o s d iscretos y ta n to p o sitiv o s c o m o n e g a tiv o s.
P o d e m o s ten er to d o u n c o n tin u o d e esta d o s, y en particular p o d r ía n ser tod os p o s itiv o s . E n c a d a c aso, la definición
d e b e d e a ju sta rse al siste m a .

http://librosysolucionarios.net
Fenómenos Críticos 291

a aaa ■■ i i i m i m i
a a a a a a a aa a a a
aa a a a a a a a a a aa a aaa
— i ■■ i r m r
a aaaa a a a a a
a a a a a a a aa a aa
ibb a a a ■

[a -
kcai
aa a a a a a a a a aa
a a a a aaaa a
a a a aaaaaa a a aa ■
aa a a a aa
aaaa a a a a a a a a a a aa
ai
ai
a a a aa a aa
a
aaa

a aaaaaaaaaa
"SI < la a * a* * ****
■ ■ ■ ■ • ■ ■ ■ ■ ■ • • ■ • a aaaaa m i
■ ■ ■ « ■ ■ ■ ■ ■ ■ ■ ■ a * ■■■■ aaaai
aoaaaaaM aaaaaaaaaaaaaaaai a e aaa aa «aaaaaa a
a a a a aaaa
a a aa a aa a aaaaa
a aaa
aaa aa a aaaa
a aa a
aaa
aaaaa
a aa
■a aa aaaa a
ta a ia a a a a a a ia ca iiia a iiM i
■■■■a ■ • ■ ■ r m m m í aaaai
■ « ■ ■ • ■ « ■ ■ i a ■■■■■■■■■■
■a aaaa

aaaaa
a aaa aaaaa aaa aaa
aaa
aa aaaaaaaa a aa
a aaaaaaa a a a a aa
■■■■ aaaaa ■■»■■■■ a aa a aaaa aa aa a a .a..

■ aaa a a aaa
aaaa a a a a aa a
■aaaaaaaaaaaaaaaaaaaaaaai b a a a a a a a a a a aa aa aa
a a a a a a a a a a a a a a a a a a a a aai aa a a a aa aa a aa
■a a a a a a a a a a a a a a a aaaaaaaa
aaaaaaaaaaaaa aaaaaaaaaai a a a a aa a
aaaaaaaaaaaaaaaaaaaaaai aaa a a ai
a a a a a a a a a a a a a a a a a aaaaaa •aa a a ■■
~~aaaaaB«aaaaaaaaaaaaaaaa
aaa aaa aaaaa aaaaa aaaaai a a a a a aa aa aaa
a a a a a a a a a a a a a a a aaaaaaa a aaa aaa a aa a a
aaaa aaaa
aaaaaaa aaaaaaaaaaaaaaaaa iaaa
■aaaa a aa a aaaaaaaaaai
a a aa a a a
a a aaa
aaaaaaaaaaaaaaaaaaaaaaa ■a a aaa a1
aaaaaaaaaaaaaa aaaaaaaaaa
aaaaaaaaaaaaaa aa aaaaa a

■■■aaaaaaaa
s aaaa ■■ ■■■ ■ aa ■

Figura 7.9: Renorm alización por bloques para una cierta configuración de percolación antes, cerca
y después del punto crítico. Se ha utilizado la regla de la mayoría. Se representa en cada caso una
porción de tam año 25 x 25 de redes de lado 400, 200, 100 y 50, de arriba a abajo. La probabilidad
de ocupación, de izquierda a derecha, es p = 0.8, 0.59 y 0.2.

http://librosysolucionarios.net
292 Orden y Caos en Sistem as com plejos

a considerar, para cada uno de los espines del sistema tratado, la influencia que sobre él ejercen
sus vecinos, lo que se denomina su cam po local. Considerando además la temperatura del sistema
podem os definir una probabilidad para cada espín de hallarse en el estado + 1 o en el - 1 , con lo cual,
mediante algün m étodo de generación de números aleatorios, y escogiendo espines al azar para su
actualización, podem os observar la relajación del sistema hasta el estado de equilibrio (estadístico)
y evaluar las fluctuaciones en este estado.
Consideremos de nuevo el hamiltoniano del modelo de Ising, y supongamos que representa
electrones, los estados de espín de los cuales únicamente pueden ser s, = 4 -i o — 55

H ~ -J s,sj + 7 B ^ s¡
<*¿> »
y ahora nos fijaremos en el valor exacto de los parámetros y en su dimensión, para cuantificar
exactam ente los resultados. El valor del campo magnético se dará en T (teslas), 7 = eh / m e , donde
e = 1. 6 02 .10 —19 C es la carga del electrón, h = h f 2tr, con la constante de Planck h = 6 , 6 26 .lü “ 34
J.s y m £ = 9 ,1 0 9 .10-31 kg es la masa del electrón. Para J se puede tomar un valor del orden de
J = 17.kg { J/kg = 17A'), lo cual concuerda bastante bien con la interacción estim ada en casos
reales, kg = 1, 381.10-23 J/K es la constante de Boltzmann. Los valores exactos de los parámetros
no son necesarios para calcular las probabilidades de cada estado de espía, la m agnetización media,
las correlaciones entre estados o la información conjunta, magnitudes todas ellas que veremos
seguidamente.
La energía del espín z—ésimo es

E¡ { sj ) = - sí = H í Sí

donde la sum a j se extiende a los vecinos próximos (cuatro si d = 2, seis si d — 3). La probabilidad
de que la celda i tenga com ponente de espín es proporcional al factor de Boltzm ann,

, > f
p (i' )K e x p \ ~ k ¿ F -
a tem peratura X (en Kelvin).
Modelizaremos el sistema com enzando con una red de N d elementos con estados de espín
asignados al azar. El cam po de interacción

H, = J Sj — -■B
j
debe ser evaluado para cada celda, utilizando condiciones periódicas de contorno (los vecinos por
la derecha de las celdas X son las celdas 1. y viceversa) para minimizar el efecto de la frontera. Se
evalúan entonces las probabilidades relativas,

™ ,i. “ p t eH , s ' .
Z j ; exp (5¿ e T

El intervalo [0,1] se divide entonces en dos subintervalos (correspondientes a s, = 1 / 2 , s, = - 1/ 2)


con longitudes iguales a las probabilidades de cada estado de espín. Se elige un núm ero aleatorio
entre 0 y 1 y se asigna a la celda el valor del espín determ inado por este número. El proceso
se repite hasta que se alcanza el equilibrio termodinámico. Si actualizamos una celda en cada
iteración, son necesarias unas 10Ard iteraciones para alcanzar el equilibrio. Si T « Tc . el número

http://librosysolucionarios.net
Fenóm enos Críticos 293

Figura 7.10: Fluctuaciones en la magnetización media de los espines en el m odelo de Ising en dos
dimensiones cerca del punto crítico. El tamaño del sistema es N = 90.

de iteraciones requerido puede ser m ucho mayor, debido a las enormes fluctuaciones que aparecen
cerca de la transición crítica, ü n a vez alcanzado el equilibrio se pueden calcular todas las variables
termodinámicas del sistema. Por ejem plo, < m > , la magnetización media será simplemente

Nd

< m >.
i'=l
y debem os obtener < m > « 0 para T > Tc y < m > ^ 0 para T < Tc, con lo cual podem os estimar
el punto de transición.
Si llamamos < m c > a la media de las correlaciones entre vecinos,

< m.
e > - dN" S,Sj
<«,>>
donde el factor l/d descuenta las parejas repetidas, tenemos que la energía interna por celda será

-Jd < mc > B < m >


< u >=
kB
d incluye ahora el hecho de que tenemos N celdas, y cada una tendrá 2d vecinos, así que existen dN
parejas distintas de vecinos < i, j > 9. Si realizamos además medidas a diferentes temperaturas,
podrem os calcular < C q > , el calor específico por celda a B = c t,

d < u >
< C b >=
6T
la entropía media por celda,

d.T
< s > -— I <C b( T)>
'o T
y la energía libre de Helmholtz por celda,

< / >=< u > -T < s >


^ A u n q u e p o d ría m o s h a b e r c a n c e la d o e ste fa c to r d con el que aparece en la definición d e la fu n c ió n < mc >,
aq u ella e s su definición c o r r e c ta , a sí que h em os considerado o p o rtu n o exp licitar la d e p e n d e n c ia .

http://librosysolucionarios.net
294 Orden y Caos en Sistemas com p lejos

La Inform ación Conjunta

Existe otra m edida interesante que puede ser realizada no sólo en este sistema, sino tam bién en
cualquier otro en el que podamos conocer los estados por los que pasan los elementos del sistem a
a lo largo del tiem po. Es la llamada inform ación conjunta, que se define corno

I <i J > = S, + Sj ~ Si j
donde «St-, Sj son las entropías asociadas a los estados que i y j (vecinos mutuos) presentan a
lo largo del tiem po, y S , j es la entropía asociada a los estados conjuntos de estos dos m ism os
elementos. En general,

S * = - 5 > 5 ° g Pe
e
donde e indica suma sobre todos los estados que el elemento presenta a lo largo del tiem p o, y
Pe representa la probabilidad de cada uno de estos estados. Para la entropía conjunta,

Ski = - ^ T p e c io g p ec
Cc
donde p ÉC es ahora la probabilidad de cada estado o configuración simultánea de la p areja de
vecinos. La suma se extiende a todas las configuraciones que se han presentado a lo largo del
tiempo.
Pongamos un ejemplo. Supongamos que hemos obtenido la siguiente secuencia para dos espines
que son vecinos próximos:

t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
•Sj 1 1 1 -1 -1 1 -1 -1 1 -1 -1 -1 -1 -1 1
1 -1 -1 -1 -1 1 1 -1 1 -1 1 -1 1 1 1
si

El espín s, ha sido hallado 6 veces en el estado +1, y 9 veces en el estado —1. Por tanto

Si - - S 2 Pe log Pe = - ~ log p - ~ log ss 0.2929


lo lo lo lo
£

Para el espín sj, por otra parte, obtenemos

5^ ^ 1o4 - í i 1o4 " 0-3001


La entropía conjunta S¡.j corresponde a las situaciones relativas en que los espines pueden ser
hallados en cada paso de tiempo. Tenem os cuatro opciones en este caso: (1,1). (1,-1), (-1 .1 ) y
(-1,-1). Si miramos la serie, obtenemos 4 veces la primera com binación, 2 veces la segunda, 4 veces
la tercera y 5 veces la última, lo cual conduce a

5, = - 2 ~ log ~ log p - 4 . l0g 4 ~ 0.5819


lo lo lo lo lo 15
y finalmente, I <¡ , j > = 0.0111 para esta serie particular. Para obtener una buena estadística
necesitamos hacer promedios durante tiem pos muy largos (en ocasiones del orden de 103 — 104 o
más iteraciones), ya que sólo tomamos una pareja de elementos en cada paso de tiem po, y de ésta
seguimos la evolución, siempre de la misma, con lo cual una buena media significará en este caso
un tiem po largo, y no un sistema grande.

http://librosysolucionarios.net
Fenómenos C ríticos 2 95

0.02
41


'O
•H
u V
rd

i
_

h
1 ■ ' 1 ■ ................. ...

i
M 001
O

h
ú-i

H

^
f
0 .0 0 i i i r -1 i"" i—t i | ■¥

■:
i
o .0 0 .3 0 .4 0 .5

Figura 7.11: Información conjunta /<»,>> para el m odelo de Ising 2 dimensional en función de la
temperatura. E sta función presenta un máximo en el punto crítico del sistema.

La característica más interesante de esta medida es que presenta un m áxim o en el p u n to donde


se produce la transición. La podem os interpretar com o una m edida de las correlaciones que se
crean en el sistema, de la dependencia del estado de un elemento del que presente su vecino. La
gráfica de la información conjunta para el m odelo de Ising se representa en la figura 7.11.

7.2 Percolación
Imaginemos una porción de roca porosa. Supongamos que queremos saber en qué con dicion es un
fluido será capaz de penetrar en la roca por un extremo y reaparecer por el opuesto. Nuestro
problema se lim ita a conocer si existe un camino en el interior de la roca que con ecte dos caras
opuestas. Si así ocurre, diremos que los poros, o los huecos, en la roca p ercola n en ella. Tom em os
otro ejem plo. Consideremos una superficie aislante sobre la que aleatoriamente vam os depositando
pequeños trozos de un cierto material conductor. Si sometemos esta superficie a una diferencia de
potencial, está claro que no habrá paso de corriente hasta que las deposiciones m etálicas consigan
formar un cam ino conexo entre los extrem os. Observemos que la conducción es nula antes de la
aparición de d icho camino y siempre positiva después. Supongam os, por último, que desearnos
establecer el tiem po de extinción natural de un fuego en un bosque. Este tiem po dependerá del
tamaño de la agrupación conexa de árboles en la que el fuego se ha iniciado. Resulta ser que esta
longitud tem poral, además, no es una función linealmente creciente con la densidad de árboles,
com o en principio se podría suponer. Los grupos de árboles son bastante pequeños para densidades
bajas, y cuando crece la densidad, después de un cierto umbral crítico, la conexión de todos los
árboles del bosque se produce con asom brosa rapidez.
Los tres ejem plos descritos han sido estudiados a partir de m odelos simplificados de percolación
sobre todo tip o de redes y en muchas dimensiones diferentes: desde 1 hasta oo, aunque los casos
más difíciles siempre están com prendidos entre 3 y 5, ambas incluidas (!).
En el caso más sencillo, y probablem ente también más ilustrativo, considerarem os una red
cuadrada 2-dimensional, las celdas de la cual se irán llenando aleatoriam ente con una cierta proba­
bilidad p. Si pudiésemos estudiar una red infinita (a fin de evitar las desviaciones estadísticas que

http://librosysolucionarios.net
296 Orden y Caos en Sistemas com plejos

. 1 J j?r

■ « X - 1 ;.

-.■ < v J ’ .¿ f ' v

Figura 7.12: Celdas ocupadas en el modelo de la percolación en una red cuadrada para diversos
valores de la probabilidad de ocupación. De izquierda a derecha, pc > p — 0.2, p c ~ p = 0.59,
pc < p = 0.8. Obsérvese la geometría del camino que conecta los extremos de la red.

■□□■□□□□□■■□□□■□□□□■□□□□■■□■□■□□□■□■■□□□□□□□■a

Figura 7.13: Una posible cadena de celdas ocupadas y vacias para el m odelo de la percolación en
una dimensión. Se ha escogido p = 0.6 < pc .

cualquier red finita contiene) veríamos que, para probabilidades p pequeñas, por d ebajo de un cierto
um bral crítico pc no existe ningún camino que conecte los dos extremos de la red. Si p > p c, este
cam ino existe siempre, y además, com o las partículas se unen unas a otras muy rápidam ente p oco
después de cruzar el umbral, tiende a ser bastante directo, recto. En cambio, cuando p ~ p c , cuando
el cam ino justo acaba de aparecer por primera vez, presenta muchas ^curvas” . Concretam ente, si
fuésem os capaces de trabajar con redes infinitas, obtendríamos que la longitud de este cam ino se
hace infinita para p = pc . Véase la figura 7.12.
La magnitud pc representa para la percolación lo que la temperatura de Curie para los sistemas
m agnéticos. Es el umbral crítico, en el que el parám etro de orden se hace positivo (con derivada
discontinua) y gran parte de las cantidades que describen el sistema se anulan o divergen de forma
potencial, según un cierto exponente que las caracteriza. Esto es lo que veremos en las próximas
secciones.

7.2.1 Solución exacta en una dim ensión


Estudiaremos el m odelo en una dimensión debido a que posee una solución exacta y a que, aunque
muy simplificado, ilustra algunos aspectos de la percolación en dimensiones mayores.
Llamaremos agrupación ( ‘‘cluster” ) a un conjunto conexo de celdas ocupadas (recordem os que
previamente, en función de una probabilidad p, estas celdas han sido definidas com o llenas o vacías).
Véase en la figura 7.13 un ejem plo con agrupaciones de diversos tamaños.
Definiremos el núm ero de agrupación, ns , com o la probabilidad de que en nuestra cadena de
longitud L (L —►oo) encontremos una agrupación de s celdas llenas. Observemos que, según
la definición, la probabilidad de tener s celdas consecutivas ocupadas será p f (para sucesos es­
tadísticamente independientes, com o se está suponiendo) y además debemos pedir que los dos

http://librosysolucionarios.net
Fenóm enos Críticos 297

extremos estén vacíos (lo cual sucede, para cada extrem o, con probabilidad (1 — p) ) . Así,

n-s = P*( 1 - P ) 2

n, tiene el mismo valor que la probabilidad (en una cadena infinita) de que una celd a determinada
sea el extrem o izquierdo (igual se podría tomar el derecho) final, vacío, de la agrupación. La
probabilidad de que una determinada celda pertenezca a una agrupación de tam año s será sn, ,
donde estamos suponiendo indistinguibilidad.
El umbral de percolación para el caso 1-dimensional resulta ser pc = 1. Si p < pc = 1,
siempre quedará alguna celda vacía (en una red infinita) así que no existirá cam ino conexo entre
los extremos. En una dimensión, pues, no podem os acceder a la zona p > p c . Trabajem os con lo
que tenemos. La probabilidad de que una celda esté ocupada es p, pero tam bién coincide con la
probabilidad de que pertenezca a una agrupación arbitraria. Por tanto,

CC

^ 2 n ss - p (p < pc)
5 = 1

Esta suma también está restringida a p < p c para dimensiones mayores, ya que las celdas pertene­
cientes a la agrupación máxima (que contiene el cam ino conexo) deben ser consideradas indepen­
dientemente.
Calculemos cuál es el tamaño medio de las agrupaciones del sistema. La probabilidad de que
una celda arbitraria (esté o no ocupada) pertenezca a una agrupación de tam año s es n ss , mientras
que la probabilidad de que pertenezca a cualquier agrupación finita es n..s, así que

n,s

es la probabilidad de que al escoger arbitrariamente una celda del sistema, la agrupación a la que
esta pertenece tenga tamaño s. El tamaño m edio de las agrupaciones, S, en el sistema será en
consecuencia

S = ^ ws s =

La agrupación infinita está excluida de la suma 10. Calculemos explícitamente. El denominador


anterior es simplemente p. y el numerador, por la definición de ns,

¡ i - p )2 E s' V = ■■■ = a - p? (p ~ j E p*

donde se ha utilizado dos veces que

p_df = p.
s dp
lo cual permite calcular la última suma, ahora convertida en una progresión geom étrica sencilla,
para proporcionar

l 0 E x iste n algunas definiciones alte rn a tiv a s. Si c on sid e ráse m os que son las celd as, y n o las ag ru p a c io n e s, las que
se escogen con e q u ip ro b a b ilid a d , e nt o nc e s

S= V

p o r e je m p lo .

http://librosysolucionarios.net
298 Orden y Caos en Sisteméis com plejos

S - i± P (p < Pr)
1- p
Observemos que esta - entidad diverge cuando p —* pc — 1. La divergencia se producirá igualmente
en cualquier dimensión, aunque el umbral crítico no será el mismo.

P odem os definir la función de correlación g ( r ), com o la probabilidad de que una celda situada
a distancia r de una celda ocupada pertenezca a la misma agrupación. Sencillamente, el suceso
“estar ocu p ad a '1 debe darse entre la celda origen y la que está situada a distancia r sin interrupción:

g( r) — p r, Vp Vr

Para p < p r, g( r) tiende a cero de forma exponencial cuando r —►oc

g( r) ex exp

donde

1_ _ 1
** ln(p) ~~ (pc - p)
cuando p —<•pc — 1, y utilizando ln (l - x) ~ —x. para x pequeña. £ es la longitud de correlación,
también divergente en el punto crítico. Intuitivamente se deduce que £ será proporcional al tamaño
medio de las agrupaciones, S, cerca del punto crítico:

ÍP-+Pc)
En general, £ es proporcional al diámetro típico de las agrupaciones. Sólo en una dim ensión se
verifica la proporcionalidad anterior, que en el caso general será 5 oc £7/,I/. En una dim ensión,
obtenem os u = 1.
De las relaciones anteriores, que dan resultados exactos en una dimensión, vemos que existen
cantidades divergentes que pueden ser caracterizadas por simples potencias, com o (pc — p ) _ 1 i
cuando p —* pc .

7.2.2 E xpon entes críticos


El m odelo de percolación en una dimensión ilustra el com portam iento de algunas de las cantidades
relevantes en los sistemas que experimentan esta transición crítica. Sin embargo, dado que no
podem os acceder a la zona p > pc. cantidades tan im portante com o el parámetro de orden, por
ejemplo, no pueden ser definidas. Tanto éste com o los exponentes críticos más relevantes en
los sistemas percolantes van a ser definidos en esta sección. C om o guía, podem os tener siempre
presente la imagen d^ la percolación en una red cuadrada de dos dimensiones.
¿C óm o se define el parámetro de orden? Sabemos que antes de p c no existe cam ino conexo,
mientras que éste está siempre presente cuando p > p c. La primera vez que aparece, son muy
pocas las celdas que forman la agrupación mayor (que claramente será la que contiene el cam ino
de percolación, el que atraviesa todo el sistema), mientras que, a medida que p crece, más y más
celdas se unen a ella. Con esta idea en mente, definiremos el parám etro de orden $ (con frecuencia
llamado P o para la percolación) com o el número de celdas contenidas en la agrupación de
percolación:

# celdas en la agrupación de percolación


~~ ' L 2p

http://librosysolucionarios.net
Fenóm enos Críticos 299

donde £ 2p es el número total de celdas ocupadas. Cuando p —> n , el parám etro de orden
presenta una tendencia potencial.

<£ x ( p - pr)J

3 se puede interpretar com o la forma en que la con**ctividad de la iL'.rüpación m áxim a tiende a


cero.
En general, el tamaño medio de las agrupaciones divergerá cuando nos acerquem os al punto
crítico por la derecha o por la izquierda (recordemos que la agrupación máxima queda eliminada
de la sum a sobre agrupaciones para p > pc ), según un exponente 7 :

S{p) x | p - pc [~7

La longitud de correlación, ya definida, sigue una ley

£ (p ) x L oc |p - p d ~ *

En general no será posible utilizar redes infinitas en las descripciones de nuestros sistemas, ya
que éstas sólo pueden ser tratadas de forma analítica, y para las dimensiones más interesantes
(d = 2. 3) es casi siempre imposible obtener resultados exactos (en ocasiones sí se puede hacer para
d = 2). P or tanto, nos veremos con frecuencia obligados a realizar simulaciones numéricas. Si
intentam os hallar alguno de ios exponentes citados por simple simulación directa, veremos que es
casi im posible obtener buenos resultados si trabajamos con redes que en principio nos parecerían
razonablem ente grandes ( L ~ 102 — 103). Sin embargo, podem os aprovechar la proporcionalidad
entre £ y L para realizar el denom inado análisis de tamaño finito. Si invertimos la últim a relación,
obtenem os \p —pc \oc L ~ x^u. Podemos sustituir ahora jp —p c \en alguna de las funciones anteriores,
por ejem plo

$ (p = p c) x L^v

y realizar un estudio de redes de tamaños diferentes, finitos, en el punto crítico. Una interpo­
lación logarítm ica permite obtener el cociente ¡3fu con una aproxim ación m ucho m ayor de lo que
posibilitaría determinación independiente de los exponentes.

Definiremos dos exponentes críticos más, esta vez relacionados con la ueometría de las configu­
raciones (de las agrupaciones) en el punto crítico, para p = p c . Por ejemplo, ¿cuál es la distribución
de tam años s de las agrupaciones en el punto de transición? Esta distribución sigue también una
ley potencial en p = pc, que se desvía (de hecho sólo una parte de la distribución se ajusta a ella)
para p £ p c :

nf x s ~ r c ~ CÍ

con

c x \p - p d -

lo cual define el exponente «y, que caracteriza el límite de validez de la ley potencia], ya que
la función exponencial e ~ :$ actúa com o fundóu de corte, dado que tiende más rápidam ente a
cero que la función potencial. Obsérvese que la expresión anterior se reduce a n s a s ~ r para
p = p c . El últim o exponente que definiremos es la dimensión fractal de la agrupación máxima

l l E l Limite p a r a el p arám etro de orden s ó lo e s tá definido por u n o d e los d os lados, v a que e n el o tr o es siem pre
cero p o r d efinición. N o distingu irem os si el Limite se to m a p o r la d e re ch a o por la izquierda.

http://librosysolucionarios.net
300 Orden y C aos en Sistemas com plejos

para p — p c. Si p < pc , Ia- fractaiidad no se extiende hasta el tamaño total del sistema, puesto
que esta agrupación no lo ocupa, aunque existe autosimilaridad (hasta la longitud de correlación
£). Si p > p c la geometría experimenta un cam bio hacia la homogeneidad: la agrupación máxima
está “ excesivamente llena” , ya que para p > pc muchas otras celdas ocupadas se conectan a ella
rápidamente. Si M es la cantidad de celdas que forman la agrupación de percolación,

M ( l ) ex i "

donde l es la medida lineal de las cajas que recubren el sistema, y D la dim ensión fractal corres­
pondiente a la estructura (véase el capítulo 3).
De nuevo los exponentes definidos no son independientes. Se ha hallado que verifican las
siguientes relaciones:

• jder — t — 2

• ya = 3 — r

. D = d - ¿

La última relación de esta lista pertenece al grupo de las llamadas relaciones de kiperescala,
debido a que contiene la dimensión espacial d del sistema. Así que en el caso de la percolación,
com o ya se había visto para las transiciones magnéticas, el conocim iento de dos exponentes es
suficiente para dar el valor de todos los demás.

Detallamos a continuación el valor de los exponentes críticos para la percolación en 2 y 3


dimensiones. De nuevo, en 2 dimensiones son valores exactos (analíticos), y en 3 dimensiones
son numéricos. Se dan también los umbrales de percolación para redes con diferente geometría
en dimensión 2. Dada la dimensión del sistema, el umbral de percolación puede depender de la
topología de la red, no así los exponentes críticos.

d $ y V T a D
2 5/36 43/18 4 /3 187/91 36/91 9 1/48
3 0.41 1.80 0.88 2.18 0.45 2.53

cuadrada cúbica triangular hexagonal


Pc 0.592746 0.3116 0.50000 0.6962

7.2.3 P ercolación en dos dim ensiones: renorm alización en el espacio real


La idea básica de la renormalización consiste en aprovechar la autosimilaridad que los sistemas
presentan en una transición crítica. El límite para esta autosimilaridad viene dado p or la longitud
de correlación, £. Para todo valor de p, £ representa la máxima longitud a la que el sistema
repite estructura. Así que sólo cuando £ diverge podem os aprovechar la repetición para plantear
ecuaciones a distintas escalas de longitud.

http://librosysolucionarios.net
Fenóm enos C ríticos 301

En la renormalización cu el espacio real, cada conjunto de celdas es reemplazado por una


supercelda a la que, en principio, debería serle asignado un estado que fuese representativo de
los estados que presentaban las celdas a las que sustituye. Cada una de estas superceldas tendrá
una dimensión lineal b y sustituirá bd celdas de la escala menor anterior v¿. Esta renormalización
de celdas requiere ciertas restricciones a fin de producir resultados interesantes. Por ejem plo, eu
general, la densidad de ocupación de las superceldas será p' p, siendo p la densidad de la^
celdas elementales. Unicamente para p = pc se obtendrá p' = p = pc (siempre suponiendo (pie
hemos sabido tom ar un criterio hábil de asignación de estados a la escala superior, y a veretno •.
exactamente có m o ), com o resultado de la invariancia de escala en el punto crítico. Si en la red de
celdas inicial teníamos

? = C | p ' - p c |-"
(C ~ constante). Eu nuestra nueva escala, será = £ /6 , según el reescalamiento efectuado. Asi
pues,

A = P’ ~ Pc = —
logfe log 6 P-Pc dP p= pc
en el límite p, p' —> pc.

Ilustraremos estas ideáis con dos ejemplos prácticos. Consideremos en primer lugar una red
triangular en dos dimensiones. Véase la figura 7.14, que ilustra la forma en que se renormaliza
la red original para que se conserve la geometría y cada celda elemental pertenezca a una única
supercelda renormalizada.
¿C uándo direm os que una supercelda está ocupada? Es necesario establecer un criterio razon­
able para hallar p'.

1. La supercelda estará ocupada si ias tres celdas que la forman lo estaban. Esto sucede co:¿
una probabilidad p 3.

2. Estará también ocupada si dos de las celdas constituyentes lo estaban. La probabilidad de


este suceso es p2( l — p) y puede ocurrir de tres formas diferentes (que corresponden a la
extracción de cada uno de los tres vértices del triángulo).

3. Estará desocupada si sólo una de las celdas estaba ocupada o si las tres estaban vacías.

Este criterio (estará el lector de acuerdo en que es sumamente razonable) permite escribir

L2E n general se su p o n d rá que ia separación e n tre las celd as originales es la d is ta n c ia u n id a d .

http://librosysolucionarios.net
302 Orden y Caos en Sistem as com plejos

Figura 7.14: Renormalización en el espacio real de una red triangular en dos dimensiones.

P* = o, 1 , 1

0 y 1 son soluciones triviales a !a condición de renormalización impuesta. O btenem os, uo obstante,


un resultado no trivial, p ’ — 1 /2 , que resulta ser el umbral con ocid o para la p ercolación en la red
triangular. Calculemos A:

p = p* + A(p - p*) + 0 ( ( p — p * ) 2)

realizando un desarrollo alrededor del punto fijo. Simplemente derivando

p ' = r6p - 6p‘


« 2= -3 en p = p . =
1 -

En la red triangular, 6 = \/Z, así que

log b _ log \/3


= 1.355
log A log |

Este resultado está en buen acuerdo con el valor supuestamente correcto v = aunque, a diferencia
del valor del umbral de percolación, no proporciona el valor exacto.

Utilicemos el mismo procedim iento con una red cuadrada. El convenio de renormalización se
representa en la figura 7.15, lo cual conduce a la ecuación

p' = p4 + 3p3( l - p )

con las soluciones en el punto fijo p' — p — pc

■ n i 1±V 13
6
P = o, 1, ----- ------

http://librosysolucionarios.net
Fenómenos Críticos 303

Figura 7.15: Convenio de renormalización de una red cuadrada en d os dimensiones.

y la única solución no trivial p~ = 0.768.


Esta solución está más alejada del umbral con ocido, p c = 0 .5 9 2 7 .... En este caso, 6 = 2 y
A = 9p2 — 5p3,

[/ = p í l ^ 1 . 4 0

log A

proporcionando un valor razonablemente cercano a

Es necesario decir que este desarrollo en unas pocas lineéis, aunque no exa cto, es probablemente
m ucho m ejor que cualquier simulación que se pueda hacer en el término de unos p o co s días, lo cual
debería dar una idea de la potencia de las técnicas de la renormalización. Los resultados serán
tanto más exactos cuanto mayor sea la supercelda renormalízada, esto es, cu a n to m ayor sea b. Sin
em bargo, aumentar b significa multiplicar enormemente el número de configuraciones que deben
ser analizadas com o posibles contribuciones a la supercelda. De hecho, en una red cuadrada deben
ser analizadas 2b configuraciones. Simulaciones del tipo Montecarlo han llegado a renormalizar
celdas con b = 104, produciendo para n ' 1 un valor 0.75, exacto hasta las centésim as. Para 6 ~ 2,
queda pues claro que las ecuaciones obtenidas son únicamente aproximadas, y el hecho de haber
obtenido exactamente uno de los valores que se pretendía calcular no d ebe llevarnos a engaño.
Hemos obtenido también, y por otra parte, dos valores m uy próximos para u considerando que
partíam os de dos geometrías absolutamente diferentes. A quí vemos claramente reflejado el término
universalidad de los exponentes críticos: la técnica de la renormalización ignora las diferencias
locales menores y aplica todos los problemas críticos en el entorno del punto fijo.

7 .3 C o n clu s io n es e im p lic a c io n e s
Tras los dos modelos vistos (Ising y percolación) se hacen necesarias algunas puntualizaciones sobre
los fenóm enos críticos, sobre la aparición de la física independiente de la escala de observación.
La conclusión principal que la uo dependencia del tamaño de descripción aporta es el forta­
lecim iento y la validez de las descripciones realizadas con modelos en espacio o tiem po discreto

http://librosysolucionarios.net
304 Orden y Caos en Sistemas com plejos

cuando el sistem a evoluciona cerca de un punto crítico. Efectivamente, hemos visto cóm o el m étodo
de la renormalización (sea en el espacio de parámetros o en el espacio real) elimina los detalles
m icroscópicos del sistema, proporcionando no obstante resultados exactos. Nuestros m odelos dis­
cretos de fenóm enos críticos deben ser vistos ahora desde una nueva perspectiva: la de la posible
exactitud. N o es en absoluto necesario tener en m enta los más ínfimos detalles de la realidad en
su descripción, ya que puede ser que la aparición <le las estructuras a gran escala los borre co m ­
pletamente. Probablemente las pruebas más contundentes las aportan los resultados cuantitativos
para los exponentes críticos: sistemas m agnéticos e hidrodinámicos, por una parte, o form ación de
caminos con exos en una roca y conducción de corriente en una superficie, por otra, resultan ser
fenómenos descritos por los mismos números mágicos. Los detalles del sistema, com o el número de
vecinos de ca d a partícula, si ésta es fija o fluida (hierto y agua, por ejem plo), si la interacción es
mediante puentes de hidrógeno o mediante estados de espín, son irrelevantes en la transición crítica:
la emergencia de una estructura que o cu p a toda la escala del sistema, el fenóm eno cooperativo que
aparece a una escala mucho mayor que la del elemento individual, los hace irrelevantes.
El criterio de validez de la descripción discreta está, en cualquier caso, acotado cuantitativa­
mente por la longitud de correlación, f . Junto con ella, sólo otras dos longitudes son relevantes en
el sistema: una longitud máxima que sería la del sistema total propiamente y una longitud mínima,
a la cual se definen las interacciones entre los constituyentes elementales. Es interesante también
constatar que la aparición de la estructura a gran escala no está en absoluto impuesta por las leyes
dinámicas o por las interacciones, que se definen a nivel local. La superestructura emerge en el
sistema, es la respuesta m acroscópica a unas ligaduras externas que, sin embargo, ni la contienen
ni la condicionan.
En el próxim o capítulo describiremos con mayor extensión cuál es la peculiaridad que las ubicuas
funciones potenciales exhiben, e introducirem os un conjunto de sistemas y algunos m odelos que,
dejados a su libre evolución, parecen dirigirse hacia puntos críticos. Hemos visto en este capítulo
que las transiciones críticas son forzadas por la introducción de unas condiciones termodinámicas
(presión, tem peratura, cam po m agnético, ...) muy precisas. Es nécesario, parece ser, forzar el
sistema, em pujarlo, si pretendemos observar un cam bio de fase crítico. Sin em bargo, en el capítulo
siguiente verem os que el punto crítico puede ser alcanzado de form a espontánea. ¿P orqué? ¿Qué
ventajas representan una estructura espacial y una aparición de sucesos temporales independientes
ambas de la escala de observación? Intentaremos responder a estas preguntas con la introducción
de los sistemas críticos autoorganizados.

B ib lio g r a fía
1. J. J. Biuney, N. J. Dowrick. A . J. Fiseher y M. E. J. Newman, The Theory o f Critical
Pkenoincna. Clarendon Press. O xford, 1992.

2. P. Davies, The New Physics. C am bridge l'niversity Press, 1989.

3. S. R . de G root y P. Mazur, Non-Equilihrium Thermodynamics. D over, 1984.

4. L. P. Kadanoff, Physics 2 263 (1966).

ó. D. Stauffer y A. Aharony. Introduction lo Percolation Theory. Taylor í¿ Francis, 1991.

6. K. G . W ilson, Renormalization Group and Cntical Phenomena. Phys. Rev. £ 4 3174(1971);


4 3184 (1971).

7. K. G. W ilson y J. Kogut. Phys. Rep. 12C 7Ú (1974).

8. J. M- Yeomans, Statistical M echanics o f Phasc Transitions. Clarendon Press Oxford 1993.

http://librosysolucionarios.net
Capítulo 8

Sistemas Críticos
Autoorganizados

Llegamos a uno de los teméis más interesantes del libro, donde se agrupan multitud de conceptos
que hem os ido explorando en capítulos precedentes, com o la geom etría fractal, la dinám ica de
sistemas, los autómatas celulares, los fenómenos críticos y la frontera del caos. Los sistemas
que presentaremos son ejemplos de un equilibrio delicado donde orden y desorden coexisten. Es
el balance entre una cierta aleatoriedad y la autoorganización del sistema (capaz de borrar los
detalles locales o m icroscópicos) lo que hace de los sistemas críticos autoorganizados una de las
líneas de investigación más interesantes e innovadoras de las dos últimas décadas. N o ' sólo los
ejemplos que se irán sucediendo en este capítulo corresponden a los sistemas citados. En otras
partes de este libro se ha hablado, o se hablará, de virus (y la catástrofe de error asociada), de
evolución (y la autosimiiaridad tem poral de las extinciones) y se harán algunas sugerencias en esta
dirección cuando se hable de neurodinámica.
Iniciaremos el capítulo profundizando en el significado de las funciones potenciales, las que
representan matemáticamente la autosimilaridad. Inmediatamente pasaremos a la descripción de
una serie de m odelos y sistemas reales sobre los que se conjetura que evolucionan cerca de un punto
crítico. En la última sección analizaremos el tipo de predicción que los sistemas críticos perm iten,
y los com pararem os con la predicción en los sistemas caóticos.

8 . 1 L e y e s d e e s c a l a

Se ha visto en el capítulo anterior que las leyes de escala, o leyes potenciales, aparecen cerca de
los puntos críticos. Cuando un sistema sigue una ley de escala, se ha dicho que sus propiedades se
hacen independientes de la escala de observación. ¿Qué significa esto, exactam ente? Intentaremos,
en esta sección, profundizar un p o c o más en el significado de las funciones potenciales, a la vez
que describiremos numerosos ejem plos en los que se ha hallado relaciones de este tipo. No es
únicamente la estructura geom étrica la que posee leyes de escala (caso en el cual hablamos de
fractales) sino que también la ocurrencia temporal de algunos fenóm enos puede ser invariante bajo
cam bios de escala (hablamos entonces de ruido 1 //^ ) . Veremos que, en el caso del tiem po, esta
invariancia tiene implicaciones en la predicción.
Lo prim ero que debemos analizar es porqué las leyes potenciales están libres de cualquier escala
característica, y porqué ningún otro tipo de función (polinómica, exponencial, trigonom étrica, ...
) posee esta propiedad.

305

http://librosysolucionarios.net
306 Orden y Caos en Sistemas Com plejos

Por razones dimensionales, las únicas magnitudes que pueden ser elevadas a potencias arbi­
trarias son adimensionales. Esto implica que. en presencia de un exponente 77 R arbitrario, una
ley potencial será de la forma

donde xo es alguna medida patrón con las mismas dimensiones que x. Por otra parte, podem os
considerar una función exponencial, por ejemplo. De nuevo, sólo cantidades adimensionales pueden
aparecer com o argumento de funciones trascendentes, así que tendremos

g2(x) = exp

¿C uál es, entonces, la diferencia esencial entre una y otra función? Supongam os que me­
dim os nuestra función g2 para valores de x en el intervalo (x o /2 ,2 x o ), es decir, un intervalo
logarítmicamente centrado en xo- Consideremos el cociente entre el valor m áxim o y el valor mínimo
que la función presenta en este intervalo: e 2f c 1^2 — c 1,5. Tomemos ahora un intervalo diferente,
esta vez centrado en 10xo = x'Q, y midamos en cociente entre el valor m áxim o y el mínimo en
{ x 'q! 2,2x q). Obtenemos ahora un cociente e l'J. Si centram os el intervalo en lOOxo. la razón será
e 1*0. Así que las gráficas de g2 en estos tres intervalos no son modelos a escala unas de otras: no
es posible superponerlas mediante un simple cam bio lineal (lo que significa bien una contracción
bien una dilatación) de escala en los ejes, no son gráficas semejantes b
Realicemos la misma exploración en la función <jq. La razón entre el valor m áxim o y el mínimo
que la función presenta en los mismos tres intervalos anteriores es siempre 4 b así que ahora sí
será posible superponer las tres partes de la gráfica realizando un simple cam bio lineal. En este
sentido, un fenómeno que obedece leyes de escala tiene el mismo aspecto, independientemente
de la escala a la que lo contemplemos. Observemos, finalmente, que debido a ia variación del
cociente considerado, es posible detectar el valor de xo en una función exponencial. Sin embargo,
la equivalencia de todos los cocientes en una ley potencial borra las huellas de xo- Aunque se
utiliza para hacer el argumento de la función adimensional, la simple exploración de la función no
revela que medida tiene este patrón, ya que lo único que el observador puede detectar es el valor
relativo a escalas diferentes, la relación entre dos escalas de observación, es decir el cociente, y éste
es constante. Sólo una ley potencial está libre de escala.

¿D ónde encontramos leyes potenciales? Aparecen en una gran cantidad de fenómenos. De


forma muy general, podríamos decir que las encontramos cuando una gran cantidad de elemen­
tos interaccionan entre ellos para producir una estructura a un nivel superior. Es ros elementos
constituyentes del sistema poseen una historia com ún, a lo largo de la cual las interacciones lo­
cales han podido extenderse a lo largo de todo el sistema, es decir, ha habido una transmisión
de información a escala global. Estos sistemas evolucionan lejos del equilibrio, y habitualmente
son sistemas altamente disipativos. Esta descripción general es probablemente un p o co vaga. Los
ejem plos siguientes ayudarán a concretar su significado.

El primer descubrimiento sistemático de leyes de escala en muchos sistemas diferentes se re­


m onta a la década de 1930. Fue George Kingsley Zipf, un profesor de alemán de Harvard quien
descubrió una ley fenomenológica, ahora llamada ley de Z ip f que relacionaba un cierto fenómeno
cuantificable con la frecuencia de aparición de cada valor de dicho fenómeno.
Una de las primeras medidas realizadas tiene que ver con las lenguas. Z ip f m idió la longitud de
las palabras en un texto y la frecuencia con que cada longitud aparecía. El resultado fue una ley

1 V é a s e la sección 3 .3 .2 .

http://librosysolucionarios.net
Sistemas Críticos Autoorganizados 307

10 7i
N ueva Y o rk

co
cu

£

2 10 81 D etro it
tí B a lt im o r e ■ \ W a s h in g t o n

N u eva 0 r £ e a n s ^ \ ^ f a 'n s a s

V irg in ia \ m T o led o
Arlington*

10 ¡ I I I T*
10 i oo
Rango

Figura 8.1: Representación del número de habitantes de algunas ciudades americanas en función
del rango que ocuparían, según la ley de Zipf.

potencial, y constató que todos los idiomas m odernos seguían leyes de escala del mism o tipo. Leyes
de p oten cia fueron observadas en sistemas tan dispares com o el tamaño de las áreas m etropolitanas
estadounidenses, las mayores empresas por volumen de negocio o las exportaciones anuales de un
país. Z ip f asignó un rango 1 al mayor ejemplo de cada sistema. 2 al segundo, y así sucesivamente, a
la vez que contaba cuántos ejemplares tenía en cada rango. En la ley de Z ip f original, la magnitud
considerada (por ejemplo el número de habitantes ‘en una ciudad) era inversamente proporcional
al rango ocupado.
Puntualicem os lo siguiente: podría pensarse que es casi trivial que baya p ocos ejem plos de,
digam os, ciudades muy grandes (para fijar ideas), bastantes más de ciudades medianas y muchas
ciudades pequeñas. De acuerdo, es trivial. P ero existe una infinidad de funciones m onótonas
decrecientes. Así que lo que ya no es trivial es que la escogida sea la única de entre ellas invariante
de escala.
B enoit Mandelbrot ha generalizado la ley de Z ip f original de forma que dé cabida a leyes
igualmente invariantes de escala pero más generales. Si el rango de un suceso es r, esta ley se
puede escribir

(r + a )»»
donde a es una constante y 7/ el exponente que caracteriza la ley. En el caso de la ley de Z ipf
original, a = 0 y rj = 1.

Estos ejemplos son sencillos y muy claros. Es quizá un p o co menos evidente el estudio de
la autosimilaridad temporal, de las leyes de escala del tipo 1¡ f Q. Consideremos un ejem plo que
ilustra bien la repetición de la dinámica a escalas de tiempo diferentes. Supongam os que en un
cierto instante dejamos partir un móvil del origen de coordenadas y permitimos que se desplace una
unidad de longitud hacia la derecha o hacia la izquierda (en una dimensión) a intervalos discretos
de tiem po. La gráfica 8.2 ilustra el desplazamiento del móvil. Una ampliación de una parte de la
trayectoria reproduce (no de form a exacta, sino estadística) el aspecto de la totalidad.
Este m ovim iento es eí de un random walker en 1 dimensión (véase el capítulo 1).

http://librosysolucionarios.net
308 Orden y Caos en Sistemas Com plejos

Figura 8.2: Evolución temporal de un móvil que se mueve una unidad temporal hacia la derecha
o hacia la izquierda (en el eje horizontal) en cada paso de tiem po (en el eje vertical). La figura de
la derecha es una ampliación del recuadro pequeño de la izquierda.

La forma habitual de describir la estructura de una señal temporal consiste en estudiar su


espectro de Fourier. La figura 8.3 representa, de forma m uy esquemática, cóm o la superposición
de cinco arm ónicos (funciones sinusoidales puras, de frecuencia única) puede dar lugar a una señal
más com plicada, no periódica. En los sistemas que presentan leyes potenciales en su dinámica
temporal, no existe ningún tipo de repetición exacta.
Obsérvese que la periodicidad im plica existencia de un tiem po característico (el periodo), y estos
sistemas están por definición libres de él. La no periodicidad también implica que, cuanto más
tiempo m idam os, más estructura diferente hallaremos en el sistema, y mayor será la cantidad de
armónicos de b a ja frecuencia necesaria para describirlo. C uando, finalmente, mediante el estudio
del espectro de Fourier, constatamos que un sistema posee una dinámica del tipo 1 / / J . el valor del
exponente ¡3 proporciona información sobre la dinámica que representa. Por ejemplo, si /? = 0. el
espectro de Fourier contiene todas las frecuencias en la m isma cantidad, con la misma amplitud.
Es lo que llamamos ruido blanco, y lo podem os encontrar en la agitación térmica de cualquier
sustancia. En otro extremo tendríamos ¡3 = 2. Es un random walker el que posee este exponente.
La dinámica presenta fuertes correlaciones, provocadas por la prohibición de desplazarse más de una
unidad de longitud respecto de la posición anterior, pero tiene un com ponente aleatorio: el sistema
sólo tiene m em oria de un estado, el inmediatamente anterior, para decidir el actual. Las situaciones
más interesantes aparecen entre los dos casos anteriores. Para 3 = 1 tenemos el llamado ruido
1 / / , que parece ser, al igual que la ley de Z ipf y sus variantes, obicuo en la naturaleza. Podríamos
decir que se trata de una dinámica en la que las correlaciones se alternan con las sorpresas. Se ha
encontrado este tipo de “ ruido'’ en la música clásica, especialmente en la de Mozart o Bach, por
ser las que presentan mayor velocidad de variación, pero también en el jazz o en otros tipos de
música m oderna, en el ruido del agua que cae por una cascada, en la sucesión de terremotos de
diferente intensidad, en las variaciones de las extinciones en el registro fósil, ...
Se supone que la aparición del ruido l / f tiene com o principal característica (im plícita en
su invariancia de escala) la aparición de correlaciones que se extienden en un amplio rango de
escalas temporales, com o consecuencia de algún tipo de fenóm eno cooperativo. Esta fluctuación
temporal de tip o 1 / / se cree que es el resultado de la dinám ica intrínseca de los sistemas críticos
autoorganizados. Estos son muy abundantes en la naturaleza: la luz de los cuásares, la intensidad

http://librosysolucionarios.net
Sistemas Críticos Autoorganizados 309

Figura 8.3: Espectro de Fourier de una señal compuesta por cinco armónicos. C om o la longitud de
onda m a yor es más grande que la longitud temporal del sistema, no existe repetición de la señal.

de las manchas solares, el paso de corriente por una resistencia, el flujo de arena en un reloj, el
agua en un río com o el Nilo, la dinámica de la bolsa, ...
C on los modelos que serán descritos en las próximas secciones veremos cóm o las leves potenciales
en el tiem po y en el espacio tienen una descripción unificada, cóm o unas y otras se entienden
simultáneamente y cóm o se complementan. Intentaremos entender porqué aparecen y daremos las
im plicaciones que tienen en la predicción y eD la descripción de numerosos fenóm enos naturales.
Veremos que estos modelos reproducen por otro lado m uy fielmente las leyes halladas en la realidad.
Las razones expuestas en la última sección del capítulo anterior sobre fenómenos críticos avalan
la validez de las conclusiones que de estos modelos simplificados se deriven. En las próximas
secciones discutiremos la conjetura provocada por la omnipresencia de los fenóm enos libres de
escala: ¿tienden algunos sistemas dinámicos de forma natural a los puntos críticos?

8 . 2 S i s t e m a s c r í t i c o s a u t o o r g a n i z a d o s ( S O C )

La idea germinal sobre la posible tendencia espontánea de algunos sistemas a un punto crítico data
de 1987, y se debe al danés Per Bak y a dos de sus colaboradores. Chao Tang y Kurt Wiesenfeld.
Estos autores constataron la ubicua presencia simultánea de fractalidad y ruido 1 / / en sistemas
dinám icos con extensión espacial. Sugirieron que la aparición de un estado crítico autoorganizado,
que el prop io sistema escoge, proporcionaba una conexión entre la dinámica no lineal, la aparición
de autosimilaridad espacial y el ruido 1 / / de una forma natural y robusta.
La aproxim ación a algunos problemas que proponía esta teoría era innovadora. Existe toda
una escuela sobre la reducción de los problemas en física. Es muy usual que uu problem a con
muchos grados de libertad se trate de forma perturbativa, que se intente disminuir el número de
variables y que se reduzca la interacción a los términos de orden superior. Esta aproxim ación ha
proporcion ado resultados brillantes en numerosos casos. Pensemos en la term odinám ica (donde la
partícula individual es indistinguible de las demás) o en la física de partículas, donde los desarrollos
perturbativos son la base de prácticamente todo cálculo. Sin em bargo, no podem os aplicar el
m étodo a, por ejemplo, un ecosistema. Para empezar, la especie individual deja de tener sentido

http://librosysolucionarios.net
310 Orden y C aos en Sistemas Com plejos

Figura 8.4: Fluctuación 1 / / del número de familias de los A m m on oidea (Am m onites).

aislada del medio. De él depende, pero a su vez lo hace cambiar, en un círculo continuo, de forma
que no se puede separar el nivel de estudio de la especie del nivel superior del ecosistema. Esta
misma interdependencia de las especies hace que el sistema sea m uy sensible a pequeños cambios,
al ruido. Sin em bargo, debe de ser suficientemente robusto com o para haber llegado hasta el
presente. Es el balance entre la sensibilidad a las perturbaciones y a la vez la robustez del sistema
para superarlos o integrarlas lo que hace de estos sistemas sistemas críticos.

La autosimilaridad espacial y temporal está m uy bien entendida en los fenómenos cooperativos


que aparecen en las transiciones críticas de equilibrio en algunos sistemas físicos {véase el capítulo
anterior). Sin em bargo, el punto crítico sólo puede ser alcanzado por m edio de un parámetro
finamente controlado, y por tanto su aparición en la naturaleza debería ser accidental. El hecho
de que sean muchas las observaciones que apoyan la existencia natural de sistemas en o cerca
de un punto critico implica que debe de existir algún mecanismo que los empuje a este punto
com o resultado de la dinámica intrínseca, de las interacciones, de la relación con el medio. Los
sistemas naturales que se observan en los puntos críticos no operan en el equilibrio termodinámico.
Al contrario, cualquier sistema vivo está lejos del equilibrio por definición: tiene una entrada
constante de energía (imprescindible para mantenerse vivo) y una salida también constante de
energía transformada. Son sistemas altamente disipativos. En algunos de ellos (com o la pila de
arena, que describiremos a continuación) existe una conservación local de la “ energía", mientras
que en otros (el ju eg o del bosque o algún m odelo de terremotos) esta energía que puede ser definida
no resulta conservada ni siquiera localmente. La no conservación global se produce en todos los
sistemas críticos autoorgarxizados.

8.2.1 La pila de arena


El m odelo sencillo que describiremos a continuación fue el primer inetam odelo que intentaba aclarar
algunas de las cuestiones relativas a la autoorganización en un punto crítico y ju n to con el cual se
introdujo la criticalidad autoorganizada ( selforganized criticality, S O C ). Aunque elemental, ayuda
sin duda a com prender cóm o se genera y se mantiene el estado crítico en un sistema disipativo de
no equilibrio, cóm o perturbaciones mínimas pueden propagarse a to d o el sistema y cóm o se genera

http://librosysolucionarios.net
Sistemas C ríticos Autoorganizados 311

Celdas a ctu a liza d a s, s

Figura 8.5: A ia izquierda, construcción de una pila de arena experimental. A la derecha, tamaño
de las avalanchas y frecuencia de cada una de ellas cuando el sistema ha alcanzado la pendiente
crítica.

la invariancia de escala. Describiremos el m odelo en dos dimensiones, porque es probablem ente el


más ilustrativo, aunque se ha formulado también en una dimensión (para la que hay una solución
exacta) y se ha simulado también en tres dimensiones.
Nuestra más que probable experiencia con piléis de arena reales debe indicar porqué un m odelo
sobre ellas puede ejemplificar un estado crítico. Sí depositamos cuidadosam ente arena en una
montañita, observaremos que la pendiente crece hasta llegar a un valor que se mantiene, a pesar
de que se siga añadiendo arena al m ontón. También podríamos realizar una especie de “castillo”
con arena m ojada. A medida que ésta se fuera secando, veríamos có m o se iría desprendiendo hasta
alcanzar de nuevo la misma pendiente crítica anterior. Este estado es un a tractor del sistema.
Observemos que no representa la situación más estable que se p odría alcanzar. Sería más estable
el caso en que los granos de arena se distribuyen uniformemente en una superficie plana, con lo
cual se evitarían las avalanchas de arena por los lados. El estado de equilibrio dinám ico que el
sistema mantiene es un estado meiaestable. en el que la adición de un único grano puede provocar
desde la caída de un solo grano hasta la precipitación de tod o el m ontón.
Una form a de rnodelizar estas avalanchas en un montón de arena es la siguiente. Consideremos
una red cuadrada en dos dimensiones. Cada una de las celdas tendrá una altura asignada, z (x , y),
que podrá tom ar valores discretos entre cero y cuatro:

z ( x ,y ) € {0 ,1 , 2,3, 4}

El valor = 4 es el valor crítico para la altura. Si una celda alcanza el tam año zc , reparte
su carga entre sus cuatro vecinos p or igual: a cada uno le corresponde “ una unidad de arena” .
E xterionnente se deposita una unidad en cada paso de tiem po sobre una celda que puede ser
siempre la m ism a o puede estar escogida al azar 2.

2 E n el c a so d e u tiliz a r siem pre la m ism a ce ld a p ara in trodu cir energía en el s is te m a , se gen eran configuraciones
sim é trica s (ló g ic a m e n te ) en las que se p u e d e ap reciar fácilm en te la d isp o sició n fr a c ta l de las a ltu r a s . Si se esc o g e n
las c eld as a l a z a r , n o s enfrentam os a una c on fig u ración a lea toria, en la q u e la fr a c ta ü d a d es m á s difícil de d e te c ta r.
L os resu ltad os e se n cia le s son sin em b a rgo lo s m ism o s.

http://librosysolucionarios.net
312 Orden y Caos en Sistem as Com plejos

Figura 8.6: A specto posible de una instantánea del m odelo de la pila de arena.

El m odelo tiene condiciones de frontera abierta: los ^granos de arena’' que se pierden desde las
celdas de la frontera caen fuera del sistema.
Las reglas del m odelo se pueden resumir en la forma siguiente:

lo que significa que se ha escogido una celda aleatoria ( x r , y r ) para depositar una unidad. Si alguna
celda alcanza el tamaño crítico,

*c(* ,!/) - » '-{x ,y ) - 4

z(x± 1, y) + 1
z (x ± 1, y) ->

z(z,y± 1) -» z(x,y± 1) + 1
y el reparto prosigue hasta que z { x ,y ) < zc. Va:, y, y se pierde la energía (o granos) sobrante que
alcanza la frontera, cuando x\ y = 1, N . Dada la definición del modelo, no es posible establecer una
analogía clara entre la pendiente crítica que se observa en el caso real y otra cantidad que p