Está en la página 1de 71

Sistemas dinámicos discretos

Aubin Arroyo y José Seade

29 de septiembre de 2006
2
Índice general

1. Sistemas dinámicos discretos. 5


1.1. Espacios métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1. El conjunto de Cantor . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. Dinámica topológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1. Equivalencia entre sistemas dinámicos . . . . . . . . . . . . . . . . 14
1.2.2. Sistemas dinámicos en el círculo . . . . . . . . . . . . . . . . . . . . 17
1.2.3. Homeomorsmos del círculo . . . . . . . . . . . . . . . . . . . . . . 21
1.3. Caos unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.3.1. Las propiedades del caos . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2. Periodo 3 implica caos . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3.3. Un camino al caos: las bifurcaciones. . . . . . . . . . . . . . . . . . 35

2. Hiperbolicidad 41
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2. Dinámica Lineal en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2.1. Puntos jos y rectas invariantes . . . . . . . . . . . . . . . . . . . . 46
2.3. Dinámica local; la dinámica de la derivada . . . . . . . . . . . . . . . . . . 54
2.3.1. Revisitando la derivada . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.2. El teorema de Hartman-Grobman . . . . . . . . . . . . . . . . . . . 56
2.4. Dinámica global. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.1. Los conjuntos estables e inestables globales . . . . . . . . . . . . . . 59
2.4.2. Los sistemas Morse-Smale . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.3. Ejemplo de Smale, la herradura . . . . . . . . . . . . . . . . . . . . 64
2.4.4. Sistema de Anosov en el Toro. . . . . . . . . . . . . . . . . . . . . . 66
2.5. Apendice: prueba del teorema de Hartman Grobman . . . . . . . . . . . . 67

3
4 ÍNDICE GENERAL
Capítulo 1

Sistemas dinámicos discretos.

Resolver una ecuación diferencial, en general, no es una tarea fácil e inclusive puede
llegar a ser una empresa imposible. Esto ya lo sabía Jules Henri Poincaré (1854-1912), un
siglo atrás. En particular, las ecuaciones que rigen el movimiento de más de tres cuerpos
bajo el inujo de su atracción gravitacional, de acuerdo con las leyes de Newton, que en
ese tiempo estudiaban, han prevalecido intactas, o casi intactas, hasta los días de hoy, con
excepción de algunas situaciones particulares.
Ante la imposibilidad de resolver las ecuaciones diferenciales en general, el mismo
Poincaré propuso enfocar el problema desde otra óptica. En lugar de procurar por una
solución exacta, apuntó en dirección de las propiedades de las soluciones las cuales po-
damos determinar sin resolverla explícitamente, a partir de la estructura del espacio o
bien de alguna propiedad de la ecuación.
Las ecuaciones en diferencias y las ecuaciones diferenciales, las cuales sólo mencionare-
mos en esta introducción, están harto relacionadas. Ambas consideran una regla mediante
la cual podemos determinar la evolución de un conjunto de puntos a través de la acción
del tiempo. En el primer caso, el tiempo es discreto, es decir, viene dado por unidades
enteras, t ∈ Z, y en el segundo de manera continua, t ∈ R.
¾Qué podemos decir de las soluciones sin tener que resolver la ecuación en diferencias?
Por ejemplo, en el caso de existir un punto jo atractor, podemos armar que las órbitas
de todos los puntos vecinos convergen a él. Es verdad, no siempre existen los puntos
jos atractores, sin embargo, ¾es posible que exista alguna región del espacio a la cual la
mayoría de las órbitas se aproximen? Una órbita periódica, por ejemplo. O quizás algún
conjunto más complicado.
Con este tipo de preguntas, Poincaré fundó una nueva rama de las matemáticas:
los sistemas dinámicos. Esta rama también podría llamarse "estudio cualitativo de las
ecuaciones diferenciales". Además, mejor si estas propiedades son válidas, no para una
ecuación en particular, sino para algún subconjunto de ecuaciones "semejantes".
Un sistema dinámico corresponde a un espacio de puntos y a una ley que determina
como estos puntos se mueven en el espacio.

En el capítulo anterior hemos introducido los sistemas dinámicos discretos, denidos


en algún subconjunto de los números reales. Estos consisten de un conjunto A ⊂ R y una
transformación continua f : A → R de manera que f (A) ⊂ A. Así, podíamos considerar
las órbitas de los puntos x ∈ A mediante la iteración de la función f ; esto es f n (x), con
n ∈ N. En principio, no hay ninguna restricción que nos impida considerar un espacio más
grande; siempre y cuando en este nuevo espacio exista alguna estructura que nos permita
determinar, por ejemplo, si la órbita de un punto converge o no, o que podamos hablar

5
6 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

de la vecindad de un punto.
RESUMEN DEL CAPÍTULO. Visitaremos los espacios métricos y sus propiedades
en la siguiente sección. Deniremos algunas nociones básicas, como lo son el lugar donde
nace una órbita y donde muere. Hablaremos también...

1.1. Espacios métricos

Tener una estructura topológica en un conjunto de puntos M es tener un criterio para


decidir cuando una sucesión de puntos converge, o no, a un límite.
Revisemos la noción de convergencia de una sucesión de números reales. Una sucesión
{xn ∈ R|n ∈ N} converge al punto z si y solo si, para cualquier vecindad de z , de la forma
(z − ε, z + ε) existe un número N ∈ N de manera que todos los elementos de la sucesión
xn tales que n > N están contenidos en el intervalo (z − ε, z + ε). Otra manera de armar
que la sucesión converge a z es mediante el uso de una función distancia: Si para cualquier
ε > 0 existe N ∈ N de manera que si n > N entonces la distancia entre xn y z es menor
que ε, es decir d(xn , z) = |xn − z| < ε.
En general, una función d : M ×M → R+ , esto es, una función que a cada par de puntos
de M les asigna un número real positivo, es una función distancia si cumple las siguientes
propiedades:
1. d(x, x) = 0, para todo x ∈ M
2. Es simétrica: d(x, y) = d(y, x), para todos x y y ∈ M
3. Cumple la desigualdad del triángulo: d(x, y) 6 d(x, z) + d(z, y), para todos x, y, z ∈
M.

Un ejemplo: Cualquier subconjunto M ⊂ Rn es un espacio métrico si lo consideramos


junto con la función distancia denida mediante la siguiente fórmula:
p
d(x, y) = ||x − y|| := (x1 − y1 )2 + · · · + (xn − yn )2 ,

donde x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ).


Una vez denida una función distancia en M , el par (M, d) se convierte en un espacio
métrico y no es difícil convencerse que la denición de sucesión convergente es la misma,
que para sucesiones de números reales. A partir de ella, también podemos denir los
subconjuntos abiertos de M y sus complementos: los subconjuntos cerrados. En general,
la noción de distancia nos permite hablar de vecindades alrededor de los puntos: Un
subconjunto U ⊂ M es un subconjunto abierto si para cada x ∈ U existe ε > 0 talque la
bola de radio ε con centro en x está contenida en U , esto es Bε (x) = {y ∈ M |d(x, y) < ε} ⊂
U . Una vecindad de un punto es cualquier subconjunto abierto que lo contiene. Observe
que si εn → 0 las bolas Bεn (x) son todas abiertas y de alguna manera recuperan nuestra
noción cotidiana de vecindad. Un subconjunto A ⊂ M es cerrado si su complemento
M r A es un subconjunto abierto.
Es fundamental que las transformaciones que consideremos preserven la estructura
topológica del espacio. Las funciones continuas son precisamente las funciones que preser-
van la topología. Una función f : M → N , entre dos espacios métricos: (M, dM ) y (N, dN ),
es una función es continua si f −1 (U ) es un conjunto abierto en M para cualquier sub-
conjunto abierto U de N . Esto es, las transformaciones continuas preservan los conjuntos
abiertos bajo imágenes inversas. Análogamente, podemos caracterizar la continuidad de
1.1. ESPACIOS MÉTRICOS 7

una función mediante sucesiones convergentes: f es continua si dada cualquier sucesión


{xn } de puntos en M tal que xn converge a x, entonces la sucesión f (xn ) converge a f (x).
Dos espacios métricos son equivalentes en el sentido de su topología si existe una fun-
ción biyectiva h : (M, dM ) → (N, dN ) de manera que tanto h como su inversa h−1 son
funciones contínuas. Siendo así, decimos que h es un homeomorsmo y que M y N son
homeomorfos. Si h es un homeomorsmo podemos armar que cualquier subconjunto
V ⊂ M es un abierto de M , si y solo si h(V ) es abierto en N ; pues basta aplicar la
denición de continuidad de h y de h−1 . De esta manera, un homemorsmo es una cor-
respondencia entre los puntos de M y los puntos de N , y también una correspondencia
entre los subconjuntos abiertos de ambos. Por eso, en el sentido de la topología (M, dM )
y (N, dN ) son equivalentes.
Un homeomorsmo que además preserva la distancia entre puntos se le llama isometría.
Esto es, una biyección h : (M, dM ) → (N, dN ) es una isometría si para cualquiera dos puntos
x, y ∈ M se verica que:
dM (x, y) = dN (h(x), h(y))
Esta condición es suciente para vericar que h es también es un homeomorsmo.
Las propiedades topológicas de un espaco son aquellas que se preservan bajo homeo-
morsmos. Revisaremos algunas de ellas que nos serán de utilidad en lo que sigue de este
libro. Para esto, jemos un espacio métrico arbitrario: (M, d).
Un subconjunto A ⊂ M es un subconjunto compacto si podemos armar que cualquier
sucesión de puntos en A contiene una subsucesión convergente. Si M = Rn , cualquier
subconjunto cerrado y acotado es un subconjunto compacto.
De manera intuitiva, un subconjunto de M es conexo cuando este consta de una sola
pieza. Describir este fenómeno, de manera precisa es un poco elaborado. Primero tenemos
que denir un conjunto disconexo. A ⊂ M es disconexo si existen dos abiertos U y V ,
disjuntos, (U ∩ V = ∅), de manera que A ∩ U 6= ∅ y A ∩ V 6= ∅ pero A ⊂ U ∪ V . De manera
formal, podemos denir que un conjunto A es conexo, si no es disconexo. Un conjunto A
es totalmente disconexo si para cualesquiera dos puntos diferentes x, y ∈ A existen dos
abiertos, U y V , disjuntos de modo que x ∈ U , y ∈ V y que A ⊂ U ∪ V . Un subconjunto
A de los números reales R es totalmente disconexo si no contiene ningún sub-intervalo:
para todos a, b ∈ R el intervalo (a, b) ∩ (R r A) 6= ∅. El conjunto de los números racionales
es totalmente disconexo en R.
A partir de un conjunto cualquiera A, podemos denir su cerradura: A. Esto es, el
conjunto de todos los puntos en M que podemos obtener como límite de alguna sucesión
convergente de elementos de A. Otra manera equivalente de denir la cerradura de A es
como el menor conjunto cerrado que contiene a A. La cerradura del conjunto {(x, y) ⊂
R2 |x2 + y 2 < 1} es precisamente el disco de radio 1:

{(x, y) ⊂ R2 |x2 + y 2 6 1}

Un punto x ∈ M es un punto de acumulación de A si existe una sucesión innita


{an ∈ A} tal que an → x cuando n → +∞. Un punto a ∈ A es un punto aislado de A
si existe un abierto V ⊂ M tal que V ∩ A = a. Decimos que A ⊂ M es un subconjunto
perfecto si todos los puntos de A son puntos de acumulación de A. Si A es un subconjunto
perfecto, entonces no tiene puntos aislados.
Un subconjunto A ⊂ M es denso en M si la cerradura de A es todo M . Dicho de otra
manera, para cualquier elemento x ∈ M existe una sucesión an ∈ A que converge a x. Los
numeros racionales forman un subconjunto denso de R. Para observar esto basta recordar
el hecho de que entre dos números reales cualesquiera x < y , siempre existe un número
8 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

racional r entre ellos, es decir x < r < y . Así, dado un número real r cualquiera, siempre
podemos encontrar una sucesión de números racionales {qn ∈ Q} que converge a r. El
conjunto de los numeros irracionales también es denso en R. El conjunto Rn r{x1 , . . . , xn }
es un conjunto denso en Rn .

1.1.1. El conjunto de Cantor


Un ejemplo de un espacio métrico que, en principio, no es un subconjunto de los
números reales (aunque más tarde encontremos un subconjunto homeomorfo a él) con-
tenido en el intervalo [0, 1]; es el conjunto que describiremos en esta sección. Uno de los
creadores de la teoría de los Conjuntos, Georg Ferdinand Ludwig Philipp Cantor (1845-
1918), fue el primero en describir este conjunto y por eso, lleva su nombre: El conjunto
de Cantor.
Para describir un espacio métrico es necesario determinar un conjunto de puntos y
una función distancia entre ellos. Para denir el conjunto de puntos, basta con nombrar a
cada uno de sus elementos. La manera que utilizaremos, por su parte, nos brindará mucho
más información del punto: su nombre y su localización dentro del conjunto.
Consideremos el alfabeto más simple de todos; el alfabeto que consiste de dos letras,
0 y 1 . Una palabra, escrita con este alfabeto, es una concatenación de letras, digamos:

00110101111010 ...

Una palabra nita, o más precisamente de longitud n, escrita con este alfabeto, x1 x2 · · · xn ,
la podemos identicar con un elemento del producto cartesiano de n copias del conjunto
{0, 1}. Especícamente:

x1 x2 · · · xn = x → (x1 , x2 , . . . , xn−1 , xn ) ∈ {0, 1}n .

donde xj ∈ {0, 1}, para toda j . De la misma manera, una palabra de longitud innita la
podemos escribir mediante una sucesión innita de letras xj ∈ {0, 1}, esto es:
x = (x1 , x2 , . . . , xn−1 , xn , xn+1 , . . .)

o bien como un punto x ∈ {0, 1}N .


El conjunto de Cantor Σ es precisamente el conjunto de palabras innitas escritas en
el alfabeto {0, 1}; es decir, Σ := {0, 1}N .
Mientras no denamos una función distancia, el conjunto Σ es simplemente un conjunto
de puntos con la misma cantidad que el conjunto de los números reales. Para convencernos
de que se trata de un conjunto no numerable, utilizaremos el argumento conocido como
"la diagonal de Cantor": Primero supongamos, por el contrario, que Σ es numerable, esto
es, podemos enlistar todos los elementos de Σ, de alguna manera:
x1 = (x11 , x12 , x13 , x14 , x15 , x16 , . . .)
x2 = (x21 , x22 , x23 , x24 , x25 , x26 , . . .)
x3 = (x31 , x32 , x33 , x34 , x35 , x36 , . . .)
..
.
xn = (xn1 , xn2 , xn3 , xn4 , xn5 , xn6 , . . .)
..
.
1.1. ESPACIOS MÉTRICOS 9

Sorprendentemente, esta lista está incompleta. No importa de qué manera hayamos aco-
modado los elementos de Σ en la lista, podemos exhibir un elemento de Σ, el cual no
aparece. Para esto tenemos que escoger y = (y1 , y2 , . . . , yn ) con cuidado. Tomemos el
primer elemento de la lista: x1 . Si x11 = 0 entonces tomamos y1 = 1. Si, en cambio x11 = 1
entonces colocamos y1 = 0. Es decir, escogemos y1 diferente del primer término del primer
elemento de la lista. Repetimos este proceso de acuerdo con el segundo término del se-
gundo elemento de la lista, esto es, escogemos y2 tal que y2 6= x22 ; y así sucesivamente. No
hay duda que de esta manera, el punto y está bien denido y es un elemento de Σ. Sin
embargo, podemos armar que yj 6= xjj , para toda j ∈ N; y por lo tanto y 6= xj , para toda
j ∈ N. Por lo tanto, Σ es no numerable.
Ahora denamos una función distancia, en el conjunto Σ, de manera que (Σ, d) se
convierta en un espacio métrico. Dados cualesquiera dos elementos x y y de Σ, la distancia
entre ellos está dada por la fórmula:

X |xj − yj |
d(x, y) = j
.
j=0
3

No es difícil vericar que esta función cumple las tres propiedades que denen una
distancia (Ejercicio); por lo tanto, el conjunto Σ, junto con esta función distancia es un
espacio métrico. Este espacio métrico es el Conjunto de Cantor.
Para hacernos una idea de cómo es esta distancia, podemos caracterizar a la bola de
radio 3−k , alrededor de un punto cualquiera x:
B3−k (x) = {y = (yj )|yj = xj , para j = 1, . . . , k}.
Esto es, el conjunto de puntos en Σ que coinciden en los primeros k términos con x.

Un retrato del conjunto de Cantor: Hay muchas maneras de representar a los


números del intervalo [0, 1], una de ellas es mediante su expansión en potencias de 3.
Cualquier número r ∈ [0, 1] lo podemos escribir de acuerdo a la siguiente fórmula:

xm
; donde xm ∈ {0, 1, 2} (1.1)
X
r=
m=0
3m
De manera usual denotamos esta sumatoria como r = .x1 x2 x3 · · · xn · · · , en la cual, cada
dígito xm ∈ {0, 1, 2}. Esta expresión es más común utilizando las potencias de 10 y la
conocemos como expansión decimal de r. A pesar de ser muy útil, esta descripción presenta
algunas ambigüedades, por ejemplo:
2
= ,200000 · · · = ,1222222 · · ·
3
Sin embargo, nos permite establecer un homeomorsmo con el Conjunto de Cantor,
denido anteriormente.
Ejercicio: Demuestre que los puntos que presentan doble expansión ternaria son los
números de la forma p/3k , con p < 3k y k ∈ N.
Denotemos por K ⊂ [0, 1], el conjunto de números en el intervalo denido a partir
de la siguiente propiedad: r ∈ K si y solamente si el dígito "1"no está presente en su
expansión ternaria, esto es,
(∞ )
X xj
K= ∈ [0, 1] |xj 6= 1, ∀j
j=0
3j
10 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Observe que si nos restringimos a K no tenemos ningún problema con las etiquetas dobles.
De esta manera, podemos denir una función invertible

h:Σ→K

+∞
X (2 · xj )
h( (xj ) ) =
j=1
3j

Donde x = (xj )j∈N .

Proposición 1. La función h es continua e invertible, y su inversa h−1 también es con-


tinua. Entonces (Σ, d) y (K, | |) son dos espacios métricos homeomorfos.

Demostración. Para demostrar esta proposición, basta aplicar la denición de continuidad


a partir de sucesiones convergentes.

Para tener un retrato del conjunto de Cantor, leamos, paso a paso, la denición del
conjunto K : El intervalo [0, 1] lo podemos dividir en tres intervalos, utilizando los puntos
1
3
y 23 . Sean I0 = [0, 13 ], I1 = [ 13 , 32 ] y I2 = [ 23 , 1]. Salvo los extremos de cada intervalo I1
podemos armar que si x ∈ I1 entonces

x = ,1 x2 x3 x4 . . .

Esto nos permite aproximar al conjunto K . De hecho K ⊂ K1 = I0 ∪ I2 . Dicho con


otras palabras, K1 = [0, 1] r ( 31 , 23 ).
Ahora, cada uno de estos dos intervalos lo podemos dividir en tres, a partir de los
puntos de la forma p9 , con 1 6 p 6 8:

I0 = I00 ∪ I01 ∪ I02

I2 = I20 ∪ I21 ∪ I22


Donde si x ∈ I01 ∪ I21 efectivamente se cumple que

x = .x1 1 x3 x4 . . .

y x1 6= 1. El conjunto K2 = I00 ∪ I02 ∪ I20 ∪ I22 es una mejor aproximación al conjunto K .


De hecho, K ⊂ K2 . Si a cada intervalo de K1 lo dividimos en tres y retiramos los tercios
del medio obtenemos K2 .
Repitiendo sucesivamente este procedimiento, para cada natural n, Kn es una unión
de 2n intervalos, limitados por los números de la forma 3pn , con 1 6 p 6 3n −1. Finalmente,
el conjunto de cantor es la intersección de los conjuntos Kn :
\
K= Kn
n∈N

Esta construcción nos permite observar que cada punto, en su nombre, lleva escrita su
dirección. En el intervalo de la derecha o el de la izquierda; en el primer nivel, según x1
y así, sucesivamente.
1.1. ESPACIOS MÉTRICOS 11

PSfrag replacements
..
.
I0
I1
I2
1
3
2
3
K1
K2
S K3
K = n Kn
I00
I02
I20
I22
Figura 1.1.1. Construcción del conjunto de Cantor, paso a paso.

Propiedades topológicas del Conjunto de Cantor


Proposición 2. El conjunto de cantor es un conjunto perfecto.
Demostración. Para mostrar que Σ no tiene puntos aislados, basta vericar que cualquier
x ∈ Σ es punto de acumulación de alguna sucesión xj ∈ Σ, y n 6= x para toda n ∈ N.
Sea x = (x1 , x2 , x3 , . . .). Dena y 1 = (x1 , 0, 0, . . .); y 2 = (x1 , x2 , 0, 0, . . .). En general, el
enésimo término de la sucesión:

y n = (x1 , . . . , xn , 0, 0, . . .)

Observe que y n converge a x, cuando n tiende a +∞. Salvo cuando x tiene una cola
innita de ceros, podemos garantizar que y n 6= x, para toda n ∈ N. En ese caso, no es
difícil imaginar cuál es la sucesión de puntos de Σ que converge x.

Proposición 3. El conjunto de Cantor es totalmente disconexo.


Demostración. Debemos mostrar que para cualesquiera dos puntos x y y en Σ Podemos
encontrar dos conjuntos abiertos U y V , ajenos U ∩ V = ∅, tales que x ∈ U , y ∈ V y
Σ ⊂ U ∪ V . Sean x y y dos puntos arbitrarios de Σ. Si x 6= y , entonces δ = d(x, y) > 0.
Considere U = {}... Use el orden de [0, 1]

En general, dado cualquier alfabeto nito, {0, 1, . . . , n−1} podemos denir el conjunto
de Cantor en n símbolos mediante {0, 1, . . . , n − 1}N . Se trata de un espacio métrico con
una métrica semejante a la que acabamos de construir para Σ2 . Todos son homeomorfos. Si
bien esta armación necesita un poco más de trabajo, solo esbozaremos la idea principal.
Un homeomorsmo entre Σn y Σ2 lo podemos pensar como una traducción entre las
palabras con n símbolos y las escritas con sólo 2...
El producto cartesiano de conjuntos de cantor: Σ2 × Σ2 lo podemos identicar con el
espacio de sucesiones doblemente innitas, esto es x ∈ Σ2 × Σ2 ; entonces:

x = (. . . , x−j , x−j+1 , . . . x−1 , x0 , x1 , . . . , xn , . . . xn+1 , . . .)


12 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Esto es Σ2 ×Σ2 = {0, 1}Z . Para este conjunto podemos denir una función distancia que lo
convierta en un espacio métrico. No es de sorprenderse que también es homeomorfo a Σ2 .
De hecho, cualquier conjunto compacto, perfecto y totalmente disconexo es homeomorfo
a Σ2 .

1.2. Dinámica topológica

Un sistema dinámico discreto puede interpretarse como el modelo de la evolución de un


fenómeno gobernado de acuerdo a una ley determinada. La ley corresponde a la función
f y esta actúa sobre el conjunto de conguraciones posibles del fenómeno, o espacio
fase, mediante iteraciones. Los puntos del espacio fase corresponden a las conguraciones
del fenómeno en estudio y la ley establece la conguración en la cual el fenómeno se
encontrará, transcurrido un instante de tiempo, a partir de cada estado inicial del sistema.
Esto es, si M es el espacio fase y la función f : M → M es la ley, para la conguración inicial
x0 ∈ M , el sistema se encontrará en la conguración f (x0 ) ∈ M una vez transcurrida una
unidad de tiempo. Así, el sucesor de x0 ∈ M es x1 = f (x0 ); y sucesivamente x2 =
f (x1 ) = f 2 (x0 ) es el sucesor de x1 , etcétera. La historia futura de x0 , por lo tanto, queda
únicamente denida mediante la transformación f . (LA PALABRA CONFIGURACION
SE REPITE DEMASIADO)
Al conjunto de todos los sucesores de x0 lo llamaremos la órbita futura de x0 y se
denota de la siguiente manera:

Of+ (x0 ) = {f k (x0 )|k ∈ N}

Si la transformación f : M → M es invertible, podemos denir idénticamente el pasado de


x0 mediante las iteraciones de f −1 . Sin embargo, un sistema dinámico no es necesariamente
invertible. En esta situación, f −1 (x0 ) es un conjunto de puntos y cada uno es un predecesor
de x0 . Si y ∈ f −1 (x0 ), obviamente f (y) = x. En general, órbita negativa de x0 consta de
todas las posibles pre-imágenes de x0 :

Of− (x0 ) = {f −k (x0 )|k ∈ N}

La órbita completa de x0 es entonces la unión de ambas:

Of+ (x0 ) = Of+ (x0 ) ∪ Of− (x0 )

Las órbitas más sencillas corresponden a los puntos jos, debido a que su órbita positiva
consiste de un solo punto. De la misma manera la órbita positiva de un punto periódico de
periodo k consta de k elementos. Si f k (p) = p y además f j (p) 6= p para j ∈ {1, . . . k − 1},
entonces
Of+ (p) = {p, f (p), . . . f k−1 (p)}
Otra manera de describir las órbitas de un sistema dinámico es utilizando la ecuación
en diferencias que la función f determina: xn = f (xn−1 ). La órbita de x0 corresponde a la
solución de la ecuación, cuya condición inicial es precisamente x0 . En general, resolver estas
ecuaciones es una tarea bastante complicada, como hemos visto en el capítulo anterior;
sin embargo, es posible obtener alguna información sobre las órbitas mediante el siguiente
conjunto: el ω -límite de x0 ; se lee .omega-límite de x0 2se denota: ω(x0 ). Se trata del
conjunto en el cual la órbita de x0 se acumula, cuando iteramos innitas veces, esto es,
si y pertenece al ω -límite de x0 , entonces la órbita de x0 visita cualquier vecindad de y ,
1.2. DINÁMICA TOPOLÓGICA 13

PSfrag replacements
α(x)
ω(x)
Figura 1.2 El α y el ω límites.

innitas veces. Dicho de manera más precisa: existe una sucesión creciente y no acotada
de números enteros positivos kj ∈ N de modo que f kj (x) converge a y , cuando j tiende a
+∞; o bien:

j=0 tal que kj → +∞ y f (x0 ) → y, cuando j → +∞}


ω(x0 ) := {y ∈ M |∃{kj ∈ Z+ }∞ kj

ω(x0 ) = {y ∈ M |∃kj ∈ N tal que lı́m f kj (x0 ) = y}


j→+∞

De la misma manera podemos preguntarnos sobre el conjunto donde la órbita negativa


de un punto se acumula. A este conjunto se le denomina el α-límite de x0 y se dene de
manera muy semejante al ω -límite:

α(x0 ) = {y ∈ M | ∃{kj ∈ Z} y ykj ∈ f −kj (x0 ) tales que ykj → y cuando j → +∞}

α(x0 ) = {y ∈ M |∃ykj ∈ f −kj (x0 ) tal que lı́m ykj = y}


j→+∞

A la unión de ambos, α y ω límites se le conoce simplemente como el conjunto límite


de x0 : L(x0 ) = α(x0 ) ∪ ω(x0 ), y está formado por el .origen", así como el "destino"de x0 .
De hecho, las letras .alfa 2.omegaçorresponden a la primera y a la última letra del alfabeto
griego, respectivamente.
Estos conjuntos tienen ciertas propiedades que se obtienen del hecho que f sea continua
y de algunas propiedades del espacio.
Proposición 4. Si f : M → M es una transformación continua y M es un espacio
compacto, entonces para cualquier x ∈ M los conjuntos α(x) y ω(x) son no vacíos.
Demostración: Recuerde que un conjunto M es compacto si toda sucesión xn ∈ M tiene
una sub-sucesión convergente. Si M ⊂ Rn , basta suponer que M es un conjunto cerrado
y acotado para obtener la misma propiedad.
Corolario 1. Si M = Rn , para cualquier punto x ∈ Rn , el ω(x) es no vacío, ó bien
f k (x) → ∞ cuando k → +∞. Análogamente para α(x).

Si bien ∞ ∈
/ Rn , el corolario anterior justica decir que ω(x) = {∞}. Bajo la hipótesis
de que la transformación f es invertible podemos obtener más propiedades, como en la
siguiente proposición, cuya demostración, dejamos como ejercicio:
Proposición 5. Supongamos que f : M → M es un homeomorsmo, entonces:
14 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

1. Si q está en la órbita de p, esto es, existe n ∈ Z tal que f n (q) = p, entonces


ω(p) = ω(q) y α(p) = α(q).

2. Si p es una órbita periódica, entonces ω(p) = α(p) = O(p).


3. Para cualquier punto p ∈ M se tiene que ωf (p) = αf −1 (p); donde αf −1 (p) es el
α-límite de p con respecto a f −1 .

Cabe observar que la hipótesis de ser un homeomorsmo es fundamental. Cuando la


transformación no es invertible, el panorama cambia un poco.
[ Cambio la demostración de la proposición anterior, con detalles, por el ejemplo DE
z , O BIEN, UNO MÁS SENCILLO, COMO EL SHIFT UNILATERAL, UNA VEZ QUE
2

LO HAYAMOS DEFINIDO.]

En determinadas ocasiones, es posible que exista algúna región del espacio de la cual
las órbitas no se escapen; tanto para el pasado como para el futuro. De ser así, podemos
enfocarnos a estudiar dichas regiones. Un subconjunto A ⊂ M es un conjunto invariante
de f si
f −1 (A) = A.
Observe que si A es un conjunto invariante, entonces f (A) ⊂ A. Así, podemos restringir
f a un conjunto invariante para estudiar su dinámica.
Por ejemplo si la función f es biyectiva y p es un punto periódico de período k , el
conjunto A = {p, f (p), . . . , f k−1 (p)} es un conjunto invariante y f |A actúa como una
permutación en {0, . . . , k}. Sin embargo, un conjunto invariante no necesariamente es
nito, como veremos más adelante.
Podemos obtener más propiedades dinámicas de los conjuntos α y ω -límite de un
punto.
Proposición 6. Si f es invertible, los conjuntos ω(p) y α(p) son conjuntos cerrados e
invariantes; esto es: f (ω(p)) = ω(p) = f −1 (ω(p)), y similarmente para α(p).
Demostración. Ejercicio
Pregunta: ¾Qué sucede si f no es inyectiva?
Atractor topológico: Sea f : M → M una aplicación contínua, no necesariamente in-
vertible. Un punto jo, así como un conjunto invariante más grande, puede comportarse
como un atractor. Un conjunto invariante A ⊂ M es un atractor si existe una vecindad
de él, esto es, un conjunto abierto U tal que A ⊂ U de manera que para todo punto p ∈ U
ω(p) = A; todos los puntos vecinos de A son atraídos hacia a A. Es posible que A conste
únicamente de un punto; en ese caso generalizamos la denición de punto jo atractor que
dimos en el capítulo 1 para puntos jos. Cuando A consta de un número nito de puntos,
no es dicil vericar que se trata de una unión de órbitas periodicas. ' No hay derivadas
involucradas. Es una aplicación solamente contínua.

1.2.1. Equivalencia entre sistemas dinámicos


Ya que nuestra tarea es clasicar los sistemas dinámicos discretos, debemos tener a
la mano un criterio que nos permita establecer cuándo dos sistemas son equivalentes.
Dicho criterio nos debe permitir concluir que dos sistemas equivalentes comparten sus
propiedades más importantes: como la existencia de puntos jos o de puntos periódicos
de determinado periodo; así como también la cualidad de ser atractores o repulsores.
1.2. DINÁMICA TOPOLÓGICA 15

Por otro lado, también debe respetar la estructura del espacio donde están denidos.
Como siempre en matemáticas, este criterio lo obtenemos a partir de una relación de
equivalencia.
Denición 1. Sean M y N dos espacios métricos. Decimos que f : M → M es topológi-
camente conjugado a g : N → N si existe un homeomorsmo h : M → N tal que

f = h−1 ◦ g ◦ h (1.2)

Al homeomorsmo h se le llama una conjugación.


No es difícil vericar que esta relación es una relación de equivalencia. Para facilitar
la lectura, nos referiremos a dos sistemas dinámicos topológicamente conjugados simple-
mente como conjugados. La palabra "topológicamente"se reere a que requerimos que la
conjugación sea un homeomorsmo. Por otro lado, podemos interpretar la conjugación
entre dos sistemas dinámicos como un cambio de coordenadas que intercambia las órbitas
de f por órbitas de g , preservando las noción de pasado y futuro. De hecho, observe que
si f y g son topológicamente conjugados y x ∈ M , entonces:

h(Of+ (x)) = Og+ (h(x))

y lo mismo para las órbitas negativas.


Ejercicio: Sean f y g dos sistemas dinámicos discretos denidos en el intervalo [0, 1].
Suponga que f y g son topológicamente conjugados, pero además, la conjugación es un
difeomorsmo. Demuestre que f 0 (p) = g 0 (h(p)), para cualquier punto periódico p de f .
Si suponemos que f : M → M es un homeomorsmo y tomamos dos puntos diferentes:
p, q ∈ M . En el caso de que O(p) ∩ O(p) 6= ∅, necesariamente existe k ∈ Z tal que
f k (p) = q y por lo tanto O(p) = O(p). Esto es, las órbitas nos determinan una partición
de M . Al conjunto de elementos de esta partición, es decir, al conjunto de órbitas de f se
le denomina el retrato fase de f .
Proposición 7. Si f : M → M y g : N → N son dos sistemas dinámicos conjugados y si h
denota la conjugación entre ellos entonces son verdaderas las siguientes armaciones:
1. h ◦ f k = g k ◦ h para toda k ∈ Z.
2. h(Of (x)) = Og (y)) si y = f (x).
3. h(ω(x)) = ω(h(x)) y h(α(x)) = α(h(x)).
Demostración. Observe que la primera propiedad es consecuencia directa de la condición
(1.2). La demostración de la segunda y tercera propiedad la dejamos como ejercicio para
el lector.
De la proposición anterior podemos concluir algunas cosas. El inciso 2, nos indica que
una conjugación nos determina una correspondencia biunívoca entre las órbitas de f y las
órbitas de g ; esto es entre el retrato fase de f y el retrato fase de g . Además, si p ∈ M es
un punto jo de f entonces h(p) ∈ N es un punto jo de g . Análogamente, h también nos
determina una correspondencia entre los puntos periódicos de f y los de g . Por su parte,
el inciso 3 establece una correspondencia entre el α y el ω -límite de cada órbita. Todo lo
que necesitábamos de una buena noción de equivalencia entre sistemas dinámicos.
16 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements
La cuadrática
La La
Figura 1.2.1 tienda
aplicación cuadrática y la tienda, son conjugadas.

Ejemplo : (Un ejemplo de una conjugación entre puntos jos atractores.) Los sistemas
dinámicos en R generados por las funciones lineales:
1
f (x) = x
2
1
g(x) = x
3
son topológicamente conjugados.
Para demostrar esta armación tenemos que encontrar un homeomorsmo de R en R
que conjugue las dinámicas. Para esto, denimos primero homeomorsmo h : [1/2, 1] →
[1/3, 1] por h(x) = 34 x − 13 . Observamos que 1/2 = f (1) y 1/3 = g(1), así que esta
función esta enviando el intervalo [f (1), 1] en el intervalo [g(1), 1]. Podemos también denir
h(0) = 0, y h : [−1, −1/2] → [−1, −1/3] por h(x) = 43 x + 13 .
Es claro que h es un homeomorsmo. Ahora extendemos h a un homeomorsmo de
todo R de la siguiente forma:
Observamos que tanto f como g son ambas contracciones. Así, para cualquier x ∈
R r {0}, existe un primer entero k (que puede ser negativo) tal que fn (x) pertenece al
intervalo [1/2, 1]; si x es positiva, o al intervalo [−1, −1/2] si x es negativa. Denimos
entonces h(x) = g −k hf k (x). Dejamos como ejercicio demostrar que h, denido de esta
manera, es una conjugación topológica entre f y g .
De hecho, podemos concluir que todas las aplicaciones g(x) = λx con 0 < λ < 1 son
conjugadas. Ejercicio.
Veamos otro ejemplo de dos sistemas dinámicos conjugados. Para esto denotemos por
Q4 y T , dos transformaciones continuas, denidas en el intervalo I = [0, 1] de la siguiente
manera:

Q4 (x) = 4x(1 − x)
n 2x si x ∈ [0, 1/2)
T (x) =
2(1 − x) si x ∈ [1/2, 1]

La función T es conocida como la función tienda, por la forma de su gráca. Q4 es un


miembro de una familia de sistemas dinámicos llamada la familia logística: Qµ (x) = µx(1−
x) y que visitaremos más adelante. Para no complicarnos con la notación, olvidémonos
del subíndice de Q, por un momento.

Proposición 8. La función h(x) = (1−cos(πx))


2
es una conjugación entre T y Q.
Demostración. Para vericar que h conjuga T y Q basta probar que

h ◦ T (x) = Q ◦ h(x) (1.3)


1.2. DINÁMICA TOPOLÓGICA 17

para todo x ∈ [0, 1]. Supongamos que x ∈ [0, 1/2]; el otro caso lo dejamos como ejercicio.
Calculemos la parte derecha de la igualdad 1.3:

Q ◦ h(x) = 4h(x)(1 − h(x))


(1 − cos(πx)) (1 + cos(πx))
  
= 4
2 2
= 1 − cos (πx) = sen (πx).
2 2

Ahora la parte izquierda:


1 − cos(πT (x))
h ◦ T (x) =
2
1 − cos(2πx)
= = sin2 (πx).
2
utilizando la fórmula de cos(2x). Por lo tanto, h ◦ T (x) = Q ◦ h(x), si x ∈ [0, 1/2].

1.2.2. Sistemas dinámicos en el círculo


En el plano euclidiano, el círculo con centro en (x0 , y0 ) y radio r > 0 es el lugar
geométrico de los puntos (x, y) ∈ R2 que satisfacen la ecuación:

(x − x0 )2 + (y − y0 )2 = r

es decir, los puntos que distan exactamente r del centro.


Otra manera de construir el círculo es a partir de las propiedades algebraicas de R y
de sus subgrupos discretos. Para esto, es necesario establecer una relación de equivalencia
entre los números reales:

x ∼ y sí y sólo sí x − y = m ∈ Z

De hecho, como Z es un subgrupo abeliano de R, está bien denido el grupo cociente:


R/Z = {[x] |x ∈ R}. Para cada x ∈ R, la clase de x es un subconjunto de R que contiene
todos los números y ∈ R tales que y ∼ x, esto es:

[x] = {x + n | n ∈ Z}.

Ejercicio: Demuestre que ∼ es una clase de equivalencia; y por lo tanto, induce la par-
tición R/Z.
Por otro lado, R/Z es un grupo denido mediante la operación:

[x] + [y] = [x + y] y − [x] = [−x].

De hecho, [x] + (−[x]) = [x − x] = [0]. A este grupo se le conoce como el grupo cociente
de R módulo Z.
Para comprobar que, efectivamente, el grupo cociente R/Z corresponde al círculo eu-
clidiano, en términos de la topología, es necesario describir un homeomorsmo entre ambos
conjuntos. Para esto, primero observemos que la función E : R → R2 , denida por

Π(x) = (cos(2πx), sen(2πx)),


18 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements
−1
1
2
Figura 1.2.2 La recta real se enreda en el círculo, mediante la aplicación E .

tiene como imagen, precisamente al conjunto

S 1 := {(x, y)|x2 + y 2 = 1}

Dado que
cos(2πx)2 + sen(2πx)2 = 1,
para cualquier valor x ∈ R. Por otro lado, si dos números reales x y y están relacionados,
entonces su imagen es la misma: Π(x) = Π(y). De hecho, si x − y ∈ Z, esto quiere decir
que x = y + m, para algún m ∈ Z y por lo tanto

cos(2πx) = cos(2π(x + m)) = cos(2πy);

sen(2πx) = sen(2π(x + m)) = sen(2πy).


En otras palabras, la función Π(·) le asigna a cada número real su correspondiente
clase de equivalencia en R/Z; es decir, Π(x) = [x] para cada x ∈ R.
Por otro lado, cada clase de equivalencia tiene un único representante en el intervalo
[0, 1], salvo la clase [0] = [1], pues Π : [0, 1) → S 1 es biyectiva. De esta manera podemos
identicar a cada punto del cociente R/Z con cada uno de los puntos del intervalo cerrado
[0, 1], con la excepción de los extremos, que corresponden a un sólo punto.

Una distancia en el círculo. Para poder estudiar sistemas dinámicos en el círculo


debemos dotarlo de una estructura de espacio métrico. En efecto, el círculo S 1 ⊂ R2
hereda una función distancia de la distancia estándar en R2 :
˜
d([x], [y]) := dR2 (Π([x]), Π([y]))

Por otro lado, el círculo también hereda una distancia de R, vía la proyección.

d([x], [y]) = mı́n{dR (x + n, y + m)| n, m ∈ Z}.

Ejercicio 1. Compruebe que d es una función distancia y que las dos distancias d y d˜
inducen los mismos subconjuntos abiertos de S 1 .
1.2. DINÁMICA TOPOLÓGICA 19

PSfrag replacements
S1
α

Figura 1.2.2 La rotación de ángulo α.

Ejercicio 2. Dado cualquier número real positivo δ > 0, el conjunto δZ = {δn|n ∈ Z}


es un subgrupo de R. Demuestre que (R/δZ, d) es un espacio métrico compacto y es
isométrico a un círculo de perímetro δ .

La familia de rotaciones del círculo. Para denir la rotación del círculo por un
determinado ángulo no es necesario alejarnos demasiado de nuestra intuición; al nal, un
ángulo es un punto [α] en el círculo. Entonces rotar por un ángulo [α] es la transformación
R tal que:
R
[x] 7−→ [x] + [α]
Claro está que debemos observar que la suma de puntos en el círculo está bien denida; de
hecho, R/Z tiene una estructura de grupo aditivo que hereda de R. Así, [x] + [α] = [x + α].
Y está bien denida, pues si y ∈ [x] debería suceder que [y + α] = [x + α]. De hecho, estas
últimas son la misma clase siempre que y + α − (x + α) ∈ Z, cosa que sucede pues x ∼ y .
En resumen, para cada [α] ∈ S 1 podemos denir R[α] , la rotación por el ángulo [α], de
la siguiente manera:
R[α] : S 1 → S 1
R[α] ([x]) = [x + α]
Proposición 9. Dado cualquier [α] ∈ S 1 , la función R[α] : S 1 → S 1 es una función
biyectiva, R[α]
−1
= R[−α] , R[0] = Id, y es una isometría.

Demostración. Para vericar que es inyectiva, supón que R[α] ([x]) = R[α] ([y]). Entonces
[x + α] = [y + α]. Por lo tanto x − y ∈ Z, es decir [x] = [y]. Ahora bien, R[α] ◦ R[−α] ([x]) =
[x − α + α] = R[0] ([x]) = [x], y análogamente para la composición en el orden inverso.
Finalmente, para vericar que se trata de una isometría, basta notar que, para cualesquiera
[x], [y] ∈ S 1 se cumple:

d(R[α] ([x]), R[α] ([y])) = d([x + α], [y + α]) = d([x], [y])

En el universo de las rotaciones del círculo hay dos escenarios diferentes: cuando el
ángulo de la rotación es racional y cuando no lo es. Un punto [α] ∈ S 1 es racional si
α = pq , con p, q ∈ Z. De hecho, si α ∈ R es racional, todos los elementos x ∈ [α] son de la
forma y = pq + n, con n ∈ Z. Por lo tanto [α] ⊂ Q. Análogamente, [α] ∈ S 1 es irracional
si α ∈ R es irracional. El siguiente teorema caracteriza las rotaciones de ángulo racional.
20 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Teorema 1. Sea R[ α] una rotación. [α] es racional sí y sólo sí existe [x] ∈ S 1 tal que
q
R[α] ([x]) = [x] para algún q ∈ N. En este caso: cualquier [y] ∈ S 1 es un punto periódico
de periodo q de R[α]q
.
Demostración. Supongamos que existe [x] ∈ S 1 tal que Rαq ([x]) = [x] para algún q ∈ N.
Esto quiere decir que [Rαq (x)] = [x], entonces x + qα = x + m, para algún m ∈ Z,
despejando α obtenemos que α = mq . Utilizando el algoritmo de la división, sabemos que
m = nq + p para algún n ∈ Z y 0 6 p < q . Por lo tanto α = n + pq ∼ pq . Por otro lado,
sea α = pq , con p y q ∈ Z primos entre si y [x] ∈ S 1 cualquier punto. Basta probar que
q
Rp/q ([x]) = [x]. Primero observe que
n p
Rp/q ([x]) = {x + n |n ∈ Z}
q
Así, no es difícil vericar que Rp/q
q
([x]) = [x], esto es: x + q pq = x + p.
Cuando α es irracional el panorama cambia radicalmente. Para empezar: la órbita de
cualquier punto es innita. De hecho si la órbita de [x] es nita implica que [x] es un
punto periódico de R[α] y por lo que acabamos de demostrar eso no es posible pues [α]
tendría que ser racional.
Denición 2. Un sistema dinámico f : M → M es minimal si la órbita Of (x) = {f n (x)}
de cualquier punto x ∈ M es densa.
Ejercicio 3. Si f es minimal, no existe ningún subconjunto propio de M , cerrado e
invariante.
Teorema 2. Si [α] es irracional entonces la rotación R[α] es minimal.
Demostración. Para simplicar la notación escribamos R = R[α] . Debemos mostrar que la
órbita de cualquier punto [x] ∈ S 1 es densa en S 1 . Sea [x] ∈ S 1 arbitrario y denotemos por
¯ , la cerradura de su órbita. Si E 6= S 1 , entonces existe al menos un intervalo
E = O([x])
I ⊂ S −E . De hecho, si [z] ∈
1
/ E existe un abierto V ⊂ S 1 tal que [z] ∈ V y V ∩O([x]) = ∅;
y todo abierto V que contiene a [z] contiene un intervalo I 3 [z]. Consideremos, entonces
J ⊂ S 1 −E el intervalo más largo contenido en el complemento de la cerradura de la órbita
de [x]; si hay dos o más intervalos más grandes, elegimos cualquiera de ellos. El intervalo
J tiene la siguiente propiedad Rn (J) ∩ J = ∅ si n 6= 0. De hecho, sea n 6= 0, si Rn (J)
y J se traslapan, o bien coinciden Rn (J) = J , o Rn (J) ∪ J es un intervalo. El segundo
caso es imposible, pues |Rn (J) ∪ J| > |J| y J era el intervalo más grande contenido en
S 1 − E . El primer caso también implica una contradicción, pues si J = ([z], [z̃]), entonces
Rn ([z]) = [z], y en consecuencia: z + nα = z + m, para algúna m ∈ Z. Por lo tanto
α= m n
∈ Q. Con esto demostramos que los intervalos Rn (J) ⊂ S 1 son disjuntos dos a
dos. Ahora bien, la rotación R es una isometría y por eso todos los intervalos tienen la
misma longitud: |Rn (J)| = |J| para toda n ∈ Z. De esta manera:

[ X∞
n
R (J) = |Rn (J)| = ∞.



n=−∞
n∈Z

Sin embargo, la longitud total del círculo es nita. Por lo tanto, no puede existir ningún
intervalo en el complemento de la cerradura de la órbita; es decir E = O([x]) = S 1 .
Los dos teoremas nos permiten una caracterización completa de la dinámica de las
rotaciones del círculo. O bien todas sus órbitas son periódicas, del mismo periódo (y el
ω -limite de cualquier punto es precisamente su órbita), o bien todas las órbitas son densas
(el ω -limite de cualquier punto es todo el círculo).
1.2. DINÁMICA TOPOLÓGICA 21

1.2.3. Homeomorsmos del círculo


Además de las rotaciones, es posible estudiar sistemas dinámicos denidos en el círculo
más generales, determinados por una transformación continua e invertible (y de inversa
continua) del círculo en sí mismo; esto es, por un homeomorsmo. A partir de una función
F : R → R, podemos denir una transformación invertible f : S 1 → S 1 , via Π : R → S 1 ,
siempre que F satisfaga algunas condiciones. La manera natural sería:
f
[x] 7−→ [F (x)]

Para que esta función tenga sentido, es necesario comprobar que no depende del repre-
sentante de la clase que utilizamos para denirla: i.e. F (x) ∼ F (y) siempre que x ∼ y . Si
F es una función que satisface:

F (x + 1) = F (x) + d, ∀x ∈ R, (1.4)
para alguna d ∈ Z, entonces la función f (x) = [F (x)] está bien denida (ejercicio). Una
función F que satisface (1.4) la llamaremos función periódica de periodo d.
Ejemplo 1. La función F (x) = b sin(2πx) + x es una función periódica, para cualquer
b ∈ [0, 1].
Si F es una función monótona y periódica de periodo 1, la función que induce es una
función inyectiva f : S 1 → S 1 , pues F es inyectiva. De hecho, si [F (x)] = [F (y)], entonces
existe n ∈ Z tal que: F (y) = F (x) + n = F (x + 1) + n − 1 = F (x + n) y por lo tanto
y = x + n; es decir [x] = [y]. Observeque F −1 induce a f −1 . Si además F es contínua,
entonces f = Π ◦ F es continua y lo mismo para f −1 .
Podemos resumir el parrafo anterior en la siguiente proposición:
Proposición 10. Si F : R → R es contínua, monótona y periódica de periodo 1, entonces
F induce un homeomorsmo f : S 1 → S 1 .
Cabe observar que funciones reales de variable real monótonas hay de dos tipos: cre-
cientes y decrecientes. En lo que respecta a nuestro análisis, sólo nos interesan las funciónes
del círculo inducidas por funciones crecientes. Esta cualidad, en la literatura, se le conoce
bajo el adjetivo que preservan orientación. Las funciones decrecientes y continuas, por
su parte, siempre tienen un punto jo (ejercicio). En adelante, cuando mencionemos un
homeomorsmo del círculo, nos referiremos precisamente a una función inducida por una
función creciente.
Si F induce una función del círculo, entonces F̃ (x) = F (x) + n, también es continua,
creciente y periódica de periodo 1; por lo tanto, también induce una función del círculo
f˜. De hecho, inducen exactamente el mismo homeomorsmo: f ≡ f˜. Si F induce a f , a
cada una de las funciones {Fn = F (x) + n}, con n ∈ Z la llamaremos un levantamieto de
f.
Ejercicio 4. Sea F : R → R monótona y contínua tal que F (x + 1) = x + d, con d ∈ N.
Entonces, F induce una función contínua f : S 1 → S 1 de grado d; esto es, #f −1 ([x]) = d,
para todo [x] ∈ S 1 .
A cada homeomorsmo del círculo le podemos asociar un número (de hecho una clase
de númerios en R/Z, que de alguna manera mide cuánto rota, en promedio, el homeo-
morsmo f . Esta es una construcción que debemos a Henry Poincaré, allende los años de
1900.
22 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Teorema 3. Sea f : S 1 → S 1 un homeomorsmo y F un levantamiento de f , entonces:


n
1. τ (F ) = lı́mn→∞ F n(x) existe y no depende de x.
2. Si F y F̃ son levantamientos de f entonces τ (F ) − τ (F̃ ) ∈ Z.
El teorema anterior nos indica que a partir dado un homeomorsmo f , del círculo, a
cada levantamiento F de f le podemos asociar el número τ (F ) y que, por otra parte, si F y
F̃ son dos levantamientos del mismo homeomorsmo, entonces τ (F ) y τ (F̃ ) determinan el
mismo punto del círculo. Así, a cada f le podemos asociar lo que se conoce bajo el nombre
de el número de rotación de f como τ (f ) = [τ (F )] ∈ S 1 , para algún levantamiento F de
f.

Denición 3. Si f es un homeomorsmo del círculo, el número de rotación de f es un


punto en el círculo: τ (f ) = [τ (F )], denido por cualquier levantamiento de f .
El Teorema 3, además de ser fundamental por su contenido, su demostración nos
permite entender bastante a los sistemas dinámicos del círculo.
Demostración. (del teorema 3.) Primero demostraremos que el límite no depende de x:
Considera dos puntos x, y ∈ [0, 1). Sin pérdida de generalidad, podemos suponer que
x < y . Como F (x + 1) = F (x) + 1, para todo x ∈ R, entonces:
n
F (x) − F n (x + 1) 1

= −→ 0.
n n n→∞

Dado que F es un homeomorsmo, si y ∈ (x, 1) ⊂ (x, x+1), entonces F n (y) ∈ (F n (x), f n (x+
1)) = (F n (x), F n (x) + 1). Por lo tanto:
n
F (x) − F n (y) F n (x) − F n (x + 1) 1

6 = →0
n n n

Es decir, el número de rotación no depende de x.


Para demostrar la existencia consideraremos dos casos: si existe una órbita periódica
o no. Supongamos que existe x ∈ R tal que F n (x) = x + a, para alguna a ∈ N. Es decir [x]
es un punto periodico de periodo n. Podemos escribir cualquier k ∈ N, como: k = mn + r,
con m, r ∈ N y 0 6 r < n. Entonces:
F k (x) F mn+r (x) F r (x + ma) a
= = → ∈ Q, (1.5)
k mn + r mn + r n
y por lo tanto τ existe (y es un número racional, dato que utilizaremos más adelante).
Supongamos ahora que no existe una órbita periodica. Esta armación se puede escribir
de la siguiente manera: Para cualquier n ∈ Z y para cualquier x ∈ R sucede que F n (x) −
x∈/ Z; de lo contrario, existiria una órbita periodica. Como F es contínua, y por lo tanto
F también, el teorema del valor intermedio nos permite armar que, para cada n ∈ N
n

existe kn ∈ Z tal que F n (x) − x ∈ (kn , kn + 1); esto es:

kn < F n (x) − x < kn + 1, ∀x ∈ R. (1.6)

Como ya demostramos que el número de rotación no depende de x, basta probar que


existe el límite para algún número: digamos 0 ∈ R. Dado m ∈ N, considera los siguientes
números reales: 0, F n (0), F 2n (0), . . . , F (m−1)n (0). Aplicando la desigualdad (1.6) en cada
1.2. DINÁMICA TOPOLÓGICA 23

uno de estos puntos y sumándolas obtenemos, dado que el término central es una suma
telescópica:
mkn < F n (F (m−1)n (0)) − F (m−1)n (0) + F (m−1)n (0) − · · · + F n (0) − 0 < n(kn + 1).

Dividiendo todo por nm obtenemos que:


kn F n (F (m−1)n (0)) kn + 1
< <
n nm n
mn n mn m
Ahora bien, esto implica que | F mn(0) − F n(0) | < 1
n
y que | F mn(0) − F m(0) | < 1
m
. Por lo tanto:
n
F (0) F m (0) 1

1
n − m < n + m,

es decir, se trata de una sucesión de Cauchy, y por lo tanto converge.


Finalmente, falta demostrar que si F y F̃ son levantamientos de f , entonces τ (F ) −
τ (F̃ ) ∈ Z. De hecho, en esta situación, existe a ∈ Z tal que F̃ (x) = F (x) + a, para toda
x ∈ R. Entonces, F̃ n (x) = F n (x) + na; y por lo tanto

F̃ n (x) F n (x) + na F n (x)


lı́m = lı́m = lı́m +a
n→∞ n n→∞ n n→∞ n

Ejercicio 5. Demuestre que τ (f n ) = nτ (f ).


Corolario 2. τ (f ) ∈ Q sí y sólo sí existe una órbita periódica de f .
Demostración. Hemos visto en (1.5), de la demostración del teorema anterior, que si
existe un punto periódico, el número de rotación es racional. Por lo tanto, para obtener
una demostración del Corolario, debemos mostrar solamente la armación recíproca: si
τ (f ) = [p/q], con p, q primos relativos, entonces existe una órbita periódica de f . Sin
embargo, dado que τ (f n ) = nτ (f ), para cada n ∈ Z, supondremos que τ (f ) = [0] y
encontraremos un punto jo.
De hecho, supongamos que f no tiene puntos jos, esto es: si F : R → R es un
levantamiento de f , entonces F (x) − x ∈ / Z. De lo contrario, si F (x) − x = n ∈ Z
entonces f ([x]) = [F (x)] = [x]. Sin perdida de generalidad, podemos considerar que F es
un levantamiento de f tal que F (0) ∈ [0, 1). Entonces la imagen de la función (F − Id)(x)
está contenida en el intervalo abierto (0, 1), es decir:
0 < F (x) − x < 1, ∀x ∈ R;

pues si existe x0 ∈ R tal que F (x0 ) > 1 (y análogamente para F (x0 ) < 0), el Teorema del
valor intermedio garantiza la existencia de un punto y ∈ (0, x0 ) tal que F (y) = 1. Ahora
bien, la función (F − Id)(x), restringida al intervalo [0, 1] tiene un valor máximo y un
valor mínimo, así existe δ > 0 tal que,
0 < δ 6 F (x) − x 6 1 − δ. (1.7)
Como F es una función periódica (F (x+1) = F (x)+1 para toda x ∈ R), las desigualdades
en (1.7) se cumplen para toda x ∈ R; en particular, se cumplen para 0, F (0), . . . , F n−1 (0)
y sumándolas todas obtenemos que
0 < nδ 6 F n (0) 6 n(1 − δ).
24 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Por lo tanto:
F n (0)
0<δ6 6 (1 − δ).
n
Y tomando el límite cuando n → ∞ concluimos que: 0 < δ 6 τ (F ) 6 1 − δ < 1; es decir,
τ (f ) 6= 0.
Teorema 4. Si f : S 1 → S 1 es un homeomorsmo tal que τ (f ) es irracional, entonces:
1. Existe un subconjunto E ⊂ S 1 tal que ω([x]) = E para toda [x] ∈ S 1 ;
2. Hay dos opciones, o bien E es un conjunto de Cantor o E = S 1 .
Este teorema nos brinda un esbozo de la dinámica de un homeomorsmo del círculo,
pues caracteriza el ω -límite de cualquier punto. Por un lado ya sabíamos que si el número
de rotación de f es racional, debe tener una órbita periódica. Y ahora, si es irracional,
sabemos que todos la órbita positiva de todos puntos se acumulan en el mismo subconjunto
E y este conjunto, o bien es todo el círculo o un conjunto de Cantor. Para demostrar este
teorema debemos revisar primero una observación importante:
Lema 1. Sea f un homeomorsmo del círculo tal que τ (f ) es irracional. Dado un punto
x ∈ S 1 , si consideramos un intervalo I = [f n (x), f m (x)] con m, n ∈ Z y n 6= m, entonces
la órbita positiva de cualquier punto y ∈ S 1 tiene algún punto en I ; i.e. O+ (y) ∩ I 6= ∅.
Demostración. Aunque el enunciado y la prueba de este lema son un poco enredados, el
contenido es bastante intuitivo: si n = 0 y m = 1 lo que dice es que la órbita positiva
de cualquier punto y ∈ S 1 pasa por el intervalo I = [x, f (x)]. La primer ambiguedad es
el hecho de que hay dos intervalos en S 1 delimitados por x y f (x): no hay problema, el
resultado es válido para ambos. La prueba radica en el hecho de que I y I1 = f −1 (I) son
dos intervalos con un punto en común: x; así f −1 (I1 ) y I1 también tienen un punto en
común: f −1 (x); etcétera. Entonces, ∪k Ik cubren S 1 y en particular existe k > 0 tal que
y ∈ f −k (I). En el caso de que ∪k Ik no cubren todo el círculo, entonces, los extremos de
Ik convergen a z ∈ S 1 :
lı́m f −k (x) = z = lı́m f −k (f (x)),
k→∞ k→∞

entonces z es un punto jo, pues:


f (z) = f (lı́m f −k (x)) = lı́m f (f −k (x)) = z

Exhibiendo una contradicción; por lo tanto ∪k Ik cubren S 1 y terminamos, en el caso n = 0


y m = 1.
Para demostrar este lema en toda su generalidad, supongamos que n > m, considere-
mos g = f n−m y sigamos el mismo argumento. En esta situación, la sucesión de intervalos
Ik = g −k (I) comparten un punto, dos a dos y cubren el círculo. Los detalles se quedan
como ejercicio.
Ahora si podemos demostrar el Teorema 4.
Demostración. (del Teorema 4) Primero demostraremos 1. Toma y ∈ S 1 y considera E =
ω(y). Hay que demostrar, entonces, que para cualquier x ∈ S 1 , se tiene que ω(x) = ω(y).
Sea z ∈ ω(x). Por denición, esto implica que existe una suseción creciente y no acotada
ln ∈ N tal que f ln (x) → z . Para cada n ∈ N, el lema anterior nos garantiza que la órbita
positiva de y intersecta al intervalo In := [f ln (x), f ln+1 (x)]; es decir, existe kn ∈ N tal que
f kn (y) ∈ In . Por lo tanto lı́mn→∞ f kn (y) = z , pues ambos extremos de los intervalos In
1.2. DINÁMICA TOPOLÓGICA 25

convergen a z . Entonces ω(y) ⊂ ω(x). El mismo argumento, intercambiando el papel de


x y y demuestra lo que buscabamos: ω(x) = ω(y) = E , para cualquier x ∈ S 1 .
Demostremos ahora el insciso 2. Supongamos que existe A ⊂ E un subconjunto cerra-
do, no vacío e invariante por f ; (f (A) = A), como existe x ∈ A y es invariante, entonces
O+ (x) ⊂ A, pero como A es cerrado, entonces ω(x) ⊂ A; es decir E ⊂ A. Ahora bien, la
frontera de E , esto es ∂E = E ∩ S 1 − E es un subconjunto cerrado e invariante (ejercicio).
Como E es cerrado, ∂E ⊂ E ; y por lo que acabamos de vericar, o bien ∂E = ∅ o bien,
E ⊂ ∂E ⊂ E ; es decir E = ∂E . Si ∂E = ∅ entonces E = S 1 . Por otro lado E = ∂E nos
indica que E es totalmente disconexo.
Ahora sólo basta garantizar que E es perfecto para demostrar que E es un conjunto de
Cantor. Sea x ∈ E . Como E = ω(x), entonces x ∈ ω(x), entonces existe una suubsucesión
kn → ∞ tal que f kn (x) → x. Sin embargo, {f kn (x)} ⊂ E no puede ser nita, pues en
ese caso, habríamos encontrado un punto periódico de f . Por lo tanto, x es un punto de
acumulación de E . Esto concluye el argumento para vericar que E es perfecto.
Observe que en el caso de que E = S 1 , entonces f es minimal, de acuerdo a la Denición
2.
El número de rotación es el invariante adecuado para estudiar este tipo de sistemas
dinámicos en el círculo. Un invariante, en una clase de objetos, es un objeto matemático (en
este caso un número) que nos permite simplicar la pregunta: ¾Cuando dos elementos de la
clase son equivalentes? En particular, si dos homeomorsmos del círculo son equivalentes,
sus números de rotación coinciden. Este es el contenido del siguiente teorema:
Teorema 5. Sea h : S 1 → S 1 un homeomorfsimo del círculo. Entonces, si g = h−1 ◦ f ◦ h,
es decir, f y g son topologicamente conjugados por h, entonces τ (f ) = τ (g).
Demostración. kkk
Para demostrar esta armación es necesario estudiar con un mayor detalle los levan-
tamientos de los homeomorsmos del círculo. De hecho, demostrar el siguiente lema se
reduce a aplicar la denición de levantamiento.
Lema 2. Si f y h son dos homeomorsmos del círculo y F y H son levantamientos de cada
uno, respectivamente (esto es, πF = f π y πH = hπ entonces H −1 es un levantamiento
de h−1 y además, H −1 F H es un levantamiento de h−1 f h.
Demostración. Primero observe que H es invertible. Luego observe que:

πH −1 = h−1 hπH −1 = h−1 πHH −1 = h−1 π;

es decir H −1 es un levantamiento de h−1 . Ahora bien,

πH −1 F H = h−1 πF H = h−1 f πH = h−1 f hπ;

es decir: H −1 F H es un levantamiento de h−1 f h.


Ahora si podemos demostrar el Teorema 5.
Demostración. Considera un levantamiento H de h tal que H(0) ∈ [0, 1). Debemos cal-
cular la siguiente diferencia:
−1 n
H F H(x) − F n (x) = (H −1 F H(x))n − F n (x)

26 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Si x ∈ [0, 1) tenemos que se cumplen las siguientes desigualdades:


0 − 1 < H(x) − x < H(x) < H(1) < 2;
pero como H es periódica (es un levantamiento) entonces:
|H(x) − x| < 2; para toda x ∈ R. (1.8)
Y de la misma manera:
|H −1 (x) − x| < 2; para toda x ∈ R. (1.9)
Por otro lado, nos gustaría probar que si |y − x| < 2, entonces |F n (y) − F n (x)| < 3.
Si denotamos por [x] la parte entera de x, entonces |y − x| < 2 implica que |[y] − [x]| < 2.
Ahora bien, F n (k) = F n (0) + k , para cualesquiera n y k ∈ Z. Por lo tanto F n ([x]) =
F n (0) + [x], para toda x ∈ R.
Podemos vericar además que para cualquier x ∈ R se cumple que F ([x]) 6 F (x) 6
F ([x] + 1), dado que la función es creciente y que x ∈ [[x], [x] + 1]. De hecho, F n ([x]) 6
F n (x) 6 F n ([x] + 1), ∀x ∈ R y ∀n ∈ N.
Y en consecuencia podemos estimar que:
F ([y]) − F ([x] + 1) < F (y) − F (x) < F ([y] + 1) − F ([x])
y por lo tanto, dado que F ([y])−F ([x]+1) = [y]−[x]−1 > −3 y que F ([y]+1)−F ([x]) =
[y] + 1 − [x] < 3 entonces:
|F n ([y]) − F n ([x])| < 3. (1.10)
Una vez hecho esto, juntando (1.8), (1.9) y (1.10), podemos estimar:

|H −1 F n H(x) − F n (x)| 6 |H −1 F n H(x) − F n H(x)| + |F n H(x) − F n (x)|


6 |H −1 (F n H(x)) − F n H(x)| + |F n H(x) − F n (x)|
6 2+3=5
Donde aplicamos (1.9) en el primer sumando para x̃ = F n H(x) y aplicamos (1.10) en el
segundo sumando, dado que (1.8) implica que si y = H(x) entonces |y − x| < 2. Por lo
tanto,
|H −1 F n H(x)| 5
6 → 0;
n n
y entonces τ (g) = [τ (H F H)] = [τ (F )] = τ (f ).
−1 n

Podemos concluir nuestro estudio de la dinámica de los homeomorsmos del círculo


con una pregunta que se antoja natural: si f y g tienen el mismo número de rotación
¾son topológicamente conjugados? Denjoy, en 19XX encontró ciertos ejemplos donde esto
no sucede, conocidos como los contraejemplos de Denjoy. Básicamente construye, de una
rotación irracional en el círculo, otro sistema dinámico, reemplazando la órbita entera de
un punto por una unión numerable de intervalos. Por otro lado, también encontró que si f
es diferenciable y su derivada f 0 tiene variación acotada; y si τ (f ) es irracional, entonces,
en efecto: f es topológicamente conjugada a la rotación de ángulo τ (f ). La demostración
de este teorema escapa a los objetivos de este texto. Sin embargo se puede encontrar en
(NITECKY) o en (KATOK-HASSELBLATT).
Teorema 6. Si f es de clase C 1 y f 0 tiene variación acotada. Si ρ, el número de rotación
de f es irracional, entonces f es topológicamente conjugada a la rotación de ángulo ρ,
Rρ .
1.3. CAOS UNIDIMENSIONAL 27

1.3. Caos unidimensional

El caos
El caos es uno de los conceptos matemáticos que más ha tenido difusión en los últimos
años. Su nombre, poderosamente cargado de signicados losócos, es suciente, de por
sí, para llamar la atención, no sólo de los matemáticos sino de los cientícos en general, e
incluso de los artistas. Además, una enorme cantidad de imágenes, relacionadas de alguna
manera a veces incomprensible, han circulado por todos los medios; entre ellas los famosos
fractales, le han dado fuerza a su fama.
Contrario al pensamiento general, un sistema dinámico caótico no se comporta de
manera arbitraria o carece de una solución exacta. La noción matemática del caos -la
que se estudia en los sistemas dinámicos- está relacionada con la incapacidad de predecir,
mediante el uso de métodos numéricos, las soluciones de una ecuación diferencial.
Smale dice: En alguna época, los cientícos tenían fé en el determinismo: suponían sin
miedo que el estado actual del universo determina, de manera precisa, cualquier estado
futuro. El caos no se desarrolla por el descubrimiento (o invención) de nuevas leyes físicas,
sino por un entendimiento profundo de las antiguas ecuaciones de Newton.
Relación sorprendente debido a que dichos modelos, se comportan, a la larga, tan
erráticamente que se asemejan más al simple hecho de tirar una moneda al aire. Fenómeno
que, concordamos, es completamente impredecible.
En diversas ramas del conocimiento humano como la física, la biología, la meteorología,
economía, etcétera, se utilizan modelos matemáticos, elaborados a partir de ecuaciones
diferenciales, para estudiar diversos comportamientos.
Si las ecuaciones pueden ser caóticas, en el sentido que sea, a todos les importa saber
si están empleando o no, modelos de ese tipo.
Un ejemplo concreto es el de la predicción del clima. Cuanto no daría un meteorólogo
por tener una ecuación, por más rebuscada y complicada que sea, que le informase, a
partir de una serie de datos cual será el estado del clima dentro de tres horas o dentro
de una semana, con absoluta seguridad, a partir de ciertos datos como podrían ser la
humedad, la temperatura, la presión atmosférica, etcétera.
El meteorólogo Edward Norton Lorenz (1927 - ) probablemente buscaba una fórmula
como esta y se percató de un fenómeno desalentador: Los modelos de predicción climática
que estudiaba le informaban resultados considerablemente diferentes, a partir de condi-
ciones iniciales razonablemente semejantes; por ejemplo, redondear un número a cierta
cantidad de dígitos signicativos para poder elaborar sus cálculos en la computadora. Si,
en efecto, el clima se comporta como sus ecuaciones le indican, un ligero cambio en la
presión atmosférica, como el provocado por el aleteo de una mariposa en la selva tropical
de las Islas Fidji causaría un maremoto en Japón o un huracán en Centroamérica. Con la
intención de entender este descubrimiento, construyó un prototipo dinámico mucho más
simple [Ver Figura 1.3] y encontró en él exactamente el mismo fenómeno: "la sensibil-
idad a las condiciones iniciales": una pequeña diferencia en las condiciones iniciales, le
resultaban en soluciones muy diferentes tras iterar algún tiempo.
No sin sorpresa podría haber concluido que el sistema dinámico que estudiaba se
comportaba muy parecido al simple hecho de tirar una moneda al aire sucesivas veces.
Fenómeno que concordamos es completamente impredecible.
Fenómenos aleatorios. La diferencia entre un fenómeno determinista y uno estocástico
radica en su planteamiento.
Determinista: Toma un número real x0 y elévalo al cuadrado; esto es x1 = x20 . Así
forma la sucesión xi . De acuerdo al punto inicial x0 podemos saber cual es el (ω -limite)
28 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements

 ẋ = −αx + αy
ẏ = βx − y − xz
ż = −γz + xy

Figura 1.3 Una órbita, solución de las ecuaciones de Lorenz, en R3 .

comportamiento de la sucesión {xi }., a 1 o tiende a +∞. De hecho, si |x0 | < 1 xi converge
a 0. Si |x0 | = 1 entonces, o bien xi = 1 o bien x0 = −1 y xi = 1, para todo i > 1.
... Tal vez sea un poco complicado elevar al cuadrado un numero con muchísimas cifras
signicativas, pero no hay problema.
Estocástico: Consideremos un ejemplo. En R2 , toma tres puntos no colineales; digamos:
p1 = (0, 0), p2 = (1, 0) y p3 = (0, 1). Considera otro punto del plano q0 = (1, 1), no importa
cual. A partir de q0 construiremos una sucesión de puntos, de manera inductiva. Toma
un dado de tres caras. De acuerdo al resultado de tirar el dado, elije un punto pi . Traza
la recta que une q0 y pi y elije el punto medio. A ese punto llámalo q1 .
q0 + p i
q1 =
2
Denitivamente no hay manera de predecir explícitamente cual será el comportamiento
de la sucesión {qi } que obtenemos de esta manera. Es posible que siempre elijamos el
punto p0 en el proceso y por lo tanto, obtendremos una sucesión convergente a p0 . Sin
embargo, lo más probable (y esto en el sentido estricto de la noción de probabilidad, es
decir, con probabilidad 1) es que aparezca un dibujo como el de la Figura X. El triángulo
de Sierpinsky. (ω -limite)
Figura X. El triángulo de Sierpinsky.
Ejercicio: No es difícil implementar un programa de computadora capaz de reproducir
el algoritmo anterior. Vericar, a partir de dicho programa, que no importa cuales puntos
iniciales consideremos, siempre y cuando no sean colineales. Tampoco importa el punto
inicial q0 .
Por su parte, otros matemáticos guiados por el descubrimiento de la riqueza dinámica
de ciertas transformaciones, así como la sorpresa de encontrar estos fenómenos en sistemas
aparentemente simples, estudiaron algunas propiedades como la densidad de órbitas per-
iódicas, la sensibilidad a las condiciones iniciales, la presencia de orbitas densas, entre
otras.
Finalmente Li y Yorke, acuñaron denitivamente la palabra caos en el vocabulario
matemático en su famoso artículo: "Period three implies chaos"(Periodo tres implica el
caos) [referencia]. Ellos estudiaban sistemas dinámicos denidos en el intervalo y encon-
traron que de existir un punto periódico de período 3, entonces, dicha transformación
tiene puntos periódicos de todos los periodos, así como la existencia de órbitas que no se
acumulan en ninguna órbita periódica.
Si bien los sistemas que presentan estas características no son precisamente aleatorios
son bastante complejos y ricos en su dinámica.
1.3. CAOS UNIDIMENSIONAL 29

En esta sección realizaremos un recorrido alrededor de la denición de un sistema


dinámico caótico, revisaremos algunos ejemplos y probaremos la armación de Li y Yorke.
Además, estudiaremos una familia de sistemas dinámicos en la que se presentan diversos
fenómenos dinámicos; incluso caos.

1.3.1. Las propiedades del caos


Debieron pasar algunos años para acordar una denición precisa del caos. Devaney
(Robert L. Devaney), entre otros propusieron las siguientes tres condiciones, las cuales
explicaremos en esta sección:
1. Órbitas periódicas densas y de todos los periodos.
2. Sensibilidad a las condiciones iniciales.
3. Transitividad Topológica: La existencia de una órbita densa.
Un sistema que presenta estas tres propiedades es un sistema caótico.

Órbitas periódicas de todos los periodos.


¾Por qué es interesante que existan órbitas periódicas de todos los periodos?
El conjunto de órbitas periódicas es denso en el intervalo. (o en algún subintervalo,
donde precisamente ahí, la dinámica es caótica).

Sensibilidad a las condiciones iniciales.


Poincaré: Una causa muy pequeña, que se nos escapa, determina un efecto consid-
erable que no podemos dejar de ver; entonces decimos que ese efecto se deve al azar.
(RUELLE)
Hadamard, a nales del siglo XIX, ya conocía este fenómeno. (RUELLE)
Denición 4. f es sensible a las condiciones iniciales si existe ε > 0 de modo que para
toda δ > 0 si d(x, y) < δ y x 6= y entonces existe n ∈ N tal que d(f n (x), f n (y)) > ε.

Transitividad Topológica.
Denición 5. f es topológicamente transitiva si para cualesquiera dos abiertos U y V del
intervalo, existe n ∈ N, de manera que f n (U ) ∩ V 6= ∅.

Las rotaciones no son caóticas


Las rotaciones: Las racionales, todos sus puntos son periódicos, del mismo periodo.
No sirven. Las irracionales tienen orbitas densas, pero no son sensibles a las condiciones
iniciales; y no tienen órbitas periódicas.

Los shifts de Bernoulli.


En esta sección deniremos un sistema dinámico de capital importancia y en él en-
contramos una gran diversidad de comportamientos dinámicos. Este sirve de modelo con
el cual se estudian los sistemas dinámicos en general.
30 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

Al inicio de este capítulo denimos el conjunto de Cantor, que es el espacio métrico


donde este sistema dinámico está denido: Sea Σ = {0, 1}N el conjunto de cantor.
La palabra inglesa shift signica corrimiento o decalage. Si bien no es adecuado utilizar
términos en otra lengua cuando existe alguna palabra en español, esta transformación es
conocida bajo ese nombre, a pesar de los intentos de muchas personas para nominarlo de
otra manera. Sea σ : Σ → Σ denida mediante:
σ
(x1 , x2 , x3 , . . .) 7→ (x2 , x3 , x4 , . . .)

esto es, simplemente olvidarnos de la primer coordenada de (x1 , x2 , . . .), de donde viene
el nombre de corrimiento.
No se trata de una transformación invertible. De hecho, la imagen inversa de cualquier
punto consta de dos puntos diferentes.
Es fácil determinar sus puntos jos. A saber, estos son:
{(0, 0, 0, 0, 0, . . .), (1, 1, 1, 1, 1, . . .) ∈ Σ}

Dado un número k ∈ N, denotemos por Perk (σ) al conjunto de todos los puntos periódicos
de periodo k de σ . El conjunto:

Per(σ) = Perk (σ)


[

k∈N A

es el conjunto de todas las órbitas periódicas.


Proposición 11. Para toda k ∈ N, el conjunto Perk (σ) es no vacío. Es decir, existen
puntos periódicos de todos los periodos.
Demostración. Sea k ∈ N. Tome un punto arbitrario (x1 , . . . , xk ) ∈ {0, 1}k . El punto en
Σ:
(x1 , . . . , xk , x1 , . . . , xk , . . .) ∈ Perk (σ)
es decir, es una órbita periódica de periodo k , como queríamos.

Ejercicio: Calcule cuántas órbitas de período k hay, para cada k ∈ N.


No sólo existen órbitas periódicos de todos los períodos, sino que además, el conjunto
de todas las órbitas periódicas es denso en Σ, como se lee en el enunciado de la siguiente
proposición:
Proposición 12. Dado un punto arbitrario x ∈ Σ y ε > 0 cualquiera, existe p ∈ Per(σ)
tal que d(p, x) < ε.
Demostración. Dado x ∈ Σ y ε > 0 arbitrarios. Observe que existe k ∈ N de manera que
3−k < ε. Observa que el punto

p = (x1 , x2 , . . . , xk , x1 , x2 , . . . , xk , . . .) ∈ Σ

y es un punto periódico de período k . Por otro lado p ∈ B3−k (x), pues coincide con x en
los primeros k términos. Por lo tanto
d(p, x) < 3−k < ε.
1.3. CAOS UNIDIMENSIONAL 31

Existen órbitas densas. Así como en el caso de una rotación irracional (Sección 1.2.2,
este sistema presenta algunas órbitas densas; esto es, puntos cuyos iterados visitan cualquier
vecindad de cualquier punto del conjunto de Cantor.
Este fenómeno le da una apariencia de aleatoriedad al sistema, que, por otro lado está
perfectamente determinado mediante una regla explícita.
Proposición 13. Existe un punto x ∈ Σ tal que ω(x) = Σ; en este caso, la órbita de x
es densa en Σ.
Demostración: La clave para encontrar este punto radica en el mismo argumento que
hemos empleado anteriormente. Un punto x está a distancia 3−k de un punto y si coinciden
en sus primeros k términos.
En general, podemos determinar el itinerario de un punto cualquiera, a partir de su
expresión explicita. Así, si queremos encontrar un punto x en Σ, digamos en el intervalo de
la derecha I0 y que su imagen σ(x) pertenezca al intervalo de la izquierda I1 , basta mirar
entre los puntos que comienzan con la secuencia "01". En general, a partir de cualquier
palabra nita w de longitud n, escrita en 0 y 1 el conjunto de puntos en Σ que realizan
dicho intervalo es:
Iw = {x|x0 = w0 ; x1 = w1 . . . xn−1 = wn−1 }
El Shift las tiene todas. De hecho, es el modelo estándar de todas las aplicaciones
caóticas. Por esto, la aplicación x 7→ 2x mod 1 también es caótica, ya que es conjugada
al shift (Ver prop. ¾?)
CABE MENCIONAR QUE LA UNIVERSALIDAD DE ESTE CONJUNTO RADICA
EN EL HECHO DE QUE, PARA INDICAR UN PUNTO PARTICULAR ES EQUIVA-
LENTE A DETERMINAR SU ÓRBITA COMPLETA.
El shift, en general. Así como hemos denido el shift en dos símbolos, podemos consid-
erar alfabetos más grandes. De hecho, si el alfabeto es Fn = {0, 1, . . . , n−1}, el conjunto de
secuencias Σn = FnN también tiene una métrica (¾cual?). La transformación σ : Σn → Σn
tiene las mismas propiedades.
Ejercicio: Pruebe que σ : Σn → Σn es caótico.
Por otro lado, podemos considerar un espacio más grande que Σn , de manera que σ sea
inyectiva. Para esto necesitamos considerar el espacio de sucesiones innitas bilaterales de
elementos en Fn .
El problema de la inyectividad del shift es que, con cada iteración, perdemos un paso
en la historia del punto. Una manera de resolverlo es recordar la historia. Si consideramos
parejas de puntos (x, y) ∈ Σn × Σn podemos resolverlo. Basta denir una transformación
nueva: θ : Σn × Σn → Σn × Σn tal que:

((x1 , x2 , . . .), (y1 , y2 , . . .)) 7→ ((x2 , x3 , . . .), (x1 , y1 , y2 . . .))

Si denotamos por Σ∗n = Σn × Σn , denimos θ como el shift bilateral en n simbolos.


Hay que darle una metrica a Σ∗n
Teorema 7. El shift bilateral es biyectivo, continuo, y satisface las tres propiedades del
caos: es transitivo, tiene órbitas periódicas densas y tiene una órbita periódica densa.

La tienda es caótica? Para esto hay que mencionar la máquina de sumar y la equiva-
lencia de la tienda con ella.
32 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

1.3.2. Periodo 3 implica caos


Determinar si un sistema dinámico tiene puntos periódicos de determinados períodos,
a partir de la simple observación de una órbita periódica en particular, parece un poco
descabellado. Tanto así que los matemáticos (en realidad eran ingenieros o matemáticos
aplicados) Li y Yorke se sorprendieron bastante con el hecho de que la existencia de una
órbita periódica de período 3 garantizara la existencia de órbitas periódicas de todos los
demás períodos. Este resultado lo publicaron en el año de 1975. Sin embargo, más de diez
años atrás, en 1964, Oleksandr Mikolaiovich Sharkovsky (1936-), matemático ruso, había
propuesto un orden, es decir una lista de todos los números naturales de una manera
poco ordinaria de manera que la existencia de una órbita periódica de período k implica
la existencia de todos los períodos posteriores a k , en la lista. Evidentemente, el 3 es el
primer elemento de la lista de Sharkovsky
Li & Yorke acuñaron una palabra: caos. No solo por la coexistencia de órbitas peri-
odicas de todos los periodos, sin también por la presencia de orbitas de comportamiento
errático, que no se acumulan en ninguna órbita periodica. Principio de una órbita densa...
No es tan extraño, pues la existencia de un punto periódico de período k > 2 implica,
necesariamente, un punto jo. Si a es tal punto, entonces, podemos suponer que f (a) > a.
Si consideramos la sucesión a, f (a), f 2 (a), . . ., f k (a) = a existe un elemento b = f j (a)
de manera que b > f (b); pues de lo contrario, no podríamos regresar a a. Aplicando el
Teorema del valor intermedio sobre la función f (x) − x obtenemos que existe un punto
c ∈ (a, b) tal que f (c) = c, es decir, un punto jo.
Enunciemos precisamente el teorema de Li y Yorke:
Teorema 8. Si f es una función continua del intervalo [0, 1] en si mismo y existe un
punto periódico p ∈ [0, 1], de período 3, entonces para cualquier número natural m existe
un punto de período m.
Para demostrar este teorema, debemos recordar dos hechos bastante simples que son
válidos para funciones continuas f : [0, 1] → [0, 1].
1. Si I y J son dos intervalos cerrados, contenidos en [0, 1] tales que J ⊂ f (I), entonces,
existe un intervalo Q ⊂ I tal que f (Q) = I .
2. Si I es un intervalo cerrado tal que I ⊂ f (I), entonces, existe p ∈ I tal que f (p) = p.
El primer hecho es muy simple de demostrar y se deja como ejercicio. El segundo es
una versión del conocido Teorema del Punto Fijo para funciones continuas.
Para demostrar el teorema, nos auxiliaremos de un concepto matemático conocido bajo
el nombre de grácas dirigidas o digrácas. Una gráca es un conjunto nito de puntos
y un conjunto de aristas. El conjunto de puntos, o vértices lo llamamos V y las aristas
están formadas por parejas de vértices {x, y}. Lo más indicado es realizar un dibujo: los
vértices son varios puntos dispuestos de cualquier manera y trazamos una línea entre el
vértice x y el vértice y si el par {x, y} ∈ A. Una gráca dirigida es una gráca donde las
aristas tienen una dirección, es decir A ⊂ V × V , o mejor dicho, hay una arista de x a y
si el par ordenado (x, y) ∈ A. La diferencia fundamental es que en una gráca dirigida, la
arista (x, y) es diferente a la arista (y, x). En cambio, en una gráca {x, y} = {y, x}.
Un camino cerrado en la gráca G = (V, A) es una sucesión de vértices siempre que
el paso de un vértice al siguiente esté permitido por una arista. En una gráca dirigida
tenemos que respetar, además, el sentido de las echas. Este lo podemos denotar como
una sucesión de vértices, donde el primero es igual al útlimo: a, b, d, c, a; en la Figura 1.3.2.
1.3. CAOS UNIDIMENSIONAL 33
PSfrag replacements
Gráca
Digráca
a
b
c
d
e
f
Figura 1.3.2. Ejemplos de una gráca y de una digráca

Volvamos a los sistemas dinámicos. Consideremos una función continua f : [0, 1] → [0, 1]
y supongamos que existe un punto periódico p ∈ [0, 1] de período k . La órbita de p se
distribuye en [0, 1] de alguna manera; y esta disposición no respeta las iteraciones. Por
ejemplo, una órbita de período 4 nos podría dar la siguiente disposición:
0 < p < f 4 (p) < f 2 (p) < f (p) < f 3 (p) < 1

Ahora bien, consideremos la primera. Esta nos dene una gráca dirigida. Denotemos
por I1 = [p, f 4 (p)], I2 = [f 4 (p), f 2 (p)], I3 = [f 2 (p), f (p)] y nalmente I4 = [f (p), f 3 (p)].
Cada uno de los intervalos corresponde a un vértice de la gráca dirigida. Para denir
las aristas, veamos que sucede con la imagen de I1 , por f . Los extremos son f (p) y
f (f 4 (p)) = p. Como la función es continua, la imagen contiene al intervalo [p, f (p)] y en
particular f (I1 ) ⊃ I1 ∪ I2 ∪ I3 . De esta manera, colocamos una arista dirigida de I1 a I2 ,
otra de I1 a I3 y también una arista dirigida de I1 a I1 . Procedemos de la misma manera
con f (I2 ) ⊃... TAL VEZ OTRA DISPOSICIÓN SEA MÁS SENCILLA.

Figura: La gráca dirigida que obtuvimos en el ejemplo.

Este procedimiento se puede realizar en general. Dada una órbita de período k le


podemos asociar una gráca dirigida. Si la órbita de p la ordenamos de acuerdo a su
disposición en el intervalo [0, 1] mediante:
O+ (p) = {p1 < p2 < p3 < · · · < pk−1 }

estos puntos nos denen una partición del intervalo [0, 1]. Nos interesan I1 = [p1 , p2 ],
I2 = [p2 , p3 ], . . ., Ik = [pk−2 , pk−1 ]. La gráca dirigida tiene como vértices estos intervalos.
Colocamos una arista de Ij a Ii si f (Ij ) ⊃ Ii A esta gráca la llamaremos "la gráca
asociada al punto periódico k de la función f ".
Teorema 9. (Stran) Si la gráca asociada al punto periódico de periodo k de la función
f tiene un camino cerrado de longitud l, no repetitivo, entonces, existe un punto periódico
de periodo l de f .
Un camino cerrado es no repetitivo si no está formado por un camino de menor lon-
gitud, que se repite varias veces. De esta manera, está permitido un camino de la forma
I 1 , I 3 , I 3 , I 3 , I 4 , I 1 , sin embargo uno de la forma I 1 , I 3 , I 2 , I 1 , I 3 , I 2 no.
Demostración. Para demostrar este teorema basta aplicar varias veces seguidas el hecho
1, y después el teorema del punto jo. Veamos cómo hacerlo. Tomemos un camino cerrado,
no repetitivo de longitud l, digamos I 1 , I 2 , . . . , I l = I 1 Observe que por la denición de
34 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements
0
1
p
f (p)
f 2 (p)
Figura 1.3.2. Combinatoria diferente de dos órbitas de periodo 3.

PSfrag replacements
I1
I2
Figura 1.3.2. La gráca dirigida asociada a una órbita de periodo 3.

la gráca asociada f (I 1 ) ⊃ I 2 . Entonces existe Q0 ⊂ I 1 tal que f (Q0 ) = I 1 . Ahora bien


f (I 1 ) ⊃ I 2 , pero como acabamos de mostrar I 1 = f (Q0 ); entonces f 2 (Q0 ) = f (f (Q0 )) ⊃
I 2 . De nuevo, la armación 1 implica que existe Q1 ⊂ Q0 tal que f 2 (Q1 ) = I 2 . Procediendo
de esta manera hasta el iterado f l , nos encontramos con una diferencia: Ahora f (I l−1 ) ⊃
I l = I 1 y por lo tanto, encontramos un intervalo Ql−1 ⊂ I 1 tal que f (Ql−1 ) = I1 . Por lo
tanto Ql−1 ⊂ f l (Ql−1 ) y por lo tanto, existe un punto p ∈ I 1 tal que f l (p) = p. Observe
que p ∈ I 1 , f (p) ∈ I 2 , . . ., f l−2 (p) ∈ I l−1 , y el hecho de que el camino no sea repetitivo,
nos garantiza que la orbita periódica que acabamos de encontrar es de periodo l, pues es
imposible que la órbita se cierre antes y continúe con su recorrido.

A partir del teorema anterior, ahora es muy simple obtener el resultado de Li y Yorke,
que enunciamos un poco atrás.
Si existe una órbita periódica de período 3, entonces existen órbitas periódicas de
todos los periodos.
Denotemos por I al intervalo I = [0, 1]. Supongamos que existe p ∈ I , un punto de
período 3. Esto es f 3 (p) = p y tanto f (p) 6= p como f 2 (p) 6= p. No es difícil convencerse
que podemos escoger p, o un iterado de él, de manera que p < f (p) y p < f 2 (p). Ahora
bien, tenemos dos situaciones: f (p) < f 2 (p) o bien lo contrario f 2 (p) < f (p), como vemos
en la gura 1.3.2.
Supongamos que f (p) < f 2 (p). De esta manera podemos denir dos subintervalos:
I 1 = [p, f (p)] y I 2 = [f (p), f 2 (p)]. Utilizando el teorema del valor medio, podemos concluir
que f (I 1 ) ⊃ I 2 y f (I 2 ) ⊃ I 1 ∪ I 2 . De esta manera podemos asociar una gráca dirigida,
donde los vértices representan los intervalos I 1 e I 2 y las aristas están denidas de la
siguiente manera. Existe una arista dirigida de I j → I k si Ik ⊂ f (I j )
FALTA TERMINAR LA DEMOSTRACIÓN

Ejercicio: Demuestre que en el caso de que f 2 (p) < f (p), obtenemos una gráca similar.
1.3. CAOS UNIDIMENSIONAL 35

Ejercicio: Demuestre que una órbita de periodo 5 implica órbitas periódicas de todos
los periodos excepto de periodo 3.
El teorema de Sharkovsky: El orden propuesto por Sharkovsky es el siguiente:

3 ≺ 5 ≺ 7 ≺ 9 ≺ 11 ≺ · · · ≺ 2n + 1 ≺ · · ·
≺ 2 · 3 ≺ 2 · 5 ≺ 2 · 7 ≺ · · · ≺ 2 · (2n + 1) ≺ · · ·
≺ 22 · 3 ≺ 22 · 5 ≺ 22 · 7 ≺ · · · ≺ 22 · (2n + 1) ≺ · · ·
≺ 2m · 3 ≺ 2m · 5 ≺ 2m · 7 ≺ · · · ≺ 2m · (2n + 1) ≺ · · ·
≺ · · · ≺ 2m ≺ 2m−1 ≺ · · · 23 ≺ 22 ≺ 2 ≺ 1

Así, el enunciado del Teorema de Sharkovsky queda de la siguiente manera.


Teorema 10. Si f es una función continua y tiene un punto periódico de periodo k,
entonces tiene puntos periódicos de periodo l, para toda l  k .
La demostración de este teorema no la daremos, pues es más complicada que edicante.

1.3.3. Un camino al caos: las bifurcaciones.


El camino al caos. ¾Es posible transitar de un estado determinado del sistema a otro,
esencialmente diferente?
Es común observar que los fenómenos físicos sufren cambios continuos, casi impercep-
tibles. En general, una gota de agua a más en un vaso no implica ningún cambio en el
estado del vaso, sin embargo existe un momento, una cierta gota, que derrama el agua. A
estos cambios cualitativos se les conoce como bifurcaciones.
¾Podemos transitar de un sistema de dinámica simple a otro donde la dinámica sea
más complicada mediante pequeños cambios en los coecientes de la función?
Una respuesta sencilla: podemos pasar de un punto periódico atractor a uno repulsor
(o viceversa), considerando la familia fa (x) = ax, a ∈ (0, ∞), mediante el incremento del
parámetro a. Así, para a < 1 tenemos un atractor. Cuando a = 1 tenemos un cambio:
todos los puntos de la recta son jos y para a > 1 el 0 se convierte en un repulsor. A pesar
de su simplicidad, este razonamiento nos indica que existen dos dinámicas diferentes en
una familia (que varía continuamente con el parámetro) existen algunos valores de ruptura,
a estos valores del parámetro se les conoce como valores de bifurcación.
Más interesantes aún son los valores de bifurcación entre un estado simple a uno más
complejo. El nacimiento de una órbita periódica de periodo 2 a partir de un punto jo. A
este tipo de bifurcaciones se le conoce como "duplicación de periodo". Estudiaremos, no
una, sino una cascada de estas.
La familia logística. Una familia que ha sido objeto de estudio durante las últimas
décadas, desde diferentes puntos de vista, es la familia logística:
Qµ : R → R

Qµ (x) = µx(1 − x),


parametrizada por un múmero µ ∈ R. La familia entera comparte algunas propiedades.
Para toda µ ∈ R las raíces de Qµ son precisamente 0 y 1; salvo el caso trivial en que
µ = 0 y entonces Q0 ≡ 0. Además, todas comparten un punto jo: x = 0. De hecho,
Qµ tiene dos puntos jos; el otro es xµ = µ−1
µ
. El punto crítico, esto es, el punto donde
36 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements
0
1
Figura 1.3.3. Qµ (x) cuando µ ∈ (0, 4].

Q0µ (c) = 0, siempre es el mismo, para todos los valores de µ: c = 12 ; sin embargo el valor
crítico cambia: Qµ (c) = µ4 , así, este crece cuando µ aumenta.
Si bien para otros valores de µ la dinámica de Qµ presenta algunos de los fenómenos
que nos interesan, nos concentraremos en el intervalo (0, 4] ⊂ R, pues para cualquier µ en
este intervalo tenemos que f ([0, 1]) ⊂ [0, 1]. (Ver Figura 1.3.3)
Para analizar los puntos jos usemos el criterio de la derivada. La derivada de Qµ es
Qµ (x) = µ − 2µx. El punto jo en 0 es atractor, para los valores del parámetro µ ∈ (0, 1).
0

Sin embargo, el otro punto jo xµ se encuentra fuera del intervalo [0, 1], pues µ − 1 < 0.
De cualquier manera, este otro punto jo es un repulsor, ya que Q0µ (xµ ) = −µ + 2 > 1.
No es difícil convencerse, tal vez utilizando el método de la tela de araña, que la órbita
de todos los puntos en el intervalo [0, 1] converge al 0.
Cuando µ = 1 ocurre una bifurcación. Primero, x1 = 0 así, en lugar de tener dos puntos
jos tenemos solamente uno. Ya que la primera derivada no nos proporciona ninguna
información, utilizando la segunda: Q00µ (0) = −2µ y por lo tanto Q001 (0) = −2, entonces el
0 atrae por la derecha y repele por la izquierda; según los resultados del capítulo 1. Ahora
bien, cuando µ > 1 el 0 se convierte en un repulsor y el punto jo xµ en un atractor; esto
para los valores de µ ∈ (1, 3), pues

−1 < Q0µ (xµ ) = −µ + 2 < 1 sí y solo si µ ∈ (1, 3)

Esta bifurcación no trajo grandes cambios en la dinámica, sin embargo para el valor
de µ = 3 tenemos un fenómeno más interesante. Primero, la derivada en x3 es −1. Para
los valores de µ > 3 el punto xµ se convierte en un repulsor, sin embargo la ecuación
Q2µ (x) − x = 0 tiene otras raíces; de hecho,

µ(µx − µx2 ) − µ(µx − µx2 )2 − x = 0


µ−1 2 2
⇔ x(x − )(µ x − (µ2 + µ)x + µ + 1) = 0
µ

debido a que los puntos jos de Qµ también son puntos jos de Q2µ ; sólo que la derivada
(Q23 )0 (x3 ) = 1, por la regla de la cadena.
Por otro lado, podemos encontrar las raíces de µ2 x2 − (µ2 + µ)x + µ + 1 = 0. Estas
son: p
µ+1± µ2 − 2µ − 3
p± =

1.3. CAOS UNIDIMENSIONAL 37

PSfrag replacements
0
Figura 1.3.3. Las grácas de Q3 y Q23 .

PSfrag replacements
0
Figura 1.3.3. Las grácas de Qµ y Q2µ , para µ = 3,3. Aparece una órbita de periodo 2 y
el punto jo se convierte en repulsor.

Y son números reales siempre que µ2 − 2µ − 3 > 0, es decir, cuando µ > 3. De hecho,
cuando µ = 3, tenemos que µ3 = p+ = p− y para µ ligeramente más grande que 3, son
tres puntos distintos.
Ahora bien, la regla de la cadena nos indica la derivada de Q2µ tanto en p− como en
p+ . De hecho:

(Q2µ )0 (p± ) = Q0µ (p− )Q0µ (p+ )


p p
= (−1 − µ2 − 2µ − 3)(−1 + µ2 − 2µ − 3)
= 1 − (µ2 − 2µ − 3)

Por lo tanto, si 3 < µ < 1 + 6 tenemos que la órbita de periodo 2 es atractora; ya que
|(Q2µ )0 (p± )| < 1.
Analicemos la situación, detrás de las cuentas, mediante las grácas de Qµ y de su
segunda iteración: La gráca de Q3 es tangente a una recta de pendiente −1 que pasa por
el punto (x3 , x3 ) en R2 , ya que Q3 (x3 ) = x3 y Q03 (x3 ) = −1. Por otro lado, la gráca de
Q23 (x) es tangente a la identidad, en el mismo punto. Vea la Figura 1.3.3.
Si consideramos un parámetro µ+ ligeramente mayor a 3, el valor critico aumenta, el
punto jo xµ+ se convierte en repulsor y la gráca de Q2µ+ corta tres veces la identidad:
en xµ+ y en los dos puntos de la órbita periódica de periodo 2; como vemos en la Figura
1.3.3.
Podemos repetir este argumento, ahora con la segunda y la cuarta iteración de Qµ .
Aumentamos el valor del parámetro µ hasta que la derivada de Q2µ , en cualquiera de los
puntos de la órbita de periodo 2, alcance el valor de −1. De hecho, esto sucede para
38 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.

PSfrag replacements
0
Figura 1.3.3. Cascada de duplicación del periodo.


µ = 1+ 6. En ese momento, obtenemos un punto jo de Q41+√6 , de derivada 1. Para
valores ligeramente más grandes, cada punto de la órbita de periodo 2 se bifurca en dos,
obteniendo una órbita periódica de periodo 4. √
De esta manera se obtiene una sucesión µn ; n ∈ N, µ0 = 3, µ1 = 1 + 6, etcétera,
de manera que en el intervalo (µn , µn+1 ) ⊂ (0, 4) cumple la siguiente proposición: Si
µ ∈ (µn , µn+1 ), la aplicación Qµ tiene una órbita periódica de periodo 2n+1 atractora y
la órbita de periodo 2n , que apareció en el intervalo anterior, es repulsora. Esta sucesión
converge a un valor menor que 4. De hecho, µn → µ∞ = 3,5699456 . . ., cuando n → ∞.
Consecuentemente, la aplicación Qµ∞ tiene órbitas periódicas de cualquier periodo de
la forma 2n . A este fenómeno se le conoce como una cascada de duplicación del periodo.
En lugar de calcular, podemos auxiliarnos de una computadora y de una propiedad
de la familia: si hay una órbita periódica atractora, a esta convergen casi todos los puntos
del intervalo [0, 1]. El diagrama de bifurcaciones que observamos en la Figura E, consiste
de gracar, en el eje horizontal el parámetro µ ∈ (2,8, µ∞ ) y en el eje vertical las primeras
1000 iteraciones del punto 21 bajo Qµ . Podemos observar, primero, el punto jo atractor
y como éste se bifurca sucesivamente, en órbitas de periodo 2, 4, 8 y 16.
Sin embargo, en el intervalo [µ∞ , 4], todavía quedan sorpresas. Encontraremos, auxili-
ados por el diagrama de bifurcaciones, órbitas de periodo 6 y 3. Así como también veremos
que la aplicación Q4 es conjugada a la tienda; que a su vez, es conjugado a un shift en
2 símbolos. Dinámica caótica. Cabe mencionar que existen parámetros en el intervalo
[µ∞ , 4] donde la dinámica también es caótica, solo que esto sucede en algún conjunto mas
pequeño que el intervalo.
De hecho, determinar la dinámica de casi todos los parámetros en el intervalo [0, 4]
fue un trabajo de más de veinte años, en el que intervinieron una buena cantidad de
matemáticos, durante las década de los ochenta y noventas.
De manera ingenua, podemos, sin saber qué puede suceder, podemos continuar el
diagrama de bifurcaciones. La primer conclusión que podemos obtener es que, si µ > 4,
existen órbitas que se escapan. Vea la gráca de la función.
Sin embargo hasta el valor µ = 4 obtenemos un dibujo muy interesante.
La ventana de periodo 3. Aplicar Sharkovsky. Hablar del valor de "Feigembaum"
Es posible decir algo sobre la familia de tiendas?
1.3. CAOS UNIDIMENSIONAL 39

Figura 1.3.3 El diagrama de bifurcaciones de la familia lógistica, para los parámetros


comprendidos en el intervalo [0, 4].
40 CAPÍTULO 1. SISTEMAS DINÁMICOS DISCRETOS.
Capítulo 2

Hiperbolicidad o la dinámica de la

derivada

2.1. Introducción

Entender la evolución de un determinado fenómeno a través del tiempo: el movimiento


de los planetas, el clima o la bolsa de valores, por ejemplo, desde la perspectiva de los
sistemas dinámicos, requiere de dos pasos fundamentales: El primer paso consiste en
acomodar todos los escenarios posibles del fenómeno en cuestión en un espacio métrico
adecuado: un mapa de todos los estados posibles en el que los estados similares son vecinos:
El segundo paso es determinar la ley de evolución que modela dicho fenómeno, es decir,
una transformación del espacio que al aplicarla a un escenario determinado nos indica el
estado en el que este se transformará al instante siguiente.
Los variables que intervienen en un fenómeno dinámico de la naturaleza difícilmente
se reducen a una sola y, a veces, es necesario más de un parámetro para determinar todos
los estados posibles del sistema.
Connar el movimiento a un espacio unidimensional (la recta o el círculo) ha simpli-
cado técnicamente nuestro abordaje al estudio de los sistemas dinámicos discretos y nos ha
permitido mostrar algunas de sus propiedades fundamentales; sin embargo, si permitimos
que el movimiento se realice en un espacio más amplio, con más de un grados de libertad
o variables independientes, encontraremos que aparecen nuevos fenómenos interesantes,
además de los que ya hemos visto en la dinámica unidimensional.
Ejemplo: Esbocemos un ejemplo interesante: el movimiento de una bola de billar sobre
una mesa de carambola (una mesa de billar sin troneras o buchacas). Para construir un
modelo dinámico de este fenómeno debemos observar dos hipótesis fundamentales: la bola
se mueve dentro de la mesa en trayectorias rectilíneas y rebota con la orilla de la mesa
de manera elástica ; es decir, el ángulo de incidencia es idéntico al ángulo reexión. Es
razonable suponer, además, la ausencia de fricción; así, al enviar una bola sobre la mesa,
esta no se detendrá jamá; de lo contrario ya tendríamos un teorema: Todas las órbitas
eventualmente se detienen.
Estas suposiciones básicas nos permiten modelar este juego simple de billar, con-
siderando únicamente los puntos de la orilla de la mesa.
Podemos caracterizar a los puntos de la orilla de la mesa con un rectángulo R, en el
plano. Coloquemos la pelota en algún punto p ∈ R. Cabe observar que para determinar
un punto en R es suciente elegir un número real en el intervalo p ∈ [0, 1)
Ahora falta determinar el ángulo de la trayectoria: para esto es necesario considerar otra

41
42 CAPÍTULO 2. HIPERBOLICIDAD

Billar rectangular

variable α ∈ [−π/2, π/2], que indica el ángulo con respecto a la recta lp , perpendicular a
∂R, en el punto p; a esta recta se le conoce como la recta normal.
Ahora bien, si enviamos la bola en el punto p1 ∈ ∂R, con ángulo α1 , tras recorrer en
línea recta una región de la mesa, la bola se impactará en otro punto de la orilla de la
mesa p2 , con un ángulo determinado α, con respecto a la recta lp2 . Ya que la colisión es
elástica, la bola rebotará con un ángulo α2 = −α; y de esta manera podemos continuar,
de manera iterativa, el cálculo de su órbita:

(p1 , α1 ) → (p2 , α2 ) → · · · → (pn , αn ) → · · ·

Cabe recalcar que es necesario considerar ambas variables independientes, pues por un
mismo punto p ∈ ∂R puede la bola puede pasar con diferentes ángulos. Tenemos entonces
denido un sistema dinámico en el conjunto B = [0, 1) × (0, π) ⊂ R2 determinado por la
siguiente transformación

T : [0, 1) × (0, π) → [0, 1) × (0, π)

T (p1 , α1 ) = (p2 , α2 )
¾PARA QUÉ CONSTRUIMOS ESTO? POR LO MENOS HAY QUE FORMULAR
ALGUNAS PREGUNTAS.
Otro ejemplo en el que intervienen varias variables independientes es el movimiento
de los planetas, de acuerdo a la ley de Newton. Si queremos describir el movimiento de
N planetas, cada escenario posible está caracterizado por la posición de cada uno de los
planetas pj , j ∈ {1, . . . , N }, en el espacio tridimensional: pi = (xj , yj , zj ) ∈ R3 y por cada
planeta un vector qj = (ẋj , ẏj , żj ) ∈ R3 que indica la dirección de su movimiento. De esta
manera son necesarias 6 variables independientes por cada planeta en el problema, lo que
nos da un total de 6N variables. Así, el espacio de todas las conguraciones del problema
de 2 planetas es R12 , de 3 es R18 y en general, para N planetas es R6N .
¾Qué signica entender un sistema dinámico? Sabemos encontrar puntos jos y órbitas
periódicas. La intención es encontrar propiedades que garanticen que estos atrapan a la
mayoría de las órbitas. En los años sesentas creían que, en general, un número nito
de órbitas periódicas eran capaces de gobernar la dinámica en la mayoría de los sistemas
dinámicos. ¾Qué es la mayoría? Mayoría en el sentido de que cualquier sistema dinámico
puede ser aproximado por otro con estas características. A este tipo de sistemas se les
bautizó con el nombre de Morse-Smale. No mucho tiempo después, encontraron que estos
si bien cubrían una buena parte del universo, existía otra, de "igual tamaño"que no.
2.2. DINÁMICA LINEAL EN EL PLANO 43

Caracterizar el sistema dinámico por un número nito de atractores y repulsores; el resto


de la dinámica, hablando de las órbitas de la mayoría de los puntos, queda determinado
por que, al nal, acaban por converger a dichos atractores. Así, entender el destino y el
origen de todas las órbitas se torna interesante.
Por otro lado, la forma del espacio también determina el tipo de dinámica que obten-
emos y es necesario conocerla para poder obtener propiedades. El ejemplo de ANOSOV
nos indica que una transformación, que en el plano es trivial cuando la consideramos en
el Toro, presenta sorprendentes propiedades.
Podríamos, preguntarnos si es posible estudiar la dinámica de las transformaciones de
espacios más amplios como el plano (o algún subconjunto de él), el espacio tridimensional,
o en algunas supercies como la esfera o el toro. Podemos ir más lejos y pretender estudiar
los sistemas dinámicos denidos en un espacio euclidiano de dimensión nita, arbitraria, o
incluso en algún espacio de dimensión innita. ¾Cuál es el comportamiento típico alrededor
de los puntos periódicos? Al enunciar estas preguntas dentro de este contexto más general,
requeriremos herramientas más poderosas para poder estudiarlas. La derivada de una
función resultó ser fundamental para determinar la dinámica alrededor de los puntos
periódicos. Al considerar funciones cuyo dominio está contenido en Rn , las herramientas
del cálculo diferencial en varias variables promete ser también de capital importancia en
este universo.
En el primer capítulo de este libro hemos visto que la dinámica de una transformación
diferenciable f : R → R, en una vecindad de un punto jo p ∈ R, está completamente
determinada por el valor absoluto de la derivada, en el punto en cuestión: |f 0 (p)|. Dado que
nos hemos trasladado al estudio de los sistemas dinámicos discretos en subconjuntos de
Rn , podemos preguntarnos: ¾Qué información nos brinda la derivada sobre la dinámica del
sistema? El Teorema de Hartman-Grobman nos indica una respuesta ya que caracteriza,
de una manera semejante al Teorema (3, Cap1), la dinámica local, alrededor de un punto
jo hiperbólico. En esta sección analizaremos el contenido del Teorema de Hartman-
Grobman y descubriremos algunas de sus consecuencias. Para esto, es necesario tener a
la mano la noción de derivada en varias variables.
Para esto, será necesario recordar algunos conceptos básicos del cálculo en varias vari-
ables.
A lo largo de este capítulo estudiaremos sistemas denidos en Rn , o en subconjuntos
propios de él. En primer lugar, describiremos las transformaciones más sencillas, desde
el punto de vista de su dinámica, que son las transformaciones lineales. Para esto será
necesario revisar, rápidamente algunas nociones de álgebra lineal. Después estudiaremos
la dinámica de las matrices hiperbólicas; que servirán de modelo para entender la dinámi-
ca local de las aplicaciones no lineales y, observaremos que de manera similar al caso
unidimensional, en determinadas situaciones, la dinámica alrededor de un punto jo está
gobernada por la dinámica de la derivada, en ese punto: Teorema de Hartman-Grobman.
Para esto recurriremos a algunos conceptos de cálculo en varias variables.
Finalmente, describiremos algunas propiedades y conceptos de los sistemas dinámicos
presentando algunos ejemplos fundamentales: la herradura de Smale y los automorsmos
de Anosov.

2.2. Dinámica Lineal en el plano

El espacio euclidiano de dimensión 2, mejor conocido como el plano euclidiano, está


formado por pares ordenados de números reales, R2 = R × R, y tiene una estructura de
44 CAPÍTULO 2. HIPERBOLICIDAD

espacio vectorial: Dados dos puntos p = (x1 , y1 ) y q = (x2 , y2 ) ∈ R2 , podemos formar la


suma de ellos: p + q = (x1 + x2 , y1 + y2 ) ∈ R2 y dado el punto p y un escalar α ∈ R,
también podemos formar el producto escalar: αp = (αx1 , αy1 ) ∈ R2 ; además existe un
punto privilegiado O = (0, 0), el origen.
Las transformaciones lineales del plano son funciones L : R2 → R2 que respetan la
estructura de espacio vectorial:
1. L(p + q) = L(p) + L(q), para todos p y q ∈ R2 ;
2. L(αp) = αL(p), para todo p ∈ R2 y α ∈ R.
Al conjunto de todas las transformaciones lineales de R2 lo denotaremos por L(R2 ).
Desde el punto de vista dinámico, estas transformaciónes son las más sencillas de
estudiar y el objetivo de esta sección es clasicarlas. Más adelante también nos serán de
gran ayuda para entender sistemas dinámicos más complicados. Para esto necesitaremos
recordar algunas nociones básicas del álgebra lineal.
Las bases: Una base de un espacio vectorial es un subconjunto de vectores linealmente
independientes que generan el espacio. La base canónica de R2 es la que está formada
por los vectores ê1 = (1, 0) y ê2 = (0, 1), pero no es la única. La propiedad fundamental
cualquier base {v1 , v2 } de R2 es que podemos representar de manera única cualquier vector
p ∈ R2 como una combinación lineal de los elementos de la base. Así, para cada p ∈ R2
existen únicos α1 y α2 ∈ R tales que p = α1 v1 + α2 v2 .
Hemos hecho hincapié que el espacio en donde denimos un sistema dinámico debe
tener una estructura topológica. Para dotar de una métrica al plano R2 recurriremos a
otra noción algebraica: la norma.
La norma: Dado un punto p ∈ R2 , lo podemos representar de acuerdo a la base canónica
por sus coordenadas p = (x, y) = p xê1 + yê2 ; y mediante estas le podemos asociar un
número real no negativo: ||p|| = x2 + y 2 . El número ||p|| es la norma de p y tiene la
siguiente propiedad: ||p|| = 0 sí y solo sí p = O. Si ||p|| > 0 nos indica su tamaño. La norma
dene una métrica en R2 : d(p, q) := ||p − q||.
Ejercicio: Verique que la función d(p, q) = ||p − q|| es efectivamente una métrica, de
acuerdo con la denición del capítulo 2.

Matrices: Las transformaciones lineales están relacionadas con las matrices, y en esta
relación elegir una base del espacio es fundamental. Consideremos una base cualquiera,
{v1 , v2 }, de R2 y tomemos una transformación L ∈ L(R2 ) arbitraria. A partir de la imagen
de los elementos de la base entonces podemos determinar cuatro coecientes aij ∈ R,
debido a que cada L(vj ), j = 1, 2, tiene una expresión en términos de {v1 , v2 }:

L(v1 ) = a11 v1 + a21 v2 ,

L(v2 ) = a12 v1 + a22 v2 .


Observe que si p = α1 v1 + α2 v2 es cualquier punto en el plano, entonces:

L(p) = L(α1 v1 + α2 v2 ) = α1 L(v1 ) + α2 L(v2 )

= α1 (a11 v1 + a21 v2 ) + α2 (a12 v1 + a22 v2 )


= (α1 a11 + α2 a12 )v1 + (α1 a21 + α2 a22 )v2 .
2.2. DINÁMICA LINEAL EN EL PLANO 45

Con los coecientes que acabamos de calcular podemos formar una matriz cuadrada de
2 × 2 con coecientes reales: A = (aij ) ∈ M2×2 (R), y utilizando el álgebra de matrices
calcular L(p):
      
α1 a11 a12 α1 α1 a11 + α2 a12
L(α1 v1 + α2 v2 ) = A = = .
α2 a21 a22 α2 α1 a21 + α2 a22

Cabe resaltar que si consideramos una base diferente de R2 , la matriz asociada a L


cambia. De hecho, cada transformación lineal tiene múltiples representaciones matriciales:
una por cada base elegida. Para ser precisos, existe una representación para cada elección
de dos bases: una para el dominio y otra para el contradominio de la función.
Ejemplo: La función identidad Id(p) = p, para toda p ∈ R2 es, claramente una transfor-
mación lineal. Si consideramos dos bases de R2 , digamos V = {v1 , v2 } y W = {w1 , w2 },
podemos calcular una matriz Q = (qij ) de acuerdo con la expresión de cada uno de los
vectores de la base V , en términos de la base W :

vj = q1j w1 + q2j w2 , para j = 1, 2.

De esta manera, si p = α1 v1 + α2 v2 = (v1 , v2 )V , podemos encontrar β1 y β2 tales que


p = β1 w1 + β2 w2 = (β1 , β2 )W :
      
α1 q11 q12 α1 β
Id(p) = Q = = 1 =p
α2 V q21 q22 α2 β2 W

Debido a que hacemos referencia a dos bases distintas de R2 , y para evitar confusiones
al respecto de a qué base nos referimos al representar un punto un punto p en forma de
un vector en coordenadas, escribimos la base en un sub-índice; así, (α1 , α2 )V signica que
p = α1 v1 + α2 v2 , y (β1 , β2 )W signica que p = β1 w1 + β2 w2 . A la representación matricial
de la identidad, en terminos de las bases V y W , esto es, a la matriz Q que acabamos de
construir, se le conoce como la matriz de cambio de base entre V y W y la denotaremos
Q(V ; W ) para dejar claro que transforma las coordenadas de un punto, en la base V , en
las coordenadas del mismo punto, en la base W ; así:
   
α1 β
Q(V ; W ) = 1
α2 V β2 W

Sean V y W dos bases de R2 y consideremos una transformación L ∈ L. Denotemos


por AV y AW ∈ M2×2 (R) a la representación de L en la base V y W , respectivamente.
Armación: La matriz de cambio de coordenadas Q(V ; W ) es una conjugación entre AV
y AW , esto es:
AV = Q(V ; W ) ◦ AW ◦ Q(V ; W )−1
Demostración: Observe primero que Q(V ; W )−1 = Q(W ; V ). Por lo tanto, la matriz
Q(V ; W ) es invertible. Por otro lado, para cada p ∈ R2 tomamos (p)V , la expresión de p
en la base V . Así: Q(V ; W )−1 (p)V = Q(W ; V )(p)V = (p)W . Entonces, AW (p)W = (L(p))W
y por lo tanto Q(V ; W )(L(p))W = (L(p))V = AV (p)V .
Esta armación garantiza que, desde el punto de vista de su dinámica, es suciente
concentrarnos en cualquier representación matricial de L para describir la dinámica de L.
46 CAPÍTULO 2. HIPERBOLICIDAD

Transformaciones invertibles: Una transformación L es invertible si existe su inversa;


esto es, existe L−1 ∈ L(R2 ) que satisface:
L ◦ L−1 = L−1 ◦ L = Id.

Si AL ∈ M2×2 (R) denota la representación matricial de L en una base dada, entonces


AL−1 = (AL )−1 ; y esto es equivalente a que el determinante de AL es distinto de cero.
 
a b
AL = es invertible ⇔ det(AL ) := ad − bc 6= 0
c d
El conjunto de matrices invertibles de 2 × 2 es conocido como el grupo general lineal
de orden 2 y se le denota por GL(2). No es difícil vericar que se trata de un grupo, en la
denición clásica del álgebra. De ahora en adelante consideraremos las transformaciones
lineales de R2 invertibles y las denotaremos por su representación matricial en GL(2) de
acuerdo con la base canónica {ê1 , ê2 }.
Transformaciones que preservan orientación: Si el determinante de la matriz A
es diferente de cero, tenemos una transformación invertible. Hay dos opciones: o bien el
determinante es positivo o negativo. Cuando el determinante de A es positivo, la transfor-
mación lineal preserva la orientación ; cuando es negativo, la invierte. El ejemplo clásico de
transformación que invierte orientación es el de una reexión por una recta. Por ejemplo,
la reexión sobre el eje equis: (x, y) 7→ (x, −y).
Ejercicio: Determine la matriz A que corresponde a la reexión sobre el eje equis y
verique lo siguiente: el determinante de A es negativo; 1 y -1 son sus valores propios.
Dado que el determinante es multiplicativo, si A ∈ GL(2) invierte orientación, entonces
A preserva orientación; de hecho det(A2 ) = det(A)2 . Denotemos por GL+ (2) al conjunto
2

de transformaciones lineales que preservan orientación.

2.2.1. Puntos jos y rectas invariantes


La primer observación dinámica que podemos vericar rápidamente es que el origen
siempre es un punto jo de cualquier transformación L ∈ GL(2), esto es: L(O) = O. Por
otro lado, todo punto p ∈ R2 es un punto jo de la identidad: Id(p) ≡ p.
Subespacios vectoriales: Cada recta l ⊂ R2 que pasa por el origen comparte las
propiedades de espacio vectorial. Si dos puntos p y q ∈ l, entonces p + q ∈ l y tam-
bién αp ∈ l para toda α ∈ R. Las rectas que pasan por el origen, junto con el conjunto
{O} y con R2 en sí, son todos los subespacios vectoriales de R2 . Para determinar una de
estas recta l, es suciente tomar un punto p 6= O en l; así, cada punto q ∈ l lo podemos
escribir como q = αp, para alguna α ∈ R.
Denición 6. Dada una transformación L ∈ GL(2), decimos que una recta l, que pasa
por el origen, es invariante por L si L(l) = l.
Decir que l es invariante no signica que todos los puntos de l sean jos. Lo único que
arma es que los puntos de l, al iterarlos, no se salen nunca de l.
Valores y vectores propios: Para determinar si si existen rectas invariantes bajo una
transformación lineal y describir precisamente cuáles lo son, debemos recurrir a otro
concepto del álgebra lineal: los valores y los vectores propios asociados a una matriz
L ∈ GL(2).
2.2. DINÁMICA LINEAL EN EL PLANO 47

Denición 7. Un vector v ∈ V , no nulo, es un vector propio de L ∈ GL(2) si existe un


escalar λ ∈ R tal que:
L(v) = λv
En este caso al escalar λ se le llama el valor propio asociado al vector propio.
El interés en encontrar vectores propios radica en que ellos determinan rectas invari-
antes.
Teorema 11. Si w es un vector propio de L ∈ GL(2), entonces la recta lw = {αw|α ∈ R}
es invariante por L.
Demostración: Supongamos que w es un vector propio de L, asociado a un autovalor
λ 6= 0. En este caso L(w) = λw. Entonces cualquier vector w̃, paralelo a w, también es
un vector propio, asociado a λ: Si w̃ = αw, para algún α 6= 0 entonces:
L(w̃) = L(αw) = αL(w) = αλw = λαw = λw̃.

Supongamos que u y v ∈ R2 son dos vectores propios de L, asociados a los valores


propios µ y ν ∈ R, respectivamente; esto es L(u) = µu y L(v) = νv . Si V = {u, v} son
linealmente independientes, forman una base de R2 . Así, cada punto p ∈ R2 tiene una
expresión única p = αu + βv , entonces:
L(p) = L(αu + βv) = L(αu) + L(βv) = αL(u) + βL(v) = αµu + βνv

Lema 1. Si V = {u, v} es una base de R2 formada por vectores propios de L, entonces


la representación de L en la base V :
 
µ 0
AV = .
0 ν

Demostración: Si denotamos por Q = Q(E; V ) la matriz de cambio de base entre la base


canónica E = {ê1 , ê2 } y la base V entonces:
AV = Q ◦ L ◦ Q−1

Este Lema nos indica que la base adecuada para estudiar la transformación L no es
la base canónica, sino la base formada por los vectores propios; ya que en esta base, la
transformación L está representada por una matriz diagonal.
¾Cómo calcular los vectores y los valores propios? Sean a, b, c y d cuatro números
reales tales que ad − cb 6= 0. Estos números determinan una transformación lineal invert-
ible:  
a b
A= ∈ GL(2)
c d
Para encontrar los valores propios de A debemos considerar el polinomio característico de
A, denido mediante la siguiente fórmula:

P (λ) = det(A − λId) = λ2 − (a + d)λ + (ad − bc)

El hecho que el determinante de la transformación A − λId sea nulo signica que ésta
no es invertible, y sugiere la existencia de algún vector v 6= O tal que (A − λId)(v) = O;
48 CAPÍTULO 2. HIPERBOLICIDAD

aunque no la garantiza. De ahí que sea un buen inicio para buscarlo: primero determinamos
las racíces del polinomio característico, P (λ) = 0, y después averiguamos si existe o no
un vector propio asociado.
En primer lugar, podemos observar que el 0 nunca es un valor propio de A, puesto que
det(A) = ad − bc 6= 0. Ahora bien, la fórmula general para resolver ecuaciones de segundo
grado nos indica las posibles soluciones de P (λ) = 0:
p
(a + d) ± (a − d)2 + 4bc
λ± =
2
Bien sabemos que las soluciónes son números reales si el discriminante de la ecuación:
D = (a − d)2 + 4bc es no negativo. Si D > 0 el polinomio P tiene dos raíces reales
diferentes: λ− y λ+ ∈ R. Cuando el discriminante es cero (D = 0) sabemos que existe una
única raíz de multiplicidad 2:
P (λ) = (λ − λ0 )2 .
Finalmente si D < 0, la ecuación√
no tiene solución en los números reales;√ pero sí en los
números complejos: λ = (a+d)+i −D
2
y su complejo conjugado λ̄ = (a+d)−i2
−D
, son raíces
de P .
Para obtener los vectores propios tenemos que trabajar un poco más. Supongamos que,
en efecto, el polinomio característico de A tiene dos raíces reales diferentes: λ y µ ∈ R.
De ser así, podemos establecer un sistema lineal de dos ecuaciones con las coordenadas
de un vector propio como incógnitas:
     
a b x λx (a − λ)x + by = 0
= ⇔ (2.1)
c d y λy cx + (d − λ)y = 0

Bien sabemos que este sistema de ecuaciones tiene una solución única cuando el determi-
nante del sistema es diferente de cero; sin embargo, en nuestro caso ½siempre es igual a
cero! Así, o bien no tiene solución, o hay una innidad de ellas. La buena noticia es que
el (0, 0) es solución del sistema. La mala noticia es que el (0, 0) no puede ser un vector
propio, pues en la denición se requiere que sea no nulo. Resolver el problema de si existen
o no vectores propios depende de los coecientes de la matriz.
Ahora es un buen momento para detenerse y estudiar tres casos particulares:
    

2 1 1 1 a b
A1 = , A2 = , A3 = ;
1 1 0 1 −b a
donde en A3 , los números a y b ∈ R.
El caso√ de A1 : El polinomio característico de A1 es: λ2 − 3λ + 1 y sus raíces son:
λ± = 3± 2
2
.

Armación:

Los vectores propios asociados a λ− y a λ+ son v− = ( −5+4
3
2
, 1) y v+ =
( 1+43 2
, 1), respectivamente.
Demostración: Consideremos primero la raíz λ+ . Para resolver el sistema (2.1) basta
considerar una de las dos ecuaciones. Así:
 √  √
3+ 2 3+ 2
2− 2
x + 2
y = 0
√ √
−1− 2
2
x = − 3+√2 2 y
x = 1+43 2 y
2.2. DINÁMICA LINEAL EN EL PLANO 49

PSfrag replacements
0
ϕ−1
ϕ
v+
v−
1 Figura 2.2.1. Base de vectores propios de A.

√ √
Una solución para y = 1 es x = 1+43 2 . Así, el vector v+√ = ( 1+43 2 , 1) es un vector propio
de A1 . Análogamente podemos obtener que v− = ( −5+4 3
2
, 1).
Los vectores {v− , v+ } son linealmente independientes. Basta vericar (ejercicio) que
si:
αv− + βv+ = O ⇐⇒ (α, β) = (0, 0)
Por lo tanto V = {v− , v+ } es una base de R2 .
La matriz de cambio de base, Q(E; V ) tiene la siguiente expresión:
√ !
− 5+43 2 1
Q= √
1+4 2
1 3

Entonces, Q ◦ A ◦ Q−1 es una matriz diagonal:


 
−1 λ+ 0
Q◦A◦Q =
0 λ−
Observe que:
0 < λ− < 0, 21 < 1 < 2, 2 < λ+
En la gura 2.2.1 colocamos los ejes que determinan la base de los vectores propios.
En la recta l− , que determina v− , la dinámica es muy sencilla:
An1 (v− ) = λn− v− → O cuando n → ∞

Esto es, el origen se comporta como un pozo, en l− . Por otro lado, en la dirección l+ ,
generada por v+ el comportamiento es distinto:
An1 (v+ ) = λn+ v+

Dado que λ+ > 1, λn+ → +∞, cuando n → ∞. Sin embargo, podemos tomar iteraciones
para atrás y concluir que:

1 ) (v+ ) = A1 (v+ ) = (λ+ ) v+ → O cuando n → ∞


(A−1 n −n −1 n

Es decir, A1 se comporta como una fuente en la dirección l+ . Cualquier otro punto v =


αv− + βv+ ∈ R2 tiene un comportamiento dinámico particular: su componente en la
50 CAPÍTULO 2. HIPERBOLICIDAD

Figura 2.2.1. A2 tiene un solo vector propio.

dirección v− tiende a cero y su componente en v+ tiende a +∞. Podríamos decir que


An1 (v) tiende al innito; y podríamos ser más precisos: su órbita recorre hipérbolas.
Armación: La orbita de v bajo A1 recorre la hipérbola TAL.
Demostración: LA DEMOSTRACIÓN
En general, este comportamiento se presenta siempre que hay dos vectores propios
linealmente independientes, uno asociado a un valor propio de valor absoluto menor que
uno y otro mayor que uno. Esta situación es bastante general, como veremos adelante y
de hecho, le da nombre a un cierto tipo de transformaciones lineales: sillas hiperbólicas.
El caso de A2 : No hay duda que el vector (1, 0) es un vector propio de A2 , y el valor
propio asociado es 1. Sin embargo, cualquier otro vector (x, y), donde y 6= 0, entonces:

A
2 2A 2 A
(x, y) −→ (x + y, y) −→ (x + 2y, y) → · · · → (x + ny, y) −→ (x + (n + 1)y, y) → · · ·

No hay otro vector propio; la única solución es (0, 0). Vea la gura 2.2.1
El caso de A3 : En este caso, la matriz A3 la podemos escribir de la siguiente forma:
rcos(2πt) rsen(2πt)
   
a b
A3 = =
−b a −rsen(2πt) rcos(2πt)

Para algunos r > 0 y t ∈ [0, 1)


El determinante de A3 es precisamente det(A3 ) = r 6= 0, así que se trata de una
transformación invertible. De hecho, es la composición de una rotación de ángulo 2πt con
una homotecia uniforme por r. Cuando t es múltiplo entero de 2π , esto es t = 2nπ para
alguna n ∈ Z, la transformación A3 simplemente es una homotecia uniforme por r; de
hecho la rotación de ángulo 2nπ es la identidad. Ahora bien, cuando t no es múltiplo
entero de 2π no existe ningún número real λ 6= 0 y un vector v 6= 0 tal que A(v) = λv .
Sin embargo, si existe un número complejo λ = a + ib que, efectivamente, satisface
que A(v) = λv , si escribimos al vector v como un número complejo v = v1 + iv2 , a partir
de sus coordenadas en la base canónica v = (v1 , v2 ). De esta manera es fácil vericar que:

(a + ib)(v1 + iv2 ) = av1 − bv2 + i(bv1 + av2 )

Observe que el número del lado derecho de la igualdad corresponde al vector (av1 −
bv2 , bv1 + av2 ) = A3 (v1 , v2 ). Y podemos ser mas explícitos si utilizamos la representación
2.2. DINÁMICA LINEAL EN EL PLANO 51

Figura 2.2.1 Cuando r < 1.

polar de los números complejos. Si z ∈ C existen t ∈ R y r > 0 tales que z = re2πt =


r cos(2πt) + irsen(2πt). Al número r se le conoce como el módulo de z y se denota por |z|.
Al número 2tπ se le conoce como el argumento de z y se le denota por Arg(z). Es cierto
que R ⊂ C; cuando z es un número real, z = x + i0, entonces |z| no es más que el valor
absoluto de x y el Arg(z) = 0.
Ejercicio: El campo de los números complejos C es un espacio vectorial sobre C. Una
transformación lineal L : C → C, entonces es de la forma T (z) = λz , para algún λ ∈ C.
A partir de la correspondencia z = x + iy → (x, y) que utilizamos en el párrafo anterior,
la transformación T induce una transformación lineal L : R2 → R2 . Demuestre que la
matriz asociada a L de acuerdo a la base canónica de R2 es de la forma de A3
Cuando λ = a+ib es un autovalor, entonces cualquier vector de R2 es un vector propio
de A3 , pues de hecho A3 (x + iy) = λ(x + iy). En esta situación no podemos descomponer
el plano en rectas invariantes. De cualquier manera, cuando r < 1 el origen es un pozo;
y cuando r > 1 es una fuente. En ambos casos, las órbitas recorren espirales logarítmicas
al acercarse, o alejarse, al origen, respectivamente; vea la Figura 2.2.1.
Cuando r = 1 la situación es diferente. El origen no es más un pozo ni una fuente. De
hecho, cualquier círculo de radio R > 0 es invariante.
Observe que si (x, y) satisface la ecuación del círculo

x2 + y 2 = R 2

Entonces, A3 (x, y) también:

(cos(2πt)x + sin(2πt)y)2 + (− sin(2πt)x + cos(2πt)y)2 =

· · · = x2 + y 2 = R 2
Si t = p/q , con p, q ∈ Z primos relativos, entonces cualquier punto diferente del origen
es un punto periódico de periodo q .
Si t es un número irracional, entonces la órbita de cualquier punto es densa en el
circulo que pertenece. Ver capítulo 2.
Transformaciones hiperbólicas: Hemos visto ya que el origen, O ∈ R2 , siempre es un
punto jo de cualquier transformación lineal L ∈ GL(2). Nos podemos preguntar ahora:
¾cuáles puntos de R2 , al iterarlos, convergen a O? O bien, de todos los puntos de R2 cuáles
son tales que ω(q) = O? ¾y cuáles α(q) = O?
52 CAPÍTULO 2. HIPERBOLICIDAD

Para responder esa pregunta denamos los siguientes subconjuntos de R2 :

W s = {p ∈ R2 | ω(p) = {O}}
W u = {p ∈ R2 | α(p) = {O}}

Lema 3. Si L es una transformación lineal, entonces:


W s = {p ∈ R2 |||Ln (p)|| → O cuando n → +∞}
W u = {p ∈ R2 |||Ln (p)|| → O cuando n → −∞}

Demostración: Observe que si p es tal que su ω -limite es precisamente O, signica que


la sucesión lı́mn→∞ Ln (p) = O. Para vericar la segunda igualdad, recuerde que si L es
invertible, entonces αL (p) = ωL−1 (p).
Para poder caracterizar completamente estos subconjuntos es necesario considerar un
cierto tipo de transformaciones lineales.
De entre todas las transformaciones lineales en GL(2) nos interesan de sobremanera
aquellas que tienen dos vectores propios diferentes, y de entre estas, las que el módulo
de cada uno de sus valores propios es diferente de 1, al grado que estas transformaciones
tienen nombre: transformaciones hiperbólicas.
Denición 8. Una transformación L ∈ GL(2) es hiperbólica si tiene dos valores propios
λ y µ tales que |λ| =
6 1 y |µ| =
6 1.

No hay ninguna restricción sobre si los valores propios son iguales o diferentes: es
posible que λ = µ. Por otro lado, si bien utilizamos una representación de L en forma
de matriz para calcular los valores y vectores propios, estos sólo dependen de L. Por otro
lado, hay dos tipos de los valores y vectores propios de una transformación hiperbolica,
de acuerdo al valor absoluto del valor propio correspondiente.
Denición 9. Si λ es un valor propio asociado a un vector propio v y si |λ| < 1 entonces
λ es un valor propio estable y v un vector propio estable. Al contrario, si |λ| > 1, entonces
tanto λ como v son inestables.
Lema 2. Si L ∈ GL(2) es hiperbolica, existe una base de R2 formada por vectores propios
de L.
Demostración: HAY QUE TRABAJAR.

Corolario 3. Podemos descomponer R2 en la suma directa de dos subespacios vectoriales


R2 = E s ⊕ E u , invariantes por L, donde E s está generado por los vectores propios estables
y E u por los vectores propios inestables.
Demostración: NO HAY QUE TRABAJAR MUCHO.

Corolario 4. W s (O) = E s y W u (O) = E u .

Ejercicio: Si L es hiperbólica y sus valores propios son iguales, entonces cualquier recta
que pasa por O es invariante bajo L.
Sea L una transformación lineal hiperbólica. Dado que bastan dos vectores lineal-
mente independientes para generar todo R2 , tenemos pocas opciones. Si los dos vectores
2.2. DINÁMICA LINEAL EN EL PLANO 53

propios de L: v1 y v2 son estables, entonces podemos armar que lı́mn→∞ Ln (p) = O, para
cualquier punto p ∈ R2 . Para vericar esto basta escribir p = αv1 + βv2 . Entonces,
Ln (p) = L(αv1 + βv2 ) = αLn (v1 ) + βLn (v2 ) = λn1 (αv1 ) + λn2 (αv2 ).

Si denotamos por λ = máx{|λ1 |, |λ2 |}, tenemos que λ < 1, y podemos concluir que:
||Ln (p)|| < λn ||p||, para toda n.

En esta situación el origen es un pozo, pues la órbita de cualquier punto en R2 converge


al origen.
Corolario 5. Si los dos vectores propios de L son estables, entonces E s = R2 y E u = {O}.
Si los dos vectores propios de L son inestables, entonces los dos vectores propios de
L son estables. Por lo tanto lı́mn→∞ L−n (p) = O, para cualquier punto p ∈ R2 . En este
−1

caso el origen es una fuente.


Corolario 6. Si los dos vectores propios de L son inestables, entonces E u = R2 y E s =
{O}.
Una situación diferente ocurre cuando un vector propio vs es estable y el otro, vu ,
inestable. El Teorema 11 garantiza que existen ls y lu dos rectas invariantes; una para
cada vector propio vs y vu , respectivamente.
Si restringimos la dinámica de L a la recta ls resulta que el origen es un pozo. De
la misma manera, el origen es una fuente en lu . El ejemplo A1 que estudiamos algunos
párrafos atrás es un ejemplo concreto de esta situación.
Denición 10. Si L es una transformación lineal hiperbólica, con un vector propio estable
y uno inestable decimos que el origen es una silla hiperbólica.
Corolario 7. Si los dos vectores propios de L son inestables, entonces E s = ls y E s = lu .
Podemos ir un paso adelante en la clasicación de los sistemas dinámicos lineales.
Teorema 12. Si L y S son dos transformaciones lineales hiperbolicas y en ambas el origen
es un pozo, o una fuente entonces son topológicamente equivalentes.
Demostración: HAY QUE TRABAJAR

Corolario 8. Si L y S son dos transformaciones lineales hiperbolicas y en ambas el origen


es una silla hiperbólica, entonces son topológicamente equivalentes.
Demostración: Podemos elegir H como en la demostración del teorema anterior, de manera
que si vs es el vector propio estable de L, entonces H(vs ) = ws , el vector propio estable
de S y lo mismo para los vectores propios inestables.
Podemos cosechar todo el esfuerzo que gastamos a lo largo de esta sección en el sigu-
iente teorema que clasica la dinámica de todas las transformaciones lineales hiperbólicas
del plano:
Teorema 13. Si L es una transformación lineal hiperbólica, entonces es conjugada a una
de las siguientes tres transformaciones:
1   1 
2
0 2 0 2
0
0 12 0 2 0 2
54 CAPÍTULO 2. HIPERBOLICIDAD

2.3. Dinámica local; la dinámica de la derivada

El objeto principal de este capítulo son los sistemas dinámicos denidos en algún sub-
conjunto del plano euclidiano. En esta sección estudiaremos la dinámica local, alrededor
de los puntos jos y trataremos de generalizar el Teorema [cual?] del capítulo 1 que nos
informa sobre el comportamiento de las órbitas alrededor de un punto jo p, de acuerdo
con el valor absoluto de su derivada.
Con este motivo deberemos introducir al personaje principal y al mismo tiempo la
herramienta fundamental de esta sección, un viejo conocido nuestro del cálculo diferencial:
la derivada.
Los subconjuntos abiertos de R2 tienen la peculiaridad de que, alrededor de cualquier
punto existe una vecindad homeomorfa, es decir idéntica desde el punto de vista de la
topología, a una vecindad del origen en R2 ; además, son el dominio natural de las funciones
diferenciables, como veremos más adelante.
Sea M ⊂ R2 un abierto y sea f una transformación f : M → R2 , inyectiva y continua,
con la particularidad de que f (M ) ⊂ M ; para así, poder seguir iterando. Supondremos,
además, que f es invertible y f −1 : f (M ) → M también es continua; de esta manera
podremos estudiar también las órbitas hacia el pasado. En pocas palabras, sea f es un
homeomorsmo entre M y su imagen f (M ) ⊂ M .
Sea p ∈ M , un punto jo de f , es decir f (p) = p y Bε (p) la bola de radio ε > 0 alrededor
de p. Caracterizar la dinámica local de f alrededor de p es describir el comportamiento
de las órbitas de los puntos en Bε (p), para algún ε > 0. En la sección anterior observamos
que, en principio, hay al menos tres fenómenos diferentes: si f es lineal e hiperbólica, p es
un pozo, una silla o una fuente; (ver Teorema 13). Nos gustaría obtener una descripción
semejante para un conjunto más grande de transformaciones que el de las lineales.
A partir de las nociones de ω y α-limite, podemos denir los siguientes subconjuntos
de Bε (p):

Denición 11. El conjunto estable local de tamaño ε de p es el conjunto:

Wεs (p) = {x ∈ Bε (p)| ω(x) = {p}},

El conjunto inestable local de tamaño ε de p es el conjunto:

Wεs (p) = {x ∈ Bε (p)| α(x) = {p}},

Estos conjuntos son no vacíos, siempre: p ∈ Wεs (p) y p ∈ Wεu (p), dado que f (p) = p.
En palabras: los puntos en Bε (p) cuya órbita positiva converge a p pertenecen a Wεs (p) y
los que su órbita negativa converge a p pertenecen a Wεu (p). Vale decir que en Bε (p) puede
haber puntos cuya órbita se escapa de Bε (p), y en principio, nada excluye la existencia
de órbitas periódicas o de otros puntos jos en Bε (p).
No es dicil convencerse de la siguiente armación:

Lema 3. Un punto jo es un pozo si existe ε > 0 tal que Wεs (p)) = Bε (p); y es una fuente
si existe existe ε > 0 tal que Wεu (p)) = Bε (p).

Demostración: Ejercicio.
2.3. DINÁMICA LOCAL; LA DINÁMICA DE LA DERIVADA 55

2.3.1. Revisitando la derivada


Hemos aprendido que la derivada de una función, evaluada en un punto determinado,
corresponde a la transformación lineal que mejor la aproxima, en una vecindad de dicho
punto. Una inquietud aparece a primera vista: las transformaciones lineales están denidas
siempre en un espacio vectorial y siempre jan el origen. ¾Cómo es posible aproximar con
una transformación lineal a una función f , denida en un subconjunto U ⊂ R2 que no es,
necesariamente, un espacio vectorial? Además, cómo aproximarla en un punto p tal que
f (p) 6= p? Es necesario establecer ciertos cambios de coordenadas adecuados, para poder
establecer esta comparación.
Sean U y V subconjuntos abiertos de R2 y f : U → V una función continua. Si
p ∈ U , entonces f (p) ∈ V , por denición. Podemos denir dos traslaciones: ϕ : U → R2
y ψ : V → R2 tales que: ϕ(x) := x − p, y ψ(x) := x − f (p); que podemos interpretar
como cambios de coordenadas, alrededor de U y alrededor de V , respectivamente. La
primera lleva el abierto U en U 0 := ϕ(U ) y ϕ(p) = 0; la segunda traslada el abierto V en
V 0 = ψ(V ), con ψ(f (p)) = 0. Ambos U 0 y V 0 son abiertos que contienen al origen de R2 .
Utilizando estas dos funciones auxiliares, podemos denir una tercera: f˜ : U 0 → V 0 ,
de la siguiente manera: f˜ = ψ ◦ f ◦ ϕ−1 . Ahora si, tenemos una función que ja al origen
de R2 : f˜(0) = 0 y esta sí la podemos comparar con una función lineal.
Supongamos que existe A : R2 → R2 una función lineal, tal que
|f˜(v) − A(v)|
lı́m =0
|v|→0 |v|

esto es, una función lineal que aproxima a f˜ localmente.


Utilizando el cambio de coordenadas: x = ϕ−1 (v), la expresión se convierte en:

|f˜(v) − A(v)| |ψ ◦ f (x) − A(ϕ(x))|


= =0
|v| |ϕ(x)|
entonces,
|ψ(f (x)) − A(x − p)|
lı́m =0
|x−p|→0 |x − p|
pero ψ(y) = y − f (p), entonces
|f (x) − f (p) − A(x − p)|
lı́m =0
|x−p|→0 |x − p|
Que es la noción de derivada que conocemos:
Denición 12. Una función f : R2 → R2 es diferenciable en p ∈ R2 si existe una
transformación lineal A : R2 → R2 tal que: Para toda ε > 0 existe δ > 0 tal que si
|x − p| < δ entonces:
|f (x) − f (p) − A(x − p)|

|x − p|
A la transformación A se le denomina la derivada de f en el punto p y se le denota por
Dp f .

Es importante mencionar una diferencia: la derivada actúa en un espacio diferente al


espacio en donde está denida la transformación f . A ese espacio se le conoce, de manera
técnica, como el espacio tangente a U en p y se trata de un espacio vectorial de dimensión
56 CAPÍTULO 2. HIPERBOLICIDAD

2; por lo tanto, es isomorfo a R2 . El espacio tangente a p de U se le denota por Tp U ; y


entonces, Dp f : Tp U → Df (p) V .
Dado un abierto M ⊂ R2 , y f : M → M un homeomorsmo, para poder utilizar la
derivada en nuestro estudio de los sistemas dinámicos obviamente es necesario que f sea
diferenciable en todos los puntos de M . En este caso, decimos que f es diferenciable. Si
además, f es biyectiva y f −1 también es diferenciable decimos que f es un difeomorsmo
de M . En general, tenemos la siguiente denición:

Denición 13. Sean U ⊂ R2 y V ⊂ R2 y f : U → V una transformación biyectiva tal


que tanto f , como f −1 son funciones continuas y diferenciables, entonces decimos que f
es un difeomorsmo y que U y V son difeomorfos.
En el caso de un difeomorsmo, es verdad que Dff−1 (p) = (Dfp ) , y por lo tanto, la
−1

derivada es una transformación lineal invertible.


Para obtener la representación matricial de la derivada Dp f debemos escribir p y f
en las coordenadas canonicas: p = (x, y) y f (x, y) = (f1 (x, y), f2 (x, y)); y por medio de
todas las derivadas parciales obtenemos:
!
∂f1 ∂f1
∂x p
| ∂y p
|
Dp f = ∂f2 ∂f2
∂x p
| ∂y p
|

Si además, todas las derivadas parciales ∂x∂fi


j
|p son funciones continuas en p, decimos
que f es de clase C 1 ; y esto signica que la matriz cambia continuamente cuando varía
el punto p.

2.3.2. El teorema de Hartman-Grobman


El Teorema de Hartman-Grobman establece cuándo, en la vecindad de un punto jo,
la transformación f y su derivada Dp f tienen la misma dinámica local. Para enunciarlo
correctamente necesitamos precisar dos nociones: ¾qué signica que dos sistemas dinámi-
cos tengan el mismo comportamiento local? ¾qué hipótesis son necesarias para que el
teorema sea verdadero?
Para comparar dos sistemas dinámicos y determinar si estos son equivalentes denimos
ya la noción de equivalencia topológica : dos sistemas dinámicos son equivalentes si existe
un homeomorsmo del espacio que intercambia las órbitas de un sistema dinámico en las
del otro (ver Capítulo II). Esta noción nos será muy útil ahora que queremos comparar
la dinámica de dos transformaciones en una vecindad de un punto jo, pero para eso,
debemos realizar algunas modicaciones pertinentes en su denición. Cuando hablamos
de dinámica local nos interesa saber qué sucede alrededor de un punto y no en todo el
espacio; y en topología, alrededor de un punto signica en una alguna vecindad.
Consideremos dos sistemas dinámicos f : M → M y g : N → N . Supongamos
que p ∈ M es un punto jo de f , (f (p) = p); y que q ∈ N es un punto jo de g :
(g(q) = q); y nalmente tomemos dos vecindades: U ⊂ M de p y V ⊂ N de q . Si existe
un homeomorsmo h : U → V tal que:

g(y) = h ◦ f ◦ h−1 (y),

para toda y ∈ V , entonces decimos que f y g son conjugados localmente en un U y V . De


ser así, podemos determinar cuál es la dinámica de g en V , a partir de la dinámica de f
2.3. DINÁMICA LOCAL; LA DINÁMICA DE LA DERIVADA 57

en U y viceversa. Cabe observar que sólo tenemos información de los puntos de U y V y


si la órbita de un punto se escapa del dominio, entonces ya no podemos armar nada.
Por otro lado, es necesario establecer el tipo de puntos jos de f para los cuales el
Teorema de Hartman-Grobman es verdadero.
Denición 14. Un punto jo p ∈ M de f es un punto jo hiperbólico si la derivada,
Dp f , es una transformación lineal hiperbólica; esto es, Dp f tiene dos valores propios λ y
µ, y ninguno tiene módulo 1.

Cuando una transformación lineal es hiperbólica, las órbitas que convergen al punto
jo, ya sea para el pasado o para el futuro, se aproximan al punto jo exponencialmente,
dependiendo del módulo del autovalor correspondiente. Si Dp f es hiperbólica, dado que
f y Dp f son cercanas, es dicil evitar que f tenga esta caracteristica.

Teorema 14. (Hartman-Grobman) Si p es un punto jo hiperbólico de f , existen dos


vecindades U (p) ⊂ M y V (O) ⊂ R2 y un homeomorsmo h : U → V tal que: h ◦ f =
Dp f ◦ h(q), para toda q ∈ U ; es decir, h es una conjugación local.

No nos detendremos en la demostración de este teorema. Si bien se trata de una


demostración interesante, esta requiere de conocimientos técnicos más avanzados. Si el
lector está interesado, podrá encontrar una versión accesible en el libro [?], O PROBA-
BLEMENTE EN UN APÉNDICE A ESTE LIBRO. Lo que nos interesa ahora son sus
consecuencias.
Teorema 15. Si p es un punto jo hiperbolico de f y todos los valores propios de Dp f son
estables entonces, p es un pozo. Análogamente, si todos los valores propios son inestables,
p es una fuente.

Demostración. Dado que p es un punto jo hiperbólico, Dp f es una transformación lineal


hiperbólica. El Lema 2 garantiza que existe una base de R2 formada por vectores propios
de Dp f . Sea {v1 , v2 } esa base y sean λ1 y λ2 los valores propios asociados, respectiamente.
Por otro lado, el teorema de Hartman-Grobman garantiza que existe: una vecindad
U (p) ⊂ M , una vecindad V (O) ⊂ R2 y un homeomorsmo h : U → V tal que h ◦ f =
Dp f ◦ h. Para demostrar que p es un pozo debemos garantizar que la órbita de cualquier
punto q ∈ U converge a p, es decir:

lı́m f n (q) = p para toda q ∈ U


n→∞

. Si q ∈ U entonces h(q) ∈ R2 y tiene una expresión como combinación lineal de {v1 , v2 },


digamos h(q) = (α, β). Dado que f n (q) = h−1 ◦ (Dp f )n ◦ h(q), basta vericar que
Dp f n (α, β) → O cuando n → +∞, pues h−1 (O) = p. De hecho, por hipótesis, |λ1 | < 1 y
|λ2 | < 1, entonces
Dp f n (α, β) = (λn1 α, λn2 β) → O,
y por lo tanto p es un pozo. Analogamente, si λ1 y λ2 son inestables, considerando itera-
ciones para el pasado podemos concluir que p es una fuente.
Teorema 16. Si p es un punto jo hiperbólico de f , y Dp f tiene un valor propio estable
y el otro inestable, entonces p es localmente conjugado a una silla hiperbólica lineal.
Demostración: Ejercicio.
58 CAPÍTULO 2. HIPERBOLICIDAD

Corolario 9. Si p es un punto jo hiperbólico, entonces existe una conjugación local entre
una vecindad de p y una vecindad del cero, para alguna de las siguientes tres transforma-
ciones lineales: 1    1 
2
0 2 0 2
0
1
0 2
0 2 0 2
Otra consecuencia del Teorema de Hartman-Grobman es que podemos describir, al
menos topológicamente, los conjuntos estables e inestables locales, de los puntos jos
hiperbólicos.
Sea p ∈ M un punto jo hiperbólico de un difeomorsmo f : M → M . Sean U , V y h
como en el Teorema de Hartman-Grobman (Teorema 14).
Teorema 17. Existen ε > 0 y δ > 0 tal que:
1. Wδs (p) = h−1 (E s ∩ Bε (0))
2. Wδu (p) = h−1 (E u ∩ Bε (0))
Demostración: Denotemos por A = Dp f : R2 → R2 . Dado que p es hiperbólico, el Teorema
3 nos indica que podemos descomponer R2 = E s ⊕ E u , donde E s y E u son subespacios
invariantes por A.
Sea ε > 0 tal que Bε (O) ⊂ h(U ). Como h es continua, existe δ > 0 tal que h(Bδ (p)) ⊂
Bε (O).
Para demostrar que Wδs (p) = h−1 (E s ∩Bε (0)), debemos vericar, primero que Wδs (0) ⊂
h (E s ∩ Bε (0)). Sea x ∈ Wδs (0), entonces h(x) ∈ Bε (0) ⊂ V ⊂ R2 . Dado que f n (x) → p,
−1

cuando n → +∞ entonces (Dp f )n (h(x)) → 0. Por lo tanto h(x) ∈ E s ∩ Bε (0). Ahora


bien, para demostrar que h−1 (E s ∩ Bε (0)) ⊂ Wδs (0), tomemos v ∈ E s ∩ Bε (0). Entonces
x = h−1 (v) ∈ U , y además f n (x) → p cuando n → +∞.
Un argumento análogo demuestra el inciso 2.
Este teorema está enunciado en su forma más general, pues contempla el caso cuando el
punto jo es un pozo o una fuente; basta aclarar que un abierto de dimensión 0 corresponde
a un punto aislado.
Figura: Los conjuntos estables e inestables.
Teorema 18. Wεs (p) es invariante para el futuro y Wεu (p) es invariante para el pasado.

Órbitas periódicas hiperbólicas. Es posible generalizar un paso los Teoremas 9 y 17,


para órbitas periódicas de cualquier periodo. Para esto basta notar que si p ∈ M es un
punto periódico de periodo k ∈ N, entonces cada elemento de la órbita de p, esto es p, f (p),
f 2 (p), . . . f k−1 (p) son puntos jos del difeomorsmo f k . Además, no es difícil vericar que
Dp (f k ) = (Dp f )k .

2.4. Dinámica global.

Desde que Poincaré inició el estudio de esta rama de las matemáticas, allá por la década
de los ochentas del siglo XIX, se ha tratado entender el comportamiento de las órbitas
de, si no de todos, de la gran mayoría de los sistemas dinámicos; y a la fecha todavía se
conjeturan respuestas. Incluso en nuestro contexto, los sistemas dinámicos denidos en
el plano, habitan ejemplares que aún se resisten a revelar algunos de sus misterios. La
familia de Hénon:
(x, y) 7→ (a + x2 + by, x)
2.4. DINÁMICA GLOBAL. 59

para valores cercanos a a = 1,4 y b = 0,3, por ejemplo, es uno de ellos.


Sin embargo, en los más de cien años que lleva la teoría, bastante se ha descubierto
y bastante se ha construido: Además de las transformaciónes lineales, que bien hemos
descrito en las páginas anteriores, se conoce muy bien la dinámica de diversas categorías de
sistemas dinámicos. Entre ellas, los sistemas de Morse-Smale, la herradura, y los Sistemas
de Anosov, nos servirán como guia, a lo largo de esta sección, para esbozar algunos
conceptos fundamentales.
Hasta ahora hemos estudiado el comportamiento local de un sistema dinámico difer-
enicable, en una vecindad (posiblemente muy pequeña) alrededor de sus puntos jos hiper-
bólicos. El siguiente paso es tratar de averiguar sus propiedades de carácter global: ¾dónde
se acumulan las órbitas de todos los puntos? ¾Qué características tiene dicho conjunto?
¾Hay órbitas periódicas? ¾puntos jos? ¾qué otros fenómenos pueden aparecer?
Para esto, debemos recurrir a la contraparte global de los conjuntos estables e inesta-
bles que ya denimos.

2.4.1. Los conjuntos estables e inestables globales


Sea M un subconjunto abierto de R2 y f : M → M un sistema dinámico diferenciable.
Si p ∈ M es un punto jo hiperbólico de f , podemos distinguir entre los puntos de M
aquellos tales que su ω -limite es precisamente p y los que su α-límite es precisamente p;
estos conjuntos se llaman conjunto estable y conjunto inestable global de p, y se denotan
por W s (p) y W u (p), respectivamente. En notación:

W s (p) = {x ∈ M |ω(x) = {p}},

W u (p) = {x ∈ M |α(x) = {p}}.


El Corolario 9 nos garantiza que hay sólo tres tipos de puntos jos hiperbólicos: los
pozos, las fuentes y las sillas. Los pozos y las fuentes son de una naturaleza muy similar;
de hecho, una fuente para f es una pozo para su inversa, f −1 , y viceversa. Así, podemos
reducir nuestro estudio a describir los conjuntos estables e inestables globales de dos tipos
de puntos jos hiperbólicos: los pozos y las sillas.

Las sillas hiperbólicas


Sea M ⊂ R2 un abierto y f : M → M un difeomorsmo tal que p ∈ M es un
punto jo hiperbólico de tipo silla. Supongamos además que Dp f preserva la orientación.
De hecho, si este no fuera el caso, podríamos estudiar f 2 en el lugar de f ; y entonces
Dp (f 2 ) = (Dp f )2 , preserva orientación.
Ejercicio: Demuestra que f y f 2 tienen los mismos α y ω-limites. (HAY UN EJERCICIO
PARECIDO EN EL CAPÍTULO 2).
El Teorema 17 nos describe el conjunto estable de p en una vecindad alrededor del
punto jo, a través de la dinámica de la derivada en el subespacio estable correspondiente;
precisamente, nos indica que existen ε > 0 y δ > 0 tales que:

Wεs (0) = h−1 (E s ∩ Bδ (0)) ⊂ Bε (p)

donde h : Bε (p) ⊂ M → Bδ (O) ⊂ R2 es una conjugación local. Nuestra tarea, ahora, será
extender esta información, a través de la dinámica de f a todo el espacio.
60 CAPÍTULO 2. HIPERBOLICIDAD

Para esto, nos apoyaremos en un hecho simple y casi obvio: si la órbita de un punto
x ∈ M converge a p, eventualmente tiene que entrar en la bola Bε (p), donde conocemos
perfectamente lo que sucede.
Lema 4. Si x ∈ M es tal que f n (x) → p entonces existe n ∈ N tal que f n (x) ∈ Wεs (p).
Demostración. Observe que Bε (p) es un abierto que contiene a p. De la denición de
sucesión convergente sabemos que si f n (x) → p, entonces existe n ∈ N tal que f m (x) ∈
Bε (p) para toda m > n. Ahora bien, y = f n (x) ∈ Bε (p) y ω(y) = {p}. Por lo tanto
y ∈ Wεs (p).

Es verdad que en la situación del lema anterior, f m (x) ∈ Wεs (p) para toda m > n. Nos
interesa encontrar un subconjunto D ⊂ Wεs (p) de manera que contenga sólo un punto de
cada órbita que converge a p. A un subconjunto con esta característica se le conoce por
el nombre de dominio fundamental del conjunto estable global W s (p).
Proposición 14. Si p es un a silla hiperbolica, existe un dominio fundamental de W s (p).
Demostración. Primero construyamos un dominio fundamental para la derivada. Sea A =
Dp f ; como p es una silla jo hiperbólico de f , entonces el orígen O es una silla hiperbólica
para A (Teorema de Hartman-Grobman). Entonces el Corolario 3 nos garantiza que R2 =
E s ⊕ E u , dos rectas generadas por los vectores propios de A. Sea 0 < β < δ y sea
V = Bδ (O). Observe que A(V ) es una elispe, más delgada que V en el eje E s y más
larga en el eje E u , debido a que A contrae en la dirección de E s y expande en E u . VER
DIBUJO.
. Podemos considerar un subconjunto D ...el dominio fundamental del W s (p).
supongamos que
Observe que la dimensión de E s es 1 y por lo tanto: E s ∩ Bδ (0) = (−δ, δ). Además, h
es un homeomorsmo y entonces Wεs (0) es una curva parametrizada por (−δ, δ).
Tomemos un punto q ∈ Wεs (p), tal que q 6= p. Entonces f (q) ∈ Wεs (p) (Teorema 18).
Debido a que Dp f preserva la orientación, podemos suponer que q y f (q) están del
mismo lado de . . .
Estos dos puntos determinan un pedazo de curva en Wεs (p)
Es la imagen contínua e inyectiva de R en M .

Los pozos
supongamos que M ⊂ R2 , f : M → M es un difeomorsmo y que p ∈ M es un punto
jo hiperbólico de índice 2; es decir, una pozo. El Teorema 17 nos indica que existe ε > 0
tal que:
Wεs (0) = h−1 (E s ∩ Bδ (0))
COmo es un pozo, E s es isomorfo a R2 y ahí podemos hacer algunas observaciones.
Sea V = Bδ (0), donde se vale el teorema 17.
Descripción de la fosa de atracción y comentarios sobre su frontera.
La fosa de atracción es un abierto de R2 .
Propiedades: son conjuntos invariantes de f .
Denición de dominio fundamental.
Son diferenciables, pero esto es un teorema más avanzado; sin embargo justica la idea
de que son curvas de la dimensión correspondiente.
2.4. DINÁMICA GLOBAL. 61

2.4.2. Los sistemas Morse-Smale


El conjunto límite
Para esto, es necesario hablar del conjunto límite L(f ). En el capítulo anterior de-
scribimos los conjuntos donde la órbita de un punto x ∈ M se acumula: el α-límite (para
el pasado) y el ω -límite (para el futuro). El conjunto límite de f está formado por la unión
los α-límite y ω -límites, de todos los puntos de M . Esto es:
[
L(f ) = α(x) ∪ ω(x)
x∈M

Este es el conjunto que nos interesa describir, puesto que ahí radica la dinámica. De hecho,
no es difícil convencerse que si x ∈ M − L(f ) entonces, su órbita converge a L(f ).
Teorema 19. Si denotamos por Per(f ) = {p ∈ M | p es periódico }, entonces Per(f ) ⊂
L(f ).
Demostración. Ejercicio.
Recurrencia; la noción de recurrencia debemos introducirla en este lugar. No se ha
hablado de ella en todo el libro.
Teorema 20. Para cada punto p ∈ L(f ), para toda vecindad V , de p, existe n ∈ Z tal
que f n (V ) ∩ V 6= ∅.
Demostración. Si p ∈ L(f ) entonces, p ∈ α(x) ó p ∈ ω(x), para alguna x ∈ M . Supong-
amos que p ∈ ω(x). Entonces, existe una sucesión nk ∈ N no acotada, tal que f nk (x) → p
cuando k → +∞. Sea K ∈ N tal que f nk (x) ∈ V , para toda k > K . Entonces,
y := f nK (x) ∈ V y f nK+1 (x) ∈ V . Observa que el punto f nK+1 (x) = f nK+1 ◦ (f nK )−1 (y) =
f nK+1 −nK (y) y como n = nK+1 − nK ∈ Z, demostramos que y ∈ V y f n (y) ∈ V . Por lo
tanto y ∈ f n (V ) ∩ V .

Un experimento imaginario
Realicemos un experimento imaginario: Para construir este modelo es necesario tener
a mano una esfera imantada, grande y redonda, un cronómetro y un balín. Supongamos
que la esfera se encuentra otando frente a nosotros. Con el cronómetro en mano, colo-
camos el balín en algún punto de la supercie de la esfera, p. Este, debido a la fuerza
de gravedad, se deslizará, obviamente hacia abajo, siempre en contacto con la esfera.
Cuando el cronómetro marque un segundo, marcamos la posición del balín f (p); cuando
marque 2 con f 2 (p), etcétera. Ya tenemos un sistema dinámico discreto denido sobre
la esfera. Podemos observar algunas de sus características: Hay dos puntos jos. Si colo-
camos el balín en el polo sur, es decir, el punto más bajo de la esfera, marcado con el
nombre de ps en la Figura ??, este permanecerá inmóvil, en equilibrio; así, ω(ps ) = {ps }.
Un comportamiento similar se produce si colocamos cuidadosamente el balín en el po-
lo norte, pn ; y entonces ω(pn ) = {pn }. Sin embargo, cualquier error al colocar el balín
aproximadamentesobre el polo norte lo arrastrará, irremediablemente hacia el polo sur,
donde terminará por quedarse quieto. De hecho, ω(p) = {ps }, para cualquier condición
inicial p 6= pn . Podemos deducir, permitiendo correr el tiempo al revés, que el α-límite
de cualquier punto p 6= ps es precisamente {pn } y que α(ps ) = {ps }. De esta manera ya
tenemos un retrato bastante preciso de la dinámica de esta transformación y el conjunto
límite de f es: L(f ) = {ps , pn }.
62 CAPÍTULO 2. HIPERBOLICIDAD

Observe que W s (S) ∩ W u (N ) = E − {ps , pn }


La familia de los sistemas dinámicos Morse-Smale se comportan de manera muy sim-
ilar al experimento imaginario que acabamos de describir y una de sus características
fundamentales es que el conjunto límite L(f ) está formado por una cantidad nita de
puntos periódicos (jos), todos hiperbólicos.
En general, si S es una supercie en R3 y si denotamos por h(x, y, z) = z a la función
altura, el gradiente −∇h nos indica un vector tangente a S , que apunta hacia abajo.
Siguiendo este vector, en cada punto, podemos encontrar la trayectoria del supuesto balín
y encontrar la posición en la que se encontrará al transcurso de una unidad de tiempo.
En general, a los sistemas así denidos se les conoce con el adjetivo de gradiente pero
bien se les podría llamar, sistemas de Morse. Para entender la parte de Smale debemos
extender nuestro experimento imaginario a otras supercies.
Es importante remarcar que la esfera, en nuestro modelo de juguete no tenga abol-
laduras muy grandes, pues, de ser así, podrían aparecer otros puntos jos; como vemos en
la gura ??. De hecho, si la esfera es como en la gura ??, aparecen dos puntos jos más:
un pozo p0s y una silla s, así L(f˜) = {pn , ps , p0s , s}. Sin embargo, no es difícil convencerse,
al menos intuitivamente, que si movemos ligeramente la supercie S de su lugar, e incluso
modicamos un poco su supercie, el conjunto límite de la nueva transformación tendrá,
justamente, cinco puntos jos con las mismas características que {pn , ps , p0s , s}.
Si en lugar de una esfera consideramos un toro y este lo colocamos como en la gura ??,
podemos denir un sistema dinámico similar. Llamemos T al toro y g : T → T al sistema
gradiente que dene la función altura. Además de los dos puntos jos que corresponden al
polo norte (fuente) y al polo sur (pozo), encontramos dos nuevos puntos jos de tipo silla:
s1 y s2 . Cabe observar un detalle más: el conjunto estable de s2 coincide con el conjunto
inestable de s1 , esto es:

{p ∈ T |ω(p) = s1 , p 6= s1 } = {p ∈ T |α(p) = s2 , p 6= s2 }

A este fenómeno se le conoce como una conexión entre dos sillas. En principio, esta co-
incidencia no representa ningún problema para denir la transformación, sin embargo,
podemos realizar modicaciones arbitrariamente pequeñas que destruyan esta caracterís-
tica; de hecho, basta ladear el toro ligeramente. En la gura 2.4.2 podemos observar una
de estas modicaciones.
Una de las intenciones de esta familia de sistemas dinámicos es que su dinámica
no cambie bajo pequeñas perturbaciones. Dado que una conexión de sillas es demasiado
frágil, debemos omitirlas de la denición. Así, decimos, un sistema de gradiente es de
Morse-Smale si no presenta ninguna conexión de sillas.
Denición ocial: El chain recurrent set es igual al conjunto de órbitas periodicas, es
nito y cada elemento es hiperbólico; además, las intersecciones entre variedades estables
e inestables son transversales.
Observe que en el ejemplo de la esfera, la transformación polo norte-polo sur es de
Morse-Smale, pues carece de sillas, y por ende, de conexiones de sillas.
Podemos resumir lo siguiente: Si f : S → S es un sistema de Morse, entonces el
conjunto límite L(f ) está formado por un número nito de puntos jos, todos hiperbólicos
y la dinámica no cambia bajo pequeñas perturbaciones del sistema.
Si bien no lo consideramos, dentro de las perturbaciones posibles de un sistema de
Morse-Smale no solo incluyen a la manera en que metemos la supercie S en R3 , sino
también permiten cambios en la función h. El libro de [?] es una excelente referencia para
el lector interesado en este tipo de sistemas dinámicos.
2.4. DINÁMICA GLOBAL. 63

Figura 2.4.2. Una abolladura cambia la dinámica: aparecen un nuevo atractor y una silla.

Figura 2.4.2. Un sistema Morse Smale, en el Toro.


64 CAPÍTULO 2. HIPERBOLICIDAD

Figura 2.4.3. El dibujo de Poincaré.

Figura 2.4.3. La herradura de Smale, de manera gráca.

2.4.3. Ejemplo de Smale, la herradura


Una pregunta natural es ¾es posible que se intersecten los conjuntos estables e in-
estables? Si lo hacen ¾Cómo es esta intersección? Estas preguntas también se las formuló
Poincaré y quedó sorprendido de lo complicado que podía llegar a ser la situación.
Una intersección implica, una innidad de intersecciones. El punto de intersección es
un punto homoclínico. Sus iterados también lo son. Intente continuar el dibujo en la gura
2.4.3.
Para tratar de resolver este problema, estudiemos un ejemplo: La herradura de Smale.
El siguiente ejemplo, además de no necesitar de una denición formal, en términos de una
función particular - es un modelo geométrico, tiene sorprendentes propiedades.
Denamos entonces este sistema dinámico. Para esto, denote por R un rectángulo
en el plano. Primero lo estiramos al triple de su tamaño en la dirección horizontal y lo
contraemos una tercera parte en la dirección vertical. Después, lo doblamos para formar
la gura de una herradura y lo colocamos encima de R como se muestra en el dibujo 2.4.3.
Sin duda, hay puntos de R que su primera iteración no pertenecen más al dominio
R. Esos puntos no nos importan; bien podrían escaparse hacia el innito o hacia alguna
otra región. Nos interesan los puntos en R que regresan a R innitas veces; tanto para el
futuro, como para el pasado.
2.4. DINÁMICA GLOBAL. 65

Para hablar de órbitas negativas, primero debemos notar que la transformación que
acabamos de denir es invertible. Basta desdoblar, expandir y comprimir. La imagen de
S −1 de R tiene la forma...
Necesitamos hablar del maximal invariante de una transformación S , en un abierto U :
¾Cuál es el conjunto de puntos que nunca se escapan de R? Un punto x tal que S(x) ∈ R
signica que x ∈ S −1 (R); y de la misma manera S −1 (x) ∈ R si x ∈ S(R). Asi, armar
que S n (x) ∈ R es equivalente a decir que:
\
x∈ S n (R) = Λ
n∈Z

Este conjunto es no vacío, ya que la sucesión Rn = ∩nj=−n S j (R) es una sucesión de


conjuntos compactos anidados, Rn+1 ⊂ Rn .
Descripción de R1 y R2 .
Teorema 21. El conjunto Λ es homeomorfo a un conjunto de cantor.
Demostración. Consideremos el shift "bilateral"de 4 símbolos: Σ4 = {0, 1, 2, 3}Z Dado
que hemos denido la transformación de manera gráca, la demostración tendrá que ser
de manera semejante. Para denir el homeomorsmo entre Λ y Σ4 nos aprovecharemos
de que el conjunto R1 = S −1 (R) ∩ S(R) está formado de cuatro rectángulos pequeños.
Llamémoslos A0 , A1 , A2 y A3 . A partir de ellos encontraremos la dirección de cualquier
punto en Λ. Para convencerse que la función que asigna a cada punto de Λ su dirección
o itinerario está bien denida y además es un homeomorsmo, hay que vericar a cada
punto le corresponde un único itinerario. Con este objetivo es fundamental la propiedad
de que hayamos contraído y expandido uniformemente el rectángulo a la hora de denir
S . Dos puntos tienen el mismo itinerario para el futuro, entonces tienen que estar en
una línea vertical, pues en la dirección horizontal expande. A n de demostrar que h
está bien denida, solo nos queda esperar que dos puntos diferentes de Λ con el mismo
itinerario futuro tengan un itinerario pasado diferente. Si por el contrario, el itinerario
pasado coincide, entonces, debido a que S contrae en la dirección vertical, S −1 expande,
así ambos tienen que estar en la misma línea horizontal. Conclusión: son el mismo punto.
Vea los dibujos.
En Σ4 podemos denir un sistema dinámico muy parecido al shift: el shift bilateral.
Este es invertible, como nuestro ejemplo. De hecho, S es conjugada al shift bilateral en
Σ4 .
Hay que recalcar que el espacio Σ4 tiene la propiedad de que: la dirección de un punto,
es decir, su nombre, indica precisamente su itinerario por la dinámica. Observación que
ya habíamos hecho antes, cuando discutimos el shift.
Teorema 22. La herradura de Smale es caótica: orbitas periódicas densas, sensibilidad a
las condiciones iniciales y transitividad topológica.

Consecuencias de la existencia de un punto homoclínico transversal


Volvamos con la sorpresa de Poincaré y los puntos homoclínicos.
Teorema 23. (Smale) Si existe un punto homoclínico transversal asociado a un punto
periódico p, existe un subconjunto Λ donde T es una herradura.
66 CAPÍTULO 2. HIPERBOLICIDAD

Figura 2.4.3. La herradura de Smale.

Figura 2.4.3. Una herradura, a partir de un punto homoclínico.

Demostrar este teorema de manera formal, nos llevaría demasiado esfuerzo. Sin em-
bargo, podemos quedarnos con una intuición bastante precisa y geométrica. Considere un
punto jo tipo silla y una caja alrededor de él. Al iterarla, esta se ensancha a lo largo de
la curva inestable y se ana en la dirección estable. Si hay una intersección homoclínica;
tomemos la primera. La caja, tras iterar algún número nito de veces, tiene la forma de
la herradura de Smale.
Para denir la herradura de Smale, sólo empleamos un rectángulo contenido en R2 .
Un rectángulo también lo podemos encontrar dentro de una esfera y todavía nos queda
espacio libre en el cual denir la transformación a nuestro antojo. Bien podríamos elegir
otro rectángulo, alejado razonablemente del anterior y denir otra herradura. Estas com-
parten una propiedad con los puntos jos de tipo silla. No son atractores ni repulsores; al
contrario, hay puntos que convergen a ella para el futuro y otros para el pasado.
Smale, S. Dieomorphisms with many periodic points. In Dierential and Combina-
torial Topology. Princeton, NJ: Princeton University Press, 1965, 63.

2.4.4. Sistema de Anosov en el Toro.


Otra pregunta natural es saber si existe un sistema dinámico en donde
2.5. APENDICE: PRUEBA DEL TEOREMA DE HARTMAN GROBMAN 67

Hay dos maneras naturales de generalizar el círculo. Por un lado Primero debemos
denir el espacio en donde este ejemplo está denido: El toro. Una manera es la siguiente.
A partir de una relación de equivalencia, podemos agrupar a los puntos del plano R2
en una partición. Si convenimos que (a, b) ∼ (c, d) sí y sólo si (a − c, b − d) ∈ Z2 , podemos
describir las clases de equivalencia de cada uno de los puntos del plano.
La clase del (0, 0), para empezar, corresponde a Z2 ⊂ R2 , pues (0−n, 0−m) ∈ Z2 , para
cualquier (n, m) ∈ Z2 . En general, la clase de equivalencia de un punto arbitrario (x, y)R2
es el conjunto [(x, y)] = {(x + n, y + m)|n, m ∈ Z}. No es dicil vericar ∼ es, en efecto,
una relación de equivalencia, y por ello podemos concluir que si la clase de (x, y) comparte
puntos con la clase de (z, w); esto es [(x, y)] ∩ [(z, w)] 6= ∅ entonces (x, y) ∼ (z, w), y por
lo tanto [(x, y)] = [(z, w)]. Por lo tanto, o bien [(x, y)] ∩ [(z, w)] = ∅, o [(x, y)] = [(z, w)]
(ejercicio).
Construcción del toro: Así como construimos el círculo a partir de los números reales,
podemos imitar la construcción, y obtener el toro T 2 . Para esto utilizaremos una relación
de equivalencia bastante parecida, para los puntos del plano. Decimos que (x, y) ∼ (x0 , y 0 )
si y solo si:
x − x0 ∈ Z y y − y 0 ∈ Z
Denimos entonces π : R2 → T 2 mediante la asociación, a cada punto del plano, su
clase de equivalencia bajo esta relación: π(x, y) = [(x, y)]. Observemos con cuidado esta
función: Cada punto en el plano tiene un representante de clase en el cuadrado unitario
C , salvo por los bordes, que están identicados de la manera en que indica el dibujo. Otra
manera de ver esto es mediante una retícula.
El toro es un espacio métrico, que si lo consideramos dentro de R3 es lo que conocemos
por un toro. T 2 = S 1 × S 1 .
Para denir una aplicación en él, podemos utilizar el mismo truco que para el círculo.
Una aplicación que respete clases de equivalencias, dene, automáticamente, una trans-
formación en el toro. Así, si F : R2 → R2 deja invariante la retícula Z2 esta puede denir
una aplicación en el toro.
Veamos un ejemplo utilizando la matriz denida en (??)
Preserva la retícula.
Tiene un punto jo, eso lo vimos, pero también tiene un punto jo en el toro.
Hay puntos periódicos. ¾De todos los periodos? Claro, en el toro.
El punto jo es hiperbólico. Los espacios estables en R2 bajan, por π a curvas que
no se cierran. La pendiente, de ambos, es irracional.
Tanto W s como W u son densos en T 2 .
Este ejemplo es conocido como uno de los automorsmos lineales más sencillos del
toro y pertenece a una clase de sistemas dinámicos llamados Sistemas de Anosov, pues en
cada punto del conjunto se pueden denir variedades estables e inestables.

2.5. Apendice: prueba del teorema de Hartman Grob-


man

La prueba del teorema de Hartman Grobman, siguiendo a Palis, de Melo.


Requisitos: algunas nociones básicas de espacios de Banach.
68 CAPÍTULO 2. HIPERBOLICIDAD

Teorema 24. Sea f ∈ Di1 (R2 ) y p ∈ R2 un punto jo f (p) = p hiperbólico. Sea
A : R2 → R2 la derivada de f en p. Entonces existen vecindades V (p) ⊂ R2 y U (O) ⊂ R2
y un homeomorsmo h : U → V tal que hA = f h.
Antes de probar este teorema, necesitamos un par de lemas.
Lema 4. Sea E un espacio de Banach. Sea L ∈ L(E), tal que ||A|| 6 a < 1 y G ∈ L(R2 )
un isomorsmo tal que ||G−1 || 6 a < 1. Entonces:
1. I + L es un isomorsmo y ||(Id + L)−1 || < 1
1−a

2. I + G es un isomorsmo y ||(Id + G)−1 || < a


1−a

Demostración. Son cuentas.


Como A es un isomorsmo hiperbólico, R2 = ls ⊕ lu , invariante por A. Entonces:
1. Si As = A|ls : ls → ls , entonces ||As || 6 a < 1.
2. Si Au = A|lu : lu → lu , entonces ||A−1
u || 6 a < 1

Consideremos Cb0 (R2 ) el espacio de las funciones contínuas y acotadas u : R2 → R2 ;


con la norma uniforme:
||u|| = sup{||x||| x ∈ R2 }.
Como R2 == ls ⊕ lu , podemos descomponer

Cb0 (R2 ) = Cb0 (R2 , ls ) ⊕ Cb0 (R2 , lu )


Cb0 (R2 ) 3 u = us + uu
donde us = πs ◦u y lo mismo para uu . Las funciones πu y πs son las proyecciones naturales.
Lema 5. Existe ε > 0 tal que si ϕ y ψ ∈ Cb0 (R2 ) tienen constante de Lipschitz 6 ε,
entonces A + ϕ y A + ψ son conjugadas.
Demostración. Buscamos un homemomorsmo h : R2 → R2 que satisfaga la ecuación:
h(A + ϕ) = (A + ψ)h

Supongamos que esta tiene la forma h = Id + u; con u ∈ Cb0 (R2 ), entonces, la ecuación
se convierte en:

(Id + u)(A + ϕ) = (A + ψ)(Id + u) (2.2)


O lo que es lo mismo, si distribuimos los parentesis:
A + ϕ + u(A + ϕ) = A + Au + ψ(Id + U )

y reordenando los términos:


Au − u(A + ϕ) = ϕ − ψ(Id + u) (2.3)
Mostraremos que existe una única solución u0 ∈ Cb0 (R2 ) que satisface (2.3). Para esto,
consideraremos el operador lineal:
L : Cb0 (R2 ) → Cb0 (R2 )
2.5. APENDICE: PRUEBA DEL TEOREMA DE HARTMAN GROBMAN 69

L(u) = Au − u(A + ϕ)
Es lineal, pues L(u + v) = A(u + v) − (u + v)(A + ϕ) = Au − u(A + ϕ) + Av − v(A + ϕ).
Armación: L es invertible y ||L−1 || 6 ||A−1 ||
1−a
.
Prueba: Si denimos L∗ (u) = u − A−1 u(A + ϕ) un operador lineal L∗ : Cb0 (R2 ) → Cb0 (R2 ),
entonces L = ĀL∗ , donde Ā(u) = Au. De hecho,

Ā(u − A−1 u(A + ϕ)) = Au − u(A + ϕ) = L(u).

Por lo tanto, como Ā es invertible, basta mostrar que L∗ es invertible y entonces


L−1 = (L∗ )−1 Ā−1 .
Para demostrar que L∗ es invertible, debemos apelar al lema que probamos al principio,
pero para ESPACIOS DE BANACH.
Otra conclusión que extraemos de esto es que
||A−1 ||
||L−1 || = ||(L∗ )−1 Ā−1 || 6
1−a

Ahora consideremos la aplicación: µ : C0b (R2 ) → C0b (R2 ) denida de la siguiente man-
era:

µ(u) = L−1 [ϕ − ψ(Id + u)].


Tenemos lo siguiente:

||µ(u) − µ(v)|| = ||L−1 [ϕ − ψ(Id + u) − (ϕ − ψ(Id + u))]||

= ||L−1 [ψ(Id + v) − ψ(Id + u)]||


||A−1 ||
6 ε||v − u||
1−a
Si ε > 0 es sucientemente pequeño, entonces podemos concluir que:

||µ(u) − µ(v)|| < 1,

es decir, µ es una contracción en C0b (R2 ). Por lo tanto, tiene un único punto jo u0 .
Hemos mostrado que (2.3) tiene una única solución u0 si y solo si u0 es un punto jo
de µ; por lo tanto existe.
Ahora sólo falta vericar que Id +u es un homeomorsmo. Para esto, podemos plantear
la ecuación (2.2):
(Id + v)(A + ψ) = (A + ϕ)(Id + v) (2.4)
y el método esbozdo arriba garantiza que (2.4) tiene una única solución v0 ∈ C0b (R2 ).
Basta vericar lo siguiente:

(Id + u)(Id + v) = (Id + v)(Id + u) = Id


De hecho, bastan solo unas cuantas cuentas:

(Id + u)(Id + v)(A + ψ) = (Id + u)(A + ϕ)(Id + v) =


70 CAPÍTULO 2. HIPERBOLICIDAD

= (A + ψ)(Id + u)(Id + v)
, pues precisamente así encontramos u y v . Por otro lado, como

(Id + u)(Id + v) = Id + v + u(Id + v),


y además v + u(Id + v) ∈ C0b (R2 ) y Id(A + ψ) = (A + ψ)Id, entonces, por la unicidad de
la solución de:
(Id + w)(A + ψ) = (A + ψ)(Id + w),
entonces, (Id + u)(Id + v) = Id.
De la misma manera probamos que (Id + v)(Id + u) = Id y por lo tanto h = Id + u es
un homeomorsmo.
Lema 6. Dado ε > 0 existe una vecindad U del O y una extensión de f |U de la forma
A + ϕ, con ϕ ∈ C0b (R2 ) y cuya constante de Lipschitz de ϕ es 6 ε.

Esta demostración depende de una buena función de pegado fuera de la bola.


Demostración del Teorema: Toma ε > 0 como en el segundo Lema. Toma A + ϕ la
extensión de f |U dada por el tercer Lema. El segundo Lema implica que existe h que
conjuga; por lo tanto hA = f h en una vecindad el origen.
Comentarios al respecto de la unicidad:

La conjugación es única a distancia nita de la identidad. Ejemplo donde esto no


pasa.
Inclusive pidiendo proximidad a la identidad, la conjugación local entre f y su
derivada no es unica; depende de la extensión de f |U a todo R2 .
Bibliografía

71

También podría gustarte