Está en la página 1de 89

Sistemas Dinámicos

Discretos y Continuos
Rafael López Machí
San Luis Potosí, 2009

Contenidos

Índice
1. Introducción 4

I Sistemas discretos 5
2. Sistemas discretos 6
2.1. Iteraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Recurrencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. Grupo asociado a un sistema dinámico discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3. Sistemas dinámicos discretos 9


3.1. Iteraciones autónomas y no autónomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2. La ecuación lineal xn = axn−1 + b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3. La ecuación lineal no autónoma xn = a(n)xn−1 + b(n) . . . . . . . . . . . . . . . . . . . . . . . . . 12

4. Puntos fijos y órbitas periódicas 13


4.1. Puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2. Puntos periódicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3. Trayectorias periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5. Comportamiento asintótico 14
5.1. Conjuntos límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

6. Conjuntos y funciones invariantes 15


6.1. Conjuntos invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.2. Funciones invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

7. Estudio de las órbitas 15


7.1. Sensibilidad a las condiciones iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.2. Diagramas de órbitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

8. Puntos fijos y órbitas periódicas 17


8.1. Puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.2. Estabilidad de los puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
8.3. Hiperbolicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.4. Estabilidad de las órbitas periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1
8.5. Órbitas de periodo tres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

9. Bifurcaciones 26
9.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
9.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
9.3. Tipos de bifurcación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

10. Ecuación logística 29


10.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
10.2. La ecuación logística y las aplicaciones cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
10.3. Puntos fijos y órbitas de periodo dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
10.4. Trayectorias de periodo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.5. Estabilidad de los puntos fijos de la aplicación logística . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.6. Estabilidad de las trayectorias de periodo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

11. La función tienda 34


11.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
11.2. Conjugación con la logística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

12. Exponentes de Lyapunov 36


12.1. Definición y cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
12.2. Exponentes de Lyapunov en la tienda y la logística . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

13. Comportamiento caótico 38


13.1. Caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.2. Representación binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.3. La función “dientes de sierra” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
13.4. La función “tienda” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

II Sistemas continuos 43
14. Sistema dinámico 44
14.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
14.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

15. Trayectorias 47
15.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
15.2. Trayectorias periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

16. Puntos de equilibrio 49


16.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
16.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

17. Puntos periódicos 51


17.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

18. Conjuntos límite e invariantes 52


18.1. Conjuntos límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
18.2. Conjuntos invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
18.3. Integrales primeras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2
19. Sistemas lineales 57
19.1. Resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

20. Caso lineal en R2 58


20.1. Forma normal en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
20.2. Puntos de equilibrio en un sistema en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

21. Caso lineal en Rn 64

22. Teoría local 66


22.1. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
22.2. Hiperbolicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
22.3. El teorema de Hartman-Grobman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

23. Teorema de la variedad estable 69


23.1. El teorema de la variedad estable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
23.2. Variedades estable e inestable globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

24. Estabilidad de Liapunov 75


24.1. Estabilidad según Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

25. Sistemas hamiltonianos y de gradiente 77


25.1. Sistemas hamiltonianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
25.2. Sistemas de gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

26. Teoría global 83


26.1. El teorema de Poincaré–Bendixson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

27. Órbitas Periódicas 84


27.1. Variedades Estable e Inestable en órbitas Periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

28. Estabilidad de trayectorias periódicas 86


28.1. La aplicación de Poincaré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
28.2. Estabilidad de trayectorias periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3
1. Introducción
La teoría de Sistemas Dinámicos trata sobre la evolución de sistemas que dependen de variables que cambian con
el tiempo.
Se trata de describir procesos variables, de predecir su evolución futura y conocer las limitaciones de dichas
predicciones.
Comprende el estudio de sistemas con variables que dependen de una variable temporal que tanto puede ser
contínua como discreta.

La materia denominada Sistemas Dinámicos ha madurado como una disciplina independiente en los últimos años
del pasado siglo y lleva recibiendo un importante empuje investigador y docente en los primeros años de este.
Son numerosos los textos que han aparecido en los últimos años tanto de carácter introductorio como avanzado.
Su crecimiento ha sido tan rápido que muchas de sus subáreas, como la teoria ergódica o la dinámica de sistemas
unidimensionales, se han transformado en áreas de investigación independientes.

Una primera definición de sistema dinámico es muy simple:

Sistema dinámico
Es la acción de cualquier semigrupo T actuando sobre un conjunto X.

Un semigrupo, (T, ∗), es un conjunto T con una operación ∗ que permite añadir dos elementos cualesquiera y
disponer de la propiedad asociativa (x ∗ y) ∗ z = x ∗ (y ∗ z).
La acción se define a través de una família uniparamétrica de aplicaciones Ft sobre X, de manera que se tiene la
propiedad Ft∗s = Ft ◦ Fs , siendo ∗ la operación en el grupo y ◦ la composición de aplicaciones.

Así, se puede hablar de diversos tipos de sistemas dinámicos según sea el conjunto temporal elegido y el conjunto
de variables.

Semigrupo Acción
(N, +) Aplicaciones
(Z, +) Aplicaciones con inversa
(R+ , +) Semiflujos
(R, +) Flujos

El caso más importante por su aplicación práctica a fenómenos evolutivos de diferentes tipos (físicos, económicos,
etc.) es aquel en que el grupo T , al que pertenece la variable temporal, es unidimensional y, en general, un conjunto
numérico.
Y dentro de este caso distinguimos entre si el conjunto T es continuo o discreto.
En el primer caso tenemos los sistemas dinámicos continuos (o flujos definidos por ecuaciones diferenciales) y
en el segundo sistemas dinámicos discretos o iteraciones definidas por aplicaciones.

Dividiremos el curso en dos partes principales:

1. Sistemas discretos.
2. Sistemas continuos.

4
Parte I
Sistemas discretos

5
2. Sistemas discretos
2.1. Iteraciones
Sea f una función definida sobre E, subconjunto de Rn , y aplicada sobre Rn , f : E −→ Rn .
Dado un punto x ∈ E podemos obtener la imagen f (x) ∈ Rn y, en su caso, también podríamos obtener la imagen
por su inversa f −1 (x).

Si la imagen obtenida está en E, podemos volver a aplicar f y obtener así la imagen de la primera imagen, o bien
en el segundo caso, si está en el dominio de la inversa podríamos volver a aplicar f −1 y obtener la imagen anterior
a esta.

La imagen de la función sobre el dominio E es

f (E) = {y ∈ Rn | ∃x : f (x) = y}

Supondremos que f es biyectiva, con lo que el conjunto {f −1 (x)} de las imágenes inversas de x es un conjunto
unitario.
Tendremos que considerar los casos en que f (E) = E ó f (E) 6= E.
Denotaremos por E0 el conjunto inicial donde se toman los puntos origen de f . En principio E0 ⊆ E.

Si x ∈ E0 y f (x) ∈ E0 diremos que hemos obtenido una primera iteración de x y el conjunto de estos puntos
se denota por E1 = {x ∈ E0 | f (x) ∈ E0 }.
Igualmente, E−1 será el subconjunto de E0 donde está definida f −1 . Se tendrá que E−1 = E0 ∩ f (E0 ).

© ª
Propiedad 1. Se verifica que E1 = E0 ∩ f −1 (E0 ∩ f (E0 ))
© ª
El símbolo f −1 ( ) que aparece en la propiedad se ha de entender como un conjunto de anti-imágenes,y no
como la aplicación inversa.

De forma más general definiremos


En+1 = {x ∈ En | f (x) ∈ En }

Y, por la propia construcción tenemos

E0 ⊇ E1 ⊇ E2 · · · ⊇ En · · ·

Con un razonamiento semejante al de la demostración de la propiedad 1 se puede demostrar que


© ª
En+1 = En ∩ f −1 (En ∩ f (En ))


Ejemplo 1. Construir la sucesión de conjuntos Ei para la función f (x) = + x − 1, sobre E0 = [1, 10]

Definición 1. El iterado n-ésimo de x por f es el punto que resulta de aplicar n veces sucesivas la aplicación f
sobre x.
El iterado n-ésimo de x por f se denota por xn

6
3

2.5
E1
E0 E2
2
1 2 5 10
1.5

0.5 E1
2 4 6 8 10 0 1 2 3 10

Denotaremos por E−n,m el conjunto de puntos x que admiten n iterados negativos y m positivos.
Se tiene que E−n,m = E−n ∩ Em .

Veamos un ejemplo en donde hay problemas con los iterados.


x
Tomemos f (x) = , x ∈ R.
2−x
2x
Fácilmente encontramos que x−1 = f −1 (x) =
1+x
Así el conjunto de iterados de un punto x será
 
 2|n| x 4x 2x x x x 
γ(x) = ..., ,..., , , x, , ,..., ,...
 1 + (2|n| − 1)x 1 + 3x 1+x 2−x 4 − 3x x + 2n (1 − x) 

Tenemos entonces que todo punto de R tiene un primer iterado excepto x = 2.


Por tanto, dado un x ∈ R cualquiera admitirá sucesivos iterados positivos hasta que alguno de estos tome el valor
2, en cuyo caso no podremos continuar iterando.
Los valores que anulan los otros denominadores, como que son iteraciones del que anula el primero también
pertenecen a las iteraciones negativas del 2, y se puede ver que
½ ¾
− 2n+1
γ (2) = |n∈N
2n+1 − 1
De la misma manera, todo punto tiene un iterado negativo excepto x = −1.
Y se puede obtener que
½ ¾
+ −1
γ (−1) = |n∈N
2n+1 − 1

De modo que podemos iterar sobre Z para el conjunto E = R \ γ − (2) \ γ + (−1)

A veces es fácil encontrar la expresión de fn (x) en función de n y del valor inicial x0 .


Por ejemplo, si f (x) = ax, se tiene que f2 (x) = a(ax) = a2 x, f3 (x) = a3 x, . . ., fn (x) = an x.
Pero incluso con una función sencilla, por ejemplo f (x) = x2 + b, la iteración se complica en pocos pasos, ya que
f2 (x) = (x2 + b)2 + b, . . ., y fn (x) no tiene una expresión inmediata.
La iteración parece un procedimiento sencillo, pero, a poco que nos fijemos, en el segundo caso el iterado n-ésimo
es un polinomio de grado 2n y con pocos iterados tendremos un polinomio de grado muy alto, lo que complica el
estudio de su dinámica.

7
1

0.5

-1.5 -1 -0.5 0.5 1 1.5

-0.5

-1

0.25 0.25

-1.5 -1 -0.5 0.5 1 1.5 -1.5 -1 -0.5 0.5 1 1.5


-0.25 -0.25

-0.5 -0.5

-0.75 -0.75

-1 -1

-1.25 -1.25

Figura 1: Gráficas de fn (x) = x2 − 1.3, para n = 1, 5, 10

2.2. Recurrencias
El concepto de iteración nos lleva directamente al de recurrencia.

Definición 2. Dada una función f y un conjunto E−k,h , llamamos relación de recurrencia a la expresión mate-
mática que nos dice que xn es el resultado de aplicar f sobre xn−1 .

xn = f (xn−1 ), x ∈ E−k,h , −k ≤ n ≤ h. (1)

Las relaciones de recurrencia son el punto de partida de muchas herramientas matemáticas: sucesiones, demostra-
ciones por inducción, leyes de evolución, etc.

Cuando se trabaja con un problema real es frecuente que el iterado n no dependa sólo del anterior sino de un
conjunto de iterados previos. Es decir,

xn = f (xn−1 , xn−2 , . . . , xn−m ). (2)

Estas relaciones se llaman relaciones de recurrencia de orden m.


La forma más simple de escribir una recurrencia de este tipo consiste en considerar que el iterado de orden más
bajo que aparece en la expresión es x0 . De manera que tendremos

xm = f (x0 , x1 , . . . , xm−1 ). (3)

Definición 3. Llamamos solución de una recurrencia xn = f (xn−1 ) a una función

ϕ(x0 , n) : E−k,h × T −→ E−k,h

con ϕ(x0 , 0) = x0 tal que, dado un punto x0 y un número entero n, les hace corresponder el iterado xn .
Llamaremos x0 la condición inicial.

Definición 4. Una solución particular es la aplicación de T en E−k,h que resulta de ϕ al fijar el valor de x0 . Se
denota por ϕx0 (t).

8
2.3. Grupo asociado a un sistema dinámico discreto

Propiedad 2 (de composición en las soluciones de una recurrencia). xn = ϕ(x0 , n) es solución de la relación de
recurrencia xn = f (xn−1 ) si y sólo si ϕ(x0 , r + s) = ϕ(ϕ(x0 , r), s).
D EMOSTRACIÓN :
(⇒)
Si ϕ(x0 , n) es solución, tenemos

ϕ(x0 , r + s) = fr+s (x0 ) = fs [fr (x0 )] = fs [ϕ(x0 , r)] = ϕ(ϕ(x0 , r), s)

(⇐)
Denotemos f (x) = ϕ(x0 , 1).
Se tiene
ϕ(x0 , 2) = ϕ(x0 , 1 + 1) = ϕ(ϕ(x0 , 1), 1) = ϕ(f (x0 ), 1) = f2 (x0 )

y por tanto es solución para n = 2. Reiterando tendremos que ϕ(x0 , n) = fn (x0 ), dado que

ϕ(x0 , n) = ϕ(ϕ(x0 , n − 1), 1) = f (fn−1 (x0 )) = fn (x0 )

3. Sistemas dinámicos discretos

Definición 5. Un sistema dinámico sobre E es una aplicación C 0

ϕ : E × T −→ E

que cumple

(i) ϕ(x, 0) = x, ∀x ∈ E
(ii) ϕ(ϕ(x, t), s) = ϕ(x, t + s), ∀x ∈ E, ∀t, s ∈ T.

Esta propiedad implica que el conjunto de funciones {ϕr } que son soluciones de una cierta recurrencia define un
grupo respecto de la composición de funciones. Se puede comprobar de forma inmediata que ϕ0 será el elemento
neutro y ϕ−n el simétrico de ϕn .

3.1. Iteraciones autónomas y no autónomas


Una de las características de la forma como hemos introducido los conceptos de sistema dinámico y ecuación en
diferencias es que en los términos de la derecha no aparece el valor n del iterado.
Sin embargo, en muchos problemas sí que aparece, de manera natural, el valor de n, es decir, se plantean ecuacio-
nes de la forma:
xn = f (n, xn−1 ) (4)

Estas se llaman recurrencias no autónomas, en tanto que las que no dependen de n en su definición se llaman
autónomas.

9
Consideremos la siguiente recurrencia

xn+1 = (n + 1)xn , n = 0, 1, 2, 3, . . .

que tiene como solución


xn = ϕ(x0 , n) = n!x0

Las soluciones de las recurrencias no autónomas no cumplen la propiedad de composición 2 como se puede
comprobar en este ejemplo.
Si r y s son naturales mayores que la unidad:

ϕ(1, r + s) = (r + s)!
ϕ(ϕ(1, r), s) = s!ϕ(1, r) = s!r! 6= (r + s)!

Es posible reducir las relaciones no autónomas a la forma normal gracias a un cambio de variable. En este ejemplo,
si denotamos y a n y sustituimos en (4) por

xn = f (xn−1 , yn−1 ) = (1 + yn−1 )xn−1


yn = yn−1 + 1

con la condición y0 = 0, tenemos una relación autónoma de la forma zn = f (zn−1 ), donde z es ahora una variable
vectorial con dos componentes (x, y).

Si existen todos los iterados positivos, podemos definir


Definición 6. La órbita positiva de un punto es el conjunto de sus iterados para n > 0 y la denotamos por γ + (x).

γ + (x) = {y ∈ E | ∃n natural : y = xn }

Análogamente
Definición 7. La órbita negativa de un punto es el conjunto de sus iterados para n < 0 y la denotamos por
γ − (x).
γ − (x) = {y ∈ E | ∃n entero negativo : y = xn }

Finalmente definimos,
Definición 8. La órbita de un punto es el conjunto de sus iterados para todo n y la denotaremos por γ(x).

γ(x) = {y ∈ E | ∃n entero : y = xn }

A menudo los términos trayectoria y órbita se usan como sinónimos, aunque se puede distinguir entre los dos
conceptos.
Generalmente el conjunto ∪∞ n=−∞ x(n) recibe el nombre de órbita, mientras que la trayectoria suele representarse
por la sucesión ordenada {. . . , x−2 , x−1 , x0 , x1 , x2 , . . .}. Así, la idea de trayectoria como conjunto ordenado está
más identificada con la idea de “movimiento” que se suele asociar con ella.

Definición 9. Diremos que la terna (E, Z, f ) define un sistema dinámico discreto si f es continua y todo punto
x ∈ E admite una órbita {xn } con n ∈ Z.
El conjunto E se llama espacio de fases.
En caso de que no se concrete si el sistema dinámico está definido sobre N o Z, lo denotaremos por (E, T, f ) y
llamaremos a T el conjunto temporal.

10
3.2. La ecuación lineal xn = axn−1 + b
Vamos a analizar la relación de recurrencia
xn = f (xn−1 ) = axn−1 + b (5)
donde a y b son constantes reales y x ∈ R.
El interés de esta ecuación está en que sirve de modelo de otras ecuaciones no lineales en el entorno de puntos
fijos.
La solución de esta recurrencia se obtiene fácilmente:
Si a = 1, tenemos una progresión aritmética, de diferencia b y por tanto, xn = x0 + nb.
Si a 6= 1 tenemos
x1 = ax0 + b
x2 = ax1 + b = a(ax0 + b) + b = a2 x0 + ab + b
... ...
b(1 − an )
xn = an x0 + an−1 b + · · · + ab + b = an x0 +
1−a
Las órbitas que sólo contienen un punto las llamaremos puntos fijos.
Si x∗ es un punto fijo, verificará x∗ = ax∗ + b. Cuando a = 0, esta ecuación solo tiene solución si b = 0. Pero
entonces tenemos una identidad y cualquier valor de x es solución, de manera que todos los puntos serán fijos.
b
Si a 6= 1, tendremos que x∗ = .
1−a
Para conseguir que el punto fijo sea el origen, es decir, no dependa del valor de b, hacemos el cambio de variable:
b
y = h(x) = x −
1−a
y tenemos
b b
yn = xn − = axn−1 + b − =
1−a 1−a
µ ¶
b ab
= a yn−1 + − = ayn−1
1−a 1−a

Por tanto, si a 6= 1, cualquiera que sea el valor de b, el sistema lo podemos llevar al caso b = 0.
En la figura tenemos los distintos tipos de trayectorias que se pueden dar según el parámetro a.

a>1

a=1

0<a<1

a=0

-1<a<0

a=-1

a<-1

11
Los valores de los parámetros donde hay cambio de tipo de órbita se llaman valores de bifurcación. En este caso
son a = 1, a = 0 y a = −1. Cuando a = 1, también hay que distinguir si b es cero o no.
Si a = 0, la aplicación f no es biyectiva. Exceptuando este caso, si |a| < 1, todas las trayectorias tienden al origen
y si |a| > 1 todas escapan del origen.
Como veremos más adelante, en un sistema autónomo, el valor de la derivada de la función f , evaluada en un
punto fijo (en este caso en x = a) nos indicará como son las órbitas alrededor del punto fijo. Este es un primer
ejemplo de cómo obtener propiedades de las órbitas sin conocer previamente la solución.

3.3. La ecuación lineal no autónoma xn = a(n)xn−1 + b(n)


Vamos a generalizar la ecuación lineal estudiada xn = axn−1 + b, suponiendo que en vez de coeficientes cons-
tantes, tenemos coeficientes que dependen de n.

Propiedad 3. La solución de la recurrencia lineal de primer orden

xn = a(n)xn−1 + b(n)

viene dada por


n
Y n−1
X
xn = x0 a(i) + (b(i)a(i + 1) . . . a(n)) + b(n)
i=1 i=1

Haremos la demostración por inducción.

D EMOSTRACIÓN : Si n = 1, la expresión de la solución es correcta, ya que coincide con la ecuación.

x1 = a(1)x0 + b(1)

Con n = 2 tenemos
x2 = a(2)x1 + b(2) = a(2) (a(1)x0 + b(1)) + b(2)
= a(1)a(2)x0 + a(2)b(1) + b(2)

Supongamos que se verifica para n y comprobemos para n + 1

xn+1 = a(n + 1)xn + b(n + 1) =


à n n−1
!
Y X
= a(n + 1) x0 a(i) + (b(i)a(i + 1) . . . a(n)) + b(n) + b(n + 1) =
i=1 i=1
n+1
Y n
X
= x0 a(i) + (b(i)a(i + 1) . . . a(n + 1)) + b(n + 1)
i=1 i=1

Para la solución de la homogénea, como tendremos b(i) = 0, será


n+1
Y
xn+1 = x0 a(i)
i=1

12
4. Puntos fijos y órbitas periódicas
4.1. Puntos fijos

Definición 10. Dada una función continua f (x), x ∈ R, diremos que x∗ es un punto fijo si f (x∗ ) = x∗ .
La definición es equivalente a decir que la trayectoria de x∗ consta de un sólo punto γ(x∗ ) = x∗ .

Definición 11. Diremos que p es un punto k-eventualmente fijo si p no es fijo, pero existe un k > 0 tal que fk (p)
es un punto fijo.
Por ejemplo, si f (x) = x2 − 2, con x0 = 0 tendremos x1 = −2 y x2 = 2, x3 = 2, . . ., de manera que 0 es un
punto 2-eventualmente fijo.

4.2. Puntos periódicos

Definición 12. Diremos que p es un punto periódico si existe un entero m 6= 0 tal que fm (p) = p.
De la definición es evidente que f2m (p) = fm (fm (p)) = fm (p) = p y de la misma forma para cualquier entero
k tendremos que fkm (p) = p. Por tanto, si un punto es periódico para un entero, también lo es para cualquier
múltiplo de este entero.

Definición 13. Llamamos periodo n del punto p o de su órbita γ(p) al entero positivo más pequeño tal que
fn (p) = p.

4.3. Trayectorias periódicas


Si p es un punto periódico de periodo n, el conjunto de sus iterados conforma una trayectoria que llamamos
periódica, formada por los puntos {p, f (p), . . . , fn−1 (p)}.
Un punto fijo se puede considerar como un punto periódico de periodo unidad.

Definición 14. Diremos que p es un punto eventualmente periódico de periodo m si p no es periódico, pero existe
k > 0 tal que fm+i (p) = fi (p) para todo i ≥ k. Es decir, p es periódico para i ≥ k.
Esto significa que la órbita de x llega a un iterado que pertenece a una trayectoria de periodo m.

Definición 15. Una trayectoria {x0 , x1 , x2 , . . .} se llama asintóticamente periódica si converge a una periódica
cuando n −→ ∞, es decir, hay una trayectoria periódica {y0 , y1 , . . . , yk , y0 , y1 , . . .} de manera que

lı́m |xn − yn | = 0
n→∞

El caso eventualmente periódico es el caso extremo de una trayectoria asintóticamente periódica, dado que la
trayectoria del punto alcanza la periódica.

13
5. Comportamiento asintótico
5.1. Conjuntos límite
Un criterio muy importante para clasificar las órbitas es su comportamiento cuando n tiende a ±∞. A veces, este
límite no es un punto fijo.
Por ejemplo, en la recurrencia xn = kxn−1 , 0 < k < 1, tenemos la solución xn = k n x0 y, por tanto, la solución
tiende a 0. Si k = 1, todos los puntos seran fijos y el límite de la órbita será el propio punto fijo.
Pero, si tomamos k = −1 y x0 6= 0 la trayectoria de cualquier punto será oscilante {. . . , −x, x, −x, x, −x, x, . . . }
y por tanto no tendrá límite. Sin embargo, podríamos decir que la órbita tiende a la 2-periódica formada por ella
misma.

Definición 16. Sea (E, N, f ) un sistema dinámico. Diremos que z ∈ E es un punto ω-límite o punto límite
positivo de una trayectoria γ(x0 ) si existe una sucesión estrictamente creciente de enteros kn tal que

z = lı́m x(x0 , kn )
n→∞

(obviamente, por construcción, kn → ∞ cuando n → ∞).


El conjunto de todos los puntos límite positivos de la trayectoria lo denotamos por Ωx0 . Análogamente, podemos
definir el límite negativo.

Definición 17. Sea (E, N, f ) un sistema dinámico. Diremos que z ∈ E es un punto α-límite o punto límite
negativo de una trayectoria γ(x0 ) si existe una sucesión estrictamente decreciente de enteros kn tal que

z = lı́m x(x0 , kn )
n→∞

El conjunto de todos los puntos límite negativos de la trayectoria lo denotamos por Ax0 .
La notación de los conjuntos límite deriva del sentido intuitivo que tienen: una órbita “comienza” en el conjunto
límite negativo y “acaba” en el positivo; por eso se los designa con la primera y la última letras del alfabeto griego.

14
6. Conjuntos y funciones invariantes
6.1. Conjuntos invariantes
Uno de los métodos más básicos para analizar un sistema consiste en separarlo en subsistemas. Estos subsistemas
vienen definidos por conjuntos que tienen propiedades comunes.

Definición 18. Diremos que un subconjunto A del espacio de fases es un conjunto invariante si la trayectoria de
cualquiera de sus puntos está formada por puntos del mismo subconjunto, es decir, ∀x0 ∈ A, ϕ(x0 , n) ∈ A, ∀n.

Dado un subconjunto invariante podemos definir sobre él un subsistema dinámico, ya que si contiene un punto de
una órbita la contiene toda.

6.2. Funciones invariantes


Análogamente, podemos definir una función invariante
Definición 19. Dado un sistema dinámico (E, T, f ), diremos que una función continua, no idénticamente cons-
tante, h : E −→ R es una función invariante si toma el mismo valor para todos los puntos de una órbita, es a
decir,
h(xn ) = h(x0 ), ∀ x0 ∈ E, ∀ n ∈ T

La importancia de las funciones invariantes es que sirven para obtener subconjuntos invariantes del sistema. Estos
conjuntos vendrán definidos por los puntos en los que la función toma el mismo valor.

Definición 20. Definiremos el conjunto de nivel de h correspondiente al valor c al formado por los puntos de
x ∈ E tales que h(x) = c y lo denotaremos por Ic .

Propiedad 4. Un conjunto de nivel Ic es invariante.


D EMOSTRACIÓN : Si x0 ∈ Ic tendremos que h(x0 ) = c y por ser h una función invariante tendremos h(xn ) = c. Por
tanto, xn ∈ Ic , es decir, si un punto x0 está en el conjunto, todos los puntos de su trayectoria también lo están.

7. Estudio de las órbitas


7.1. Sensibilidad a las condiciones iniciales

Definición 21. Sea f : R −→ R. Un punto x0 se dice que es sensible a las condiciones iniciales si hay una
distancia d 6= 0, tal que los puntos arbitrariamente cerca de x0 se aplican después de un número finito de
iteraciones, a una distancia mayor o igual a d de la imagen de x0 .

∃ε > 0, d > 0 Nε (x0 ) y k ∈ Z+ / |fk (x) − fk (x0 )| ≥ d, x ∈ Nε (x0 )

Normalmente, cuanto más cerca está x de x0 , más grande es la k necesaria.

15
7.2. Diagramas de órbitas
Consideremos una aplicación
f : R −→ R

La forma más inmediata de representar gráficamente los iterados de un punto por f es con el llamado diagrama
temporal, que no es más que representar los valores de la variable frente a la variable temporal, es decir, en el
eje horizontal se sitúa el valor n de la iteración, en el vertical el valor del iterado, y representamos los puntos
(n, fn (x0 )).

En la figura siguiente tenemos los 30 primeros iterados de la función f (x) = x2 − 1.8, empezando con x0 = 1.2.
En el eje horizontal se representa el valor de n, mientras que en el vertical representamos el valor xn .

0.5

0.5

-1

1.5

0 5 10 15 20 25 30 n

El conjunto disperso de puntos se aclara un poco si los dibujamos enlazados según su orden en la iteración.

0.5

-0.5

-1

-1.5

0 5 10 15 20 25 30
n

Este procedimiento inmediato presenta muchas carencias y da pocas posibilidades de análisis del comportamiento
asintótico de las trayectorias, dado que no es útil para representar un gran número de puntos.
Vamos pues a ver otro procedimiento más cómodo, más habitual y más útil para determinar el comportamiento
de las órbitas de una función. Esta forma de representación gráfica de los iterados se conoce con el nombre de
diagrama de escalera (En los textos en inglés se conoce como coweb diagram ).

El proceso se realiza de la siguiente forma:

16
4 4

y=x y=x
3 3

(f(x),f(x)) (f(x),f(x))
(x,f(x)) (x,f(x))
2 2

1 1

-1 (f(x),0) (x,0) 4 -1 (f(f(x)),0) (f(x),0) (x,0) 4

-1 -1

-2 -2

Figura 2: Construcción del diagrama de iterados.

En la figura siguiente tenemos la representación de los iterados de la misma función f (x) = x2 −1.8, comenzando
con x0 = 1.2.

0.5

x 0 =1.2
-1.5 -1 -0.5 0.5 1

-0.5

-1

-1.5
-1.5

-0.5

0.5
-1

1
0
0
5
10
15
20
25

8. Puntos fijos y órbitas periódicas


8.1. Puntos fijos
Un punto fijo viene dado, como ya sabemos, por la condición x∗ = f (x∗ ). La determinación de los puntos fijos
se puede complicar si la expresión de f (x) no es simple. En ese caso se puede acudir a métodos numéricos.
Pero antes de aplicar un método numérico podemos utilizar un procedimiento gráfico, ya que los puntos fijos se
corresponden con la abscisa de las intersecciones de la gráfica de f (x) y la bisectriz del primer cuadrante y = x.

Consideremos la aplicación
x4
f (x) = 1 + x − x2 +
9
Los puntos fijos de esta aplicación son las raíces de la ecuación bicuadrática x4 − 9x2 + 9 = 0, es decir:

17
r r
3 √ 3 √
a) x1 = − (3 + 5) = −2.80252 . . . , b) x2 = − (3 − 5) = −1.07047 . . . ,
2 2
r r
3 √ 3 √
c) x3 = (3 − 5) = 1.07047 . . . , d) x4 = (3 + 5) = 2.80252 . . . .
2 2

Sin embargo, antes de utilizar métodos numéricos o algebraicos para determinar las soluciones. Podemos ver si
las hay o no.

En la figura se representa la gráfica de la función y la bisectriz del primer cuadrante; la proyección de los puntos
de intersección sobre el eje de las x determina los puntos fijos.

4
y=x
3

-2.80252 -1.07047
-4 -2 1.07047 2 2.80252 4

-1

-2

-3

-4

Una órbita Γ de periodo k de una aplicación f (x) es un conjunto que tiene k puntos. Cuando consideramos la
aplicación fk (x), es decir, la función que resulta de la composición de f por ella misma k veces, cada punto xj ,
j = 1, . . . , k de Γ verifica fk (xj ) = xj .

Por tanto, la órbita periódica se ha convertido en un conjunto de k puntos fijos para la función fk . Así, estos puntos
los podemos determinar fácilmente de forma gráfica a partir del dibujo de fk y la bisectriz y = x.

Siguiendo con el ejemplo anterior, en la siguiente figura tenemos representadas la función f (x) y su iteración
f2 (x).

4 y y
1

-3.02372 -1.87852
f2(x) 2 -3 -2.5 -2 -1.5 -1 -0.5 x
1
f(x) -1
-3 -2 -1 1 2 3 x
-1
-2
f(x)
-2

-3 -3

-4

Observemos que hay seis puntos de intersección de la gráfica de f2 con la bisectriz. Comparada con los de la
función, tenemos cuatro que son puntos fijos de f , mientras que los otros dos son fijos de f2 , es decir, conformaran
una trayectoria de periodo 2 para f .

18
Es evidente que los puntos fijos de una función siempre aparecerán como fijos para cualquier composición fn de
la función.
Los puntos que conforman la trayectoria periódica son: f (−1.87852) = −3.02372 y f (−3.02372) = −1.87852.

Consideremos ahora la función cuadrática f (x) = x2 − 1.6. Podemos ver que tiene dos puntos fijos x∗1 =
−0.860147 y x∗2 = 1.86015. También tiene una trayectoria periódica {−1.42195, 0.421954}.

y
f2 (x)
4

2 y=x
2
f(x) = x - 1.6
1

-2 -1 1 2 x

-1

-2

También hay una trayectoria de periodo 4: {−1.13977, −0.300934, −1.50944, 0.678406}, como aparece en la
figura

2
f(x) = x - 1.6
y=x
1
f4 (x)

-2 -1 1 2 x

-1

-2

Teorema 1 (Existencia de puntos fijos). Sea f continua en el intervalo I = [a, b]. Si se verifica que f (I) ⊂ I o
que f (I) ⊇ I, entonces f tiene al menos un punto fijo en I.
D EMOSTRACIÓN : En el primer caso f (a) > a y f (b) < b, por tanto, la función f (x) − x cambia de signo entre a y
b y al ser contínua se anulará en algún punto entre a y b, es decir, ∃ c ∈ [a, b] de manera que f (c) = c.

Si f (I) = [A, B] ⊇ I, tendremos I = [a, b] ⊂ [A, B]. Como f es contínua ∃u ∈ [a, b] | f (u) = A y
∃v ∈ [a, b] | f (v) = B, de forma que también f (x) − x cambia de signo entre u y v, luego ∃ c ∈ [u, v] ⊂ [a, b]
de manera que f (c) = c.

19
B=3

2.5

b=2
c y=x
1.5
f(I)Ê I
a=1

A=0.5

0.5 a=1 c b=2 2.5

8.2. Estabilidad de los puntos fijos

Definición 22. Si todo entorno U de un punto fijo x∗ contiene otro entorno V tal que las órbitas positivas que
comienzan en V estan contenidas en U , diremos que tenemos un punto fijo estable.
Si ϕ(A, N) representa el conjunto de órbitas de los puntos del conjunto A, entonces la propiedad que relaciona U
y V la escribimos ϕ(V, N) ⊂ U .
Si en la anterior definición cambiamos el término punto fijo por el de subconjunto invariante y cerrado, entonces
se generaliza la definición de estabilidad.

Definición 23. Sea x∗ un punto fijo estable. Si existe un entorno U de x∗ de manera que toda órbita de U tenga
como conjunto límite positivo el propio x∗ , diremos que es un punto asintóticamente estable o punto absorbente.

lı́m fn (x) = x∗ , ∀x ∈ U
n→∞

Propiedad 5 (Criterio de estabilidad). Sea f una función contínua definida en un entorno ]a, b[ de un punto fijo
c. Consideremos la gráfica de la función f en el plano XY . Si consideramos en este plano un círculo alrededor
del punto (c, f (c)), de forma que la gráfica de f esté contenida en los sectores I, I ∗ ó II, II ∗ (ver figura), c es
un punto fijo asintóticamente estable.

II I* f(x)
(a,0)
(c,0) (b,0)
I II*

D EMOSTRACIÓN : Si f está en I, I ∗ , para c ≤ x < b se verificará que f (c) ≤ f (x) < x en I ∗ . Entonces, c es el
límite positivo de todo punto de la órbita de x.
En efecto, para las hipótesis establecidas tendremos x ≥ f1 (x) ≥ f2 (x) ≥ . . . .
Como que todo fn (x) está en I ∗ , la sucesión está acotada inferiormente y, por tanto existe el límite que es un
punto fijo, ya que
f (lı́m xn ) = lı́m f (xn ) = lı́m xn+1 = lı́m xn

Como el único punto fijo que existe es c, este es el límite. Se llega a conclusiones similares si x < f (x) ≤ c en un
intervalo a < x < c.

20
Si la gráfica está en los sectores II, II ∗ , consideramos f2 . Comenzando en un punto de uno de los sectores, el
segundo iterado vuelve a estar en el mismo sector. Con un razonamiento similar al caso anterior llegamos a las
mismas conclusiones.

Además de saber si un punto es estable, es importante conocer cuáles son las trayectorias que tienden a él.

Definición 24. Llamaremos conjunto estable de x∗ al conjunto de puntos de I que tienden a él. Lo denotaremos
por W s (x∗ ).
W s (x∗ ) = {x | lı́m fn (x) = x∗ }
n→∞

Análogamente, el conjunto inestable de x∗ es el conjunto de puntos de I que tienen a x∗ como conjunto límite
negativo. Lo denotaremos por W u (x∗ ).

Propiedad 6. Los conjuntos estables de dos puntos fijos distintos no se intersecan.

D EMOSTRACIÓN : Supongamos que p y q son dos puntos fijos y que x es un punto común a los conjuntos estables de
p y q. Vamos a ver que ha de ser p = q.
Efectivamente, como p es un punto límite de x, existe una sucesión fn(p) (x) que tiende a p.

Análogamente existe fn(q) (x) que tiende a q.


Dado un ε existen números N y M tales que cuando m > N , m > M se tiene que
ε ε
|p − fm (x)| < , |q − fm (x)| <
2 2

y, por tanto,
|p − q| = |p − fm (x) + fm (x) − q| ≤ |p − fm (x)| + |q − fm (x)| ≤ ε
y, como que ε es arbitrario tenemos que p = q.

Teorema 2. Sea x∗ un punto fijo atractor de la aplicación f : I −→ I y sea W s (x∗ ) =]a, b[. Entonces, se pueden
dar las siguientes tres situaciones
a) a, b son puntos fijos, es decir, tendremos f (a) = a y f (b) = b,
b) {a, b} forma una trayectoria periódica de periodo 2, es decir, tendremos f (a) = b y f (b) = a,
c) uno de los puntos a ó b es fijo y el otro es eventualmente fijo a él, es decir, tendremos f (a) = f (b) = a ó
f (a) = f (b) = b.
Esta situación ve reflejada en la siguiente figura

8 5
3.5

3
4
6
2.5
3
2
4
1.5 2

1
2
1
0.5

2 4 6 8 0.5 1 1.5 2 2.5 3 1 2 3 4 5


a x* b a x* b
a x* b

21
8.3. Hiperbolicidad
Hasta ahora sólo hemos exigido de la función f que fuera contínua. Ahora vamos a añadir condiciones de deriva-
bilidad sobre f .
Recordemos que una función f es de clase C 1 cuando admite derivada primera contínua. Una condición equiva-
lente a que f y f −1 sean de clase C 1 es que f sea de clase C 1 y que su derivada no se anule en ningún punto. En
este caso se dice que f es un difeomorfismo.

Definición 25. Sea x∗ un punto fijo de f , supongamos que f sea un difeomorfismo en un entorno de x∗ . Entonces
diremos que x∗ es un punto fijo hiperbólico si el valor absoluto de la derivada de f en x∗ es distinto de la unidad.
¯ ¯
¯ df ∗ ¯
¯ (x )¯ 6= 1
¯ dx ¯

Para los puntos hiperbólicos podemos dar un nuevo criterio de estabilidad.

1 ∗
Teorema 3 (Estabilidad de¯ un punto ¯ fijo hiperbólico). Sea f de clase C sobre un intervalo I, y sea x un punto
¯ df ∗ ¯
fijo hiperbólico de f , con ¯¯ (x )¯¯ < 1. Entonces x∗ es un punto fijo absorbente.
dx
D EMOSTRACIÓN : Tomemos un a tal que |f 0 (x)| < a < 1. Dado que
|f (x) − f (x∗ )|
lı́m ∗ = |f 0 (x∗ )|
x−→x |x − x∗ |
hay un entorno Uε (x∗ ), para un ε > 0, tal que
|f (x) − f (x∗ )|
< a, ∀x ∈ Uε (x∗ )
|x − x∗ |

Esto significa que f (x) está más cerca de x∗ que el propio x en un factor a < 1, entonces, ∗
¯ k si x ∈∗ ¯Uε (x k), tenemos
que f (x) ∈ Uε (x ) y también pasa lo mismo para f2 , f3 , etc., de manera que ¯f (x) − x ¯ ≤ a |x − x∗ |,

∀k ≥ 1, y por tanto x∗ es atractor.

Corolario 1. Si x∗ es un punto fijo hiperbólico que verifica las condiciones del teorema de estabilidad en un
entorno U de x∗ , entonces x∗ es el único límite positivo de las órbitas de puntos de U .
Si el entorno U coincide con todo el intervalo I diremos que la aplicación es contractiva.

Ejemplo 2.
Tomemos la función f (x) = 2x(1 − x), x ∈ [0, 1].
Sus puntos fijos son x∗ = 1/2 y x∗ = 0.
¯ ¯ ¯ ¯
Comparamos ¯f (x) − 12 ¯ con ¯x − 21 ¯.
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 ¯¯
¯f (x) − 1 ¯ = ¯2x(1 − x) − 1 ¯ = ¯2x − 2x2 − 1 ¯ = 2 ¯x − x2 − =
¯ 2 ¯ ¯ 2 ¯ ¯ 2 ¯ ¯ 4¯
¯µ ¶µ ¶¯ ¯ ¯¯ ¯
¯ 1 1 ¯ ¯ 1 ¯¯ ¯¯ 1 ¯¯
¯
= 2¯ x − ¯ ¯
− x ¯ = 2 ¯x − ¯ ¯x − ¯
2 2 2 2
| {z }
a

como a < 1 cuando x ∈]0, 1[ tenemos que x∗ es un atractor.

22
¯ ¯
¯ df ∗ ¯
Teorema 4. Sea f una función de clase C , si x es un punto fijo hiperbólico con ¯ (x )¯¯ > 1, entonces x∗ es
1 ∗ ¯
dx
un punto repulsor.
D EMOSTRACIÓN : Como la derivada de la función inversa de f es la inversa de la función derivada, (f −1 )0 = 1/f 0 (x),
podemos aplicar el teorema 3 anterior a f −1 y obtendremos inmediatamente que x∗ es un punto absorbente para
f −1 , lo cual es equivalente a ser un punto repulsor para f .
También se puede hacer la demostración directa de forma semejante al teorema anterior, que se deja como ejerci-
cio.

8.4. Estabilidad de las órbitas periódicas

Propiedad 7. Una órbita, Γ, de periodo k de una aplicación de clase C 1 , de Rn en Rn , es estable si y solamente


si todo punto de ella es un punto fijo estable para fk .
D EMOSTRACIÓN : Si aplicamos la definición de estabilidad a una órbita Γ de periodo k, tendremos que dado un
entorno U de Γ hay otro V tal que fn (V ) ⊂ U para todo n.
El entorno U lo podemos considerar como unión de entornos disjuntos Ui , i = 1, . . . , k de cada uno de los puntos
xi de Γ de forma que Ui ∩ Uj = ∅, si i 6= j.

El entorno V ⊂ U , también será unión de entornos Vi .

Tomemos un punto xi ∈ Γ y otro yi ∈ Vi .


Si fm (xi ) = xj ∈ Vj , por continuidad de f tendremos que fm (yi ) ⊂ Uj , es decir, fm (Vj ) ⊂ Uj .
En particular si suponemos que m es un múltiplo de k, el periodo de Γ, tendremos que (fm )k (Vi ) = fkm (Vi ) ⊂
Ui . Por tanto, si la órbita es estable todo punto de ella es un punto fijo estable de fk .
El recíproco es inmediato.

Definición 26. Llamaremos conjunto estable de una trayectoria γ, al conjunto de puntos de I que tienden a γ y lo
denotaremos por W s (γ) o W s (p) si p es un punto de γ.
Análogamente, llamaremos conjunto inestable de γ, al conjunto de puntos de I que tienen a γ como conjunto límite
negativo. Lo denotaremos por W u (γ) o W u (p).

De forma semejante a lo que ocurre para los puntos fijos, los conjuntos estables de dos órbitas periódicas distintas
no se intersectan.

¯ ¯
¯ dfk ¯
¯
Definición 27. Una órbita periódica de periodo k para la aplicación f diremos que es hiperbólica si ¯ (p)¯¯ 6=
dx
1, donde p es un punto cualquiera de la trayectoria.
¯ ¯
¯ dfk ¯
Asimismo, dependiendo de que ¯¯ (p)¯¯ sea menor o mayor que la unidad, la órbita periódica será atractora o
dx
repulsora.
dfk
Obsérvese que, calculando como derivada de una función compuesta, la derivada de fk resulta ser el producto
dx
de las derivadas de f en cada punto de la órbita periódica.

23
Es decir,
¯ ¯ ¯ ¯ Yk ¯
dfk ¯¯ d ¯ dfk−1 ¯¯ df ¯¯ df ¯¯
¯ = fk−1 [f (x)]¯¯ = ¯ · ¯ = ··· =
dx x=p dx x=p dx f (p) dx x=p i=1
dx ¯x=xi

Esta fórmula demuestra, además, que el carácter de la órbita periódica no depende del punto particular que consi-
deremos. Más concretamente, podemos enunciar el siguiente

Teorema 5 (Estabilidad de una trayectoria periódica de una función derivable). Una órbita de periodo k de una
aplicación de clase C 1 es absorbente (repulsora) si un punto cualquiera p de ella es un punto fijo absorbente
(repulsora) de fk .
2
1
Por ejemplo, la función f (x) = − x − x4 , tiene una trayectoria de periodo 2: {1, −1}.
4
¯ ¯
df2 ¯¯ df2 ¯¯ 3
Derivando dos veces tenemos ¯ = ¯ = , por tanto, la trayectoria es repulsora.
dx x=1 dx x=−1 4
¯ ¯ µ ¶
df ¯¯ df ¯¯ 3 1 3
Aplicando la fórmula tenemos: · =− · − = .
dx ¯x=1 dx ¯x=−1 2 2 4

8.5. Órbitas de periodo tres


La existencia de órbitas de periodo 3 es importante puesto que tenemos el siguiente resultado:

Teorema 6 (Lie y Yorke). Si f ∈ C 0 (I) tiene una órbita de periodo 3, entonces tiene órbitas de todos los
periodos.
Hay también otra serie de resultados sobre la existencia de órbitas periódicas que implican la existencia de otros
periodos. Entre ellos el más importante, con mucho, es el conocido como teorema de Sarkovski.

Proposición 1. Entre dos puntos de una trayectoria de periodo m > 1 hay al menos un punto de alguna trayec-
toria de periodo m0 < m.

Proposición 2. Si una aplicación tiene una trayectoria de periodo m > 2, entonces también ha de tener una de
periodo 2.

Corolario 2. Si una aplicación tiene una trayectoria de periodo 2l , l ≥ 1, entonces también tiene trayectorias de
los periodos 2n , para n = 0, 1, . . . , l − 1.

Corolario 3. Si una aplicación tiene una trayectoria de periodo distinto a cualquier potencia de 2, 2n , n =
0, 1, 2, . . ., entonces también tiene trayectorias de todos estos periodos 2n , n = 0, 1, 2, . . ..

El Teorema de Sarkovski (1964) es probablemente el que proporciona una respuesta más completa al problema
de la existencia de los distintos periodos que pueden aparecer en una trayectoria.

24
Consideremos la siguiente ordenación de los números naturales:

3 B 5 B 7 B 9 · · · B 2 ∗ 3 B 2 ∗ 5 B 2 ∗ 7 B 2 ∗ 9 · · · B 22 ∗ 3 B 22 ∗ 5 . . .
B 23 ∗ 3 B 23 ∗ 5 B 23 ∗ 7 B 23 ∗ 9 · · · B 23 B 22 B 2 B 1

La construcción es la siguiente: primero aparecen todos los impares, excepto el 1, de menor a mayor; después
estos multiplicados por 2, 22 , 23 , etc.
Así tenemos listados todos los números que no sean potencias de 2, las cuales figuran al final y en orden decre-
ciente.

impares s×2 s×4 ...


1 2 4 ...
3 6 12 ...
5 10 20 ...
7 14 28 ...
... ... ... ...
1

3 6 12

Teorema 7 (de Sarkovski). Sea f una función contínua de R en R. Si tiene una órbita k-periódica y k B l, segun
el orden anterior, f también tiene una órbita de periodo l.
Este resultado es conocido habitualmente como Teorema de Sarkovski. Pero hay otros dos resultados debidos
también a Sarkovski sobre las órbitas periódicas de una aplicación sobre el intervalo.

Teorema 8 (inverso de Sarkovski). Para todo k entero positivo, hay una aplicación continua sobre el intervalo
que tiene una órbita k-periódica, pero ninguna órbita n-periódica para n posterior a k en la ordenación de
Sarkovski.
Así la existencia de una trayectoria de periodo 5 no implica la existencia de una de periodo 3, pero si de todos los
demás periodos.
La existencia de una órbita periódica, cuyo periodo no es potencia de 2 implica la existencia de órbitas de todos
los periodos que son potencias de 2.
Si una aplicación tiene una trayectoria de periodo impar, k > 1, entonces tiene trayectorias para todos los periodos
impares mayores que k y trayectorias con todos los periodos pares.

También tenemos el siguiente teorema:

Teorema 9. Hay una aplicación continua sobre el intervalo que tiene órbitas 2n -periódicas para todo n, pero no
tiene órbitas de otros periodos.

25
9. Bifurcaciones
9.1. Definición
Vamos a considerar ahora recurrencias definidas a partir de una función que depende de un parámetro

x1 = f (x, µ), x ∈ V, µ ∈ Rn
Los sistemas que dependen de parámetros se presentan de manera natural.
En todo sistema real siempre hay una serie de constantes que intervienen (la masa, la fricción, la temperatura, etc.)
que se consideran fijadas, pero que pueden cambiar y al mismo tiempo variar el comportamiento del sistema.
Si para un determinado valor µ = µ0 conocemos la dinàmica del sistema y vamos variando este valor, podemos
preguntarnos cómo y de qué manera cambiará el tipo de comportamiento de las trayectorias del sistema.
El objetivo de la teoria de bifurcaciones es responder a estas preguntas y, en una concepción más amplia, se
aplica para designar cualquier modificación producida cuando cambian los parámetros de los que depende el
objeto a estudiar, ya sea este una recurrencia, una familia de curvas o superfícies, campos vectoriales, ecuaciones
diferenciales o integrales, etc.
En realidad, todo modelo y toda medida son aproximados. Es por eso que un buen modelo matemático de un
sistema real ha de ser tal que la evolución de las órbitas cambie poco si cambian poco los parámetros.
Si esto no fuera así, el comportamiento del sistema sería difícilmente predecible. Por ello se hace necesario conocer
los valores de los parámetros para los cuales se pueden dar cambios cualitativos.

9.2. Propiedades

Teorema 10 (Continuación de puntos hiperbólicos). Sea f (x, µ) una familia de aplicaciones de clase C 1 de R2
en R.
De manera que para µ = µ∗ el punto x = x∗ sea un punto fijo con
¯ ¯
¯ ∂f ∗ ∗ ¯
¯ (x , µ )¯ 6= 1
¯ ∂x ¯

Entonces, hay un intervalo I que contiene x∗ , otro intervalo J que contiene µ∗ y una función p de clase C 1 ,
p : J −→ I, tal que p(µ∗ ) = x∗ y f (p(µ), µ) = p(µ).
Además f (x, µ) no tiene otro punto fijo en I que p(µ).
Esto significa que dado x∗ punto fijo para µ = µ∗ , si es un punto fijo hiperbólico, entonces las funciones que esten
“proximas” a f seguirán teniendo un punto fijo hiperbólico.
En particular, si µ está próximo a µ∗ , seguirá habiendo un punto fijo hiperbólico p(µ). Pero además existe una
función x∗ (µ) que proporciona el valor del punto fijo en función del parámetro.
D EMOSTRACIÓN : Definimos la función auxiliar g(x, µ) = f (x, µ) − x.
Por hipótesis
g(x∗ , µ∗ ) = 0
∂g ∗ ∗ ∂f ∗ ∗
(x , µ ) = (x , µ ) − 1 6= 0
∂x ∂x

El teorema de la función implícita aplicado a g nos dice que hay una función p(µ) tal que g(p(µ), µ) = 0 y que
verifica las condiciones enunciadas en el teorema.

26
9.3. Tipos de bifurcación
Las bifurcaciones se producirán pues para valores del parámetro en los cuales el punto fijo deje de ser hiperbólico.
La bifurcación genérica que presentan las familias de aplicaciones con que tratamos es la bifurcación silla-nodo
o bifurcación tangente.
El ejemplo más sencillo es la aplicación

x1 = f (x, µ) = µ − x2
1 1
cuando µ = − , x∗ = − .
4 2
Si µ < −1/4 la gráfica de la función no corta a la bisectriz del primer cuadrante. Si µ = −1/4, la gráfica es
tangente a la bisectriz (un sólo punto fijo) y finalmente, cuando µ > −1/4 hay dos puntos de corte, uno estable y
el otro inestable.

La situación se puede visualizar en la siguiente figura.


1.0
1.0

0.5 0.5

1.0 0.5 0.5 1.0 1.0 0.5 0.5 1.0

0.5 0.5

1.0
1.0

1.5

µ < -1/4 µ = -1/4


1.0

0.5

1.0 0.5 0.5 1.0

0.5

1.0

µ > -1/4

Teorema 11 (Bifurcación silla-nodo). Sea f (x, µ) una aplicación de clase C 2 de R2 en R que tiene un punto fijo x∗ no
∂f ∗ ∗
hiperbólico para un valor µ = µ∗ , es decir, f (x∗ , µ∗ ) = x∗ y (x , µ ) = 1, y verifica:
∂x
∂2f ∗ ∗
1) (x , µ ) 6= 0
∂x2
∂f ∗ ∗
2) (x , µ ) 6= 0
∂µ
Entonces hay dos intervalos ]µ1 , µ∗ [, ]µ∗ , µ2 [ y un ε > 0 de manera que en uno de ellos f (x, µ) tiene dos puntos
fijos en [x∗ − ε, x∗ + ε], uno de ellos es absorbente y el otro repulsora.
En cambio, en el otro intervalo, f (x, µ) no tiene puntos fijos.

Observemos que el cambio de signo en una de las propiedades 1) ó 2) intercambia los intervalos ]µ1 , µ∗ [ y ]µ∗ , µ2 [
donde no hay puntos fijos.
Cuando el valor del parámetro es el de bifurcación, el punto fijo no es hiperbólico. Entonces no podemos aplicar el
criterio habitual de estabilidad. Sin embargo, sabemos que si se verifica el teorema de bifurcación silla-nodo, los
puntos tienden por un lado del intervalo al punto fijo y se alejan de él por el otro; entonces, el punto no es estable.
Un punto de equilibrio con estas características se llama semiestable.

27
Teorema 12 (Cambio de estabilidad). Sea f (x, µ) una aplicación de clase C 2 de R2 en R que tiene un punto fijo x∗ no
hiperbólico para el valor µ = µ∗ que verifica:
∂f ∗ ∗
1) (x , µ ) = −1
∂x
∂ 2 f ∗ ∗ ∂f ∗ ∗ ∂2f
2) (x , µ ) (x , µ ) + 2 (x∗ , µ∗ ) 6= 0
∂x2 ∂µ ∂x ∂µ
Entonces hay una curva de puntos fijos x(µ) de forma que si en ]µ∗ −ε, µ∗ [ los puntos son absorbentes, en ]µ∗ , µ∗ +ε[
son repulsores.

28
10. Ecuación logística
10.1. Definición
Uno de los objetivos de la Ecología es predecir el comportamiento de una población.
Se llama tasa de crecimiento a la variación neta de población por unidad de tiempo dividida por la población total
al inicio de un periodo de tiempo.

Supongamos que la población x(n) en el recuento n pasa a valer, en el siguiente recuento, x(n + 1) = x(n) +
∆x(n), que se realiza después de h unidades de tiempo.
∆x
La tasa de crecimiento en este caso sería pues .
hx
La ecuación de crecimiento geométrico es la más simple para hacer esta previsión y dentro de esta, la hipótesis
más sencilla es la de una tasa de crecimiento constante, a.

∆x(n) = ax(n)

Es el caso de una cantidad de nacimientos y muertes proporcionales a la población total.


Así, llegamos a la ecuación en diferencias ∆x = ahx = kx. Si k > 1, tendremos un crecimiento ilimitado. Y si
k < 1 se llegará a la extinción.
La tasa de crecimiento puede depender de muchos factores, aparte de cuál sea la población. Por ejemplo, de la
cantidad de alimentos disponible ´per cápita’, digamos σ, de manera que exista un mínimo σ0 necesario para
sustentar la población.

Para σ > σ0 la tasa de crecimiento será positiva; para σ < σ0 será negativa y para σ = σ0 será nula.

El modelo más simple para la tasa es considerar que esta dependa linealmente de σ − σ0 , y por tanto

∆x = α(σ − σ0 )x

En este modelo, la población podría crecer sin límite o tender a cero, es decir, a la extinción.
Es más realista suponer que cuando el nivel de población llega a un cierto valor ν, la tasa de crecimiento se vuelve
negativa a causa de la menor disponibilidad de recursos, factores ambientales, etc.

Así que cambiamos el modelo ilimitado por la ecuación de crecimiento limitado

∆x = α(ν − x)x,
1
x1 = x + α(ν − x)x = α( + ν − x)x
α

1
Normalizando las unidades de forma que +ν =1
α
Ecuación logística
x1 = α(1 − x)x, α > 0, x ∈ [0, 1] (6)

29
10.2. La ecuación logística y las aplicaciones cuadráticas
Además de ser un modelo importante para predecir la evolución de una población, la ecuación logística tiene
interés porque sirve de representante de una gran parte de las aplicaciones cuadráticas.
Vamos a ver en primer lugar que toda aplicación definida por un polinomio de segundo grado se puede escribir
con el primer coeficiente igual a la unidad y el segundo igual a cero.

Proposición 3 (Forma normal de una aplicación cuadrática). Toda aplicación cuadrática es conjugada a una
aplicación de la forma
x1 = x2 + a

D EMOSTRACIÓN : Con un cambio de escala se puede conseguir que el coeficiente del término de segundo grado sea
1. Partimos de
y1 = a2 y 2 + a1 y + a0 , a2 6= 0

y hacemos el cambio z = a2 y. Tenemos

z1 = z 2 + a1 z + a2 a0
a1
Con un cambio de origen se puede eliminar el coeficiente del término lineal. Hacemos x = z + y tenemos
2
a1
x1 = x2 + (2 − a1 ) + a2 a0
4
a1
Tomando a = (2 − a1 ) + a2 a0 queda demostrado el resultado.
4
Se podría haber considerado el cambio directo
a1
x = a2 y +
2

Propiedad 8 (La ecuación logística como modelo de una aplicación cuadrática). Toda aplicación cuadrática que
en forma normalizada tenga un valor del término independiente estrictamente menor que 1/4 es conjugada a la
aplicación logística.
D EMOSTRACIÓN : Si tenemos
y1 = −αy 2 + αy
con la notación anterior a2 = −α, a1 = α, a0 = 0, la que implica que en forma normalizada la ecuación logística
será
α
x1 = x2 + (2 − α) = x + a
4
Dada una aplicación normalizada se tendrá una logística equivalente resolviendo
α
a= (2 − α)
4
√ 1
es decir, α = 1 ± 1 − 4a. Y se llega a la condición a ≤ .
4
Además, si exigimos que α sea positivo, elegiremos el signo + de la última ecuación.
Con ello queda demostrada la propiedad.

30
0.8
0.8

0.6
0.6

0.4 f(x) = 1.5x(1-x)


0.4
f(x) = 0.85 x(1-x)
0.2
0.2

0.2 0.4 0.6 0.8 1


0.2 0.4 0.6 0.8 1

10.3. Puntos fijos y órbitas de periodo dos

Propiedad 9 (Puntos fijos de la aplicación logística). La ecuación logística tiene el punto fijo x∗ = 0 para todo
α−1
α y, si α > 1, también el punto x∗ = .
α

Propiedad 10 (Órbitas de periodo dos de la aplicación logística). Para todo α > 3, la ecuación logística admite
una órbita de periodo 2.

D EMOSTRACIÓN :

x2 = f (f (x)) = f (αx(1 − x)) = α2 x(1 − x)(1 − αx(1 − x))


¡ ¢
= −α2 x (1 − x) − αx(1 − x)2

De manera que la ecuación x2 = x tiene una raíz x = 0, que la descartamos ya que es un punto fijo para todo α.

Buscamos pues las raíces de α3 x3 − 2α3 x2 + (α2 + α3 )x − α2 − 1 = 0.

α−1
Como que, para todo α > 1, tenemos que es otro punto fijo, también será solución y la podemos eliminar.
α
Nos queda que la posible órbita 2-periódica será solución de

α2 x2 − (α2 + α)x + α + 1 = 0

es decir, p
α+1± (α + 1)(α − 3)
x=

Cuando α ≥ 3, x será real.
Para α = 3 nos queda una raíz doble x = 2/3 que es el punto fijo correspondiente.

Si α > 3 tendremos dos valores distintos que corresponden a los dos puntos de la órbita periódica. Aumentando
α, el valor mayor de x tiende a 1 y el más pequeño a cero.

Veamos algunas figuras para diversos valores de α

31
1 1

f(x) = 2.9x(1-x) f(x) = 3.2x(1-x)


0.8 0.8

f2 (x)
0.6 0.6
f2 (x)

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

f(x) = 4.3x(1-x)
f(x) = 3.8x(1-x)
1 1

0.8 0.75

0.6 0.5

0.4 0.25

f2 (x)
0.2 0.2 0.4 0.6 0.8 1

f2 (x)
-0.25
0.2 0.4 0.6 0.8 1

10.4. Trayectorias de periodo 3


Como se ve en la figura, para α = 3.8 todavía no hay trayectorias de periodo 3. Para α = 3.9 ya hay dos.

1 1 f(x) = 3.9x(1-x)
f(x) = 3.8x(1-x)

0.8 0.8

f3 (x)
f3 (x)
0.6 0.6

0.4 0.4

f2 (x)

0.2 0.2
f2 (x)

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

10.5. Estabilidad de los puntos fijos de la aplicación logística


Consideremos la aplicación logística f (x) = αx(1 − x), con x ∈ [0, 1], tenemos que

df
= α(1 − 2x)
dx

Por tanto
¯ ¯
¯ df ¯
¯ ¯ < 1, si 0 < α < 1
¯ dx ¯
¯ ¯
¯ df ¯
¯ ¯ > 1, si α > 1
¯ dx ¯

32
Entonces tendremos que el origen será un punto absorbente si 0 < α < 1 y repulsor si α > 1.
Pero, cuando α = 1 tenemos f (x) = x − x2 < x, si x > 0. En este caso, la región de atracción, es decir, el
conjunto estable, es todo el intervalo.
Por tanto tenemos
Propiedad 11. Si 0 < α ≤ 1 toda órbita de la ecuación logística tiende a 0.

0.4

0.2

-0.4 -0.2 0.2 0.4

-0.2

-0.4

Cuando α > 1, aparece el punto fijo de coordenadas (α − 1)/α y la estabilidad se analiza de la misma manera
µ ¶
df α − 1
=2−α
dx α

Será absorbente si 1 < α < 3 y repulsor si α > 3.


Si α = 3, el punto fijo es el 2/3. Hacemos un cambio de coordenadas que lleve este punto al origen: u = x − 2/3,
y tenemos
2 2
u1 =x1 − = 3(x − x2 ) − =
µ 3 3 ¶
2 4 2u 2
=3 u + − u2 − − − = u − 3u3
3 9 3 3
Los puntos con u > 0 tienden al origen; en cambio, si u < 0 escapan de él.

Propiedad 12. Para 1 < α < 3, si x no es el origen o un punto eventualmente fijo respecto del origen, se tiene
Ωx = {punto fijo diferente del origen}
0.5
0.6

0.4 0.5

0.4
0.3

0.3
0.2

0.2

0.1
0.1

A B J

0.2 p. fix 0.4 0.6 0.8 x0 1 0.2 1/a (a-1)/a 0.8 1

a) b)

Equación logística. a) 1 < α ≤ 2, b) 2 < α < 3.

10.6. Estabilidad de las trayectorias de periodo 2


Como ya hemos visto, la órbita de periodo 2 está formada por los puntos:
p p
1 + α + (α + 1)(α − 3) 1 + α − (α + 1)(α − 3)
x1 = , x2 =
2α 2α
y, por tanto, solo hay trayectorias de periodo 2 a partir de α > 3.

33
√ √
Se puede comprobar que f 0 (x1 ) = −1 − α2 − 2α − 3 y f 0 (x2 ) = −1 + α2 − 2α − 3, de manera que

f 0 (x1 )f 0 (x2 ) = 4 + 2α − α2

Si dibujamos esta función de α, tenemos

4
4 + 2a - a
2

1
1-Ö6 1+Ö6
-2 -1 1 2 3 4
-1

-2


los valores de α que igualan al polinomio a 1 son −1 y 3, mientras que el polinomio vale −1 para α = 1 ± 6.

Tendremos entonces que la trayectoria periódica será absorbente para valores de α entre 3 y 1 + 6, dado que
sólo consideramos valores α > 0.

En la siguiente figura representamos la gráfica de f2 para la ecuación logística y el plano y = x, en el espacio


ampliado al considerar el parámetro α como la tercera variable.

1
0.75
5
0.5
5
0.25
5 0
0
2.5 0.25
a
0.5
3

0.75
3.5 x
1

11. La función tienda


11.1. Definición
Se llama aplicación tienda general a la que se define como
(
px, x ≤ 1/2
Tp (x) =
p(1 − x), x > 1/2

El caso más importante es cuando p = 2, a la que nos solemos referir cuando aludimos a la función tienda sin
especificar el valor de p.

34
1.0

0.8

0.6

0.4

0.2

0.0 0.2 0.4 0.6 0.8 1.0

11.2. Conjugación con la logística


Consideremos la aplicación tienda con p = 2 y la logística con α = 4, L(x) = 4x(1 − x).
πx
Sea la aplicación y = C(x) = sin2 , x ∈ [0, 1].
2
Entonces tenemos, considerando x ≤ 1/2,
³ πx πx ´2
C(T (x)) = sin2 πx = 2 sin cos =
³ 2 ´ 2
πx πx
= 4 sin2 1 − sin2 = 4C(x)(1 − C(x)) =
2 2
= L(C(x))

Se puede verificar que también se cumple esta relación cuando x > 1/2. De modo que,

C(T (x)) = L(C(x))

Como C es biyectiva, tenemos T (x) = C −1 (L(C(x))), x ∈ [0, 1], y por tanto, T y L son aplicaciones conjugadas.
Sea x∗ el punto fijo de L.
Tendremos
x∗ = L(x∗ ) = C(T (C −1 (x∗ )))
y
C −1 (x∗ ) = T (C −1 (x∗ ))
lo que significa que C −1 (x∗ ) es un punto fijo para T .
De la misma manera se tiene que si y ∗ es un punto fijo de T , C −1 (y ∗ ) es un punto fijo de L.

Veamos que pasa con los segundos iterados.

T 2 = (C −1 ◦ L ◦ C) ◦ (C −1 ◦ L ◦ C) = C −1 ◦ L2 ◦ C

También las aplicaciones para los segundos iterados son conjugadas.


Sucesivamente, podemos ver que los iterados m-èsimos también son conjugados.

En consecuencia si {x0 , x1 , . . . xk−1 } es una trayectoria de periodo k de L, {C −1 (x0 ), C −1 (x1 ), . . . C −1 (xk−1 )}


será una trayectoria de periodo k de T .
Tenemos pues que, en general, C(T m (x)) = Lm (C(x)), x ∈ [0, 1] y, por tanto el comportamiento de las trayec-
torias es semejante en ambas aplicaciones.

35
12. Exponentes de Lyapunov
12.1. Definición y cálculo
Una forma de medir la complejidad del comportamiento de las soluciones de las ecuaciones en diferencias consiste
en calcular el número de Lyapunov.
Es conocido que la dinámica caótica se caracteriza por una divergencia exponencial de puntos inicialmente cerca.
Si x∗ es un punto fijo de una aplicación f y f 0 (x∗ ) = a > 1, entonces la trayectoria de cada punto x cerca de x∗
se separa de x∗ aproximadamente a una “velocidad” a para cada iteración.

Para una trayectoria de periodo k, la derivada es el producto de las derivadas en los k puntos de la órbita. Supon-
gamos que este producto es A > 1, entonces una órbita de un punto cerca del punto periódico x̄ se separa de x̄
a una “velocidad” de A para cada k iterados, de manera que tiene sentido hablar de una “velocidad” media de
separación A1/k para cada iteración.

La importancia del concepto de número de Lyapunov reside en el hecho de que se puede aplicar a trayectorias no
periódicas y dar una definición de trayectoria caótica como aquella que no tiende a ninguna periódica y su número
de Lyapunov es mayor que 1.
Supongamos una aplicación de un intervalo ]a, b[ en sí mismo xn+1 = f (xn ). El exponente de Lyapunov va a
ser una medida de la divergencia entre órbitas que empiezan en puntos cercanos, x0 y x0 ± δ0 .

Si x0 es un punto de una trayectoria k-periódica y tomamos un punto cercano x0 ± δ0 , después de una iteración,
la distancia entre los dos puntos vendrá aproximada por

δ1 ≈ |f 0 (x0 )| δ0 = M0 δ0

M0 es un factor multiplicador del primer paso.


En una segunda iteración tendremos

δ2 ≈ |f 0 (x1 )| δ1 = M1 δ1 = M1 M0 δ0

De forma recurrente, el factor total al cabo de k iteraciones que completan el período es el producto M0 M1 M2 . . . Mk−1 .
Como este producto es una acumulación de factores, tiene sentido que se considere algún tipo de “media” sobre
él, y en este caso, la más adecuada es la media geométrica (M0 M1 M2 . . . Mk−1 )1/k
Si tomamos logaritmos sobre este valor tenemos

λ = log(M0 M1 M2 . . . Mk−1 )(1/k) =


1
= (log M0 + log M1 + · · · + log Mk−1 ) =
k
1
= (log |f 0 (x0 )| + log |f 0 (x1 )| + · · · + log |f 0 (xk−1 )|)
k

Intuitivamente, la condición para la estabilidad de la trayectoria periódica es que la media del factor de multipli-
cación sea menor que 1, lo cual equivale a que λ < 0.
Por tanto, si λ < 0 la trayectoria será estable y si λ > 0 inestable.

36
Definición 28. El exponente de Lyapunov λ(x0 ) de una aplicación diferenciable f viene dado por
1
λ(x0 ) = lı́m (log |f 0 (x0 )| + log |f 0 (x1 )| + · · · + log |f 0 (xk−1 )|)
k→∞ k
suponiendo que el límite existe.
En caso de que alguna de las derivadas se anule, pondremos λ(x0 ) = −∞.

Definición 29. El número de Lyapunov L(x0 ) se define por la exponencial del exponente de Lyapunov, siempre
que exista
L(x0 ) = exp λ(x0 )

Es una cuestión todavía abierta si este valor existe para toda órbita.

Teorema 13. Si al menos un exponente de Lyapunov es positivo, entonces el sistema es caótico. Si para un punto
es negativo, entonces su trayectoria és periódica. Y cuando un exponente de Lyapunov se anula, entonces se tiene
una bifurcación.

12.2. Exponentes de Lyapunov en la tienda y la logística


Usualmente, los exponentes de Lyapunov no son fáciles de calcular, pero una excepción es la aplicación tienda.
Para la aplicación tienda general tenemos
(
0 p, x < 1/2
Tp (x) =
−p, x > 1/2
0
y Tp (1/2) no está definida.
Entonces, cualquier órbita de la aplicación tienda que no pase por el punto 1/2 tiene λ(x0 ) = log p.

Este resultado permite obtener el exponente de Lyapunov para la ecuación logística conjugada cuando p = 2.
En la sección anterior hemos visto que C(T m (x)) = Lm (C(x)), x ∈ [0, 1] y el comportamiento de las trayectorias
se traslada de un sistema a otro.
Vamos a utilizar esta expresión para calcular las derivadas y de estas los exponentes de Lyapunov de la aplicación
logística en sus puntos periódicos.
Por la regla de la cadena,
0 0
C 0 (T m (x)) (T m (x)) = (Lm (C(x))) C 0 (x), m = 1, 2, . . .

Si consideramos una trayectoria de período k de la función tienda comenzando en x0 , tenemos que T k (x0 ) = x0
y, por tanto, la derivada de C 0 se puede eliminar de los dos miembros de la expresión anterior de manera que
¡ ¢0 ¡ ¢0
T k (x) = Lk (C(x))

Ya que el exponente de Lyapunov se obtiene tomando la media aritmética de los logaritmos de los valores absolutos
de las derivadas, tenemos que para órbitas periódicas de la aplicación logística L este tiene el mismo valor que
para las órbitas correspondientes de la aplicación tienda, es decir, log 2.

37
13. Comportamiento caótico
13.1. Caos
• Decimos que una aplicación sobre un intervalo I presenta un comportamiento caótico en sus trayectorias cuando
se tienen las siguientes condiciones:
Densidad: Podemos tomar un valor inicial x0 de manera que su trayectoria pase tan cerca como se quiera de otro
valor dado.
Sensibilidad a las condiciones iniciales, es decir, para dos puntos que esten arbitrariamente cerca sus trayectorias
pueden estar en algún tiempo tan separadas como se quiera.
Periodicidad Las trayectorias periódicas son densas en el intervalo.

Las funciones conocidas como “tienda” y “dientes de sierra” son dos funciones simples que, cuando actúan
como iteradores sobre un intervalo exhiben un comportamiento caótico en sus trayectorias
En este capítulo vamos a ver como actúan estas funciones y cuáles son sus principales propiedades.
Su comportamiento se estudia de forma muy sencilla si tomamos el intervalo [0, 1] y expresamos los puntos en el
sistema binario.

13.2. Representación binaria


El sistema de representación decimal es un sistema posicional, es decir, las cifras representan una cantidad u otra
según la posición en que se encuentren en la representación del número, siguiendo ordenadamente las sucesivas
potencias de 10. Las cifras que se utilizan son 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9.
Así para representar el número 1434.25 tendremos

potencias de 10 103 102 101 100 10−1 10−2


valor posicional 1 4 3 4 2 5

es decir, 1434.2510 = 1(1000) + 4(100) + 3(10) + 4(1) + 2(1/10) + 5(1/100).

El sistema binario es semejante pero se consideran sólo dos cifras el 0 y el 1 y su valor también es posicional
pero siguiendo ahora las potencias de 2.

Así el mismo número decimal 1434.25 sería:

potencias de 2 210 29 28 27 26 25 24 23 22 21 20 2−1 2−2


valor posicional 1 0 1 1 0 0 1 1 0 1 0 0 1

es decir,
1434.252 = 1(210 )+0(29 )+1(28 )+1(27 )+0(26 )+0(25 )+1(24 )+1(23 )+0(22 )+1(21 )+0(20 )+0(2−1 )+1(2−2 ).

De la misma manera que en base 10 cualquier número que acaba en 0 se puede representar por el anterior seguido
de una parte decimal formada por la cifra 9 de forma periódica, es decir, 15010 = 149.910 , en el caso del sistema
binario se puede utilizar el mismo cambio de notación.
Así, el número 1.02 = 0.12 , o bien, 0.12 = 0.012 .
Esto nos será de utilidad en lo que sigue.

38
13.3. La función “dientes de sierra”
La función “dientes de sierra”, sobre el intervalo [0, 1] es la definida de la siguiente manera
(
2x, cuando 0 ≤ x ≤ 0.5
S(x) = (7)
2x-1, cuando 0.5 < x ≤ 1

La gráfica de la función sobre el intervalo [0, 1] se representa en la siguiente figura, así como los iterados para el
punto inicial 0.15.
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Si representamos en binario los puntos del intervalo [0, 1] siempre tendremos una representación de la forma
0.a1 a2 a3 . . .,
donde a1 = 0 si el punto se encuentra entre 0
y 1/2 y a1 = 1 si el punto se encuentra a la derecha de 1/2.
Notemos que 1/2 está incluido en ambos casos, ya que 0.12 = 0.012 .
Si aplicamos la función S(x) a un punto de [0, 1] tendremos:
• Si a1 = 0, multiplicaremos por 2, de manera que el número resultante será 0.a2 a3 . . .
• Si a1 = 1, multiplicaremos por 2 y luego restamos 1. El resultado será igualmente 0.a2 a3 . . ..

De manera que para construir la trayectoria de un punto x0 lo representaremos de forma que tenga un final
periódico, y después utilizaremos la regla anterior.
Por ejemplo, sea x0 = 0.01101 = 0.011001. Así,

x1 = S(x0 ) = 0.11001
x2 = S 2 (x0 ) = S(x1 ) = 2x1 − 1 = 0.10011
x3 = S 3 (x0 ) = S(x2 ) = 2x2 − 1 = 0.00111
x4 = S 4 (x0 ) = S(x3 ) = 2x3 = 0.01111
x5 = ...

Teniendo en cuenta la forma de la representación en binario, podemos dividir el intervalo [0, 1] en clases o subin-
tervalos, de manera que los elementos de cada clase se diferencien por su representación.
En primer lugar dividiremos en dos subintervalos, el [0, 1/2] y el [1/2, 1]. Todo número que esté en el primero de
ellos tendrá, en su representación binaria, a1 = 0. Mientras que para todo elemento del segundo, se tendrá a1 = 1.
Si dividimos ahora cada uno de estos a su vez por la mitad tendremos los intervalos [0, 1/4], [1/4, 1/2], [1/2, 3/4]
y [3/4, 1]. Los números del primer intervalo tendrán una representación binaria caracterizada por a1 = a2 = 0.
Los del segundo intervalo tendrán a1 = 0, a2 = 1. Para el tercero tendremos a1 = 1, a2 = 0. Y para el último
a1 = 1, a2 = 1.

Podemos proseguir así indefinidamente. Cada uno de los 2n subintervalos que quedan en la etapa n-ésima quedan
caracterizados por una sucesión de valores a1 , . . . , an que permanece constante en cada uno de ellos.

39
Inversamente, dado cualquier valor en el intervalo [0, 1], su presentación binaria nos permite determinar inmedia-
tamente a qué subintervalo pertenece, según qué etapa consideremos. Por ejemplo, x0 = 0.0110101 pertenece al
subintervalo caracterizado por 011 en la tercera etapa y 01101 si consideramos la etapa quinta.

0 1
00 01 10 11
000 001 010 011 100 101 110 111

0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111

De esta manera es fácil determinar un punto de cualquier subintervalo que pase por cualquier otro subintervalo en
el número de iteraciones deseado. Por ejemplo, para escoger un punto del intervalo “101” cuya trayectoria pase
por el intervalo “001” basta elegir x0 = 0.101001.
Como los subintervalos pueden hacerse tan pequeños como se quiera, se tiene de forma inmediata la propie-
dad de densidad. Puede escogerse un punto de cualquier subintervalo dado y hacer que su trayectoria pase por
cualesquiera sucesión de subintervalos deseada, ya sean de tamaño más grande o más pequeño.
Es pues inmediato contestar a las siguientes preguntas:

- ¿En qué iteración el punto inicial x0 = 0.11110101001101001 estará en el subintervalo “0011”?


- Determina un valor inicial x0 que esté en el subintervalo “0101” y que al cabo de 5 iteraciones esté en el
subintervalo “1011”.

La sensibilidad a las condiciones iniciales también es fácil de observar. Incluso una diferencia muy pequeña
entre dos valores iniciales puede llevarlos, al cabo de unas ciertas iteraciones, a una separación arbitraria dentro
del intervalo [0, 1]. Recordemos que la longitud de un subintervalo en la subdivisión n-ésima es de (1/2)n .
Si tomamos un punto en un subintervalo de la subdivisión n-ésima, x0 = 0.a1 a2 a3 . . . an an+1 . . . ,
simplemente cambiando la cifra del lugar an+1 , al cabo de n iteraciones las dos trayectorias estarán separadas al
menos por 1/2.
Es decir, bastan n iteraciones para que dos puntos que están separados por (1/2)n estén a una distancia de 1/2.

Los puntos periódicos son densos. No todos los puntos de un subintervalo dado pasan a través de todo el intervalo
[0, 1]. El valor x0 = 4/7 pertenece a una trayectoria de periodo 3: {4/7, 1/7, 2/7}. Evidentemente tenemos que
x4 = x0 y que x7 = x4 , etc.
El punto 4/7 tiene una representación binaria dada por: 0.100 = 0.1001, de manera que su trayectoria “visita” los
subintervalos “100”, “001” y “010”.
Cualquier valor x0 = 0.a1 , . . . , an con una representación binaria que repite un cierto número de dígitos es un
punto de periodo n. Los puntos periódicos son densos, porque el tamaño del subintervalo al que pertenece, (1/2)n ,
puede hacerse arbitrariamente pequeño.
Los números cuya expresión en binario tienen una repetición son los números racionales. Llegamos a la conclusión
de que todos los racionales son periódicos, aunque sus periodos también pueden ser arbitrariamente grandes.

13.4. La función “tienda”


La función “tienda”, sobre el intervalo [0, 1], es la definida de la siguiente manera
(
2x, cuando 0 ≤ x ≤ 0.5
T (x) = (8)
2-2x, cuando 0.5 < x ≤ 1

40
La gráfica de la función sobre el intervalo [0, 1] se representa en la figura, así como los iterados para el punto
inicial 0.15.
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Si x = 0.a1 a2 a3 . . . y a1 = 0 entonces 2x = 0.a2 a3 . . . .

Para la segunda parte tendremos, x = 0.1a2 a3 . . . , entonces 2x = 1.a2 a3 . . . y 2 = 10.00000 · · · = 1.1111111 . . . ,


de manera que 2 − 2x = 0.a∗2 a∗3 . . . , donde representamos por a∗i el dual de ai , es decir, a∗i = 1 si ai = 0 y vice-
versa.

Si aplicamos pues la función T (x) a un punto de [0, 1] tendremos:


• Si a1 = 0, multiplicaremos por 2, de manera que el número resultante será 0.a2 a3 . . .
• Si a1 = 1, multiplicaremos por 2 y luego lo restamos a 2, de manera que el resultado será 0.a∗2 a∗3 . . ..
Así por ejemplo, T (0.110110) = 0.01001.

A pesar de la diferencia en las expresiones de los iterados por las funciones S(x) y T (x) se puede encontrar una
relación sencilla entre las dos
Propiedad 13. Se tiene que T (T (x)) = T (S(x)), para todo x ∈ [0, 1].

D EMOSTRACIÓN :
Tomemos x ∈ [0, 1], x = 0.a1 a2 a3 . . . . Tendremos
 (

 0.a3 a4 . . . si a2 = 0

0.a2 a3 a4 . . . si a1 = 0 y T (T (x)) =

 0.a∗3 a∗4 si a2 = 1

T (x) =

 (

 0.a∗3 a∗4 . . . si a∗2 = 0, (a2 = 1)

 ∗ ∗ ∗
0.a2 a3 a4 . . . si a1 = 1 y T (T (x)) =
0.a3 a4 si a∗2 = 1, (a2 = 0)

y para el otro término


 (

 0.a3 a4 . . . si a2 = 0

0.a2 a3 a4 . . . si a1 = 0 y T (S(x)) =

 0.a∗3 a∗4 si a2 = 1

S(x) =

 (

 0.a3 a4 . . . si a2 = 0


0.a2 a3 a4 . . . si a1 = 1 y T (S(x)) =
0.a∗3 a∗4 si a2 = 1

Esta relación nos lleva de forma inmediata al siguiente corolario.

Corolario 4. Se verifica que T n (x) = T (S n−1 (x))

41
D EMOSTRACIÓN :
T (T (x)) = T (S(x)), por tanto, reemplazando x por S(x) tenemos: T (T (S(x))) = T (S(S(x))).
Pero en el término de la izquierda podemos reemplazar T (S(x)) por T (T (x)), de manera que tenemos T (T (T (x))) =
T 3 (x) = T (S 2 (x)) y por inducción se demuestra para cualquier valor n.

De manera que, como n iteraciones de S consisten en desplazar n cifras en la representación del número tenemos
que si x0 = 0.a1 a2 . . . an−1 an . . .
S n−1 (x0 ) = 0.an an+1 . . .
y, por tanto
T n (x0 ) = T (0.an an+1 . . . )

La función “tienda” es nuestro segundo modelo de aplicación en la que aparecen las propiedades que distinguen
el caos.
Se puede ver fácilmente que podemos tomar un punto que esté en un subintervalo cualquiera de la división por
etapas que hemos hecho antes del intervalo [0, 1] y hacer que al cabo de unas iteraciones esté en cualquier otro
intervalo.
Por ejemplo, si x0 = 0.a1 a2 . . . an es un punto que pertenece al intervalo dado por la etiqueta “a1 a2 . . . an ” de la
etapa n, entonces bastará elegir
(
0.a1 , . . . , an b1 , . . . , bn , si an = 0, o bien
x0 = ∗ ∗
0.a1 , . . . , an b 1 , . . . , b n , si an = 1

para que T n (x0 ) esté en el intervalo b1 , . . . , bn .

La propiedad de densidad de los puntos periódicos se obtiene de la misma forma. Utilizando la anterior relación
T n (x) = T (S n−1 (x)) resulta fácil generar puntos periódicos para la aplicación T .
Vimos en el apartado anterior que los puntos periódicos para la aplicación S son densos en el intervalo [0, 1].
Tomemos un punto x de periodo n para S, es decir, S n (x) = x.
Si aplicamos T a esta relación tendremos que T (S n (x)) = T (x),
pero T (S n (x)) = T n+1 (x), de manera que T (S n (x)) = T (x) = T n+1 (x) = T n (T (x)).
Es decir, si x es periódico para S con periodo n, entonces v = T (x) es periódico para T también con periodo n.

La sensibilidad a las condiciones iniciales se puede estudiar también de forma semejante.


Podemos tomar dos puntos distintos arbitrariamente cercanos, de manera que al cabo de ciertas iteraciones sus
trayectorias estén separadas más de 1/2.
Los puntos x0 = 0.a1 , . . . , an an+1 an+2 . . . e y0 = 0.a1 , . . . , an a∗n+1 an+2 . . . están ambos contenidos en el
intervalo dado por la etiqueta “a1 a2 . . . an ” de la etapa n, es decir, como mucho están a una distancia (1/2)n .
Al cabo de n iteraciones se tiene que xn = T n (x0 ) = T (S n−1 (x0 )) está exactamente a una distancia 1/2 de
yn = T n (y0 ) = T (S n−1 (y0 )).

Efectivamente, al cabo de n − 1 iteraciones por S, tenemos S n−1 (x0 ) = 0.an an+1 an+2 . . . y S n−1 (y0 ) =
0.an a∗n+1 an+2 . . . , por tanto, si an = 0, xn = T (S n−1 (x0 )) = 0.an+1 an+2 . . . e yn = T (S n−1 (y0 )) =
0.a∗n+1 an+2 . . . , que están a una distancia 1/2 uno del otro.
De idéntica manera se obtiene si an = 1.

42
Parte II
Sistemas continuos

43
14. Sistema dinámico
14.1. Definición
Un sistema dinámico proporciona una descripción matemática funcional de un proceso real determinista que viene
caracterizado por un número finito de variables que evolucionan según una ley diferenciable.
Supondremos que dicho proceso viene definido por una serie de variables x1 , . . . , xn que evolucionan con el
tiempo xi = xi (t) y que, además, es un proceso determinista.
En un sistema dinámico interviene una función ϕ(x, t), definida para todo t ∈ R y x ∈ E ⊂ Rn que describe
como los puntos x ∈ E evolucionan con el tiempo y que se llama flujo del sistema.

Definición 30. Sea E un espacio topológico (métrico) y sea T cualquiera de los conjuntos R, Z, N ∪ {0}.
Un sistema dinámico sobre E es una aplicación C 0

ϕ : E × T −→ E (9)

que satisface

(i) ϕ(x, 0) = x, ∀x ∈ E
(ii) ϕ(ϕ(x, t), s) = ϕ(x, t + s), ∀x ∈ E, ∀t, s ∈ T .

Si representamos ϕ(x, t) por ϕt (x), entonces (ii) se puede escribir como:

(ii) ϕs ◦ ϕt (x) = ϕt+s (x) ∀x ∈ E, ∀t, s ∈ T .


E recibe el nombre de espacio de fases y T es el conjunto temporal.
De la definición se sigue que ∀t ∈ T , ϕt : E −→ E es una aplicación C 0 , que tiene inversa ϕ−t , ya que
ϕ−t (ϕt (x)) = ϕ0 (x) = x y ϕt (ϕ−t (x)) = ϕ0 (x) = x.
De manera que, {ϕt | t ∈ T } es una família uniparamétrica de homomorfismos sobre E.
ϕ0 es la aplicación identidad sobre E, es decir,

ϕt ◦ ϕ0 = ϕt (10)

A esta definición se puede llegar no sólo por la generalización de determinados fenómenos físicos, sino tam-
bién por las propiedades de ciertos sistemas matemáticos como las ecuaciones diferenciales, las ecuaciones en
diferencias o las ecuaciones en derivadas parciales.
Es fácil comprobar que si A es una matriz n × n, entonces la función

ϕ(x, t) = eAt x

define un sistema dinámico sobre Rn y, además, para cada x0 ∈ Rn , ϕ(x0 , t) es la solución del problema de
contorno
ẋ = A x
(11)
x(0) = x0

Efectivamente, si tenemos
µ ¶
At A2 t2 An tn
x(t) = x0 e = x0 I + At + + ... + + ...
2! n!

44
derivando, µ ¶
2A2 t An tn−1
ẋ(t) = x0 A + + ... + + ... =
2! (n − 1)!
µ ¶
An−1 tn−1
= x0 A I + At + . . . + + ... =
(n − 1)!
= A eAt x0 = Ax(t)
y, por tanto, ϕ(x, t) es solución de (11).
Por otra parte, si ϕ(x, t) es un sistema dinámico con ϕt diferenciable definido sobre E ⊂ Rn , entonces la función
¯
∂ ¯
f (x) = ϕ(x, t)¯¯ (12)
∂t t=0

define un campo vectorial C 0 sobre E


y, ∀ x0 ∈ E, ϕ(x0 , t) es la solución del problema de valor inicial
ẋ = f (x)
(13)
x(0) = x0

ya que si x(t) = ϕ(x, t),


∂ϕ(x, t)
ẋ(t) = = f (x)
∂t
por la definición (12) y en t = 0, x(0) = x0 .
Como conclusión, tenemos que cada sistema dinámico da lugar a un campo vectorial f y el sistema dinámico
describe el conjunto de soluciones de la ecuación diferencial definida por ese campo vectorial.
A la inversa, dada una ecuación diferencial (13) con f ∈ C 1 (E) y E ⊂ Rn , la solución ϕ(x0 , t) del problema de
contorno (13) con x0 ∈ E será un sistema dinámico sobre E si y sólo si,
∀x0 ∈ E, ϕ(x0 , t)está definida∀t ∈ R
.
En este caso ϕ(x0 , t) define un sistema dinámico sobre E en el sentido dado por (9).
Planteado el problema (13) es suficiente la continuidad de la función f (x) para garantizar la existencia de solu-
ciones.

Teorema 14 (Peano). Sea (x0 , t0 ) ∈ E × T . Sea K = B(x0 , b) × [t0 − a, t0 + a] ⊂ E × T . Denotemos por


M = máxK |f (x, t)| y α = mı́n(a, b/M ).
Si f es continua, entonces existe una solución del problema (13) en el intervalo [t0 − α, t0 + α].
Además, para tener unicidad en un problema de condiciones iniciales es necesario añadir la condición de Lipschitz:

Definición 31 (Condición de Lipschitz). Sea f : E × [t0 − a, t0 + a] −→ Rn , a > 0, y E un conjunto abierto en


Rn .
Diremos que f satisface una condición de Lipschitz de constante k respecto de x en [t0 − a, t0 + a] × E si
|f (x1 , t) − f (x2 , t)| ≤ k |x1 − x2 | (14)
para cualquier t ∈ [t0 − a, t0 + a] y x1 , x2 ∈ E.

45
Así tenemos el siguiente resultado

Teorema 15. Sea (x0 , t0 ) ∈ Rn y K = B(x0 , b) × [t0 − a, t0 + a]. Sea f : K −→ Rn .


Si se verifica que f es continua en I y lipschitziana respecto de x en K, entonces el problema de condición inicial
(13) tiene una única solución en el intervalo [t0 − α, t0 + α], siendo M = máxK |f (x, t)| y α = mı́n(a, b/M ).

14.2. Ejemplos
El ejemplo más sencillo de un sistema dinámico es considerar una aplicación f : I −→ R, I ⊂ R con f (I) ⊂ I
y tomar los sucesivos iterados de f .
n
z }| {
Tendremos E = I, T = N, ϕ(x, n) = f [f [. . . f (x)] . . .]].
Las propiedades (i) y (ii) son inmediatas.
Tomemos por ejemplo I = [−1, 1] y f = 1 − x2 .
Si empezamos con x0 = 14 ,
tendremos ϕ( 14 , 0) = 14 , ϕ( 14 , 1) = 15
16 , ϕ( 14 , 2) = 31
256 , ...

Sea ẋ = ax, con x(0) = x0 .


Tendremos

= a → log x = at + k1
x

x = eat+k1 = keat

En t = 0 se tiene x(0) = x0 → x0 = k, y la solución es x = x0 eat .

Consideremos el problema de frontera

ẋ = x2
x(0) = 1

Separando variables podemos integrar y tenemos


ẋ 1
= 1 −→ 2 dx = dt
x2 x
1 1
− + k = t −→ x(t) =
x k−t
Por la condición inicial x(0) = 1 tenemos una solución al problema
1
x(t) =
1−t

Esta solución está definida sólo para t ∈] − ∞, 1[ y, además, lı́mt→1− x(t) = ∞.

El intervalo ] − ∞, 1[ se denomina entonces intervalo máximo de existencia de la solución del problema de


frontera. Normalmente se representa por I(x0 ).
Notemos que la función x(t) = (1 − t)−1 tiene otra rama definida sobre el intervalo ]1, ∞[; sin embargo, esta
rama no se considera parte de la solución ya que el tiempo inicial t = 0 6∈]1, ∞[.

46
En este ejemplo podemos hacer el cambio de variable y = 1/x, y tenemos la ecuación ẏ = (−ẋ/x2 ) = −1 cuya
solución son las rectas y = −t + k.
Si t = 0 entonces x = 1 e y = 1, de donde k = 1 y se tiene y = 1 − t. Las curvas integrales quedan definidas
para todo t ∈ R.

Definición 32. Un problema de valor inicial como (13) se llama autónomo,


pero si en la expresión de f (x) aparece explícitamente el tiempo, es decir,

ẋ = f (x, t)

entonces se llama no autónomo.

15. Trayectorias
15.1. Definición y propiedades

Definición 33. Dado x0 ∈ E, definiremos la trayectoria de x0 como el conjunto de puntos

γ(x0 ) = {ϕ(x0 , t) / ∀t ∈ T }

Es el conjunto de valores que toma la función para un x0 dado.


Las trayectorias que vienen dadas por soluciones del problema autónomo (13) se suelen denotar por x(t) o bien
especificando además la condición inicial x(t; x0 , t0 )

Proposición 4. Si x(t) : I −→ Rn es solución del sistema autónomo (13) en I y c ∈ R es cualquier valor


constante, la función y(t) : I − c −→ Rn definida como y(t) = x(t + c) también es solución de (13) en el
intervalo I − c.

En toda trayectoria podemos también distinguir los dos conceptos siguientes:


Definición 34. La semitrayectoria positiva que pasa por el punto x0 será aquella definida por

γ + (x0 ) = {x ∈ E | x = ϕ(x0 , t), para t ≥ 0} (15)

Análogamente la semitrayectoria negativa será el conjunto γ − (x0 ) definido de forma similar para t ≤ 0.

Para toda trayectoria γ(x) se cumple que γ(x) = γ + (x) ∪ γ − (x).

Veamos un ejemplo.
La ecuación lineal en R, ẋ = a x tiene como solución x(t) = x0 eat .
En este caso E = R y queda dividido en sólo tres trayectorias distintas.
Si x0 > 0 su trayectoria es todo R+ . La semitrayectoria negativa seria ]0, x0 ] y la positiva seria [x0 , +∞[.

Si x0 < 0 tendremos ] − ∞, x0 ] y [x0 , 0[, respectivamente. Si x0 = 0, entonces γ(x0 ) = {0}.

47
+

8
7.5 j(x0, t)
x0 > 0 g(x0), x0 > 0
5

2.5 x2
x1
-3 -2 -1 t1 t2 1 2 x0 = 0

-2.5

g(x0), x0 < 0
-5
j(x0, t)
-7.5 x0 < 0

Proposición 5. Por cada punto del espacio de fases pasa una y sólo una trayectoria.
D EMOSTRACIÓN : Supongamos que hay dos soluciones x(t; x0 ) y x(t; x1 ) distintas y dos valores del tiempo T0 ∈
I(x0 ) y T1 ∈ I(x1 ) tales que x(T0 ; x0 ) = x(T1 ; x1 ).
Podemos definir la función y(t) = x(t + T0 − T1 ; x0 ) definida en el intervalo J = I(x0 ) − c, c = T0 − T1 . Como
hemos visto en la proposición 4, y(t) también es solución.
Por otra parte, y(T1 ) = x(T0 ; x0 ) = x(T1 ; x1 ) (por hipótesis) y de ahí, la unicidad de la solución nos asegura que
y(t) = x(t; x1 ) y además, I(x0 ) − c ⊆ I(x1 ).

De forma análoga, si tomamos la función z(t) = x(t + T1 − T0 ; x1 ) definida en el intervalo J = I(x1 ) + c, z(t)
también es solución y tenemos que z(T0 ) = x(T1 ; x1 ) = x(T0 ; x0 ) (por hipótesis) y, por unicidad z(t) = x(t; x0 )
en I(x1 ) + c ⊆ I(x0 ),

de manera que t ∈ I(x1 ) ←→ α(t) = t + T0 − T1 ∈ I(x0 ), y por tanto, x(t; x1 ) = x(α(t); x0 ),


es decir, si hay un punto común a las dos órbitas, en realidad han de ser todos los puntos comunes y estamos en la
misma trayectoria, simplemente una es la traslación de los puntos de la otra en el tiempo.

15.2. Trayectorias periódicas

Definición 35. Una trayectoria ϕt (x0 ) = ϕ(x0 , t) se llama periódica si existe un τ 6= 0 tal que ϕ(x0 , t + τ ) =
ϕ(x0 , t), para todo t ∈ R

Un tal número τ se llama un periodo, y el número τ más pequeño, de los que verifican esta definición, se llama el
periodo.

Lema 1. ϕt (x0 ) es periódica de periodo τ si y sólo si ϕτ (x0 ) = x0 .


D EMOSTRACIÓN : Si ϕt (x0 ) es periódica, entonces ϕ(x0 , t + τ ) = ϕ(x0 , t) y tomando en t = 0 se tiene ϕ(x0 , τ ) =
ϕ(x0 , 0) = x0 .

48
Si ϕτ (x0 ) = x0 , entonces aplicando ϕt a los dos miembros y considerando (10) tenemos que ϕ(x0 , t + τ ) =
ϕ(ϕ(x0 , τ ), t) = ϕ(x0 , t), ∀t.

Equivalentemente, tenemos
Lema 2. ϕt (x) es periódica si existen t y s, con t 6= s, de forma que ϕ(x, t) = ϕ(x, s)

D EMOSTRACIÓN : Tomemos σ = t − s, entonces ϕ(x, u + σ) = ϕ(x, u + t − s) = ϕ(ϕ(x, t), u − s) =


[por hipótesis] = ϕ(ϕ(x, s), u − s) = ϕ(x, u).
Por tanto ϕ(x, t) es periódica de periodo σ.

Para sistemas autónomos en R2 hay un criterio sencillo para saber si se tienen o no trayectorias periódicas.

Teorema 16 (Criterio de Bendixson). Sea ẋ = f (x, y), ẏ = g(x, y), (x, y) ∈ R2 y f, g ∈ C 2 .


Si sobre una región D simplemente conexa (es decir, sin agujeros) el valor de ∂f /∂x + ∂g/∂y no se anula y no
cambia de signo, entonces el sistema no tiene ninguna trayectoria periódica que esté toda en D.
D EMOSTRACIÓN : Se trata de una aplicación del teorema de Green sobre el plano.

Efectivamente,
Z enZeste sistema, aplicando la regla de la cadena, sobre cualquier curva cerrada Γ tendremos que
f dy − gdx = (f g − gf )dt = 0
Γ Γ

y, por el teorema de Green: Z µ ¶


∂f ∂g
+ dxdy = 0
S ∂x ∂y
donde S es la región interior cerrada por la curva.
Pero si ∂f /∂x + ∂g/∂y 6= 0 y no cambia de signo entonces la integral no puede anularse y por tanto no puede
existir una curva cerrada.

16. Puntos de equilibrio


16.1. Definición

Definición 36. Un punto x0 se dice que es un punto de equilibrio si su trayectoria asociada a un sistema dinámico
consiste en un sólo punto, es decir,
γ(x0 ) = {x0 } .

En general, si tenemos un sistema dinámico definido por (13), un punto de equilibrio es aquel x0 tal que f (x0 ) =
0.

Se puede ver fácilmente que esto es equivalente a la definición 36, puesto que
dx∗
Si ϕ(x∗ , t) = x∗ para todo t, entonces = 0 y como que ẋ∗ = f (x∗ ), tenemos que f (x∗ ) = 0.
dt
Por tanto, los puntos de equilibrio se pueden obtener a partir de la ecuación diferencial, igualando a cero los
segundos miembros.

49
16.2. Propiedades

Propiedad 14. Un punto x ∈ E es de equilibrio si y sólo si todo entorno suyo contiene una semitrayectoria.
D EMOSTRACIÓN : Si x es un punto de equilibrio, la propiedad se verifica de forma trivial y cualquier entorno de x
contiene toda γ(x).
Para demostrar la proposición en el otro sentido, supongamos que x no sea un punto de equilibrio, entonces
existirá un t tal que x 6= ϕ(x, t). Tomemos dos entornos W1 y W2 de x y ϕ(x, t), respectivamente.
Dado que son puntos diferentes, podemos considerar los entornos W1 y W2 disjuntos.

Sean V = ϕ(W1 , t) ∩ W2 y U = ϕ(V, −t) que son entornos de ϕ(x, t) y de x, disjuntos y además ϕ(U, t) = V .
Sea un punto y cualquiera en U .
Como que ϕ(y, t) no pertenece a U , hemos encontrado un entorno de x que no contiene ninguna semitrayectoria
y por tanto x no es de equilibrio.

Propiedad 15. Si existe un z tal que z = lı́mt→∞ ϕ(x, t), entonces z es un punto de equilibrio.

D EMOSTRACIÓN : Dado un entorno de z, por definición de límite, existirá un t0 tal que si t > t0 , ϕ(x, t) estará
dentro del entorno.
Sea y = ϕ(x, t), con t > t0 . Entonces la trayectoria positiva γ + (y) estará toda contenida en el entorno y por la
anterior propiedad z será un punto de equilibrio.

Lema 3. Si x ∈ E es tal que x = ϕ(x, τ ) para cierto τ ∈ R entonces x = ϕ(x, nτ ) ∀n ∈ Z.


D EMOSTRACIÓN : Si x = ϕ(x, τ ) para un τ , tenemos que

x = ϕ(x, 0) = ϕ(x, τ − τ ) = ϕ(ϕ(x, τ ), −τ ) = ϕ(x, −τ )

por tanto, es suficiente probar la propiedad para los n positivos.


Así, por inducción, si x = ϕ(x, nτ ) y x = ϕ(x, τ ) tenemos que

x = ϕ(x, nτ ) = ϕ(ϕ(x, τ ), nτ ) = ϕ(x, τ + nτ ) = ϕ(x, (n + 1)τ )

y queda demostrado.

Propiedad 16. x es un punto de equilibrio si y sólo si ∃{tn }, tn > 0, tn −→ 0 tal que x = ϕ(x, tn ), ∀n.
D EMOSTRACIÓN : Si tenemos x de equilibrio, la implicación a la derecha es trivial para todo t ∈ R.
En el otro sentido, si t = k tn , con k, n ∈ Z, por el lema anterior necesariamente x = ϕ(x, t).
Si t no fuera múltiplo de tn , entonces ∃kn ∈ Z de manera que kn tn < t < (kn + 1)tn y también ∃m > n de
manera que kn tn < km tm < t < (km + 1)tm < (kn + 1)tn y la sucesión {kn tn } −→ t
Por tanto, ϕ(x, kn tn ) −→ ϕ(x, t) y dado que x = ϕ(x, kn tn ) entonces x = ϕ(x, t) para un t arbitrario, por
tanto x es de equilibrio.

50
Teorema 17. El conjunto de todos los puntos de equilibrio en E es cerrado.
D EMOSTRACIÓN : Si no lo fuera existiría una sucesión {xn } de puntos de equilibrio con {xn } −→ x, y x no de
equilibrio.
Entonces existe algún valor t ∈ R tal que x 6= ϕ(x, t) y, por tanto, podemos encontrar dos entornos U de x y V
de ϕ(x, t), tales que ϕ(U, t) = V y U ∩ V = ∅,
pero como que xn −→ x, ∃n0 tal que xn ∈ U , ∀n > n0 , y ya que xn es de equilibrio ϕ(xn , t) ∈ U , ∀n > n0 ,
esto nos lleva a una contradicción con el hecho que U ∩ V = ∅.

17. Puntos periódicos


17.1. Definición
Por extensión de la definición 35 de trayectoria periódica, tenemos la siguiente definición
Definición 37. Diremos que un punto es periódico si pertenece a una trayectoria periódica.

Todo punto x ∈ E tiene el periodo τ = 0, ya que ϕ(x, 0) = ϕ(x, t + 0), aunque no sea periódico.
Si x es de equilibrio, todo τ ∈ T es un periodo suyo.

17.2. Propiedades
Teorema 18. Si x ∈ E es periódico pero no de equilibrio, hay un τ > 0 tal que τ es el periodo positivo más pequeño
de x. Además si η es otro periodo de x, necesariamente η = nτ , para algún n ∈ Z.

D EMOSTRACIÓN : Sea el conjunto P = {T > 0 | T es periodo de x}.


Tenemos que P 6= ∅ porque si T 6= 0 es un periodo, entonces −T también lo es, ya que

ϕ(x, −T ) = ϕ(ϕ(x, T ), −T ) = ϕ(x, 0) = x

por tanto, podemos considerar sólo los positivos.

Sea ahora τ = ı́nf P . Si τ = 0 tenemos que ∃{tn } ⊂ P , tn −→ 0, x = ϕ(x, tn ), ∀n y, por tanto, x es de


equilibrio por la propiedad 16.
Por tanto τ > 0 y también τ es un periodo de x, ya que, como τ = ı́nf P , tenemos una sucesión {tn } −→ τ y,
por tanto, x = ϕ(x, tn ) −→ ϕ(x, τ ) entonces x = ϕ(x, τ ).

Sea ahora η ∈ R otro periodo de x tal que η 6= nτ , ∀n. Entonces ∃n tal que nτ < η < (n + 1)τ (*), pero nτ es
un periodo de x y, por tanto, x = ϕ(x, η) = ϕ(x, nτ )
Tendremos
ϕ(ϕ(x, η), −nτ ) = ϕ(x, −nτ ) = ϕ(ϕ(x, nτ ), −nτ ) = ϕ(x, 0) = x
es decir, x = ϕ(ϕ(x, η), −nτ ) = ϕ(x, η − nτ ), por tanto, η − nτ es un periodo de x, pero de (*) resulta que
0 < η − nτ < τ y tenemos una contradicción con que τ sea el periodo más pequeño.

En general, el conjunto de puntos periódicos no es cerrado, como pasaba con los puntos de equilibrio, pero tenemos
el siguiente resultado:

51
Teorema 19. Dado α > 0, el conjunto de los puntos x tales que x es periódico con periodo τ ≤ α es cerrado.
Veamos un lema previo:
Lema 4. Si xn es una sucesión de puntos periódicos con periodos positivos τn −→ 0 y xn −→ x, entonces x es
de equilibrio.

D EMOSTRACIÓN : Dado t ∈ R, hay kn ∈ Z tales que kn τn ≤ t ≤ (kn + 1)τn . Como τn −→ 0, tenemos que
kn τn −→ t y xn = ϕ(xn , kn τn ) −→ ϕ(x, t). Pero como xn −→ x tenemos x = ϕ(x, t) y x es de equilibrio.

D EMOSTRACIÓN : (del teorema)


Si {xn } es una sucesión de puntos periódicos con periodos τn ≤ α y xn −→ x, como que 0 ≤ τn ≤ α, tenemos
que

o τn −→ 0 y x es de equilibrio y por tanto periódico, o bien hay una subsucesión τnk −→ T , 0 < T < α y, por
continuidad, ϕ(xnk , τnk ) −→ ϕ(x, T ) y también ϕ(xnk , τnk ) = xnk −→ x

de donde ϕ(x, T ) = x y x es periódico con periodo T ≤ α, por tanto, el conjunto es cerrado.

18. Conjuntos límite e invariantes


18.1. Conjuntos límite
El siguiente paso es ver hacia donde van las trayectorias. Eso nos lleva a definir los conjuntos límite de una
trayectoria.

Definición 38. Definiremos el conjunto límite positivo como


n o
ω(x) = y ∈ E | ∃tn → +∞ : y = lı́m ϕ(x, tn )
n→∞

Análogamente, se define el conjunto límite negativo como


n o
α(x) = y ∈ E | ∃tn → −∞ : y = lı́m ϕ(x, tn ) .
n→∞

En el ejemplo visto para la ecuación lineal ẋ = a x tenemos que ω(x) = ∅ porque tiende a +∞ y es divergente,
excepto que x = 0.

En este caso α(x) = {0} (al ir hacia atrás las trayectorias tienden a cero).
Veamos otro ejemplo:
Consideremos el sistema en polares

ṙ = r(r − 1)
θ̇ = 1

Para (0, 0) tenemos r = 0 y es un punto de equilibrio, r = 0 → ṙ = 0, r no depende de t y tenemos una


trayectoria γ(0) = 0.
Para r = 1 → ṙ = 0 y θ = t + θ0 . Tenemos otra trayectoria, la circunferencia unidad.

52
Para 0 < r0 < 1, tenemos ṙ < 0 y r(t) es decreciente, por tanto (propiedad 15) tiende al punto de equilibrio. Si
r0 > 1, entonces ṙ > 0 y r(t) crece.
Tenemos el espacio de fases separado en trayectorias. La solución periódica es la circunferencia Γ de radio unidad.
1.5

0.5

-1 -0.5 0.5 1

-0.5

-1

-1.5

Los conjuntos límite quedan:

ω(0, 0) = {(0, 0)} ω(r0 , θ0 ) = {(0, 0)}


0 < r0 < 1
α(0, 0) = {(0, 0)} α(r0 , θ0 ) = Γ

ω(1, θ0 ) = α(1, θ0 ) = Γ ya que (1, θ0 ) = lı́mn→∞ (1, 2πn + θ0 )


Si r0 > 1, α(r0 , θ0 ) = Γ y ω(r0 , θ0 ) = ∅.

Proposición 6. Sea ϕ(x, t) un sistema dinámico sobre E, entonces si x ∈ E,


\
ω(x) = {ϕ(x, t) | t ≥ T }
T >0

y, por tanto, ω(x) es cerrado.


D EMOSTRACIÓN : Sea q ∈ ω(x), entonces ∃tn → +∞ tal que ϕ(x, tn ) → q. Dados T > 0 y ε > 0 existe un n1 tal
que tn > T ∀n ≥ n1 y también, ∃n2 tal que |ϕ(x, tn ) − q| < ε ∀n ≥ n2 .
Sea n0 = máx(n1 , n2 ), entonces si n > n0 , tn ≥ T y |ϕ(x, tn ) − q| < ε por tanto q ∈ {ϕ(x, t) | t ≥ T }.
Recíprocamente, si q ∈ γ + (ϕ(x, k)), ∀k ∈ N, existe una sucesión de puntos qk ∈ γ + (ϕ(x, k)) tales que
|qk − q| < 1/k.
Pero qk = ϕ(x, tk ) para algún tk ≥ k, por tanto, cuando k → +∞, tenemos que tk → +∞ y ϕ(x, tk ) → q, lo
cual nos da la otra inclusión, q ∈ ω(x).

Proposición 7. Si γ(x) es una trayectoria periódica, pasando por el punto x entonces ω(x) = γ(x) = α(x).
D EMOSTRACIÓN : Sea y ∈ γ(x). Entonces ∃t ∈ R, y = ϕ(x, t).
Sea τ el periodo de la trayectoria γ(x), tendremos que ϕ(x, t + nτ ) = ϕ(x, t) ∀n ∈ N.
La sucesión {tn }∞
n=1 , donde tn = t + nτ es tal que lı́mn→∞ tn = ∞ y lı́mn→∞ ϕ(x, tn ) = ϕ(x, t) = y,

por tanto y ∈ ω(x) y tenemos que γ(x) ⊂ ω(x).


Por definición de ω(x) tenemos que, si y ∈ ω(x) hay una sucesión de tiempos {tn }∞
n=1 tendiendo a infinito,
lı́mn→∞ tn = ∞, y tal que lı́mn→∞ ϕ(x, tn ) = ϕ(x, t) = y.

53
Sean ahora los valores sn = tn ( mód τ ). De la periodicidad de γ(x) tenemos que ϕ(x, tn ) = ϕ(x, sn ) ∀n y, por
tanto, y = lı́mn→∞ ϕ(x, sn ).
Como que sn ∈ [0, τ ] ∀n, podemos encontrar una subsucesión {snk }∞
k=1 tal que converge a un s ∈ [0, T ]

y tenemos que y = lı́mn→∞ ϕ(x, snk ) = ϕ(x, lı́mn→∞ snk ) = ϕ(x, s), y por tanto y ∈ γ(x). De manera que
ω(x) ⊂ γ(x).
La prueba para α(x) es similar.

Proposición 8. Si ∃ p = lı́mt→∞ ϕ(x, t) entonces p es un punto de equilibrio y ω(x) = p, para x ∈ E.


D EMOSTRACIÓN : Se deduce fácilmente de la caracterización 14 que nos dice que un punto es de equilibrio si y sólo
si todo entorno suyo contiene una semitrayectoria.

Proposición 9. El conjunto ω(γ + ) es conexo.

D EMOSTRACIÓN : Supongamos que ω(γ + ) = A ∪ B, donde A 6= ∅ y B 6= ∅, cerrados y A ∩ B = ∅.


Sea δ = d(A, B). Todo punto de A y de B es punto límite de γ + , de manera que ∃t suficientemente grande, tal
que d(γ(t), A) = δ/2 y ∃t suficientemente grande tal que d(γ(t), B) < δ/2.
Por continuidad, existe una sucesión {tn }, que tiende a +∞ cuando n → ∞ y tal que d(γ(tn ), A) = δ/2 y, como
que γ(n) está acotada, existe una subsucesión que converge a un punto q ∈ ω(γ + ).
Entonces, d(q, A) = δ/2, lo cual implica que q 6∈ A y q 6∈ B, ya que d(q, A) ≥ d(A, B) − d(q, A) = δ/2, y eso
es contradictorio con que ω(γ + ) = A ∪ B.

18.2. Conjuntos invariantes


Un conjunto invariante de un sistema dinámico es un subconjunto del espacio de fases tal que la trayectoria
asociada a cada uno de sus puntos está contenida en él.
El interés de los conjuntos invariantes reside en el hecho que la aplicación ϕ restringida a ellos vuelve a definir un
sistema dinámico. De esta manera podemos simplificar el estudio del sistema descomponiéndolo en subsistemas.

Definición 39. Un subconjunto A del espacio de fases és invariante respecto del flujo ϕ si

ϕ(A, t) = A, ∀t ∈ R.

Diremos que A es positivamente invariante respecto del flujo ϕ si para cualquier x ∈ A se tiene que ϕ+ (x) ∈ A.
Y, análogamente diremos que es negativamente invariante respecto del flujo ϕ si para cualquier x ∈ A se tiene
que ϕ− (x) ∈ A.
Un conjunto invariante es un conjunto A formado por una unión de trayectorias. Como ejemplo más sencillo
podemos ver que una sola trayectoria es un conjunto invariante, ya que

ϕ(γ(x), t) = {y ∈ E | y = ϕ(ϕ(x, s), t), ∀s ∈ R} =


= {y ∈ E | y = ϕ(x, s + t), ∀s + t ∈ R} =
= γ(x)

54
Como consecuencia, un conjunto formado por una colección de trayectorias será invariante. El recíproco también
es cierto:

Proposición 10 (Caracterización de conjuntos invariantes). Una condición necesaria y suficiente para que un
conjunto sea invariante es que contenga la trayectoria completa de todos sus puntos.
D EMOSTRACIÓN : Si es invariante, ϕ(x, t) ha de pertenecer a A para todo t, y si consta de un conjunto de trayectorias
completas es, por tanto, su unión y como consecuencia de la primera propiedad es invariante.

Propiedad 17. La unión y la intersección de una familia de subconjuntos invariantes {Ai } es invariante.
D EMOSTRACIÓN : Para la unión tenemos que si A = ∪i Ai , y si x ∈ A, entonces ∃i ∈ N tal que x ∈ Ai . Si t ∈ R,
por la invariancia de Ai , tenemos que ϕ(x, t) ∈ Ai ⊂ A.

Para la intersección se demuestra de forma semejante.

Propiedad 18. El complementario respecto de E de un conjunto invariante es también invariante.

D EMOSTRACIÓN : Sea A invariante. Tomemos un x ∈ E \ A y t ∈ R. Si fuera que y = ϕ(x, t) ∈ A, como


ϕ(x, −t) ∈ A tendríamos que x = ϕ(ϕ(x, t), −t) = ϕ(x, −t) ∈ A, lo cual es una contradicción. Por tanto
ϕ(x, t) ∈ E \ A y E \ A es invariante.

Propiedad 19. La clausura A de un conjunto invariante también es invariante.


D EMOSTRACIÓN : Si x ∈ A, entonces existe una sucesión de puntos {xi }, i = 1, 2, . . . en A tales que lı́mi→∞ xi =
x.
Como que ϕ es una aplicación continua para las x, tenemos que dado t ∈ R entonces ϕ(x, t) = lı́mi→∞ ϕ(xi , t)
y como que ϕ(xi , t) ∈ A, tenemos que ϕ(x, t) ∈ A.

Además de estas propiedades también podríamos enunciar que la frontera y el interior de un conjunto invariante
son invariantes.

Proposición 11. Los conjuntos límite ω(x) y α(x) son invariantes.

D EMOSTRACIÓN :Sea y ∈ ω(x), entonces hay una sucesión de tiempos {tn }∞


n=1 tales que lı́mn→∞ tn = ∞ y
y = lı́mn→∞ ϕ(x, tn ).
Para un t ∈ R tenemos que ϕ(y, t) = ϕt (lı́mn→∞ ϕ(x, tn )) = lı́mn→∞ ϕ(ϕ(x, tn ), t) = lı́mn→∞ ϕ(x, tn + t)
y, por tanto ϕ(y, t) ∈ ω(x).
La demostración para α(x) es semejante.

Definición 40. Un conjunto M ⊂ E se llama minimal de un sistema dinámico si es un conjunto no vacío, cerrado
e invariante del sistema que no tiene subconjuntos propios con las mismas características.

55
Proposición 12. Los puntos de equilibrio y las trayectorias periódicas son los conjuntos minimales de un sistema
dinámico.

Proposición 13. Un conjunto minimal de un sistema dinámico es un conjunto conexo.

18.3. Integrales primeras


El subconjunto invariante más usual es el que viene definido a partir de una integral primera.

Definición 41 (Integral primera). Dada una función continua h : E −→ R que no sea idénticamente constante,
diremos que es invariante o integral primera de un sistema dinámico (E, R, ϕ) si h toma el mismo valor para
todos los puntos de una misma trayectoria, es decir,

h(ϕ(x, t)) = h(ϕ(x, 0)) = h(x) ∀t ∈ R

Dada la aplicación ϕ que define un sistema dinámico, un procedimiento habitual para encontrar integrales primeras
consiste en eliminar el tiempo de las diferentes componentes de ϕ y encontrar relaciones entre las coordenades de
los puntos de E.

Definición 42. Llamaremos conjunto de nivel de una integral primera, y lo denotaremos por Ih (o bien Ia si
especificamos el valor de la integral primera para el que consideremos el conjunto de nivel), al subconjunto del
espacio de fases formado por todos los puntos antiimagen de un mismo valor de h, es decir,

Ia = {x ∈ E | h(x) = a}

Propiedad 20. Los conjuntos de nivel de una integral primera son invariantes.
Se trata de una consecuencia inmediata de las definiciones de integral primera y conjunto invariante.

Propiedad 21. Cada órbita pertenece a uno y sólo a un conjunto de nivel de una integral primera.

Si consideramos un sistema dinámico definido por un sistema de ecuaciones diferenciales

ẋi = fi (x1 , . . . , xn ), i = 1, . . . , n
dh
y h(x1 , . . . , xn ) es una integral primera, entonces = 0, y tenemos
dt
n n
dh X ∂h dxi X ∂h
= = fi = 0
dt i=1
∂xi dt i=1
∂xi

Por tanto si h es una integral primera verifica la condición


Xn
∂h
fi = 0 (16)
i=1
∂x i

56
19. Sistemas lineales
19.1. Resultados generales
En esta lección presentamos el estudio de los sistemas lineales de ecuaciones diferenciales ordinarias, es decir, de
la forma
ẋ = Ax (17)

donde x ∈ Rn , A es una matriz n × n y  


dx1
 dt 
dx  .. 
ẋ = =
 .


dt  
dxn
dt
La solución del sistema (17) es la función x(t) que verifica el sistema, junto con la condición inicial x(0) = x0 .

Teorema 20. Dado T ∈ L(Rn ) y un t0 > 0, la serie



X T k tk
k!
k=0

es uniforme y absolutamente convergente para todo |t| ≤ t0 .


Aprovechando este resultado, la exponencial de un operador lineal T (o una matriz) se define por la serie absolu-
tamente convergente:

X Tk
eT = (18)
k!
k=0

Definición 43. Si A es una matriz n × n y t ∈ R



X Ak t k
eAt =
k!
k=0

donde A es la matriz que representa el operador lineal T (x) = Ax.

Lema 5. Si A es una matriz n × n, entonces


d At
e = AeAt
dt

D EMOSTRACIÓN :
d At eA(t+h) − eAt (eAh − I)
e = lı́m = lı́m eAt
dt h→0 h h→0 h
µ ¶
At A2 h Ak hk−1
= e lı́m lı́m A + + ··· +
h→0 k→∞ 2! k!

= AeAt

57
Teorema 21 (Fundamental para sistemas lineales). Sea A una matriz n × n. Entonces, dado un x0 ∈ Rn , el problema
de contorno
ẋ = Ax
(19)
x(0) = x0
tiene una solución única dada por
x(t) = eAt x0

D EMOSTRACIÓN : Tenemos que


d At
x0 (t) = e x0 = AeAt x0 = Ax(t),
dt
para todo t ∈ R y también x(0) = Ix0 = x0 , por tanto es solución.

Si tomamos ahora y(t) = e−At x(t), donde x(t) es solución, tenemos

y 0 (t) = −Ae−At x(t) + e−At x0 (t) =


= −Ae−At x(t) + e−At Ax(t) = 0

para todo t ∈ R, de manera que y(t) es constante,


Para t = 0, tenemos y(t) = x0 , de manera que para cualquier solución x(t) tenemos x0 = e−At x(t), es decir,
x(t) = eAt x0 . Y de ahí la unicidad.

Proposición 14. Si S y T son transformaciones lineales sobre Rn y S = P T P −1 , entonces se tiene eS =


P eT P −1 .
D EMOSTRACIÓN :
n
à n
!
X (P T P −1 )k X Tk
eS = lı́m =P lı́m P −1 = P eT P −1
n→∞ k! n→∞ k!
k=0 k=0

Si B = P −1 AP , entonces A = P BP −1 y de la proposición anterior tenemos,

eAt = P eBt P −1 (20)

De manera que si tenemos el sistema ẋ = Ax, donde A es una matriz 2 × 2, la solución

x(t) = eAt x0

se obtiene transformando la matriz A a su forma canónica B por medio de cierta matriz P .


Esta matriz P se construye tomando los vectores propios de A en columnas.
La matriz eBt toma una de las tres formas que veremos a continuación y para obtener eAt tendremos que deshacer
la transformación por medio de (20).

20. Caso lineal en R2


20.1. Forma normal en R2
Sea ahora A una matriz 2 × 2,

58
Por el teorema de la forma canónica de Jordan, existe una matriz invertible 2 × 2, P , formada por los vectores
propios generalizados de A, en columnas, de manera que la transformada de Jordan

B = P −1 AP

tiene una de las siguientes formas:

· ¸ · ¸ · ¸
λ1 0 λ 1 a −b
a) B = , b) B = , c) B = , (21)
0 λ2 0 λ b a

según que A tenga 2 valores propios, λ1 , λ2 , un valor propio doble, λ, o un valor propio complejo a ± i b.

Veamos ahora como son las soluciones en cada uno de los casos.
· ¸
Caso a) Si B = λ01 0
λ2
, de la definición se tiene

X∞
B k tk B k tk
eBt = = I + Bt + B 2 t2 + · · · + + ··· =
k=0
k! k!
 
λ21 t2 λk t k
1 + λ1 t + + ··· + 1 + ... 0 

= 2! k! =
λ22 t2 λk2 tk 
0 1 + λ2 t + + ··· + + ...
2! k!
· ¸
eλ1 t 0
=
0 eλ2 t

Caso b)
· ¸ · ¸
a b 1 b
Sea ahora M = , entonces eM = ea .
0 a 0 1
· ¸
0 b
D EMOSTRACIÓN : Si escribimos M = aI + N , con N = .
0 0

Como N 2 = 0, tenemos · ¸
N N2 1 b
e =I +N + + ··· = I + N =
2! 0 1
y · ¸
1 b
eM = eaI eN = ea eN = ea
0 1
· ¸
λ 1
Entonces, si B = tenemos
0 λ · ¸
1 t
eBt = eλt
0 1

Caso c)
Si λ = a ± i b, por inducción tenemos
· ¸k · ¸
a −b Re(λk ) −Im λk
=
b a Im λk Re(λk )

59
Entonces:
 
λk λk · ¸

X Re( k! ) −Im k!  λ λ
eB =   = Re(e λ) −Im λe =Ã
 λk λk  Im e Re(e )
k=0 Im Re( )
k! k!
¡ ¢
si λ = a + i b, entonces eλ = ea (cos b + i sin b)
· ¸
a cos b − sin b
Ã=e
sin b cos b

Por tanto, · ¸
cos bt − sin bt
eBt = eat
sin bt cos bt

Ejemplo
· ¸
−1 −3
Consideremos el sistema ẋ = Ax donde A = .
0 2

Los valores propios de A son λ1 = −1 y λ2 = 2 y los vectores propios correspondientes son v 1 = (1, 0)T y
v 2 = (−1, 1)T ).
Por tanto · ¸ · ¸
1 −1 −1 0
P = , P −1 AP = =B
0 1 0 2

Entonces · ¸
e−t 0
x(t) = P P −1 c =
0 e2t
· −t ¸ · ¸ · −t ¸
e e−t − e2t c1 c1 e + c2 (e−t − e2t )
= =
0 e2t c2 c2 e2t

20.2. Puntos de equilibrio en un sistema en R2


Vamos a ver ahora un teorema que nos clasifica los puntos de equilibrio en sistemas lineales en R2 .
Previamente vamos a ver las definiciones de los distintos tipos de puntos que nos vamos a encontrar.
Supondremos un sistema del tipo (17)
ẋ = Ax
donde A es una matriz 2 × 2 de coeficientes constantes.

Definición 44. El origen se llama un centro del sistema (17) si existe un δ > 0 de forma que cada curva solución
de (17) en el entorno Nδ (0) ∼ {0} es una curva cerrada que contiene a 0.

Definición 45. El origen se llama un foco central de (17) si existe una sucesión de curvas solución cerradas
{Γn }, con Γn+1 interior a Γn , de forma que Γn → 0 cuando n → ∞ y de manera que cada trayectoria entre Γn
y Γn+1 tiende en espiral hacia Γn ó Γn+1 cuando t → ±∞.

60
y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

i) ii)

Figura 3: Caso a) con i) λ2 < λ1 < 0, ii) λ2 > λ1 > 0.

Definición 46. El origen se llama un foco estable de (17) si existe un δ > 0 de manera que para 0 < r0 < δ y
θ0 ∈ R, r(t, r0 , θ0 ) → 0 y |θ(t, r0 , θ0 )| → ∞ cuando t → ∞.
Se llama un foco inestable si r(t, x0 , θ0 ) → 0 y |θ(t, r0 , θ0 )| → ∞ cuando t → −∞.
Cualquier trayectoria de (17) que satisface r(t) → 0 y |θ(t)| → ∞ cuando t → ±∞ se dice que gira en espiral
hacia el origen cuando t → ±∞.

Definición 47. El origen se llama un nodo estable de (17) si existe un δ > 0 de manera que para 0 < r0 < δ y
θ0 ∈ R, r(t, x0 , θ0 ) → 0 cuando t → ∞ y existe lı́mt→∞ θ(t, r0 , θ0 ), es decir, cada trayectoria en un entorno
reducido (exceptuando el 0) del origen se acerca al origen a lo largo de una trayectoria tangente cuando t → ∞.

El origen se llama un nodo inestable si r(t, x0 , θ0 ) → 0 cuando t → −∞ y existe lı́mt→−∞ θ(t, r0 , θ0 ) para
todo r0 ∈]0, δ[ y θ0 ∈ R.

El origen se llama un nodo propio de (17) si es un nodo y si cada recta que pasa por el origen es tangente a
alguna trayectoria de (17).

Definición 48. El origen es un punto de silla topológico de (17) si existen dos trayectorias Γ1 y Γ2 que se acercan
a 0 cuando t → +∞ y dos trayectorias Γ3 y Γ4 que se acercan a 0 cuando t → −∞, y si además existe un
δ > 0 de forma que todas las demás trayectorias que empiezan en un entorno reducido del origen Nδ (0) ∼ {0}
abandonan Nδ (0) cuando t → ±∞.

Las trayectorias Γ1 , . . . , Γ4 se llaman separatrices.

Vamos a estudiar ahora como son las soluciones en función de la forma que tome la matriz B, canónica de la A.
· ¸
λ1 0
Caso a) Tenemos B = . De la forma de las soluciones y de las diferentes opciones entre λ1 y λ2 tenemos
0 λ2
los siguientes resultados:

· ¸
λ 1
Caso b). Tenemos B = . En este caso distinguimos λ > 0 y λ < 0, que nos proporcionan dos nodos
0 λ
propios.
· ¸
a −b
Caso c) Tenemos B = . El valor propio es λ = a ± i b y distinguimos los signos de a y b.
b a

61
y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

iii) iv)

Figura 4: Caso a) con iii) λ1 = λ2 < 0, iv) λ1 = λ2 > 0.

y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

v) vi)

Figura 5: Caso a) con v) λ1 < 0 < λ2 , vi) λ2 < 0 < λ1 .

y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

i) ii)

Figura 6: Caso b) con i) λ < 0, ii) λ > 0.

y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

i) ii)

Figura 7: Caso c) con i) a < 0, b > 0, ii) a < 0, b < 0.

62
y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4

iii) iv)

Figura 8: Caso c) con iii) a > 0, b > 0, iv) a < 0, b < 0.


y y

4 4

2 2

x x
-4 -2 2 4 -4 -2 2 4

-2 -2

-4 -4
v) vi)

Figura 9: Caso c) con v) a = 0, b > 0, vi) a = 0, b < 0.

Teorema de caracterización Si el det A 6= 0, hay un método sencillo para determinar si el sistema lineal tiene un
punto de silla, un nodo, un foco o un centro en el origen.

Teorema 22. Sea δ = det A y τ = tr A y consideremos el sistema lineal (17)


1) Si δ < 0 entonces (17) tiene un punto de silla en el origen.
2) Si δ > 0 y τ 2 − 4δ ≥ 0 entonces (17) tiene un nodo en el origen, que es estable si τ < 0 e inestable si τ > 0.
3) Si δ > 0 y τ 2 − 4δ < 0 y τ 6= 0 entonces (17) tiene un foco en el origen, que es estable si τ < 0 e inestable
si τ > 0.
4) Si δ > 0 y τ = 0 entonces (17) tiene un centro en el origen.
Notemos que en el caso (2), τ 2 ≥ 4 |δ| > 0, es decir, τ 6= 0.

D EMOSTRACIÓN : Los valores propios de la matriz A vienen dados por



τ ± τ 2 − 4δ
λ=
2
entonces,
Si (1) δ < 0 hay dos valores propios con signo distinto.

Si (2) δ > 0 y τ 2 − 4δ ≥ 0 entonces hay dos valores propios reales del mismo signo que τ .
Si (3) δ > 0 y τ 2 − 4δ < 0 y τ 6= 0 hay dos valores propios complejos conjugados λ = a ± i b.
Y, finalmente, si (4) δ > 0 y τ = 0 hay dos valores propios imaginarios puros conjugados.

Los casos (1) a (4) corresponden a un punto de silla, un nodo, un foco o un cento, respectivamente.

Todos los casos en R2 quedan resumidos en esta figura

63
Focos Focos Nodos
Nodos estables inestables inestables
estables

Puntos de
silla

Figura 10: Tipos de puntos de equilibrio en R2 .

21. Caso lineal en Rn


Como ya hemos visto en R2 , la forma canónica de la matriz del sistema nos proporciona una forma directa de
obtener la solución de un sistema de ecuaciones diferenciales lineales de primer orden.

En Rn esto puede resultar complicado porque no resulta fácil obtener una base de vectores propios generalizados
de una matriz A.
El siguiente teorema proporciona una forma particularmente simple, cuando se puede obtener dicha base de vec-
tores propios generalizados de A y es útil también en la obtención de resultados teóricos.

Teorema 23 (de la forma canónica de Jordan). Sea A una matriz real con valores propios reales λj , j =
1, 2, . . . , k y complejos λj = aj + i bj , j = k + 1, . . . , m.
Entonces existe una base {u1 , u2 , . . . , uk , uk+1 , v k+1 , . . . , um , v m } de Rn , n = 2m − k, donde uj y wj son
los vectores propios generalizados de A, uj = Re(wj ), v j = Im(wj ),
de forma que la matriz
P = [u1 , u2 , . . . , uk , uk+1 , v k+1 , . . . , um , v m ]
es invertible y  
B1 0 ... 0
0 B2 ... 0 
 
P −1 AP =  . .. ..  (22)
 .. . . 
0 0 ... Br

Los elementos de la diagonal son los bloques de Jordan de la forma

 
λ 1 0 ... 0
0 λ 1 . . . 0
 
Bj =  . .. ..  (23)
 .. . . . . . 1
0 0 0 ... λ
si λ es real, y

64
 
D I2 0 ... 0
0 D I2 ... 0
 
Bj =  . .. ..  (24)
 .. . . . . . I2 
0 0 0 ... D
· ¸ · ¸
a −b 1 0
donde D = e I2 = , si λ es complejo a + i b.
b a 0 1

65
22. Teoría local
22.1. Linealización
Consideremos un sistema lineal de la forma

ẋ = Ax, x ∈ Rn (25)

y sean los vectores propios generalizados wj = uj + iv j que corresponden a un valor propio λj = aj + ibj de la
matriz A. (Notemos que si bj = 0 entonces v j = 0).

Sea
B = { u1 , . . . , uk , uk+1 , v k+1 , . . . , um , v m }
una base de Rn (con n = 2m − k).

Definición 49. Sean λj = aj + ibj , wj = uj + iv j y B como antes.


Definimos los subespacios estable, central y inestable E S , E C y E U de la siguiente manera

E S = C.L. {uj , v j | aj < 0}

E C = C.L. {uj , v j | aj = 0}

E U = C.L. {uj , v j | aj > 0}

Es decir, E S , E C y E U son los subespacios de Rn definidos por las posibles combinaciones lineales de las partes
reales e imaginarias de los vectores propios generalizados wj correspondientes a los valores propios λj con partes
reales negativa, cero y positiva, respectivamente.

Teorema 24. Sea A una matriz real de dimensión n × n. Entonces

Rn = E S ⊕ E U ⊕ E C

donde E S , E C y E U son los subespacios estable, central e inestable de (25).

Ejemplo
La matriz  
−2 −1 0
A= 1 −2 0
0 0 3
tiene los vectores propios w1 = u1 + iv 1 = (0, 1, 0)T + i(1, 0, 0)T , correspondiente al valor propio λ1 = −2 ± i,
y u2 = (0, 0, 1)T , correspondiente a λ2 = 3.
Por tanto, el subespacio estable E S del sistema lineal (25) es el plano x1 , x2 y el subespacio inestable E U es el
eje x3 .

66
22.2. Hiperbolicidad

Definición 50. Si todos los valores propios de una matriz A de dimensión n×n tienen parte real no nula, entonces
el flujo eAt : Rn −→ Rn se llama flujo hiperbólico y (25) se dice que es un sistema lineal hiperbólico.

Supongamos ahora un sistema de ecuaciones diferenciales no lineal


ẋ = f (x) (26)

Una buena forma de comenzar a analizar un sistema no lineal es determinar los puntos de equilibrio y describir el
comportamiento del sistema cerca de dichos puntos de equilibrio.
Se trata de ver que el comportamiento local del sistema no lineal (26) cerca de un punto de equilibrio hiperbólico
x0 viene determinado cualitativamente por el comportamiento del sistema lineal asociado (25) donde A es la
matriz  
∂f1 ∂f1
(x0 ) . . . (x0 )
 ∂x1 ∂xn 
 . . . 
A = Df (x0 ) =   .. .. .. 

 ∂f ∂fn 
n
(x0 ) . . . (x0 )
∂x1 ∂xn

La función lineal A = Df (x0 ) se llama la parte lineal de f en x0 .


Si x0 = 0 es un punto de equilibrio de (26), entonces f (0) = 0.

Si escribimos el desarrollo de Taylor, por medio de las matrices de derivadas Df (x) y D2 f (x),
1
f (x) = Df (0)x + D2 f (0)(x, x) + . . .
2
donde
n
X ∂ 2 f (x0 )
D2 f (x0 )(x, y) = xj yj
j1 ,j2 =1
∂xj1 ∂yj2 1 2

Tenemos pues que la función lineal Df (0)x es una buena primera aproximación a la función no lineal f (x)
alrededor de x = 0 y es razonable esperar que el comportamiento del sistema (26) cerca del punto x = 0 sea
aproximado por el comportamiento de su linealización.

Además, si tenemos un sistema lineal (25) con x(0) = x0 , su solución es x = x0 eAt , como ya hemos visto.

Definición 51. Un punto x0 ∈ Rn se llama punto de equilibrio o punto crítico de (26) si f (x0 ) = 0.

Un punto de equilibrio de (26) se llama punto de equilibrio hiperbólico si no hay ningún valor propio de Df (x0 )
con parte real nula.

El sistema lineal (25) donde A = Df (x0 ) se llama la linealización de (26) en x0 .

67
Vamos a dar ahora una clasificación simple de los puntos de equilibrio de (26) basada en el signo de las partes
reales de los valores propios de la matriz A = Df (x0 ).

Definición 52. a) Un punto de equilibrio se llama asintóticamente estable si todos los valores propios de la
matriz Df (x0 ) tienen parte real negativa.
b) Diremos que es asintóticamente inestable si todos los valores propios de la matriz Df (x0 ) tienen parte real
positiva.
c) Y diremos que es un punto de silla si es un punto de equilibrio hiperbólico y Df (x0 ) tiene al menos un valor
propio con parte real positiva y otro con parte real negativa.

Ejemplo
Vamos a clasificar todos los puntos de equilibrio del sistema no lineal (26) siendo
· 2 ¸
x1 − x22 − 1
f (x) =
2x2

Claramente, f (x) = 0 para x = (1, 0)T y para x = (−1, 0)T .


Estos seran, pues, los únicos puntos de equilibrio.
· ¸
2x1 −2x2
La matriz de derivadas es Df (x) =
0 2
· ¸ · ¸
2 0 −2 0
Df (1, 0) = , Df (−1, 0) = .
0 2 0 2

Entonces, (1, 0) es un punto de equilibrio inestable y (−1, 0) es un punto de silla.

22.3. El teorema de Hartman-Grobman


El siguiente teorema, que se conoce como el teorema de Hartman-Grobman, muestra que cerca de un punto de
equilibrio hiperbólico x0 el sistema no lineal (26) tiene la misma estructura topológica que el sistema lineal (25),
con A = Df (x0 ).

Teorema 25 (Hartman-Grobman). Sea E es un abierto de Rn que contiene al origen, sea f ∈ C 1 (E), y sea ϕt
el flujo del sistema no lineal (26).
Supongamos que f (0) = 0 y que la matriz A = Df (0) no tiene valores propios con parte real cero.
Entonces existe un homeomorfismo H de un conjunto abierto U que contiene al origen sobre un conjunto abierto
V que contiene al origen tal que para cada x0 ∈ U , hay un intervalo abierto I0 ⊂ R que contiene al cero tal que
para todo x0 ∈ U y t ∈ I0
H ◦ ϕt (x0 ) = eAt H(x0 )

es decir, H proyecta trayectorias de (26) cerca del origen sobre trayectorias de (25) cerca del origen y conserva
la parametrización.

68
23. Teorema de la variedad estable
23.1. El teorema de la variedad estable
El teorema de la variedad estable es uno de los resultados más importantes de la teoría cualitativa local de las
ecuaciones diferenciales ordinarias.
El teorema demuestra que en el entorno de un punto de equilibrio x0 , el sistema no lineal (26) tiene variedades
estable e inestable S y U tangentes en x0 a los subespacios estable e inestable E S y E U del sistema linealizado
(25), con A = Df (x0 ).
Además, S y U tienen las mismas dimensiones que E S y E U .

Definición 53. Si ϕt es el flujo de un sistema dinámico dado por (26), entonces definimos los conjuntos
n o
S = c | lı́m ϕt (c) = x0
t→∞

y ½ ¾
U= c | lı́m ϕt (c) = x0
t→−∞

Ilustraremos estas ideas con un ejemplo y después enunciaremos el teorema de la variedad estable.
Supondremos que el punto de equilibrio x0 es el origen y, si no lo fuera, entonces podemos trasladar x0 al origen
por medio de la transformación lineal de coordenadas x −→ (x − x0 ).
Consideremos el sistema no lineal
ẋ1 = −x1
ẋ2 = −x2 + x21
ẋ3 = x3 + x21

El único punto de equilibrio del sistema es el origen y la matriz A es


 
−1 0 0
A = Df (0) =  0 −1 0
0 0 1

Los subespacios estable, E S , e inestable, E U , de (25) son el plano x1 , x2 y el eje x3 , respectivamente.


El sistema se puede resolver y encontramos la solución

x1 (t) = c1 e−t
x2 (t) = c2 e−t + c21 (e−t − e−2t )
c21 t
x3 (t) = c3 et + (e − e−2t )
3
donde c = x(0).
Examinando la solución tenemos que lı́mt→+∞ ϕt (c) = 0 si y sólo si c3 + c21 /3 = 0. Entonces
© ª
S = c ∈ R3 | c3 = −c21 /3 .

69
De manera similar, lı́mt→−∞ ϕt (c) = 0 si y sólo si c1 = c2 = 0 y tenemos
© ª
U = c ∈ R3 | c1 = c2 = 0 .

En la figura tenemos las variedades estable e inestable para este sistema.

x3

U
x2

x1

Propiedad 22. Las variedades estable e inestable, S y U , son positiva y negativamente invariantes, respectiva-
mente.
D EMOSTRACIÓN : La demostración es consecuencia inmediata de las definiciones.
En el ejemplo anterior, se puede ver fácilmente que
si c ∈ S entonces c3 = −c21 /3 y, por tanto,
 
c1 e−t
 −t 2 −t −2t 
ϕt (c) = c2 e + c1 (e − e ) ∈ S

c2
− 1 e−2t
3
Entonces tenemos que ϕt (S) ⊂ S.

Teorema 26 (De la variedad estable). Sea E un subconjunto abierto de Rn con 0 ∈ E, sea f ∈ C 1 (E) y sea ϕt el flujo
del sistema dinámico no lineal (26).
Supongamos que f (0) = 0 y que Df (0) tiene k valores propios con parte real negativa y n − k valores propios
con parte real positiva.
Entonces existe una variedad diferenciable k-dimensional S tangente al subespacio estable E S del sistema lineal
(25) en 0 de manera que para todo t ≥ 0, ϕt (S) ⊂ S y para todo x0 ∈ S

lı́m ϕt (x0 ) = 0;
t→+∞

Además existe también una variedad diferenciable (n − k)–dimensional U tangente al subespacio inestable E U de
(25) en 0 de manera que para todo t ≤ 0, ϕt (U ) ⊂ U y para todo x0 ∈ U

lı́m ϕt (x0 ) = 0;
t→−∞

Esbozo de la demostración. La demostración del teorema de la variedad estable es constructiva.


Si f ∈ C 1 (E) y f (0) = 0, entonces el sistema (26) se puede escribir como

ẋ = Ax + F(x) (27)

donde A = Df (0), F(x) = f (x) − Ax, F ∈ C 1 (E), F(0) = 0 y DF(0) = 0.

70
Eso implica que para todo ε > 0 existe un δ > 0 tal que si |x| ≤ δ y |y| ≤ δ entonces

|F(x) − F(y)| ≤ ε |x − y| . (28)

Además, dada una matriz A de dimensión n con las hipótesis del teorema, hay una matriz invertible C de dimen-
sión n tal que · ¸
−1 P 0
B = C AC =
0 Q

y tal que los valores propios λ1 , . . . , λk de la matriz P de dimensión k tienen parte real negativa y los valores
propios λk+1 , . . . , λn de la matriz Q de dimensión n − k tienen parte real positiva.
Si tomamos y = C −1 x, entonces el sistema (27) tiene la forma

ẏ = By + G(y) (29)

donde G(y) = C −1 F(Cy) ∈ C 1 (Ẽ), con Ẽ = C −1 (E) y G(y) satisface una condición de Lipschitz del tipo
(28).

La construcción de la variedad estable se realiza a partir de la construcción de la solución con una adaptación
del método de aproximaciones sucesivas de Picard, separando las partes con valores propios positivos y negativos
(estables e inestables), de la siguiente manera

Z t Z ∞
u(t, a) = U (t)a + U (t − s)G(u(s, a)) ds − V (t − s)G(u(s, a)) ds. (30)
0 t
donde a es un vector constante.
Si u(t, a) es una solución continua de esta ecuación integral, entonces es la solución de la ecuación diferencial
(29).

U (t) y V (t) son las funciones de variable temporal definidas por


· Pt ¸ · ¸
e 0 0 0
U (t) = y V (t) = .
0 0 0 eQt

De manera que U̇ = BU , V̇ = BV y eBt = U (t) + V (t).


Podemos escoger α > 0 suficientemente pequeño de manera que para j = 1, . . . , k,

Re(λj ) < −α < 0.

Se puede ver que con un α > 0 suficientemente pequeño podemos elegir un K > 0 suficientemente grande y un
σ > 0 suficientemente pequeño, de manera que

kU (t)k ≤ Ke−(α+σ)t , ∀t ≥ 0, kV (t)k ≤ Keσt , ∀t ≤ 0.

siendo kT k = máx|x|≤1 |T (x)|.

Ahora se resuelve esta ecuación integral por el método de aproximaciones sucesivas, tomando

u0 (t, a) = 0

y Z Z
t ∞
u(j+1) (t, a) = U (t)a + U (t − s)G(u(j) (s, a)) ds − V (t − s)G(u(j) (s, a)) ds. (31)
0 t

71
© ª
Se demuestra que la sucesión u(j) (t, a) es una sucesión de Cauchy de funciones continuas.

Por tanto,
lı́m u(j) (t, a) = u(t, a)
j→∞

uniformemente para todo t ≥ 0 y |a| < δ/2K.


Si tomamos límites a los dos miembros de (31), tenemos que, por la convergencia uniforme, la función continua
u(t, a) satisface la ecuación integral (30) y, por tanto, la ecuación diferencial (29).

A partir de la ecuación integral (30) tenemos que las últimas (n − k) componentes del vector a no intervienen en
el cálculo y, por tanto, pueden considerarse nulas.

Entonces, las componentes uj (t, a) de la solución u(t, a) satisfacen las condiciones iniciales

uj (0, a) = aj para j = 1, . . . , k

y Z ∞
uj (0, a) = − V (−s)G(u(s, a1 , . . . , ak , 0)) ds para j = k + 1, . . . , n.
0

Para j = k + 1, . . . , n definimos las funciones

ψj (a1 , . . . , ak ) = uj (0, a1 , . . . , ak , 0, . . . , 0). (32)

Los valores iniciales yj = uj (0, a1 , . . . , ak , 0, . . . , 0) satisfacen

yj = ψj (y1 , . . . , yk ) para j = k + 1, . . . , n

de acuerdo con la definición (32).


p
Estas ecuaciones definen una variedad diferencial S̃ para y12 + . . . + yk2 < δ/2K.

Además, si y(t) es una solución de la ecuación diferencial (29) con y(0) ∈ S̃, es decir, con y(0) = u(0, a),
entonces
y(t) = u(t, a).

Se deduce que si y(t) es una solución de (29) con y(0) ∈ S̃, entonces y(t) ∈ S̃ para todo t ≥ 0 y que y(t) → 0
cuando t → ∞.
Se puede demostrar también que si y(t) es una solución de (29) con y(0) 6∈ S̃, entonces y(t) 6→ 0 cuando t → ∞.
También se puede demostrar que
∂ψj
(0) = 0
∂yi
para i = 1, . . . , k y j = k + 1, . . . , n
Lo cual significa que la variedad diferenciable S̃ es tangente al subespacio estable E S = {y ∈ Rn | yk+1 = · · · = yn = 0}
del sistema lineal de (29) ẏ = By en 0.

La existencia de la variedad inestable Ũ de (29) se puede establecer exactamente de la misma forma considerando
en el sistema (29) el cambio t → −t, es decir,

ẏ = −By − G(y).

La variedad estable de este sistema será entonces la variedad inestable Ũ de (29).

72
Notemos que en este caso también es necesario sustituir el vector y por (yk+1 , . . . , yn , y1 , . . . , yk ) para determinar
la variedad (n − k)–dimensional U por el proceso anterior.
Esto completa la demostración del Teorema de la Variedad Estable.
Veamos con un ejemplo la construcción de la variedad estable en un sistema no lineal.
Consideremos el sistema
ẋ1 = −x1 − x22
ẋ2 = x2 + x21

Vamos a obtener las tres primeras aproximaciones u(1) (t, a), u(2) (t, a) y u(3) (t, a) definidas por (31) y usaremos
u(3) (t, a) para aproximar la función ψ2 que define la variedad estable
S : x2 = ψ2 (x1 ).

En este problema tenemos,


· ¸ · ¸
−1 0 −x22
A=B= , F(x) = G(x) = ,
0 1 x21
· ¸ · ¸ · ¸
e−t 0 0 0 a1
U (t) = , V (t) = y a= .
0 0 0 et a2
Por tanto, escribimos
· ¸ Z t · −(t−s) 2 ¸ Z ∞· ¸
e−t a1 −e u2 (s) 0
u(t, a) = + ds − ds
0 0 0 t et−s u21 (s)

Por aproximaciones sucesivas, tenemos


u(0) (t, a) = 0
· −t ¸
(1) e a1
u (t, a) =
0
 
· ¸ Z " # e−t a1
−t
e a1
∞ 0
 
u(2) (t, a) = − ds = 
0 e−2t 2 
t et−s e−2s a21 − a
3 1

· ¸ Z t · ¸
(3) e−t a1 1 e−(t−s) e−4s a41
u (t, a) = − ds−
0 9 0 0


" −t 1 −4t # −t 4
Z ∞ e
0 a 1 + (e − e )a
 27 1 
− ds = 


t t−s −2s 2
e e a1 1
− e−2t a21
3
¡ ¢
Se puede demostrar que u(4) (t, a) − u(3) (t, a) = O a51 y la función ψ2 (a1 ) = u2 (0, a1 , 0) se aproxima por
1 ¡ ¢
ψ2 (a1 ) = − a21 + O a51
3
cuando a1 → 0.

73
Entonces, la variedad estable S se puede aproximar por

x21 ¡ ¢
S : x2 = − + O a51
3
cuando x1 → 0.
La matriz C = I, la identidad, y por tanto, en este ejemplo los espacios en coordenades x e y son el mismo.

La variedad inestable U se puede aproximar aplicando exactamente el mismo procedimiento al sistema de antes,
con el cambio t → −t e intercambiando x1 y x2 . La variedad estable del sistema resultante será la variedad
inestable del sistema original.

El resultado es
x22 ¡ ¢
U : x1 = − + O x52
3
cuando x2 → 0.

Las aproximaciones de las variedades estable e inestable en un entorno del origen y los subespacios estable e
inestable E S y E U para ẋ = Ax se muestran en la siguiente figura

x2
U
0.5
EU

ES
-1 -0.5 0.5 1 x1
-0.5 S

23.2. Variedades estable e inestable globales

Definición 54. Sea ϕt el flujo de un sistema no lineal (26).


Las variedades estable e inestable globales de (26) en 0 vienen definidas por
[ [
W S (0) = ϕt (S) y W U (0) = ϕt (U )
t≤0 t≥0

respectivamente.
También reciben el nombre de variedades estable e inestable en el origen.
Se puede demostrar que las variedades globales estable e inestable W S y W U son únicas y que son invariantes
respecto del flujo del sistema ϕt .
Además, para todo x ∈ W S (0), lı́mt→+∞ ϕt (x) = 0 y para todo x ∈ W U (0), lı́mt→−∞ ϕt (x) = 0.

En la figura tenemos las variedades estable e inestable globales para este ejemplo.

74
x2 x2
1.5 1.5

1 1

0.5 0.5

-1.5 -1 -0.5 0.5 1


x1
1.5 -2 -1.5 -1 -0.5 0.5 1 1.5
x1

-0.5 -0.5

-1 -1

-1.5 -1.5
U S
W (0) W (0)
-2 -2

Corolario 5. Con las hipótesis del Teorema de la Variedad Estable, si S y U son las variedades estable e inestable
de (26) en el origen y si Re(λj ) < −α < 0 < β < Re(λm ) para j = 1, . . . , k y m = k + 1, . . . , n, entonces
dado un ε > 0 existe un δ > 0 de manera que si x0 ∈ Nδ (0) ∩ S tenemos

|ϕt (x0 )| ≤ ε e−αt

para todo t ≥ 0
y si x0 ∈ Nδ (0) ∩ U entonces
|ϕt (x0 )| ≤ ε eβt
para todo t ≤ 0.
Este resultado muestra que las soluciones que empiezan en S suficientemente cerca del origen tienden exponen-
cialmente al origen cuando t → +∞.

24. Estabilidad de Liapunov


24.1. Estabilidad según Liapunov
El matemático ruso Aleksander Mikháilovitx Liapunov, a finales del siglo XIX desarrolló un método muy general
para analizar la estabilidad de las soluciones de un sistema de ecuaciones diferenciales del tipo (26).
La idea básica del método es la siguiente:
Supongamos que tenemos un campo vectorial en el plano, con un punto de equilibrio x∗ y queremos determinar
si es o no estable.
Según las definiciones que hemos visto sobre la estabilidad, será suficiente encontrar un entorno U de x∗ de
manera que las trayectorias que empiezan en él permanezcan en él para tiempos positivos.
La idea se basa en el hecho que esta condición se satisfará si el campo es bien tangente a la frontera de U o bien va
en dirección al interior de U apuntando hacia x∗ y esta situación debe mantenerse cuando el entorno U sea más y
más pequeño alrededor de x∗ .

Veamos como trasladar esta idea a R2 y después generalizaremos a Rn .


Sea un campo vectorial
ẋ = f (x), x ∈ R2
el cual tiene un punto fijo (x∗ , y ∗ ), que suponemos estable. Veamos que para todo entorno de este punto se da la
anterior situación.

75
Sea V (x, y) una función escalar sobre R2 , al menos C 1 , es decir, V (x, y) : R2 −→ R, con V (x∗ , y ∗ ) = 0 y tal
que el lugar geométrico de los puntos que verifican V (x, y) = C = constante para distintos valores de C rodean
al punto (x∗ , y ∗ ), con V (x, y) > 0 en un entorno de (x∗ , y ∗ ).

Recordemos que el gradiente de V , es un vector perpendicular al vector tangente a lo largo de las curvas V (x, y) =
C el cual apunta en la dirección creciente de V , de manera que si el campo vectorial ha de ser tangente o apuntando
al interior de todas las curvas que envuelven (x∗ , y ∗ ), se ha de verificar que

∇V (x, y) · (ẋ, ẏ) ≤ 0

ÑV ÑV ÑV ÑV
ÑV
ÑV ÑV
V = ctnt.
U (x,y) ÑV (x,y)

ÑV
ÑV
ÑV ÑV
ÑV
a) b) ÑV
a) El campo vectorial sobre la frontera de U . b) Conjuntos de nivel de V y ∇V .

Teorema 27 (de estabilidad de Liapunov). Si existe una función L(x1 , . . . , xn ) definida sobre un entorno U del
punto de equilibrio x∗ en Rn , de manera que verifique

1) L ∈ C 1 (U ), (posiblemente sólo en U ∼ {x∗ })


2) L(x1 , . . . , xn ) > 0 en U ∼ {x∗ }, L(x∗ ) = 0
n
dL X ∂L
3) = fi (x1 , . . . , xn ) ≤ 0, (se trata del gradiente de L para el campo)
dt i=1
∂xi

entonces, el punto de equilibrio x∗ es estable.


Esta función L se llama función de Liapunov.

Si cambiamos la condición (3) por la


n
dL X ∂L
(3’) = fi (x1 , . . . , xn ) < 0
dt i=1
∂xi

el punto x0 es asintóticamente estable.


Y en el caso en que (3) sea
n
dL X ∂L
(3’) = fi (x1 , . . . , xn ) > 0
dt i=1
∂xi

el punto x0 es asintóticamente inestable.

Ejemplos: Consideremos el problema

ẋ = y,
ẏ = −x + εx2 y

es fácil comprobar que tiene un punto de equilibrio no hiperbólico en (0, 0). Veamos si es o no estable.

76
Sea L(x, y) = (x2 + y 2 )/2.
Tenemos que L(0, 0) = 0 y L(0, 0) > 0 en cualquier entorno de (0, 0). Entonces

L̇ = ∇L(x, y) · (ẋ, ẏ) = (x, y) · (y, −x + εx2 y) = xy + εx2 y 2 − xy = εx2 y 2

Por tanto, aplicando el teorema 27, (0, 0) es globalmente estable para ε < 0.
Además se puede ver que (0, 0) es en realidad asintóticamente estable.

25. Sistemas hamiltonianos y de gradiente


25.1. Sistemas hamiltonianos
En esta sección vamos a estudiar dos tipos interesantes de sistemas, los sistemas hamiltonianos y los de gradiente,
que aparecen en problemas físicos y a partir de los cuales podemos encontrar una gran cantidad de ejemplos de la
teoría general.

Definición 55. Sea E un subconjunto abierto de R2n y sea H ∈ C 2 (E) donde H = H(x, y), con x, y ∈ Rn .
Un sistema de la forma
∂H
ẋ =
∂y
(33)
∂H
ẏ = −
∂x
donde µ ¶T µ ¶T
∂H ∂H ∂H ∂H ∂H ∂H
= ,..., y = ,...,
∂x ∂x1 ∂xn ∂y ∂y1 ∂yn
se llama un sistema hamiltoniano con n grados de libertad sobre E.

Por ejemplo, la función hamiltoniana

H(x, y) = (x21 + x22 + y12 + y22 )/2

es la función energía del péndulo esférico


ẋ1 = y1
ẋ2 = y2
ẏ1 = −x1
ẏ2 = −x2

Este sistema es equivalente al par de osciladores harmónicos

ẍ1 + x1 = 0
ẍ2 + x2 = 0

Todos los sistemas hamiltonianos son conservativos en el sentido que la función hamiltoniana o energía total
H(x, y) se conserva a lo largo de las trayectorias del sistema.

Teorema 28 (De Conservación de la Energía). La energía total H(x, y) del sistema hamiltoniano (33) se conserva
constante a lo largo de todas las trayectorias de (33).

77
D EMOSTRACIÓN : La derivada de la función hamiltoniana H(x, y) a lo largo de la trayectoria (x(t), y(t)) de (33) es
dH ∂H ∂H ∂H ∂H ∂H ∂H
= ẋ + ẏ = − = 0.
dt ∂x ∂y ∂x ∂y ∂y ∂x

Entonces, H(x, y) es constante a lo largo de cualquier curva solución de (33) y las trayectorias de (33) permanecen
sobre las superficies H(x, y) = constante.

Vamos a ver ahora algunos resultados específicos sobre la naturaleza de los puntos críticos de los sistemas hamil-
tonianos con un grado de libertad.
Notemos que los puntos de equilibrio del sistema (33) se corresponden con los puntos críticos de la función
∂H ∂H
hamiltoniana H(x, y) donde = =0
∂x ∂y
Podemos suponer sin perder generalidad que el punto crítico en cuestión se sitúa en el origen.
Recordemos las definiciones de centro, foco, nodo y punto de silla .

Lema 6. Si el origen es un foco de un sistema hamiltoniano

ẋ = Hy (x, y)
(34)
ẏ = −Hx (x, y),

entonces no es un máximo o mínimo local estricto de la función hamiltoniana H(x, y).

D EMOSTRACIÓN : Supongamos que el origen es un foco estable de (34).


Entonces, hay un ² > 0 tal que para 0 < r0 < ² y θ0 ∈ R, las coordenadas polares de la solución de (34) con
r(0) = r0 y θ(0) = θ0 verifican r(t, r0 , θ0 ) → 0 y |θ(t, r0 , θ0 )| → +∞ cuando t → +∞,
es decir, para (x0 , y0 ) ∈ N² (0) ∼ {0}, la solución (x(t, x0 , y0 ), y(t, x0 , y0 )) −→ 0 cuando t → +∞.
Entonces, por el teorema (28) y la continuidad de H(x, y) y la solución, se sigue que

H(x0 , y0 ) = lı́m H(x(t, x0 , y0 ), y(t, x0 , y0 )) = H(0, 0)


t→∞

para todo (x0 , y0 ) ∈ N² (0).

Lo que significa que el origen no es un máximo o mínimo local estricto de la función H(x, y), es decir, no se
cumple que H(x, y) > H(0, 0) ó H(x, y) < H(0, 0) para todos los puntos (x, y) en un entorno del origen.
Un argumento similar se aplica cuando el origen es un foco inestable de (34).

Teorema 29. Cualquier punto crítico de un sistema hamiltoniano analítico es bien un punto de silla o bien un
centro; además, (x0 , y0 ) será un punto de silla de (34) si y sólo si es un punto de silla de la función hamiltoniana
H(x, y), y un máximo o mínimo local estricto de la función H(x, y) si es un centro de (34).
D EMOSTRACIÓN : Supongamos que el punto crítico es el origen. Entonces, Hx (0, 0) = Hy (0, 0) = 0 y la linealiza-
ción de (34) en el origen es
ẋ = Ax (35)
donde · ¸
Hyx (0, 0) Hyy (0, 0)
A= .
−Hxx (0, 0) −Hxy (0, 0)

78
2
Se ve que trA = 0 y que detA = Hxx (0)Hyy (0) − Hxy (0).
Entonces el punto crítico del origen es un punto de silla de la función H(x, y) si y sólo si detA < 0, si y sólo si es
un punto de silla para el sistema lineal (35), si y sólo si es un punto de silla del sistema hamiltoniano (34)
Al mismo tiempo, si trA = 0 y detA > 0, el origen es un centro del sistema lineal (35).
Por tanto, el origen es un centro o un foco para (34). Pero si el punto crítico no degenerado (0, 0) es un máximo o
mínimo local estricto de la función H(x, y), entonces det A > 0 y de acuerdo con el lema anterior, el origen no
es un foco de (34), es decir, es un centro del sistema hamiltoniano (34).

Ejemplo. Un caso particular de sistema hamiltoniano con un grado de libertad es el sistema de Newton

ẍ = f (x)

donde f ∈ C 1 (]a, b[).


Esta ecuación diferencial se puede escribir como un sistema en R2 :

ẋ = y
(36)
ẏ = f (x)

La energia total de este sistema es H(x, y) = T (y) + U (x), donde T (y) = y 2 /2 es la energia cinética y
Z x
U (x) = − f (s) ds
x0

es la energia potencial.
Con esta definición de H(x, y) se ve que el sistema de Newton (36) se puede escribir como un sistema hamilto-
niano.

Sin dificultad se puede demostrar el seguiente teorema

Teorema 30. Los puntos de equilibrio del sistema newtoniano (36) estan todos en el eje de las x.
El punto (x0 , 0) es un punto crítico del sistema (36) si y sólo si es un punto crítico de la función U (x), es decir,
un cero de la función f (x).
Si (x0 , 0) es un máximo local estricto de la función analítica U (x), es un punto de silla de (36).
Si (x0 , 0) es un mínimo local estricto de la función analítica U (x), es un centro de (36).
Y, finalmente, el retrato de fase de (36) es simétrico respecto del eje de las x.

Veamos el retrato de fase del péndulo libre


ẍ + sin x = 0.

La ecuación diferencial se puede escribir como un sistema newtoniano

ẋ = y
ẏ = − sin x

donde la energia potencial viene dada por


Z x
U (x) = sin t dt = 1 − cos x
0

79
La gráfica de la función U (x) y el retrato de fase del péndulo libre se muestran en la figura.

-3 -2 -1 1 2 3
y
4

x
-4 -2 2 4
−π π
-1

-2

-3

-4

Notemos que el origen corresponde a una posición de equilibrio estable. Los puntos críticos en (±π, 0) corres-
ponden a las posiciones de equilibrio inestable. Las trayectorias cerca del origen son quasi-circulares y se pueden
aproximar por las curvas solución del péndulo lineal

ẍ + x = 0

Las trayectorias cerradas que rodean al origen describen los movimientos periódicos usuales asociados con un
péndulo cuando éste va hacia adelante y hacia atrás.
Las separatrices que conectan los puntos de silla (±π, 0) corresponden a los movimientos con energia total H = 2,
casos en los que el péndulo se aproxima a la posición vertical estable cuando t → ±∞.
Y las trayectorias fuera de las separatrices, con H > 2, corresponden a los movimientos en que el péndulo llega
más allá de los límites por arriba.

25.2. Sistemas de gradiente

Definición 56. Sea E un subconjunto abierto de Rn y sea V ∈ C 2 (E). Un sistema de la forma

ẋ = −∇V (x) (37)

donde µ ¶T
∂V ∂V
∇V = ,...,
∂x1 ∂xn
se llama un sistema de gradiente sobre E.
Notemos que los puntos de equilibrio de un sistema de gradiente (37) corresponden a los puntos críticos de la
función V (x) donde ∇V (x) = 0.
Los puntos en que ∇V (x) 6= 0 se llaman puntos regulares de la función V (x). En los puntos regulares de V (x)
el vector gradiente es perpendicular a la superficie de nivel V (x) = V0 = constante que pasa por el punto.

Es fácil comprobar que en un punto crítico, x0 , de V (x), el cual es un mínimo local estricto de V (x), la función
V (x) − V (x0 ) es una función de Liapunov del sistema (37) en algún entorno de x0 .

80
Teorema 31. En los puntos regulares de la función V (x), las trayectorias del sistema de gradiente (37) cortan a
las superficies de nivel V (x) = V0 ortogonalmente.
Los mínimos locales estrictos de la función V (x) son puntos de equilibrio asintóticamente estables de (37).

Dado que la linealización de (37) en cualquier punto crítico x0 tiene como matriz
· 2 ¸
∂ V (x0 )
A=−
∂xi ∂xj i,j=1,...,n

la cual es simétrica, los valores propios de A son todos reales y A es diagonalizable respecto de alguna base
ortonormal.
De nuevo, para los sistemas de gradiente podemos ser muy específicos respecto de la naturaleza de sus puntos
críticos.

Teorema 32. Cualquier punto crítico no degenerado de un sistema de gradiente analítico (37) sobre R2 es o un
punto de silla o bien un nodo.
Además, si (x0 , y0 ) es un punto de silla de la función V (x, y), será un punto de silla de (37) y si (x0 , y0 ) es un
máximo o mínimo local estricto de la función V (x, y), será respectivamente un nodo inestable o estable para (37).

Ejemplo Sea V (x, y) = x2 (x − 1)2 + y 2 .


El sistema de gradiente (37) tiene la forma
1
ẋ = −4x(x − 1)(x − )
2
ẏ = −2y

Hay puntos críticos en (0, 0), ( 21 , 0) y (1, 0). Se sigue del teorema 32 que (0, 0) y (1, 0) son nodos estables y que
( 12 , 0) es un punto de silla del sistema.

Las curvas de nivel V (x, y) = constante y las trayectorias del sistema estan representadas en esta figura.
y
1.5

V(x,y) = cte.

0.5

x
-1 -0.5 0.5 1 1.5 2

-0.5

-1

-1.5

Para finalizar vamos a ver la relación que existe entre los sistemas hamiltonianos y los sistemas de gradiente. Sólo
detallaremos para sistemas con dos grados de libertad.

81
Definición 57. Consideremos el sistema plano

ẋ = P (x, y)
(38)
ẏ = Q(x, y)

El sistema ortogonal al (38) se define por

ẋ = Q(x, y)
(39)
ẏ = −P (x, y).

Claramente (38) y (39) tienen los mismos puntos críticos y puntos regulares y las trayectorias de (38) son ortogo-
nales a les trayectorias de (39).
Además los centros de (38) se corresponden con nodos de (39) y los puntos de silla de (38) se corresponden con
puntos de silla de (39).
También los focos de (38) se corresponden con focos de (39).
El sistema (38) es un sistema hamiltoniano si hacemos P = Hy y Q = −Hx , entonces (39) es un sistema de
gradiente, y a la inversa.

Teorema 33. El sistema (38) es un sistema hamiltoniano si y sólo si el sistema (39), ortogonal a (38), es un
sistema de gradiente.

Para dimensiones mayores tenemos que si (33) es un sistema hamiltoniano con n grados de libertad, entonces el
sistema
∂H
ẋ = −
∂x
(40)
∂H
ẏ = −
∂y

ortogonal a (33) es un sistema de gradiente en R2n y las trayectorias del sistema de gradiente (40) intersecan las
superficies H(x, y) = constante ortogonalmente.

En el ejemplo anterior si tomamos H(x, y) = V (x, y), entonces la figura ilustra la ortogonalidad de las trayec-
torias de los flujos hamiltonianos y de gradiente. El flujo hamiltoniano circula en el sentido de las agujas del
reloj.

82
26. Teoría global
26.1. El teorema de Poincaré–Bendixson
El teorema de Poincaré–Bendixson da una determinación completa del comportamiento asintótico de una gran
clase de flujos sobre el plano, el cilindro, la 2-esfera, etc.
Lo más notable es que no exige grandes condiciones sobre el flujo del campo vectorial, si no sólo unicidad de las
soluciones, propiedades de los conjuntos ω-límite y algunas propiedades sobre la geometría del espacio de fases
subyacente.
Consideremos un campo vectorial C r , r ≥ 1, y el problema ẋ = f (x), x ∈ E, donde E puede ser el plano, el
cilindro o la 2-esfera.
Denotaremos el flujo generado por el campo vectorial, como de costumbre, por ϕ(x, t).

Definición 58. Sea Σ un arco continuo y conexo en E.


Diremos que Σ es transversal al campo vectorial sobre E si el producto escalar del vector normal unitario en
cada punto de Σ con el campo vectorial en el mismo punto no se anula y no cambia de signo sobre Σ.
Equivalentemente, dado que el campo vectorial es C r , r ≥ 1, diremos que el campo vectorial no tiene puntos de
equilibrio sobre Σ y nunca es tangente a Σ.

Lema 7. Sea M un conjunto positivamente invariante en E y Σ ⊂ M un arco transversal al campo vectorial.


La semi-órbita positiva que pasa por el punto p ∈ M interseca Σ en una sucesión monótona, es decir, si pi es el
punto i-èsimo de esta intersección, entonces pi ∈ [pi−1 , pi+1 ].

D EMOSTRACIÓN : Si sólo interseca en un punto, el enunciado seria verdadero.


En otro caso, consideremos la parte de la semi-órbita γ + (p) entre pi−1 y pi junto con el segmento [pi−1 , pi ] ⊂ Σ.
Esto forma la frontera de una región positivamente invariante D y por tanto, γ + (pi ) ⊂ D y, pi+1 , si existe ha de
estar en D, de donde tenemos que pi ∈ [pi−1 , pi+1 ].

Corolario 6. El conjunto ω(p) interseca Σ como mucho en un punto.


D EMOSTRACIÓN : Supongamos que ω(p) interseca Σ en dos puntos q1 y q2 .
Por definición de ω-límite podemos encontrar sucesiones de puntos del conjunto γ + (p), {pn } y {p̄n } que inter-
secten Σ y tales que pn → q1 y p̄n → q2 cuando n → ∞.
Pero esto contradice el lema anterior sobre la monotonía de las intersecciones de γ + (p) con Σ.

Lema 8. Si ω(p) no contiene puntos fijos, entonces ω(p) es una trayectoria cerrada.
D EMOSTRACIÓN : La estrategia a seguir es escoger un punto q ∈ ω(p), mostrar que la órbita de q es cerrada y que
ω(p) es la misma trayectoria de q.
Cojamos x ∈ ω(q), x no es un punto fijo, ya que ω(p) es un cerrado formado por la unión de órbitas que no
contienen puntos fijos. Construimos un arco transversal al campo vectorial en x, Σ.

83
Ahora γ + (q) interseca Σ en una sucesión monótona, {qn }, y {qn } → x cuando n → ∞, pero ya que qn ∈ ω(p),
por el corolario anterior ha de ser qn = x, ∀n. Ya que x ∈ ω(q), la órbita de q debe ser cerrada.
Queda probar que la órbita de q y ω(p) son lo mismo. Sea un arco transversal Σ pasando por q. Por el corolario
anterior ω(p) interseca Σ sólo en q. Como que ω(p) es una unión de órbitas, no contiene puntos fijos y es conexo,
por ello γ(q) = ω(p).

Lema 9. Sean p1 y p2 puntos fijos distintos del campo vectorial contenidos en ω(p), p ∈ M (conjunto positiva-
mente invariante en E).
Entonces existe como mucho una órbita γ ⊂ ω(p) tal que α(γ) = p1 y ω(γ) = p2 .
(α(γ) y ω(γ) son los conjuntos límite para todos los puntos de γ).
D EMOSTRACIÓN : Supongamos que existen dos órbitas γ1 , γ2 ⊂ ω(p) tales que α(γi ) = p1 y ω(γi ) = p2 , i = 1, 2.

Sean los puntos q1 ∈ γ1 y q2 ∈ γ2 y construimos los arcos Σ1 , Σ2 transversales al campo vectorial en cada uno
de estos puntos.

Ya que γ1 , γ2 ⊂ ω(p), γ + (p) interseca Σ1 en un punto a y posteriormente interseca Σ2 en un punto b.


Entonces la región acotada por los segmentos de órbitas y los arcos que conectan los puntos q1 , a, b, q2 , p2 es una
región positivamente invariante, pero eso lleva a una contradicción ya que γ1 , γ2 ⊂ ω(p).

Teorema 34 (Poincaré-Bendixson). Sea M una región positivamente invariante del campo vectorial que contiene
un número finito de puntos fijos. Sea p ∈ M .
Entonces se verifica sólo una de las siguientes posibilidades:
1) ω(p) es un punto fijo;
2) ω(p) es una trayectoria cerrada; o
3) ω(p) consiste en un número finito de puntos fijos p1 , . . . , pn y órbitas γ tales que α(γ) = pi y ω(γ) = pj

D EMOSTRACIÓN : Si ω(p) sólo contiene puntos fijos, entonces debe consistir en un único punto fijo, ya que el número
de puntos fijos en M es finito y ω(p) es un conjunto conexo.

Si ω(p) no contiene puntos fijos, entonces por el lema 8 debe ser una trayectoria cerrada.

Supongamos que ω(p) contiene puntos fijos y puntos regulares.


Sea γ una trayectoria en ω(p) formada por puntos regulares.
En este caso ω(γ) y α(γ) serian puntos fijos, porque, de otra forma, de acuerdo con el lema 8 serian órbitas
cerradas, lo cual no puede ser porque ω(p) es conexo y contiene puntos fijos.
Por tanto tenemos que cada punto regular en ω(p) tiene un punto fijo para un conjunto α y ω. Esto prueba 3) y
completa la demostración.

27. Órbitas Periódicas


27.1. Variedades Estable e Inestable en órbitas Periódicas
Un ciclo u órbita periódica del sistema ẋ = f (x) es cualquier curva cerrada solución del sistema la cual no es
un punto de equilibrio.

84
Definición 59. Una órbita periódica Γ se llama estable si para cada ε > 0 hay un entorno U de Γ tal que para
todo x ∈ U , d(Γ+
x , Γ) < ε.
Es decir, ∀x ∈ U y t ≥ 0, d(ϕ(x, t), Γ) < ε.
Diremos que una órbita periódica es inestable si no es estable;
y diremos que Γ es asintóticamente estable si para todos los puntos x en algún entorno U de Γ
lı́m d(ϕ(x, t), Γ) = 0.
t→+∞

Órbita periódica estable

ε
x Γ
U ϕ(x,t)

Las órbitas periódicas tienen variedades estable e inestable, al igual que los puntos de equilibrio. Si Γ es una órbita
periódica y N es un entorno de Γ, las variedades estable e inestable de Γ vienen definidas por
S(Γ) = {x ∈ N | d(ϕt (x), Γ) → 0 cuando t → +∞}
y
U (Γ) = {x ∈ N | d(ϕt (x), Γ) → 0 cuando t → −∞}
Las variedades globales estable e inestable de Γ vienen definidas por
[
W S (Γ) = ϕt (S(Γ))
t≤0

y [
W U (Γ) = ϕt (U (Γ)).
t≥0

Estas variedades son invariantes para el flujo ϕt .


Veamos un ejemplo. Sea el sistema
ẋ = −y + x(1 − x2 − y 2 )
ẏ = x + y(1 − x2 − y 2 )
ż = z

Tiene una órbita periódica aislada en el plano x, y, dada por x(t) = (cos t, sin t, 0)T . Hay un punto de equilibrio
en el origen.
El eje z, el cilindro x2 + y 2 = 1 y el plano x, y son las variedades invariantes del sistema.
El espacio de fases del sistema se muestra en la figura.

85
La variedad estable de Γ, W S (Γ), es el plano x, y, excluyendo el origen, y la variedad inestable de Γ, W U (Γ), es
el cilindro unidad.
Una órbita periódica Γ de este tipo donde W S (Γ) 6= ∅ y W U (Γ) 6= ∅ se llama una órbita periódica de silla.
Toda órbita periódica de silla es inestable.

28. Estabilidad de trayectorias periódicas


28.1. La aplicación de Poincaré
Probablemente la herramienta más básica para estudiar la estabilidad de las trayectorias periódicas es la aplicación
de Poincaré, definida por Henri Poincaré en 1881.
La idea de la aplicación de Poincaré es simple:
Si Γ es una órbita periódica del sistema
ẋ = f (x) (41)
que pasa por el punto x0 y Σ es un hiperplano perpendicular a Γ en x0 , tendremos que para cada punto x ∈ Σ
suficientemente cerca de x0 , la solución de (41) que pasa por x en t = 0, ϕt (x), cortará de nuevo Σ en un punto
P (x) cerca de x0 .

S
P(x)

x0

La aplicación de Poincaré se puede definir también cuando Σ es una superficie diferenciable, pasando por x0 ∈ Γ,
la cual no es tangente a Γ en x0 . En este caso diremos que Σ interseca transversalmente la curva Γ en x0 .
El siguiente teorema establece la existencia y continuidad de la aplicación de Poincaré P (x) y de su primera
derivada DP (x).

Teorema 35 (de existencia de la aplicación de Poincaré). Sea E un subconjunto abierto de Rn y sea f ∈ C 1 (E).
Supongamos que ϕt (x0 ) es una solución periódica de (41) de periodo T y que la trayectoria periódica

Γ = {x ∈ Rn | x = ϕt (x0 ), 0 ≤ t ≤ T }

esta contenida en E.
Sea Σ un hiperplano ortogonal a Γ en x0 , es decir,

Σ = {x ∈ Rn | (x − x0 ) · f (x0 ) = 0} .

Entonces, hay un δ > 0 y una función única τ (x), definida y continuamente diferenciable para x ∈ Nδ (x0 ), tal
que τ (x0 ) = T y
ϕτ (x) (x) ∈ Σ
para todo x ∈ Nδ (x0 ).

D EMOSTRACIÓN : La prueba del teorema es consecuencia inmediata del teorema de la función implícita.

86
Para un punto x0 ∈ Γ ⊂ E, definimos la función

F (x, t) = [ϕt (x) − x0 ] · f (x0 ).

Entonces tenemos que F ∈ C 1 (E × R) y, como que ϕt (x0 ) es periódica, que F (x0 , T ) = 0.


Además, como ϕ(x0 , t) es solución de (41) que satisface ϕ(x0 , T ) = x0 , se deduce que

∂F (x0 , T ) ∂ϕ(x0 , T )
= · f (x0 )
∂t ∂t
2
= f (x0 ) · f (x0 ) = |f (x0 )| 6= 0

dado que x0 ∈ Γ no es un punto de equilibrio de (41).

En estas condiciones, por el teorema de la función implícita existe un δ > 0 y una función única τ (x) definida y
continuamente diferenciable para todo x ∈ Nδ (x0 ) de manera que

τ (x0 ) = T y F (x, τ (x)) = 0

para todo x ∈ Nδ (x0 ).


Entonces, para todo x ∈ Nδ (x0 ),
[ϕ(x, τ (x)) − x0 ] · f (x0 ) = 0
es decir,
ϕτ (x) (x) ∈ Σ

Definición 60 (Aplicación de Poincaré). Sean Γ, Σ y τ (x) definidas por el teorema anterior 35.
Para x ∈ Nδ (x0 ) ∩ Σ, la función
P (x) = ϕτ (x) (x)
se llama aplicación de Poincaré para Γ en x0 .
La principal utilidad de la aplicación de Poincaré es que sus propiedades se traducen inmediatamente a propiedades
de la ecuación diferencial.

Los puntos fijos de la aplicación de Poincaré, es decir, los puntos x ∈ Σ tales que P (x) = x, corresponden a
órbitas periódicas de (41).
No se pierde generalidad suponiendo que el origen se traslada al punto x0 ∈ Σ, y en tal caso tomamos x0 = 0,
Σ ' Rn−1 , P : Rn−1 ∩ Nδ (0) −→ Rn−1 y DP (0) se representa por una matriz de dimensión (n − 1) × (n − 1).
Considerando en el sistema (41) el cambio t → −t, se puede demostrar que la aplicación de Poincaré tiene inversa
diferenciable P −1 ∈ C 1 . Por lo tanto, P es un difeomorfismo.

Veamos un ejemplo
Sea el sistema
ẋ = −y + x(1 − x2 − y 2 )
ẏ = x + y(1 − x2 − y 2 )

que ya sabemos que tiene una trayectoria periódica Γ representada por el círculo γ(t) = (cos t, sin t)T .

87
La aplicación de Poincaré se puede obtener resolviendo el sistema en coordenadas polares
ṙ = r(1 − r2 )
θ̇ = 1
con r(0) = r0 y θ(0) = θ0 .
La primera ecuación se puede resolver como variables separables o como ecuación de Bernoulli.
Tendremos · µ ¶ ¸−1/2
1 −2t
r(t, r0 ) = 1 + − 1 e
r02
y
θ(t, θ0 ) = t + θ0 .
Si Σ es la semirrecta con θ = θ0 que pasa por el origen, entonces Σ es perpendicular a Γ y la trayectoria que pasa
por el punto (r0 , θ0 ) ∈ Σ ∩ Γ en t = 0 interseca la semirrecta θ = θ0 de nuevo cuando t = 2π.
Entonces la aplicación de Poincaré vendrá dada por
· µ ¶ ¸−1/2
1 −4π
P (r0 ) = 1 + − 1 e .
r02
y

P(r 0 )
r0
G
q0
0 1 x

Claramente P (1) = 1 corresponde al círculo Γ.


La derivada de P se puede calcular fácilmente
· µ ¶ ¸−3/2
1
P 0 (r0 ) = e−4π r0−3 1 + − 1 e −4π
r02
y tenemos que P 0 (1) = e−4π < 1.
De la ecuación diferencial en polares tenemos que si r < 1 entonces ṙ > 0, el radio es creciente y no puede ser
periódica y si r > 1 → ṙ < 0, el radio es decreciente y tampoco puede ser periódica.

28.2. Estabilidad de trayectorias periódicas


Para sistemas con dos variables, si trasladamos el origen al punto x0 ∈ Γ ∩ Σ, la recta normal Σ pasará por el
origen.
y

S
s
G P(s)
0 x

88
El punto 0 ∈ Γ ∩ Σ divide la recta Σ en dos segmentos abiertos Σ+ y Σ− .
Denotemos por s la distancia a lo largo de Σ, con s > 0 para los puntos en Σ+ y s < 0 para los puntos en Σ− .
De acuerdo con el teorema 35, la aplicación de Poincaré P (s) está definida para |s| < δ y tenemos que P (0) = 0.
Para estudiar la estabilidad de la órbita periódica Γ introducimos la función desplazamiento
d(s) = P (s) − s (42)

Entonces d(0) = 0 y d0 (s) = P 0 (s) − 1.


Del teorema del valor medio se deduce que para |s| < δ, d(s) = d0 (σ)s para algún σ entre 0 y s.
Dado que d0 (s) es continua, el signo de d0 (s) será el mismo que el de d0 (0) para |s| suficientemente pequeño,
cuando d0 (0) 6= 0.
Entonces, si d0 (0) < 0 se deduce que d(s) < 0 para s > 0 y que d(s) > 0 para s < 0, es decir, la trayectoria Γ es
estable.
Y, de forma similar, si d0 (0) > 0 entonces Γ es inestable.
Trasladando estos resultados a la aplicación de Poincaré tenemos que si P (0) = 0 y P 0 (0) < 1, Γ es una
trayectoria periódica estable y si P (0) = 0 y P 0 (0) > 1, Γ es inestable.
Entonces, la estabilidad de Γ viene dada por la derivada de la aplicación de Poincaré.
A la vista de este resultado el siguiente teorema proporciona una forma de calcular P 0 (0) a partir de los términos
de la derecha de (41).

Teorema 36. Sea E un subconjunto abierto de R2 y supongamos que f ∈ C 1 (E). Sea γ(t) una solución periódica
de (41) de periodo T .
Entonces la derivada de la aplicación de Poincaré P (s) a lo largo de la recta Σ normal a Γ = {x ∈ R2 | x =
γ(t) − γ(0), 0 ≤ t ≤ T } en x = 0 viene dada por
Z T
0
P (0) = exp ∇ · f (γ(t)) dt
0

donde ∇ · f es la divergencia del campo f .

Corolario 7. Con las hipótesis del teorema 36, la trayectoria periódica γ(t) es una trayectoria límite estable si
Z T
∇ · f (γ(t)) dt < 0
0

y es una trayectoria límite inestable si


Z T
∇ · f (γ(t)) dt > 0.
0
Si esta cantidad se anula no podemos sacar conclusiones.
Para el ejemplo anterior tenemos γ(t) = (cos t, sin t)T , ∇ · f (x, y) = 2 − 4x2 − 4y 2 y
Z 2π Z 2π
∇ · f (γ(t)) dt = (2 − 4 cos2 t − 4 sin2 t) dt = −4π.
0 0

Entonces, por el teorema 36, tenemos que P (0) = e−4π , que coincide con el resultado que teníamos por cálculo
0

directo.

89

También podría gustarte