Está en la página 1de 123

CAPÍTULO 1

Introducción a los campos vectoriales

Tal vez no sea exagerado decir que el origen de las ecuaciones diferenciales está en la fascinación instintiva y
racional que el ser humano ha tenido desde tiempos remotos por todo aquello que está en movimiento. Es difícil
no sentir embeleso al mirar las olas en el mar o el correr del agua cristalina en ríos y riachuelos; al elevar la mirada
y ver el ligero andar de las nubes en el cielo, el movimiento del sol y la luna, el desplazamiento de los animales
y el propio, el caer lento de una gota en la palma de la mano, el sentir un latido, un parpadeo... Todo está en
movimiento.
Siendo el cambio algo intrínseco a la vida, no resulta extraño el que haya surgido y siga aún latente en el
ser humano el interés de entender y representar todo aquello que cambia al paso del tiempo. Y es en ese afán de
comprender aquello que nos rodea y de lo que formamos parte, que surgen los conceptos de campos vectoriales y
de ecuaciones diferenciales.
En esta parte del libro presentamos nociones básicas sobre campos vectoriales y sobre las ecuaciones diferen-
ciales que éstos inducen. Como es usual, este libro está pensado para ir creciendo poco a poco en profundidad y
complejidad. Esta introducción obedece por lo tanto a un deseo de establecer un puente entre el contenido del
libro y el lector, apelando a aquellas cosas que puedan serle familiares.
De manera heurística, un campo de vectores representará, en cada punto en donde se encuentre definido,
una tendencia instantánea de desplazamiento. Si pensamos en una partícula de polvo y una corriente de aire,
podemos decir que ésta ejerce sobre la partícula una tendencia a cambiar de posición en cada instante. Si
quisiéramos representar esta tendencia instantánea, bastaría con dibujar una flecha anclada en el punto en que
se halla la partícula con la dirección, la magnitud y el sentido apropiados. Esta flecha es un vector. Si esta
asociación la hacemos en todo punto de una región (a cada punto asociamos el vector correspondiente) habremos
definido un campo vectorial. La trayectoria que la partícula habrá de seguir al paso del tiempo es justamente la
trayectoria correspondiente a una solución de la ecuación diferencial definida por dicho campo de vectores.
Muy posiblemente, las palabras campo vectorial y ecuaciones diferenciales nos sean ajenas o poco conoci-
das, sin embargo, en cada momento de nuestras vidas nos encontramos rodeados de campos vectoriales y, por
consiguiente, de ecuaciones diferenciales que representan el movimiento que dichos campos inducen.
Entender comportamientos asociados a los campos vectoriales y a las ecuaciones diferenciales inducidas por és-
tos, nos abrirá la posibilidad de disfrutar de dinámicas diversas: algunas serán sumamente sencillas, otras sorpren-
dentemente complicadas; un objetivo de lo que aquí presentaremos, es mostrar que algunos comportamientos en
apariencia muy complicados, pueden ser entendidos, en su esencia, de manera extraordinariamente simple...Buscar
la simpleza en el razonamiento es una de las características fundamentales del pensamiento matemático.
Hace un momento mencionamos que vivimos rodeados de campos vectoriales. Dejemos las corrientes de aire
y observemos con cuidado lo que sucede cuando, con una cucharita, movemos el café que nos servimos cada
mañana. Las trayectorias que siguen de manera tangente a los vectores del campo vectorial que generamos con
el movimiento de la cucharilla podríamos dibujarlas como en la figura 1.1. Una dinámica parecida podemos
observarla al lavarnos las manos: el agua que se va por el desagüe del lavabo tiene también un comportamiento
similar al que se observa en la figura 1.1.
Los barquitos de papel, nuestros grandes navíos de la infancia, se desplazaban por las corrientes de los ríos
y arroyos porque estaban bajo la influencia de un campo vectorial. Seguramente nuestro mirar pudo percibir
cómo nuestros navíos seguían trayectorias sumamente caprichosas que incluían a curiosos remolinos; ¡ah!, por
cierto, algo aprendimos ahí: la trayectoria que seguía nuestro barco en la corriente del río dependía del lugar
en el que lo soltábamos (la condición inicial), algunas veces se desplazaba veloz hasta perderse a nuestra vista y
otras encallaba en la orilla o se quedaba atorado en un remolino. ¿Más ejemplos? Resulta sorprendente saber que
algunos fenómenos relacionados con la temperatura, la glucosa en la sangre, el crecimiento de ciertas poblaciones,
el decaimiento radiactivo, la absorción de medicamentos por los organismos vivos, la velocidad de proliferación
de células cancerosas, la propagación de una enfermedad contagiosa, así como fenómenos de contaminación (por
dar tan sólo unos pocos ejemplos), pueden ser algunas veces entendidos gracias a los campos vectoriales y a las
ecuaciones diferenciales que éstos inducen. En este texto revisaremos algunos de estos aspectos y exploraremos
conceptos fundamentales de lo que son las ecuaciones diferenciales ordinarias y de lo que podemos hacer para
entenderlas.
Campos vectoriales y las ecuaciones diferenciales ordinarias inducidas por éstos. De aquí en adelante
vamos a denotar por Rn al espacio vectorial real de dimensión n. Por ejemplo, cuando n = 1, R1 , representa la
recta real, cuando n = 2, R2 representa el plano real; cuando n = 3, R3 representa el espacio tridimensional real.

1
2 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Figura 1.1.

A lo largo del libro nos restringiremos con frecuencia a los casos de dimensión n = 1, 2, 3. Sólo haremos
mención a dimensiones mayores cuando ello sea conveniente.

Definición 1.1. Decimos que v : Rn ! Rn es un campo vectorial diferenciable de Rn en sí mismo, si v es una


transformación diferenciable de Rn en Rn ; es decir, la transformación v = (v1 , ..., vn ) está formada por funciones
diferenciables vj , j = 1, ..., n, de Rn en R. Al vector v(x) lo representaremos como una flecha en Rn basada en x.

Por razones que más adelante quedarán claras, pediremos que el campo vectorial sea de clase C1 ; es decir,
que cada una de las funciones diferenciables vj , j = 1, ..., n, que definen al campo vectorial v satisfaga que su
primera derivada con respecto a cada una de las variables sea continua.
Para fijar ideas pensemos que en cada punto x de Rn tenemos una tendencia instantánea de movimiento que
es representada por un vector v(x) 2 Rn . Así, al vector v(x) lo representaremos como una flecha en Rn parada
en x, que tiene la magnitud, la dirección y el sentido del vector que asociamos a x. La asociación x 7! v(x) para
x 2 R3 , se ve como en la figura 1.2.

Figura 1.2.

Para x 2 R2 se ve como en la figura 1.3,

Figura 1.3.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 3

y para x 2 R1 como en la figura 1.4.

Figura 1.4.

Como dijimos anteriormente, habremos de suponer que en la asociación


x 7 ! v(x) , x 2 Rn ,
v y su derivada Dv son transformaciones diferenciables del espacio Rn en sí mismo, es decir, que varían suavemente
con respecto a x. Las tendencias al movimiento, representados por v, son percibidas en cada punto, en cada
instante de tiempo; así, cada punto habrá de desplazarse en cada momento (salvo aquellos puntos que tengan
asociado el vector cero, x0 7 ! v(x0 ) = 0).
Para hacernos una idea un poco más clara, pensemos que tenemos que hacer pasar una pelota a base de
pequeños empujones sobre un camino sinuoso (ver figura 1.5).

Figura 1.5.

Si los empujones que damos son muy espaciados, las tendencias al movimiento que se inducen harán que la
trayectoria que siga la pelota sea zigzagueante y difícilmente ésta se amoldará al camino prescrito. Sin embargo,
si nuestros empujones comienzan a ser más frecuentes, las tendencias al movimiento variarán a su vez con más
frecuencia y la trayectoria de la pelota se amoldará con más facilidad al camino. Cada nuevo empujón modifica la
dirección, magnitud y sentido de la tendencia al desplazamiento anterior. Así, si pudiésemos variar a cada instante
las tendencias de desplazamiento dando empujones instantáneos, amoldaríamos perfectamente la trayectoria de
la pelota a cualquier camino sin importar lo sinuoso que éste fuera.
En general, al cambio instantáneo de posición con respecto al tiempo podemos representarlo (siguiendo a I.
Newton (1642-1727) y G.W. Leibniz (1646–1716) ) con el símbolo dx dt
; este cambio está representado en cada
punto por el vector correspondiente, lo que permite definir la ecuación diferencial ordinaria (autónoma)
dx
= v(x) .
dt
Esta ecuación nos dice: “el cambio instantáneo en la posición del punto x es igual a la tendencia a desplazarse,
representada por v(x), que experimenta el punto x en ese instante”. Dado que la variación instantánea de la
posición x con respecto al tiempo no es otra cosa que la velocidad, la ecuación anterior nos dice que la velocidad
de x en cada instante está dada por el vector “v(x)”. Ahora el problema que se nos presenta es resolver dicha
ecuación. Es decir, encontrar cuál es la trayectoria que mejor se amolda al campo de vectores en cada uno de los
puntos. 1.
Dado un punto x 2 Rn arbitrario, encontrar la trayectoria que mejor se amolde al campo vectorial v, es
encontrar una transformación, ' : R ⇥ Rn ! Rn , (t, x) 7! '(t, x), que sea una parametrización por t de una
curva que pasa por x. Dicha parametrización ' es tal que para algún valor t0 –que llamamos inicial–, '(t0 , x) = x,
y cuyo vector velocidad en el instante t, es v('(t, x)). Es decir,
d'
(t, x) = v('(t, x)), '(t0 , x) = x,
dt

Definición 1.2. Dado un campo vectorial diferenciable (de clase C1 ) v : Rn ! Rn , decimos que

dx
(1.1) = v(x)
dt
es la ecuación diferencial autónoma inducida por el campo vectorial v, y la transformación, ' : R ⇥ Rn ! Rn ,
(t, x) 7! '(t, x), que satisface
d'
(1.2) (t, x) = v('(t, x)), '(t0 , x) = x,
dt
es la solución de la ecuación, que satisface la condición inicial '(t0 , x) = x.
1Isaac Newton consideraba que todo fenómeno de la naturaleza podía ser expresado por medio de ecuaciones diferenciales. De
ahí surgió el afán de resolver explícitamente todas las ecuaciones.
4 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Definición 1.3. Al abierto de Rn en el que las soluciones de la ecuación están definidas y son representadas, se
le conoce como retrato de las fases. Este nombre hace referencia al abierto del espacio en donde las distintas fases
o estados de un fenómeno ocurren. A la gráfica con respecto de t de las soluciones, se le conoce como retrato de
las fases extendido.

Observación 1.4. Puede suceder, y de hecho es frecuente, que los campos vectoriales estén definidos y sean
diferenciables sólo en subconjuntos abiertos de Rn . La definición de ecuación diferencial autónoma correspondiente
se deriva de esta restricción. Nosotros en un inicio haremos referencia a campos vectoriales definidos en todo Rn
y sólo después, cuando sea necesario por la naturaleza misma del campo de vectores que defina la ecuación,
restringiremos el dominio a abiertos U de Rn .

Las soluciones de una ecuación diferencial (1.1) satisfacen las siguientes propiedades básicas que enunciamos
a continuación.
(1) Si '(t, x), '(t0 , x) = x, es solución de la ecuación (1.1) definida en un intervalo (a, b), entonces '(t+c, x),
también es solución; esta última puede verse también como una solución que en el tiempo t = t0 c
pasa por el punto x, '(t0 c + c, x) = x, y por lo tanto es una solución de la ecuación distinta a la
anterior (su parametrización difiere de la correspondiente a '(t, x)), si bien ambas describen a la misma
curva.
(2) Si '(t, x), '(t0 , x) = x, es solución de la ecuación (1.1) definida en un intervalo (a, b), entonces podemos
reparametrizar la solución de modo que la condición inicial esté tomada al tiempo cero. A saber, si
⌧ = t t0 , entonces '(⌧, x), '(0, x) = x; el intervalo de definición correspondiente es, en este caso,
(a t0 , b t0 ).
(3) '(t + s, x) = '(t, '(s, x)) siempre y cuando t, s y t + s pertenezcan al intervalo (a, b).

Observación 1.5. En lo sucesivo, la notación ẋ representa a la derivada de la variable con respecto a t, ẋ = dx/dt,
x 2 Rn , t 2 R. A lo largo de este texto usaremos indistintamente una u otra notación. Asimismo, hacemos notar
que para los elementos x en Rn no escribiremos ninguna notación que indique que se trata de un punto en varias
variables; esto deberá de ser claro para el lector según el contexto.

También puede suceder que el campo vectorial sea dependiente del tiempo, es decir, que en lugar de tener
v : Rn ! Rn , v = v(x), se tenga una dependencia explícita de cada vector con respecto a la variable t:
v : R ⇥ Rn ! Rn , v = v(t, x). En este caso, se dice que la ecuación que define dicho campo vectorial es no
autónoma.
Veamos ahora unos ejemplos de campos vectoriales y de las ecuaciones que éstos inducen. En los ejemplos
incluiremos también a las curvas que mejor se adaptan a un campo vectorial, sin dar por el momento, una
explicación rigurosa de ello. Esto lo veremos con todo detalle en las siguientes secciones.

Ejemplo 1.6. ẋ = c, c = cte, x 2 R.

En este caso el campo vectorial es constante. Por ello, a cada punto de la recta real le asociamos el mismo
vector c. Si c > 0, el campo vectorial apunta hacia la derecha como se indica en la figura 1.6:

Figura 1.6.

Si c < 0, el campo vectorial se representa como:

Figura 1.7.

Observación 1.7. En cada punto x 2 R hay un vector c. Nosotros sólo representamos algunos vectores que
nos dan una idea del comportamiento del campo vectorial. Por lo general, escogemos puntos suficientemente
separados para evitar que se encimen los vectores al ser representados gráficamente. En algunos casos usamos
escalas pequeñas al dibujar a los vectores pues de lo contrario sería imposible comprender el comportamiento que
se pretende analizar.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 5

Si c = 0, todo punto x en este ejemplo tiene velocidad cero. Se dice que todos los puntos son singulares para
el campo vectorial.

Figura 1.8.

Definición 1.8. Decimos que x0 2 Rn es un punto singular de la ecuación ẋ = v(x) si el campo vectorial en
dicho punto se anula: v(x0 ) = 0.

Si x0 es un punto singular del campo v entonces la solución '(t, x0 ) = x0 se denomina solución de equilibrio.
Es claro que si v(x0 ) = 0, el punto x0 permanecerá en reposo o equilibrio todo el tiempo.

Ejemplo 1.9. ẋ = cx, c = cte, x 2 R.

(a) Supongamos c > 0. Observemos que el único punto singular es el origen x = 0. La velocidad de
los demás puntos es de una magnitud proporcional a su vector de posición. Así, en este ejemplo, la
magnitud del vector v(x) irá creciendo conforme el valor absoluto de x vaya aumentando:

Figura 1.9.

(b) Supongamos c < 0. Este caso es análogo al anterior salvo por el hecho de que los vectores apuntan hacia
el origen (los vectores tienen dirección contraria a la del vector de posición).

Figura 1.10.

Consideremos ahora ejemplos en dos dimensiones; en todos lo casos que siguen escribiremos la ecuación
diferencial así como su notación matricial (en la sección 3.1 se explica con detalle la utilidad de usar esta notación).

Ejemplo 1.10. Consideremos en el plano la siguiente ecuación:


ẋ1 = 2x1
ẋ2 = 2x2 ,
o en la notación matricial equivalente,
  
ẋ1 2 0 x1
= .
ẋ2 0 2 x2

Nuevamente, el origen es el único punto singular de la ecuación. En el eje x1 tenemos la misma situación que
ya analizamos en el ejemplo 1.9. En el eje x2 esta situación se repite (sólo basta girar 90 grados para convencerse
de que sucede lo mismo que en el eje x1 ).

Figura 1.11.

Consideremos el punto (1, 1). El vector asociado a este punto es el (2, 2). En el caso del punto (1, 1) el
vector asociado es (2, 2). Veamos ahora las rectas x2 = x1 y x2 = x1 . Ahí los vectores son (2x1 , 2x1 ) y
(2x1 , 2x1 ) respectivamente (ver figura 1.12).
6 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Figura 1.12.

Si ahora continuamos analizando el comportamiento del campo vectorial en cualquier punto de la recta
x2 = ax1 , a 2 R, obtenemos los vectores (2x1 , 2ax1 ) (ver figura 1.13).

Figura 1.13.

Así, la trayectoria que sigue un punto arbitrario x = (x1 , x2 ) 2 R2 \ {0} es en línea recta y su velocidad
va aumentando en proporción (con constante de proporcionalidad 2) a la magnitud de su vector de posición. El
punto x = 0 2 R2 es el único punto singular de este campo vectorial.

Ejemplo 1.11.   
ẋ1 = 2x1 ẋ1 2 0 x1
⇠ = .
ẋ2 = 4x2 notación matricial ẋ2 0 4 x2

Este caso es semejante al anterior pero ahora la primera componente del vector v(x1 , x2 ) = (2x1 , 4x2 ) tiene
una menor magnitud que la de la segunda componente. Así, si representamos el comportamiento del campo
vectorial en los ejes coordenados {(x1 , x2 ) : x1 = 0}, {(x1 , x2 ) : x2 = 0} y en las rectas x2 = cte . se tiene un
comportamiento como el que se ilustra en la figura 1.14

Figura 1.14.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 7

Ejemplo 1.12. Cosideremos la ecuación:


  
ẋ1 = 6x1 ẋ1 6 0 x1
⇠ = .
ẋ2 = 3x2 notación matricial ẋ2 0 3 x2
Las trayectorias de este campo vectorial son ahora muy sencillas de encontrar haciendo uso de lo obtenido en
el ejemplo anterior, ya que es ahora la segunda coordenada la que tiene una magnitud menor con respecto a la
primera (ver figura 1.15).

Figura 1.15.

Los puntos singulares en los ejemplos 1.10, 1.11, 1.12 se denominan nodos repulsores.

Ejemplo 1.13. Los ejemplos 1.10, 1.11, 1.12 nos sirven para entender el comportamiento de las soluciones de las
ecuaciones siguientes:
(a)
  
ẋ1 = 5x1 ẋ1 5 0 x1
⇠ = .
ẋ2 = 5x2 ẋ2 0 5 x2
(b)
  
ẋ1 = 4x1 ẋ1 4 0 x1
⇠ = .
ẋ2 = 2x2 ẋ2 0 2 x2
(c)
  
ẋ1 = 3x1 ẋ1 3 0 x1
⇠ = .
ẋ2 = 6x2 ẋ2 0 6 x2
En todos ellos los puntos singulares se denominan nodos atractores.

Los ejemplos 1.11-1.13 nos muestran campos vectoriales que se parecen a fenómenos que nos encontramos
cotidianamente. En efecto, cuando lavamos una naranja, el efecto del chorro del agua sobre ésta puede ser
representado como se muestra en la figura 1.16. En el casquete superior de la esfera (que representa a la naranja)
encontramos trayectorias que se amoldan a lo que correspondería a un nodo repulsor y en el casquete inferior, a
las correspondientes a un nodo atractor. Formalmente, las trayectorias viven en la esfera y en cada punto de ésta
está definido un vector tangente a la esfera. Dicho vector pertenece al plano tangente a la esfera en el punto. No
abundaremos en ello por ahora.

Figura 1.16.
8 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Ejemplo 1.14. Consideremos ahora el caso


  
ẋ1 = 2x1 ẋ1 2 0 x1
⇠ = ;
ẋ2 = 2x2 ẋ2 0 2 x2
es decir, en el ejemplo 1.10 hemos cambiado el signo de la primera componente. Así, el campo vectorial restringido
a los ejes coordenados y a las rectas x2 = x1 , x2 = x1 se ilustra en la figura 1.17.

Figura 1.17.

Observemos que un punto p = (p1 , p2 ) que se encuentra muy cercano al eje x1 (ie. si |p2 | es muy pequeño)
y muy lejano del eje x2 (ie. si |p1 | es muy grande) tiene un vector asociado con una componente horizontal muy
grande y, relativamente, una componente vertical muy pequeña (ver figura 1.18):

Figura 1.18.

Este comportamiento hace que un punto p se desplace rápidamente a lo largo de su trayectoria hacia el eje x2
mientras se separa lentamente del eje x1 . El comportamiento descrito cambia conforme la trayectoria del punto
p se aproxima al eje x2 . En efecto, hay un momento en el que la magnitud de la componente del vector en la
dirección horizontal comienza a ser más pequeña con respecto a la magnitud de la componente vertical (en la
dirección del eje x1 ). Así, el desplazamiento se acerca asintóticamente al eje x2 mientras se aleja del eje x1 . El
comportamiento de las trayectorias tangentes al campo vectorial se ilustra en la figura 1.19.

Figura 1.19.

Por la dinámica de atracción y repulsión que presenta el punto singular, se le conoce como punto silla .
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 9

Nuevamente observamos que no es díficil encontrarse con ejemplos cotidianos en los que se presenten puntos
singulares de tipo silla. Podemos pensar, por ejemplo, en lo que sucede cuando una rosquilla es bañada con
chocolate. Un esquema visual del comportamiento de las trayectorias se ilustra en la figura 1.20.

Figura 1.20.

En la parte superior se observan trayectorias que parecen las correspondientes a un nodo repulsor, después,
en la parte interna de la superficie de la rosquilla, se observa cómo se forman dos puntos tipo silla y, finalmente,
en la parte inferior se observa algo que asemeja a un nodo atractor.
Antes de ver otros dos ejemplos relevantes en dimensión 2, veamos un ejemplo sencillo en dimensión 3:

Ejemplo 1.15.
2 3 2 3
ẋ1 = 2x1 ẋ1 2 0 0
ẋ2 = 2x2 ⇠ 4 ẋ2 5 = 4 0 2 0 5.
ẋ3 = 2x3 ẋ3 0 0 2

Para estudiar este ejemplo hacemos notar que en los planos (x1 , x3 ), (x2 , x3 ) se tiene el comportamiento
descrito en el ejemplo 1.14; en el plano (x1 , x2 ) se tiene el comportamiento descrito en el ejemplo 1.10.
Los puntos que no se encuentran en ninguno de los planos coordenados son atraídos al plano (x1 , x2 ) mientras
se alejan del eje x3 , como se muestra en la figura 1.21.

Figura 1.21.

Regresemos ahora al caso del plano. Analizaremos un par de campos vectoriales (y las correspondientes
ecuaciones diferenciales) cuya matriz asociada no es diagonal como sucedía en los ejemplos anteriores.
10 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Ejemplo 1.16.   
ẋ1 = x2 ẋ1 0 1 x1
⇠ = .
ẋ2 = x1 ẋ2 1 0 x2

Analizando los vectores en los ejes coordenados, obtenemos que los puntos con coordenadas (x1 , 0) tienen el
vector asociado (0, x1 ). Asimismo, los puntos con coordenadas (0, x2 ) tienen como vector asociado el ( x2 , 0)
(ver figura 1.22).

Figura 1.22.

Si ahora consideramos los puntos (x1 , x1 ), (x1 , x1 ) en las rectas {(x1 , x2 ) : x2 = x1 } y {(x1 , x2 ) : x2 = x1 }
respectivamente, obtenemos los vectores respectivos ( x1 , x1 ) y (x1 , x1 ) (ver figura 1.23).

Figura 1.23.

Al analizar el campo vectorial, observamos que las curvas que mejor se adapten a éste deberán girar alrededor
del origen. Cabe preguntarse en qué forma giran y si forman o no trayectorias cerradas como círculos o elipses.
Para responder a ello, consideremos los círculos Cr = (x1 , x2 ) | x21 + x22 = r2 , de radio r, r > 0, con
centro en el origen, y veamos cómo es el campo vectorial para puntos situados en cada círculo Cr . Con el fin
de realizar este análisis introducimos el producto escalar entre dos vectores (x1 , x2 ), (y1 , y2 ), definiéndolo como
(x1 , x2 ) · (y1 , y2 ) = x1 y1 + x2 y2 . Este producto satisface la igualdad:

(x1 , x2 ) · (y1 , y2 ) = k(x1 , x2 )kk(y1 , y2 )k cos ✓,


p p
donde k(x1 , x2 )k = x21+ x22es la norma (módulo) del vector (x1 , x2 ), k(y1 , y2 )k = y12 + y22 es la norma del
vector (y1 , y2 ) y ✓ es el ángulo que forman los dos vectores (ver figura 1.24).

Figura 1.24.

En nuestro ejemplo, cualquier punto (x1 , x2 ) en círculo Cr tiene asociado el vector ( x2 , x1 ). El producto
escalar de estos dos vectores es cero:
(x1 , x2 ) · ( x2 , x1 ) = 0 .
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 11

Así, como (x1 , x2 ) · ( x2 , x1 ) = k(x1 , x2 )kk( x2 , x1 )k cos ✓ y además


k(x1 , x2 )k = k( x2 , x1 )k = r > 0 ,
entonces de la igualdad
0 = (x1 , x2 ) · ( x2 , x1 ) = r2 cos ✓
se tiene que cos ✓ = 0. Lo anterior indica que el vector ( x2 , x1 ) es ortogonal (perpendicular) al vector (x1 , x2 )
que se halla en el círculo Cr . De este modo, hemos obtenido que todo vector dado por el campo vectorial es
tangente a un círculo de radio r. Así, las trayectorias que mejor se adaptan al campo vectorial forman círculos
concéntricos alrededor del origen (ver figura 1.25).

Figura 1.25.

Se dice que el punto singular de este campo vectorial es un centro .

Ejemplo 1.17. Consideremos ahora un ejemplo ligeramente diferente al anterior. A saber, sea " > 0 un número
positivo muy cercano a cero y sea
  
ẋ1 = "x1 x2 ẋ1 " 1 x1
⇠ =
ẋ2 = x1 + "x2 ẋ2 1 " x2
Analizando los vectores del campo vectorial asociados a los ejes coordenados, observamos que los puntos
con coordenadas (x1 , 0) tienen asociado el vector ("x1 , x1 ) y los puntos con coordenadas (0, x2 ) tienen asociado el
vector ( x2 , "x2 ). Así, como " es positivo, podemos observar una ligera rotación positiva de los vectores obtenidos
en el ejemplo 1.16 (ver figura 1.26).

Figura 1.26.

Lo mismo sucede si consideramos las rectas x2 = x1 y x2 = x1 , es decir, los vectores asociados son los
vectores obtenidos en el ejemplo 1.16 ligeramente rotados positivamente.

Figura 1.27.

Al igual que en el ejemplo anterior, veamos cómo es el campo vectorial para puntos situados en el círculo Cr :
12 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

Si (x1 , x2 ) es un punto en Cr , entonces ("x1 x2 , x1 + "x2 ) es el vector asociado a este punto por el campo
vectorial. Si ahora consideramos el producto escalar de estos dos vectores, obtenemos
(x1 , x2 ) · ("x1 x2 , x1 + "x2 ) = k(x1 , x2 )kk("x1 x2 , x1 + "x2 )k cos ✓ .
Por otra parte, calculando directamente el producto escalar de los dos vectores, se obtiene la igualdad
(x1 , x2 ) · ("x1 x2 , x1 + "x2 ) = "x21 x1 x2 + x1 x2 + "x22 = "r2 > 0 ,
por lo que k(x1 , x2 )kk("x1 x2 , x1 + "x2 )k cos ✓ = "r2 > 0, y por lo tanto, cos ✓ > 0. Lo anterior nos indica que
el vector ("x1 x2 , x1 + "x2 ) nunca es tangente al círculo Cr y siempre apunta hacia afuera de éste (ver figura
1.28).
Así, si (x1 , x2 ) es un punto de norma k(x1 , x2 )k = c (es decir, cuya distancia al origen es c), la trayectoria
que sale de (x1 , x2 ) atraviesa cualquier círculo CR , R > c (ver figura 1.28):

Figura 1.28.

Finalmente, si consideramos las trayectorias de distintos puntos en el plano se obtiene un comportamiento


como el que se indica en la figura 1.29.

Figura 1.29.

A este tipo de punto singular se le conoce como punto singular de tipo foco.

Ejemplo 1.18. Por último juntemos las dinámicas que obtuvimos en los ejemplos 1.9 y 1.17 para construir un
ejemplo en R3 : 2 3 2 32 3
ẋ1 = "x1 x2 ẋ1 " 1 0 x1
ẋ2 = x1 + "x2 ⇠ 4 ẋ2 5 = 4 1 " 0 5 4 x2 5
ẋ3 = 2x3 ẋ3 0 0 2 x3
Si hacemos x3 = 0 entonces en el plano (x1 , x2 ) tenemos la misma dinámica del ejemplo anterior. En cambio, si
x1 = x2 = 0 entonces tenemos la dinámica del ejemplo 1.9 (en el caso c > 0).
Un punto (x1 , x2 , x3 ), x3 > 0, que no esté en el plano (x1 , x2 , 0) ni en el eje x3 , tiene asociado un vector cuya
tercera componente apunta hacia arriba (ie. en la dirección positiva del eje x3 ) y es de magnitud proporcional
a x3 , mientras que, en las variables x1 , x2 , las primeras dos componentes del vector se comportan como en el
ejemplo 1.17. Por consiguiente, los vectores resultantes en cada punto de este tipo apuntan siempre hacia arriba,
si x3 > 0 (hacia abajo si x3 < 0), mientras que describen una trayectoria giratoria como la del ejemplo 1.17. La
dinámica que se obtiene finalmente es parecida a la de un “tornado” (ver figura 1.30).
Todos los ejemplos los hemos analizado sin dar una solución explícita a las ecuaciones diferenciales asociadas.
Por consiguiente, aunque nos hemos dado una idea sobre los posibles comportamientos, nada nos garantiza aún
la exustencia de las trayectorias que hemos dibujado. Más adelante veremos cómo resolver explícitamente este
tipo de ecuaciones conocidas como ecuaciones diferenciales lineales autónomas.
La mejor manera de adentrarse en una teoría matemática es ensayar en ejemplos cada uno de los conceptos
que se introducen. Éstos deben escogerse muy sencillos al inicio e irse complicando gradualmente. Los siguientes
ejercicios tienen como objetivo que quien intente resolverlos adquiera la soltura de trabajar con campos vectoriales
en un nivel informal (en un primer momento). Al paso del tiempo, uno debe ser capaz de elaborar ejemplos que,
en su simplicidad, guarden las características esenciales del fenómeno que se está estudiando.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 13

Figura 1.30.

Ejercicio 1.19. (1) Analiza mediante dibujos parecidos a los que hicimos en los ejemplos 1.6–1.14, el
comportamiento de las trayectorias del campo vectorial
  
ẋ1 = x1 ẋ1 1 0 x1
, ⇠ = ,
ẋ2 = kx2 ẋ2 0 k x2
donde k es una constante real. Considera por separado los casos k < 0, k = 0 y k > 0. En este último
caso resulta también interesante observar lo que sucede con la concavidad de las trayectorias cuando se
considera el cambio de k < 1 a k > 1.
Observa que al considerar distintos valores de k fijos obtienes campos vectoriales diferentes. Si
ahora varías la constante k continuamente, los campos vectoriales cambian, a su vez, en forma continua
con respecto a k.
(2) Sean a, b 2 R. Analiza el comportamiento de las trayectorias del campo vectorial
  
ẋ1 = ax1 ẋ1 a 0 x1
⇠ = ,
ẋ2 = bx2 ẋ2 0 b x2
para distintos valores de a y b. Observa que el campo vectorial del ejercicio anterior se obtiene del campo
vectorial de este ejercicio multiplicando por a 1 y haciendo k = ab . Esto, como se verá más adelante
con detalle, equivale a cambiar la velocidad en la que son recorridas las curvas que mejor se adaptan al
campo vectorial. A saber, si s = a 1 t, entonces por regla de la cadena, se tiene que el parámetro ahora
para x(t) = (x1 (t), x2 (t)) será la variable s, x = x(s) = (x1 (s), x2 (s)); así,
dx1 1 dx1
ds
= a dt
= x1 ,
dx2 1 dx2 b
ds
= a dt
= x .
a 2

Ejemplo 1.20. Supongamos que deseamos construir un campo vectorial en la recta real que tenga las siguientes
características:
(a) En el punto 1 el campo vectorial se anula y es punto singular repulsor.
(b) En el origen el campo vectorial se anula y es punto singular atractor.
(c) En el punto 1 el campo vectorial se anula y es un punto singular repulsor.
Para construir un campo vectorial con estas características, primero hacemos un esquema de lo que requeri-
mos.
En la figura 1.31 vemos un campo vectorial con las características descritas en el inciso a):

Figura 1.31.

En la figura 1.32 vemos ahora un campo vectorial con las características descritas en los incisos a) y b):
Finalmente, en la figura 1.33 vemos un campo vectorial con las características descritas en los incisos a), b)
y c):
14 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

-1 0

Figura 1.32.

-1 0 1

Figura 1.33.

Siendo que este último campo vectorial posee las características que se necesitan, ¿cómo podemos dar una
expresión analítica de este campo vectorial? Pues bien, para hacerlo, comencemos por definir un campo vectorial
(y su correspondiente ecuación diferencial) cuya expresión satisfaga las características que se piden en cada inciso:
En el inciso a): ẋ = x + 1 ,
En el inciso b): ẋ = x ,
En el inciso c): ẋ = x 1 .
Después, consideremos el producto de las primeras dos expresiones para tener las características requeridas
en a) y b):
ẋ = x(x + 1) .
Puede verse que este campo vectorial se anula en 1 y 0, siendo 1 un repulsor y 0 un atractor. Finalmente,
procediendo de manera análoga, obtenemos una ecuación diferencial definida por un campo vectorial (que ya no
es lineal) con todas las características deseadas
ẋ = (x + 1)( x)(1 x) .
Es decir,
ẋ = x3 x.

Ejemplo 1.21. Veamos ahora la forma que tiene la ecuación diferencial definida por el campo vectorial v(x) =
((x1 + 1)( x1 )(1 x1 ), 3x2 , 2x3 ):
x˙1 = (x1 + 1)( x1 )(1 x1 )
x˙2 = 3x2
x˙3 = 2x3
El campo vectorial v tiene, en el eje x1 , las mismas características vistas en el ejemplo 1.20. Así, su restricción
al plano (x1 , x2 , 0), tiene la forma que se indica en la figura 1.34.

-1 0 1

Figura 1.34.

Lo mismo sucede si se considera la restricción al plano (x1 , 0, x3 ), ya que en el eje x3 se tiene una contracción
del mismo tipo que en el eje x2 .
Hagamos ahora un análisis de lo que sucede en el plano en el plano (0, x2 , x3 ) . Ahí nos encontramos con un
nodo atractor parecido al visto en el ejemplo 1.11, aunque en este caso las curvas están acercándose al origen como
puede verse en la ver figura.1.35. Hacemos notar que en esta figura se están representando sólo las trayectorias y
no los vectores tangentes.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 15

Figura 1.35.

Si juntamos ahora toda la información que hemos recabado en los distintos cortes, podemos darnos una idea
de cómo tendrían que comportarse las trayectorias asociadas al campo vectorial en R3 (ver figura 1.36).

Figura 1.36.

Ejercicio 1.22.
1. Haz una descripción del comportamiento del campo vectorial que define a la ecuación diferencial
ẋ = a(x3 x) en los casos a > 0 y a < 0.
2. En cada uno de los siguientes incisos determina si es posible o no definir un campo vectorial en el plano
que tenga exactamente los puntos singulares de los tipos que a continuación se piden.

Observación: Comienza por hacer dibujos para entender las dinámicas posibles. Después puedes intentar
dar expresiones explícitas en los casos más sencillos ayudándote con lo visto en los ejemplos 1.20 y 1.21.
(a) Un punto singular tipo nodo atractor y un punto singular tipo silla.
(b) Construye un campo vectorial en el plano x1 x2 que tenga exactamente un punto singular tipo silla
en el punto ( 4, 0), un punto singular tipo nodo atractor en el punto (0, 0) y un punto singular
tipo silla (2, 0).
(c) Un punto singular tipo silla en el punto ( 3, 0) y un punto singular tipo silla en el punto (3, 0).
(d) Tres puntos singulares tipo silla en los puntos ( 4, 0), (0, 0) y (4, 0).

En los siguientes incisos sólo se pide que hagas los dibujos correspondientes cuando ello es posible.
(e) En el plano dos puntos singulares tipo nodo repulsor.
(f) En el plano dos puntos singulares tipo centro.
(g) En el plano un punto singular tipo centro y un punto singular tipo foco.
(h) En el plano dos puntos singulares tipo foco atractor.
(i) Nuevamente intenta los cuatro incisos anteriores en la esfera.
(j) En la esfera un campo vectorial con un único punto silla.
(k) En el toro (dona) un campo vectorial sin puntos singulares.
(l) En la esfera un campo vectorial con un único punto singular.
(m) En la esfera un campo vectorial sin puntos singulares.
16 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES

3. Define un campo de vectores que tenga las características que se describen en la figura 1.37.

Figura 1.37.

4. Define un campo de vectores, y su ecuación diferencial asociada, que tenga las características que se
describen en la figura 1.38.

Figura 1.38.

5. Define un campo de vectores, y su ecuación diferencial asociada, que tenga las características que se
describen en la figura 1.39.

Figura 1.39.
CAPÍTULO 2

Ecuaciones lineales autónomas homogéneas en R y sus


aplicaciones

En este capítulo resolveremos la ecuación diferencial lineal más sencilla; ésta está definida por un campo
vectorial lineal en R, es decir, con coeficiente constante real y lineal en la variable x:

(2.1) ẋ = x , , x 2 R, con constante 6= 0 .


Nos interesa encontrar las soluciones explícitas de esta ecuación diferencial, pues a pesar de su sencillez, es
una ecuación que nos permite modelar una gran cantidad de fenómenos en la naturaleza y al mismo tiempo, su
comportamiento nos da la clave para analizar otras ecuaciones diferenciales cuya dinámica es más complicada.
Los siguientes dos apartados nos permiten entender cómo encontrar una solución a la ecuación (2.1).

2.1. Resultados básicos del cálculo integral.


En este apartado se exponen brevemente algunos resultados básicos del cálculo integral con el fin de dar
claridad a algunas operaciones sencillas que se harán en el siguiente apartado. Una gran cantidad de libros de
cálculo pueden servir como referencia para quien desee abundar más en el tema (ver [Apo], [Spi] [Cou-1], entre
otros).
Desde el punto de vista matemático, integrar una función continua f (t) en un intervalo consiste en encontrar
una función F (t) cuya derivada, F 0 (t) = dF
dt
(t), coincida con f (t) para todo t en el intervalo considerado
F 0 (t) = f (t) .
A la función F (t) se le conoce como primitiva de f (t) y se le denota mediante la integral indefinida como
Z
F (t) = f (t) dt .

Observamos que si c es una constante y F (t) es una primitiva de f (t), entonces F (t) + c es, a su vez, primitiva de
f (t).
El siguiente resultado, conocido como teorema fundamental del cálculo, nos proporciona una relación entre el
proceso de derivación y el de integración además de dar condiciones suficientes (en este caso la continuidad de f
en el intervalo de definición) para la existencia de primitivas.

Teorema 2.1. Teorema fundamental del cálculo. Sea f (t) una función continua en la variable t definida en el
intervalo real I. Si F (t) es cualquier función primitiva de f , F 0 (t) = f (t), t 2 I, entonces
Z t
(2.2) F (t) F (t0 ) = f (⌧ ) d⌧ ,
t0

para t, t0 2 I.

Supongamos ahora que F (t) se expresa como una composición de dos funciones diferenciables g y x: F (t) =
(g x)(t). Entonces, aplicando el teorema fundamental del cálculo, tenemos por un lado:
Z t
d(g x)
(2.3) (g x)(t) (g x)(t0 ) = (⌧ ) d⌧
t0 d⌧
y por otro lado (aplicando nuevamente el teorema fundamental del cálculo a g(x(t))) se tiene,
Z x(t)
dg
g(x(t)) g(x(t0 )) = (⌧ ) d⌧ .
x(t0 ) dx

Por otra parte, aplicando al integrando la regla de la cadena, el miembro derecho de la ecuación (2.3) satisface
Z t Z t
d(g x) dg dx
(⌧ )d⌧ = (x(⌧ )) d⌧ .
t0 d⌧ t0 dx d⌧
17
18 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

Por lo que finalmente obtenemos la igualdad:


Z x(t) Z t
dg dg dx
(2.4) dx = (x(⌧ )) (t)d⌧ .
x(t0 ) dx t0 dx d⌧
Este resultado es conocido como teorema del cambio de variable. En la siguiente sección vamos a hacer uso
frecuente de estos dos últimos teoremas.

2.2. Solución de la ecuación de primer orden lineal homogénea con coeficiente constante.
La ecuación
(2.5) ẋ = x, ,x 2 R,
corresponde al campo vectorial analizado en el ejemplo 1.9. Si bien ya conocemos el comportamiento de las
trayectorias de dicho campo (ver ejemplo 1.9 incisos a) y b)), nos interesa conocer la solución explícita de la
ecuación; es decir, nos interesa conocer la función x(t) cuya velocidad al instante t es x(t) : dx dt
(t) = x(t).
Posiblemente, quien tiene un poco de soltura en derivar funciones sabe que la función exponencial x(t) = e t
satisface la igualdad
de t
= e t.
dt
Así, ẋ(t) = x(t). Lo mismo sucede si a x(t), así definida, la multiplicamos por una constante arbitraria. Vamos,
sin embargo, a hacer la deducción formal de la solución de la ecuación con el fin de que, en adelante, tengamos
una referencia precisa.
Retomando la ecuación (2.5) con condición inicial x(t0 ) = x0 , tenemos
dx
(2.6) = x, x(t0 ) = x0 .
dt
La condición inicial significa que en el momento t0 tenemos información sobre el fenómeno que se está analizando.
En este caso, la igualdad x(t0 ) = x0 significa que en el instante t0 el fenómeno analizado está en la posición x0 .
Nos interesa, entonces, saber lo que sucede con la trayectoria x(t) que parte de la posición x0 después de haber
transcurrido un cierto tiempo. Si x0 es cero, entonces la función constante x(t) ⌘ 0 satisface tanto la ecuación
(2.6) como la condición inicial dada. En el caso que x(t) 6= 0 en un intervalo abierto, podemos multiplicar la
ecuación (2.6) por x1
1 dx x
=
x dt x
y después procederemos a integrarla de t0 a t:
Z t Z t
1 dx
(2.7) d⌧ = d⌧ .
t0 x d⌧ t0
dg
Hagamos uso ahora de la expresión obtenida en (2.4). Observemos que, en este caso, dx
(x) = 1
x
:
Z x(t) Z t
1 1 dx
dx = d⌧ .
x(t0 ) x t0 x d⌧

Sustituyendo esta igualdad en (2.7) obtenemos,


Z x(t) Z t
1
(2.8) dx = d⌧ .
x(t0 ) x t0

Integrando esta última expresión obtenemos,


ln |x(t)| ln |x(t0 )| = t t0 .
Recordando las propiedades del logaritmo natural podemos reescribir la igualdad anterior como
x(t)
(2.9) ln x(t0 )
= (t t0 ) .

Como la exponencial y el logaritmo son funciones inversas la una de la otra: ln ex = x y eln x = x (esta última
igualdad se satisface si x > 0). Así, aplicando la función exponencial de ambos lados de la igualdad (2.9), se tiene
⇣ ⌘
x(t)
exp ln x(t 0)
= exp( (t t0 )).
x(t) (t t0 )
(2.10) x(t0 )
= e .
x(t)
Quisiéramos eliminar el valor absoluto de la igualdad anterior. Para ello, debemos de determinar si x(t0 )
> 0
x(t) x(t)
o bien < 0 para todo t; nos bastará con saber el valor del cociente para alguna t . Observamos que x(t
x(t0 ) 0)
no puede ser igual a cero para ninguna t pues en el lado derecho de la igualdad (2.10) tenemos a la función
exponencial y ésta es siempre no nula (y de hecho siempre positiva). Basta ahora con observar que para el valor
t = t0 se tiene x(t 0)
x(t0 )
= 1; de esta manera, podemos eliminar el valor absoluto de la igualdad (2.10) y obtenemos
x(t) (t t0 )
x(t0 )
=e .
2.2. ECUACIÓN DE PRIMER ORDEN LINEAL HOMOGÉNEA 19

Multiplicando ahora ambos miembros de la igualdad por x(t0 ) se tiene finalmente,


(t t0 )
(2.11) x(t) = x(t0 )e .
Como de la ecuación (2.6) sabemos que la condición inicial es x(t0 ) = x0 , podemos escribir (2.11) como

(t t0 )
(2.12) x(t, x0 ) = x0 e .
Observemos que la función x(t, x0 ), así definida, toma el valor x0 para t = t0 y además satisface x0 (t, x0 ) =
x(t, x0 ) para todo t, t 2 R. Usualmente se escribe x(t, x0 ) para indicar que la condición inicial está tomada
justamente en el punto x0 . A lo largo de este libro nosotros usaremos esa notación cuando sea necesario, en caso
contrario la omitiremos para no recargar la información. Otra notación equivalente que usaremos con mucha
frecuencia en el libro para escribir a las soluciones de una ecuación es '(t, x0 ). Esta notación es equivalente a
escribir x(t, x0 ).
Si > 0 la trayectoria x(t, x0 ) para x0 > 0 y t 2 R es siempre positiva y su velocidad se incrementa según
nos alejamos del origen. Para x0 < 0 la trayectoria x(t, x0 ) toma valores negativos y su velocidad se incrementa
(en valor absoluto) según nos alejamos del origen. El punto x(t, x0 ) = x0 = 0 permanece fijo para toda t:

Figura 2.1.

Si > 0 y graficamos la función x(t, x0 ) = x0 e (t to )


para x0 > 0 (ver figura 2.2), tenemos

Figura 2.2.

y, para x0 < 0 se tiene la gráfica (ver figura 2.3),

Figura 2.3.

Se sugiere al lector hacer la gráfica correspondiente a la ecuación


ẋ = x, ,x 2 R, > 0.

Observación 2.2. Unicidad de las soluciones. Hemos encontrado la solución (2.12) de la ecuación diferencial
(2.5), y es importante para nosotros saber si esta solución, una vez fija la condición inicial x0 , es única o no. Para
ello, supongamos que existe otra solución (t, x0 ). Dado que e (t t0 ) nunca es cero, siempre es posible escribir
a (t, x0 ) como (t, x0 ) = g(t)e (t t0 ) . Así, dado que es solución de la ecuación diferencial (2.5), deberá de
cumplirse que ˙ = . Al mismo tiempo, ˙ = g(t)e˙ (t t0 )
+ g(t) e (t t0 ) . De aquí, igualando ambas ecuaciones
tenemos,
= g(t)e (t t0 ) = g(t)e˙ (t t0 )
+ g(t) e (t t0 ) .
Cancelando de ambos lados de la ecuación obtenemos,
˙
0 = g(t)e (t t0 )
.
20 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

Por consiguiente, g(t) ˙ = 0 y g(t) = cte, para toda t 2 R. Llamemos k a dicha constante. La solución (t, x0 )
deberá por lo tanto escribirse como (t, x0 ) = ke (t t0 ) y deberá satisfacer (t0 , x0 ) = k = x0 . Por lo tanto,
(t, x0 ) = x(t, x0 ) = x0 e (t t0 ) . Con ello, hemos demostrado que la soluciones de la ecuación diferencial (2.5) son
únicas una vez fija la condición inicial.

En el siguiente punto veremos cómo la ecuación diferencial lineal (2.5), a pesar de su sencillez, nos sirve de
guía para entender una gran cantidad de comportamientos de la naturaleza.

2.3. Aplicaciones.
Para quien haya decidido omitir en una primera lectura los puntos 2.1 y 2.2, diremos que la ecuación diferencial
ẋ = v(x) definida por el campo vectorial v(x) = x, tiene como solución a la función x(t) = x0 e (t t0 ) . En efecto,
si sustituímos la función x(t) = x0 e (t t0 ) en la ecuación
ẋ = x ,
obtenemos
dx d ⇣ (t t0 )

(t t0 )
(t) = x0 e = x0 e = x(t) .
dt dt
Además, si t = t0 ,
(t0 t0 )
x(t0 ) = x0 e = x0 e0 = x0 .
Es decir, la solución x(t) = x0 e se representa por la trayectoria que en el tiempo t = t0 pasa por el punto
(t t0 )

x0 .
Observemos que la ecuación (2.1) nos indica que la velocidad de cambio de x con respecto a t, dx dt
, es
proporcional al valor de x: dx
dt
= x. Así, el valor absoluto de la velocidad con que x cambia es mayor (menor) si
|x| es mayor (menor). Lo anterior ya lo habíamos observado gráficamente desde el ejemplo 1.9 de la introducción.
Sin embargo, ahora debemos dar a este hecho un sentido que nos permita entender ciertos fenómenos que se
presentan en la naturaleza.
Crecimiento de Bacterias.

Ejemplo 2.3. Comenzaremos por hablar de las formas de vida más ampliamente distribuidas en la Tierra: las
bacterias. Las bacterias tienen una extraordinaria capacidad de adaptación; se les encuentra en el agua, en el aire
y en las partes internas y externas de plantas y animales. Los minerales de uranio radiactivo contienen bacterias
vivas, y se han logrado aislar bacterias vivas en viejos bloques de sal que datan de 320 millones de años. Más aún,
se tienen indicios de la existencia de cianobacterias que se remontan a 2,700 millones de años. Éstas tuvieron un
papel primordial en la acumulación de oxígeno en la atmósfera y, en la actualidad, siguen siendo suministradores
principales de nitrógeno en el proceso de transferencias nutritivas en los mares.
Las bacterias tienen un papel clave en los ciclos biolólogicos pues son los agentes de putrefacción y fer-
mentación que transforman la materia orgánica en gases y materiales inertes que se incorporan al ciclo vital. Las
bacterias fijan el gas de la atmósfera y enriquecen al suelo en nitrógeno. De este modo, los vegetales disponen
de alimentos inorgánicos que requieren para su desarrollo. Actualmente, la ingeniería genética integra en el cro-
mosoma bacteriano genes procedentes de células productoras de sustancias de interés para el ser humano (por
ejemplo antígenos para vacunación, hormonas, etc.), con el fin de convertir a la bacteria en un microlaboratorio
secretor de dichas sustancias.
¿Qué tiene que ver todo esto con nuestra ecuación diferencial lineal? Pues bien, las bacterias tienen no
sólo una importante acción bioquímica, sino que se reproducen muy rápidamente. Se ha podido observar que en
condiciones apropiadas, la velocidad de crecimiento de las bacterias se puede considerar proporcional a la cantidad
de bacterias presente. Denotemos por b(t) a la cantidad de bacterias presente en el instante t, y sea la constante
de proporcionalidad. Así, la velocidad de crecimiento de una colonia de bacterias satisface la ecuación
db
(2.13) = b.
dt
Supongamos ahora que se está realizando un experimento y para ello se tienen inicialmente, al tiempo t = 0,
una cantidad b0 de bacterias con una cantidad relativamente abundante de alimento. Puede interesarnos, para
los fines de nuestro experimento, saber en cuánto tiempo se duplica la población inicial de bacterias. Para ello,
empezamos por resolver la ecuación (2.13) con condición inicial b0 :
(2.14) b(t) = b0 e t .
Ahora nos interesa conocer el tiempo t tal que b(t) = 2b0 . Así, sustituyendo este valor de b(t) en (2.14) se
tiene,
2b0 = b0 e t ;
es decir,
t
2=e
2.3. APLICACIONES. 21

y, por consiguiente,
t = ln 2 .
Despejando obtenemos,
1
(2.15) t= ln 2
Observamos que el tiempo t necesario para que una población inicial de bacteria se duplique no depende de
la cantidad inicial de bacteria, b0 , sino de la constante .
Este sencillo procedimiento nos permite saber no sólo cuándo se duplica la población, sino que también puede
usarse para saber cuándo se triplica, cuadriplica, quintuplica, etc. Esto noi atañe sólo a bacterias, sino que es
también de gran utilidad en otros contextos. Por ejemplo, en epidemiología este dato es sustancial, pues es la
base para determinar la velocidad de contagios que puede haber en una población.

La radiactividad de los elementos.


Cuando nos interesan las propiedades químicas de un elemento X solemos fijarnos, en primer término, en su
número atómico Z (Z :=el número de protones del átomo del elemento); por ejemplo, para el carbono C su número
atómico es 6, para el nitrogeno N es 7 y para el uranio U es 92. Sin embargo, en física nuclear es indispensable
la noción de nucleido. Un nucleido se determina por el número de protones Z y el de neutrones N contenidos
en el núcleo de un átomo o, lo que es equivalente, por el número atómico y el número de masa A = Z + N ;
de este modo, un mismo elemento químico X puede tener distintos nucleidos A1 X, A2 X llamados isótopos del
elemento. Así, si se tienen dos átomos de un mismo elemento que tienen el mismo número de electrones rodeando
al núcleo y el mismo número de protones en el núcleo pero difieren en la cantidad de neutrones, entonces se dice
que son isótopos distintos de dicho elemento. Por ejemplo los nucleidos 12 C, 13 C, 14 C, 14 N , 235 U y 238 U (también
denotados por 12 6 C, 6 C, 6 C, 7 N , 92 U y 92 U cuando se quiere incluir el número atómico) son distintos, los tres
13 14 14 235 238

primeros son isótopos del carbono y los dos últimos son isótopos del uranio. La radiactividad es la propiedad de
los nucleidos inestables de desintegrarse espontáneamente emitiendo partículas o radiaciones electromagnéticas
(fotones) para formar nuevos nucleidos.
La radiactividad fue descubierta en 1896 por el físico francés Henri Becquerel y, en 1898, confirmada en
el torio por la física francesa, de origen polaco, Marie Curie . Por sus trabajos en este área, así como por el
aislamiento del polonio y el radio, Marie Curie, Pierre Curie y Henri Becquerel recibieron en 1903 el Premio
Nobel de Física.
El físico británico Ernest Rutherford (1871–1937), en colaboración con otro científicos británicos, mostró que
los átomos de ciertos elementos radiactivos son inestables. Esta inestabilidad significa que después de un cierto
periodo de tiempo una proporción fija de los átomos de un elemento se desintegra para formar átomos de un
nuevo elemento1. Rutherford (Premio Nobel de Química en 1908) mostró que la radiactividad de un material es
directamente proporcional al número de átomos presentes en dicho material. Así, si x(t) denota el número de
átomos presentes en el tiempo t, entonces el número de átomos que se desintegran por unidad de tiempo, es decir,
la pérdida instantánea de átomos, es proporcional a x:
dx
(2.16) = x, > 0.
dt
La constante es conocida como constante de desintegración.
Por lo que hicimos en la sección 2.2, sabemos resolver la ecuación (2.16). Supongamos entonces que x(t0 ) = x0
es la cantidad de átomos en el tiempo t0 . La solución a la ecuación (2.16) con condición inicial x(t0 ) = x0 es
✓Z t ◆
(2.17) x(t) = x0 exp ds = x0 e (t t0 ) .
t0

Una manera de medir la tasa de desintegración de un material, es medir el tiempo que se requiere para que la
mitad de una cantidad dada de átomos radiactivos se desintegre. Dicho de otra forma, si x(t0 ) = x0 es la cantidad
inicial de átomos, nosotros buscamos el tiempo t tal que x(t) = 12 x0 . Usando la expresión (2.17) tenemos que
1 x(t) (t t0 )
= =e .
2 x0
Por consiguiente,
1
ln = (t t0 ) .
2
Multiplicando esta expresión por 1 y haciendo uso de las propiedades del logaritmo natural ( ln a = ln a 1
) se
tiene que
✓ ◆ 1
1
ln = (t t0 );
2
es decir,
ln 2 = (t t0 ) .

1La desintegración de un átomo es la transformación de su núcleo por emisión o captura de partículas y energía.
22 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

Finalmente,
1
(2.18) t t0 = ln 2 .
Al tiempo obtenido en (2.18) se le conoce como periodo o vida media del material.
Observamos que, cuanto más corto es el periodo, más inestable es el material radiactivo. Así, mientras el
isótopo de uranio, 238 U , tiene una vida media de 4 500 000 000 años el isótopo de radio, 226 Ra, tiene un periodo
de 1 600 años y el de Polonio, 218 P o, de 3 minutos.
Comenzaremos por ver un ejemplo relacionado con un isótopo que ha sido de gran utilidad para determinar
la edad de fósiles y restos arqueológicos. Nos referimos al isótopo de carbono 14 (isótopo que posee en su núcleo
6 protones y 8 neutrones).

Ejemplo 2.4. Se sabe que el periodo o vida media del carbono 14, 14
C, es de 5730 años. Calcula la constante
de desintegración del 14 C.
Solución: Sabemos que el isótopo de carbono 14 satisface la ecuación
(t t0 )
x(t) = x0 e .
Así mismo, sabemos que el tiempo t que se requiere para que la cantidad de 14 C se desintegre a la mitad es de 5730
años. Es decir,
1
x(5730) = x0 .
2
Así,
1
= e (5730)
2
y, por tanto,
1
ln = 5730 .
2
Finalmente,
ln 12 ln 2
= = .
5730 5730
Como ln 2 ⇡ 0.693, se tiene que el valor aproximado de la constante de desintegración es
⇡ 0.000121 .

Veamos ahora un problema relacionado con la contaminación radiactiva.

Ejemplo 2.5. La vida media del isótopo radiactivo del cobalto 60


27 Co es de 5.27 años y decae en
60
N i emitiendo
rayos gama. Supóngase que un accidente nuclear provocó que el nivel de cobalto ascienda en cierta región a 80
veces el nivel aceptable para la vida humana. ¿Cuánto tiempo debe de pasar para que la región vuelva a ser
habitable?2

Solución. En este caso conocemos, por los datos del problema, la vida media del cobalto. Este dato nos permite conocer
la constante de desintegración del cobalto haciendo uso de la expresión obtenida en (2.18):
t t0 = 5.27 años ,
1
5.27 = ln 2 .

Por consiguiente,
1
= ln 2 .
5.27
Denotemos ahora por k el nivel de cobalto aceptable para la vida humana. Sabemos que, debido al accidente nuclear, en
la región afectada hay 80k. Tomemos entonces, como condición inicial en el tiempo t0 = 0, el valor x(0) = 80k. Necesitamos
encontrar el tiempo t tal que x(t) = k (que es el nivel de cobalto aceptable para la vida humana). Así, si consideramos la
solución de la ecuación inicial x(0) = x0 tenemos
x(t) = x0 e t .
De aquí,
x(t) k
= =e t
x0 k 80
y, por tanto,
1 ⇣ ⌘
ln = ln e t .
80
Equivalentemente,
✓ ◆ 1
1 1
t = ln = ln .
80 80
De donde obtenemos el valor de t,
1
t = ln 80 .

2La bomba de cobalto forma parte de los medios de guerra radiológica. Fue experimentada en 1953.
2.3. APLICACIONES. 23

Resta ahora sustituir los valores aproximados de ln 80 y de :


ln 80 ⇡ 4.3820
1 1
= ln 2 ⇡ (0.693) = 0.131527;
5.27 5.27
así,
4.382
t⇡ ⇡ 33.32 .
0.131527
Hemos obtenido, por tanto, que se requieren 33.32 años para que la región contaminada por cobalto vuelva a ser
habitable.
El uso de 14 C para determinar la edad de muestras fósiles de origen vegetal o animal. El fascinante
procedimiento para datar fósiles (animales o vegetales) fue ideado en 1949 por el químico norteamericano Willard
Libby (Premio Nobel de Química en 1960). A continuación damos un esquema sencillo de las ideas básicas que
sustentan dicho procedimiento.
El carbono 14, 14 C, es un isótopo de carbono que se encuentra presente en la atmósfera. Este isótopo
del carbono se forma en la atmósfera terrestre por la acción de los neutrones de la radiación cósmica sobre el
nitrógeno (con número atómico 7 y número de masa -protones y neutrones- 14) que se encuentra en la atmósfera.
El resultado de esta exposición es el carbono 14 (con número atómico 6 y número de masa 14 en lugar de 12
que es el número de masa del isótopo más común del carbono). Por procesos de oxidación, el 14 C (o carbono
radiactivo) se encuentra en la atmósfera como CO2 y se mezcla con el gas carbónico normal. Las plantas absorben
este carbono como parte del proceso de fotosíntesis. El ser humano y el resto de los animales absorbemos dicho
carbono al ingerir vegetales y otros animales, siendo los huesos un depósito natural de 14 C (aunque también lo
son otros tejidos del cuerpo).

Figura 2.4. El carbono 14 se mantiene en equilibrio en los seres vivos debido fundamentalmente
a los procesos de alimentación y respiración.

Si bien el 14 C se desintegra, en los tejidos vivos se renueva constantemente, manteniéndose en equilibrio. Así,
mientras un ser vivo mantiene sus funciones vitales, permanece constante el 14 C en sus tejidos.
Después de la muerte del organismo, cesa para él la absorción de gas carbónico proveniente de la atmósfera
y, por tanto, la concentración de 14 C comienza a disminuir según la ecuación
(2.19) ẋ = x,
donde x(t) representa la cantidad de átomos de 14 C presentes en el tejido al tiempo t.
Si tomamos una muestra de tejido fósil, un hueso por ejemplo, sabemos que la tasa de desintegración N (t) es
proporcional a la cantidad de átomos de 14 C presentes en la muestra: N (t) = ˜ x(t). Si tomamos como t0 = 0 el
24 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

Figura 2.5. El carbono 14 decae en nitrógeno N y se incorpora a la atmósfera.

instante en el que el organismo deja de absorber 14 C (es decir, el momento en el que la vida del organismo cesa),
entonces la tasa de desintegración en ese momento es N (0) = ˜ x(0)
Además, sabemos que x(t) satisface la ecuación (2.19) y, por lo tanto,
t
(2.20) x(t) = x0 e .
¿Cómo podemos calcular N (0) si el organismo murió hace cientos o miles de años? Pues bien, primeramente
necesitamos hacer la suposición de que la intensidad de la radiación cósmica sobre la tierra ha permanecido
siempre constante. Así, si medimos la tasa de desintegración de 14 C en el tejido óseo de un animal vivo, podemos
considerar dicha tasa como N (0).
Para calcular la edad del fósil retomemos la ecuación (2.20) y sustituyamos en ella los valores x(t) = N˜(t) ,
N (0)
x(0) = ˜ :
N (t) N (0) t
= e ,
˜ ˜
Por consiguiente,
N (t)
t
e =;
N (0)
sacando logaritmo natural en ambos miembros de la igualdad, se obtiene
N (t)
t = ln ;
N (0)
es decir,
1 N (t)
t= ln .
N (0)
Finalmente,
1 N (0)
(2.21) t= ln .
N (t)
Cabe señalar que la tasa de desintegración se puede calcular mediante un aparato conocido como Contador
de Geiger-Müller. Este contador de partículas fue creado por el físico Alemán Geiger en 1913 y fue perfeccionado
junto con Müller en 1925.
El método del 14 C que acabamos de describir es útil para proporcionar fechas aproximadas de restos arque-
ológicos o de capas sedimentarias, si las muestras usadas contienen una cantidad suficiente de materia orgánica
(carbón, madera, concha, tejidos, hueso, cuero, etc.). El método permite datar restos hasta de 35,000 años. Sin
embargo, con el uso de aceleradores de partículas, se ha podido mejorar el método y actualmente pueden datarse
objetos hasta de 80,000 años de antigüedad.

Principios básicos usados en la datación con 14


C.
2.3. APLICACIONES. 25

Se sabe que todo organismo vivo tiene la misma radiactividad que el gas carbónico que hay en la atmósfera.
Al morir, los intercambios gaseosos se interrumpen y, en consecuencia, cesa la renovación de 14 C. A partir de ese
momento, la radiactividad del 14 C decrece lentamente: cada 5730 años su radiactividad decrece a la mitad.
El 14 C se encuentra en proporciones mínimas en el CO2 que hay en la atmósfera. El 14 C que está presente
en un gramo de carbono se desintegra a razón de 13.56 desintegraciones por minuto por gramo (dpmg). Esta
proporción de carbono 14 es constante en todo el mundo, se ha conservado igual a lo largo del tiempo, y se le
conoce como desintegración de referencia. Cabe señalar sin embargo, que el uso industrial de materiales fósiles
como el petróleo significaron, a finales del siglo XIX y principios del XX, una introducción a la atmósfera de
CO2 en la que el 14 C estaba ausente. Esto implicó una primera modificación en la concentración de 14 C en la
atmósfera. La segunda modificación se debió a las explosiones atómicas realizadas a mediados del siglo XX: para
1964 la cantidad de 14 C se había incrementado, de manera artificial, a casi el doble. En la actualidad, las emisiones
de CO2 han disminuido en cierta medida y las aguas de los océanos han absorbido paulatinamente el exceso de
carbono radiactivo. Estas modificaciones constantes de la atmósfera debidas por una parte a los cambios en el
campo magnético y a la actividad solar, así como a la intervención humana, hicieron necesaria la creación de una
medida internacional de desintegración de referencia de la atmósfera, siendo ésta de 13.56 dpmg (de carbono).
Así, para determinar la edad de objetos tales como madera, carbón, huesos, tejidos y semillas, entre otros, se
mide su contenido actual de 14 C, midiendo las desintegraciones por minuto por gramo de carbono que presenta
la muestra, y se le compara con aquél que debió tener cuando tenía vida (para esto se considera la desintegración
de referencia de 13.56 dpmg.) 3
Este método se ha usado para determinar la antigüedad de múltiples hallazgos arqueológicos. A continuación
veremos un ejemplo relacionado con una antigua ciudad de Mesopotamia.

Ejemplo 2.6. La antigua ciudad de Mesopotamia, Nippur (actualmente conocida como Niffer y localizada a 160
km de Bagdad) fue descubierta en 1849. En 1948, el Instituto Oriental de Chicago hizo excavaciones en dicha
ciudad y, en 1950, al medir el carbón proveniente de una viga de un techo, se obtuvieron 8.3 dpmg (desintegraciones
por minuto por gramo). La desintegración de referencia en la atmósfera es de 13.56 dpmg de carbono. Encontremos
con estos datos la fecha aproximada de los restos arqueológicos.
Fijemos como condición inicial t0 = 0 el momento cuando el árbol del cual se elaboró la viga fue cortado, y
sea T el tiempo que ha transcurrido hasta el momento del hallazgo. Sea N (t) el número de desintegraciones por
minuto por gramo en el instante t. Sabemos que N (0) = 13.56 dpmg 4 de carbono y N (T ) = 8.3 dpmg de carbono.
Además, la ecuación diferencial ẋ = x que describe la desintegración de carbono 14 tiene como solución
t
x(t) = x0 e , t0 = 0 ,
Como Ṅ (t) = ˜ x(t) y N (0) = ˜ x0 ,
N (t) = N (0)e t .
Observamos que esta expresión nos dice, derivando con respecto a la variable t, que N (t) satisface la ecuación
diferencial Ṅ (t) = N (t). Podemos asimismo, encontrar el valor explícito del tiempo t = T sustituyendo los
valores de N (T ), N (0) y ; a saber, T = 1 ln 13.56
8.3
.

En el ejemplo 2.4 obtuvimos el valor aproximado de la constante de desintegración del carbono , ⇡


0.000121. Sustituyendo este valor obtenemos
✓ ◆
1 13.56
t⇡ ln ⇡ 4054 años .
0.000121 8.3
Esto nos indica que los restos son de una fecha aproximada a 2104 a.c., y, por tanto, la construcción corre-
sponde posiblemente al reinado de Ur-Nammu.
Existen otros ejemplos en los que es posible aplicar la ecuación diferencial (2.5). A continuación proponemos
algunos ejercicios aunque recomendamos revisar, entre otros, los libros de ecuaciones ordinarias que se dan en la
bibliografía.

Ejercicio 2.7.
(1) En cierta población, el número de afectados por el cólera es N0 . La enfermedad presenta un crecimiento
proporcional al número de pobladores afectados por la enfermedad. Sea k la constante de proporciona-
lidad. En caso de que la cantidad de enfermos se sextuplicara podría perderse el control de la epidemia.
Calcula el tiempo en el que podría perderse el control de la epidemia de seguir las mismas tendencias
de crecimiento.
3Si bien la vida media del carbono 14 es de 5730 aproximadamente, existe una convención internacional para utilizar el valor
de 5568 años que obtuvo W.F. Libby en 1951. Esta convención ha permitido tener resultados comparables, si bien después, según
el análisis que se haga, se le aplican distintos factores de corrección. Una explicación interesante y detallada sobre la historia y
el método de datación con 14 C puede encontrarse en la página del Centre de Datation par le Radiocarbone, de la Universidad de
Lyon, Francia.
4Ver www.iop.org/journals/physed An illustrated guide to measuring radiocarbon from archaeological samples Alex Bayliss1,
Gerry McCormac2 and Hans van der Plicht3.
26 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

(2) Supongamos que los desechos de una fábrica contaminan un lago y que, a causa de ello, una población
de peces disminuye vertiginosamente. Los científicos han logrado detectar que la población disminuye
en proporción al número de peces con una constante de proporcionalidad igual a 0.2:

dN
= 0.2N,
dt

donde N (t) es el número de peces en el tiempo t. Se sabe que si la población se reduce a una décima
parte de la población actual, no será posible salvar la especie. ¿De cuánto tiempo se dispone para tomar
medidas que reviertan el problema?
(3) Las cuevas de Lascaux en Francia fueron descubiertas en 1940 por el francés Henri Breuil. En la sala
principal de una de las cuevas, se hallan pinturas rupestres con figuras de toros, ciervos, bisontes y
la imagen de un cazador. Breuil supuso que estas pinturas correspondían al auriñaciense final (33,000
a.C.); sin embargo, al hacer un análisis en 1950 de una muestra de carbón encontrado en la cueva,
se obtuvieron 1.97 desintegraciones por minuto por gramo. Si la desintegración de referencia en la
atmósfera es de 13.56 dpmg de carbono, calcula la posible fecha de la realización de las pinturas y, si te
es posible, averigua cuál es el periodo al que corresponden.
(4) Supongamos que se usa pentobarbitol sódico para anestesiar a un animal de 6 kgs. El animal queda
anestesiado cuando la concentración de anestésico es de 45 miligramos por kilogramo de peso. Se
sabe que el anestésico se elimina de la sangre a una velocidad proporcional a la cantidad de anestésico
presente, da
dt
= µa, donde µ es la constante de proporcionalidad, µ > 0. Además, se sabe que en 5
horas el organismo alcanza a eliminar la mitad del anestésico administrado. ¿Qué dosis deberá serle
administrada al animal para que permanezca anestesiado durante una hora?
(5) En 2005 se halló en Saqqara, Egipto, una momia. Por su belleza los arqueólogos la denominaron “La
momia más bella jamás encontrada”. Se considera que la momia debe tener unos 2600 años de antigüedad
ya que hay indicios de que ésta perteneció a la XXVI dinastía egipcia. En caso de que se haya realizado
la datación por 14 C, ¿cuál debería ser la cantidad de desintegraciones por minuto por gramo de carbono
que permitiría corroborar las suposiciones sobre su antigüedad?
(6) En 1964 en el sitio arqueológico de Teotihuacán, México, se realizaron excavaciones en varios basamentos
situados a lo largo de la Avenida de los Muertos. Se encontraron restos carbonizados de vigas que
pertenecieron a techos y jambas. Una de las vigas pertenecientes al palacio del Quetzalpapálotl dio
10.86 desintegraciones por minuto por gramo de carbono. Calcula la edad en que fue utilizada esta viga
si consideramos que la desintegración de referencia de la atmósfera es de 13.56 dpmg.
(7) En la Gruta de Chauvet-Pont-d’Arc, Francia, fueron halladas unas impresionantes pinturas rupestres
en las que se encuentran representados rinocerontes, mamuts, bisontes, felinos, osos y un caballo. En
1995 fueron tomadas muestras de dos rinocerontes y un bisonte trazados con carbón en las paredes
de la cueva. La desintegración radiactiva encontrada fue de .0346 dpmg. Calcula la posible fecha de
ocupación de la gruta considerando que la desintegración de referencia de la atmósfera es de 13.56 dpmg.
Compara esta fecha con las de las Cuevas de Lascaux (ver ejercicio 3) y determina el periodo al que
corresponden las pinturas de la Gruta de Chauvet.
(8) En el año 2003 fueron realizadas excavaciones en la Pirámide III (palacio del gobernante Cucuma) de
Pachacamac en Perú. Se analizaron muestras de semillas, carbón, madera y otros objetos. En las
muestras de carbón analizadas se registraron 11.46 desintegraciones por minuto por gramo de carbono.
Considerando que la desintegración de referencia de la atmósfera es de 13.56 dpmg, calcula la fecha en
la que estuvo habitado este sitio arqueológico.
(9) En 1982 una bomba de cobalto, usada para realizar tratamientos radiológicos, fue extraída indebida-
mente de un centro médico privado en Ciudad Juárez, Chihuahua, y acabó usándose como chatarra
para elaborar varillas de metal para la construcción, así como soportes de mesa. Antes de percatarse
de la contaminación radiactiva que esto produjo, se construyeron con esas varillas casas y edificios en
distintas localidades. En una revisión de una porción del lote de varillas, se detectó la presencia de
altos niveles de radiactividad: 70% por arriba del nivel aceptable, y se tuvo que hacer un seguimiento
cuidadoso del origen y destino del resto del lote. Calcula el tiempo que hubo que dejar pasar para poder
usar las edificaciones sin que ello representase un peligro para las personas que las usasen, sabiendo que
la vida media del isótopo radiactivo del cobalto es de 5.27 años.
(10) En 1991, en la región de los Alpes de Ötztal, a 3210 metros sobre el nivel del mar (cerca de la frontera
entre Austria e Italia), dos alpinistas, Erika y Helmut Simon, hallaron a un hombre momificado. El des-
cubrimiento de Ötzi desató una gran cantidad de investigaciones sobre su origen, genética y costumbres
alimenticias. Entre otras cosas, ahora se sabe que Ötzi fue asesinado por una flecha que se le clavó a
la altura del omóplato. Para conocer la edad aproximada de Ötzi (así llamado desde su hallazgo), éste
fue sometido a pruebas de 14 C. En dichas pruebas se obtuvieron alrededor de 7.14 desintegraciones por
minuto por gramo (dpmg).
Sabiendo que la vida media del 14 C es de 5730 años, y que la desintegración de referencia en la
atmósfera es de 13.56 dpmg, calcula la edad aproximada de Ötzi.
2.3. APLICACIONES. 27

Un lamentable suceso de contaminación de varilla por cobalto-60 en México, en 1984. El problema


al que se refiere el ejercicio 9 de la serie de ejercicios 2.7, corresponde a un lamentable hecho real que sucedió en
México en 1984. Lo que aquí relataremos muy brevemente puede ser consultado en el documento «Accidente por
contaminación con cobalto-60. México 1984.» Comisión Nacional de Seguridad Nuclear y Salvaguardas publicado
en septiembre de de 1985.
En noviembre de 1977, un hospital privado de Ciudad Juárez, Chihuahua, compró para realizar estudios
radiológicos, una unidad de radioterapia con una fuente de cobalto-60. Dicha fuente fue introducida a México de
forma ilegal, y permaneció sin ser usada durante varios años. Un empleado de dicho hospital retiró en 1983 el
aparato para desmantelarlo y venderlo como chatarra en un depósito de nombre Yonke Fénix. La contaminación
se fue propagando por distintas formas, pero la de mayores proporciones fue causada por el envío del material
contaminado a dos fundiciones. En una de éstas, el material fue fundido y como resultado aproximadamente
6,600 toneladas de varilla fueron contaminadas y exportadas a Estados Unidos o utilizadas en varios estados del
interior de México. En la otra fundidora, el material se usó para hacer 30,000 soportes de mesa. Las autoridades
lograron recuperar 2360 toneladas de varilla que aún no habían sido utilizadas para la construcción, sin embargo
se tuvieron que analizar 17,600 construcciones en las que se pensó que había sido empleada la varilla contaminada.
De éstas, se determinó la demolición de 814, así como la de cientos de bardas. La información completa puede
ser consultada en el documento mencionado de la Comisión Nacional de Seguridad Nuclear y Salvaguardas.
Enfriamiento de objetos.
Según la ley de Newton de enfriamiento de los cuerpos, la velocidad con que disminuye la cantidad de calor
de un cuerpo es proporcional a la diferencia de temperatura entre dicho cuerpo y el medio que lo rodea. Así,
si y(t) es la temperatura del cuerpo al tiempo t, k es la temperatura del medio ambiente y a es la constante de
proporcionalidad, entonces la ecuación que describe el cambio de temperatura del cuerpo es
dy
(2.22) = a(y k) , donde la constante a > 0.
dt

Observación 2.8. La constante a es proporcional a la superficie del cuerpo y depende del poder emisor de éste.
Esta ley es válida sólo en el caso de diferencias pequeñas de temperatura.

Para resolver la ecuación (2.22), seguiremos un procedimiento análogo al usado para resolver la ecuación
lineal homogénea. Primero observamos que multiplicando la expresión (2.22) por (y k) 1 se tiene,
1 dy
= a.
y k dt
Integrando ahora de t0 a t,
Z t Z t
1 dy
d⌧ = ad⌧ ;
t0 y k d⌧ t0
equivalentemente,
Z y(t) Z t
1
dỹ = a d⌧ .
y(t0 ) ỹ k t0
Haciendo las integrales obtenemos,
ln |y(t) k| ln |y(t0 ) k| = a(t t0 ) .
Aplicando la exponencial en ambos miembros de la igualdad y usando las propiedades del logaritmo se obtiene
y(t) k
ln y(t ) k a(t t0 )
e 0 =e .
Así,
a(t t0 )
(2.23) y(t) = k + (y(t0 ) k)e .
Es común, en época de invierno, observar que la comida se enfríe con rapidez. Veamos un ejemplo que nos
permita entender lo rápido que sucede dicho enfriamiento.

Ejemplo 2.9. Supongamos que tenemos una taza con café que hemos calentado a 100 . Supongamos también,
que la temperatura ambiente de nuestra casa es, por ser época de invierno, de 8 . En 5 minutos el café tiene una
temperatura de 55 grados.
a): Calcula la constante a de enfriamiento (ver (2.22)).
b): Calcula la temperatura que tendrá el café después de 15 minutos.

Solución: a) Sea t0 = 0. En t = 0 la temperatura del café es y(0) = 100. De la expresión (2.23) encontramos
fácilmente una expresión para a: ✓ ◆
1 y(t) k
a = ln ;
t y(0) k
28 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES

como t = 5 y y(5) = 55 se tiene ✓ ◆


1 55 8
a= ln .
5 100 8
Efectuando los cálculos obtenemos el valor aproximado de a
a⇡ 0.1343 .
b) Para calcular la temperatura del café en un tiempo de 15 minutos volvemos a considerar la expresión
(2.23). Sustituyendo el valor aproximado de a que obtuvimos en el inciso (a) obtenemos:
0.1343(15)
y(15) ⇡ 8 + 92e ;
es decir,
y(15) ⇡ 20.27 .

Ejercicio 2.10.
(1) Realiza un experimento de enfriamento en casa haciendo uso de una taza con chocolate, atole o leche,
siguiendo la pauta de lo que se explicó en esta sección.
CAPÍTULO 3

Ecuaciones diferenciales definidas por una matriz diagonalizable

En este capítulo, haciendo uso adecuado de la ecuación en una variable, llegaremos a una expresión sencilla
de un comportamiento que, en primera instancia, aparenta ser más complicado. Es esta contraposición entre lo
sencillo y lo complejo (lo complejo que podemos entender y expresar de una forma simple) lo que hace que las
matemáticas tengan no sólo un gran alcance, sino también una componente estética cautivadora.
Con el fin de lograr una exposición clara, iniciamos introduciendo algunas nociones básicas de álgebra lineal.
Cabe resaltar que nos interesa hacer uso del álgebra lineal porque su lenguaje permite comprender de una manera
sencilla el comportamiento geométrico de las ecuaciones diferenciales lineales autónomas homogéneas en varias
variables.

3.1. Matrices y transformaciones lineales inducidas: un guiño de geometría.


En esta sección comenzaremos con algunos aspectos básicos relacionados con el manejo de matrices. Traba-
jaremos esencialmente en R2 y sólo en algunos casos en R3 . No es difícil convencerse de que es posible extender, sin
mayor problema y con las adecuaciones pertinentes, las nociones que aquí exponemos a los casos en dimensiones
mayores (Rn ).
Recordamos que R2 es el conjunto formado por todas las parejas ordenadas de números reales: R2 = {x =
(x1 , x2 ) | x1 2 R, x2 2 R}. A cada elemento del plano se le asocia un único elemento x = (x1 , x2 ) de R2 y a los
valores xi , i = 1, 2, se les conoce como coordenadas del punto x.
La suma de dos puntos x, y 2 R2 se define coordenada a coordenada: es decir, si x = (x1 , x2 ) y y = (y1 , y2 )
entonces:
(3.1) x + y = (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) .
Si es un número real y x 2 R2 , definimos el producto del escalar real por x como
(3.2) x = ( x1 , x 2 ) .
La distancia entre dos puntos x, y 2 R2 está dada por
p
||x y|| = (x1 y1 )2 + (x2 y2 ) 2 .
De aquí, la distancia de un punto x 2 R al origen (0, 0) es
2

q
||x|| = x21 + x22 .
El realizar la representación gráfica de las operaciones puede ser un buen ejercicio para que el lector se familiarice
de una manera distinta con estas operaciones.
El conjunto R2 tiene, como consecuencia de (3.1) y (3.2), una estructura de espacio vectorial real. En efecto,
como el lector puede demostrar fácilmente, en R2 , se satisfacen las siguientes operaciones:

Propiedades aditivas. Sean x, y, z 2 R2 .


(1) x + y = y + x (conmutatividad).
(2) (x + y) + z = x + (y + z) (asociatividad).
(3) El vector 0 = (0, 0) 2 R2 satisface x + 0 = x para todo vector x 2 R2 (existencia del elemento neutro
aditivo).
(4) El vector x = ( x1 , x2 ) 2 R2 satisface x+( x) = 0 para todo vector x 2 R2 (existencia del elemento
inverso aditivo).

Propiedades de multiplicación por escalares reales. Sea, , µ 2 R, x, y 2 R2 .


(1) ( + µ)x = x + µx (distributividad).
(2) (x + y) = x + y (linealidad).
(3) 1 x = x, donde 1 denota el neutro multiplicativo en R.
(4) 0 x = 0.

Consideremos ahora la matriz de 2 ⇥ 2:



a11 a12
(3.3) A := ,
a21 a22
29
30 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

donde cada aij es un número real, i, j 2 {1, 2}. La matriz A induce una transformación de R2 en sí mismo: si x
es un elemento de R2 , el punto Ax se define como
  
a11 a12 x1 a11 x1 + a12 x2
Ax = = .
a21 a22 x2 a21 x1 + a22 x2
Así, el punto x = (x1 , x2 ) 2 R2 es transformado por A en el punto (a11 x1 + a12 x2 , a21 x1 + a22 x2 ).
Entendamos geométricamente lo que está sucediendo:
Consideremos los vectores e1 = (1, 0) y e2 = (0, 1), conocidos comúnmente como vectores canónicos de R2 , y
consideremos también a la matriz A definida en (3.3). Los vectores e1 , e2 nos dan lo que se denomina una base
de R2 ; es decir, cualquier elemento x de R2 puede ser escrito como una combinación lineal con coeficientes reales
de los vectores e1 , e2 :
x = x1 e1 + x2 e2 , xi 2 R, i = 1, 2 ,
y, además, el conjunto formado por los vectores e1 , e2 es un conjunto linealmente independiente; es decir, si se
tiene una combinación lineal de los vectores e1 , e2 igualada a cero, 0 = x1 e1 + x2 e2 , entonces x1 = x2 = 0. En
este caso (en dimensión dos) la independencia lineal entre e1 y e2 equivale a decir que el vector e1 no es múltiplo
real de e2 : e1 6= ae2 para toda a 2 R (ver figura 3.1).

Figura 3.1.

Veamos en qué se transforman los vectores e1 y e2 cuando aplicamos la transformación A:


  
a11 a12 1 a11
Ae1 = = ,
a21 a22 0 a21
  
a11 a12 0 a12
Ae2 = = .
a21 a22 1 a22
El vector Ae1 corresponde a la primera columna de la matriz A. El vector Ae2 corresponde a la segunda
columna de la matriz A (ver figura 3.2).

Figura 3.2.

Así, los vectores canónicos, e1 y e2 se transforman bajo la acción de la matriz A en otros dos vectores
(a11 , a21 ), (a12 , a22 ) cuya naturaleza depende tan sólo de la definición misma de A.
Por ejemplo, si la matriz A tiene la forma

2 0
A= ,
1 3
los vectores e1 , e2 se transforman, respectivamente, en los vectores Ae1 = (2, 1), Ae2 = (0, 3) (ver figura 3.3),
que también son linealmente independientes dado que no son colineales.
Sin embargo, si la matriz A está definida como

3 6
(3.4) A= ,
2 4
tenemos que los vectores Ae1 = ( 3, 2) y Ae2 = (6, 4) son múltiplos el uno del otro y, por consiguiente, no son
linealmente independientes (ver figura 3.4).
Habiendo entendido cómo se comporta una matriz al aplicarla a los vectores canónicos, podemos pasar ahora
a ver lo que sucede al aplicarla a un vector arbitrario x 2 R2 .
Consideremos un elemento x 2 R2 y sea A la matriz definida en (3.3).
3.1. MATRICES Y TRANSFORMACIONES LINEALES INDUCIDAS: UN GUIÑO DE GEOMETRÍA. 31

Figura 3.3.

Figura 3.4.

Como vimos antes, x puede ser escrito como una combinación lineal de e1 , e2 : x = x1 e1 + x2 e2 . Por
consiguiente, el significado de aplicar la matriz A al vector x es fácil de comprender geométricamente si escribimos
x = x1 (1, 0) + x2 (0, 1):
 ✓   ◆
a11 a12 1 0
Ax = x1 + x2
a21 a22 0 1
 
a11 a12
(3.5) = x1 + x2 .
a21 a22
La igualdad (3.5) nos dice que Ax no es más que el vector que resulta de la combinación lineal de los vectores
Ae1 y Ae2 con coeficientes x1y x2 respectivamente.
2 0
Así, si x = 12 , 13 y A = , podemos escribir al vector x como x = 12 (1, 0) + 13 (0, 1) y Ax como
1 3
1 1 1 1
Ax = Ae1 + Ae2 = (1, 2) + (0, 3)
2 3 2 3
(ver figura 3.5).

Figura 3.5.

Ejercicio 3.1.
32 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

(1) Transforma las figuras ABCD y EF G que están en el plano (ver figura 3.6) haciendo uso de la trans-
formación A según se indica en cada uno de los siguientes incisos.

D C
2

1
A B
F E
0 1 2

−1
G

Figura 3.6.
 
1 4 6 2
a) A = , b) A = ,
1/2 6 1 4
 
0 2 2 0
c) A = , d) A = .
0 0 0 2

Observemos que la transformación definida por la matriz A puede hacer que todo el plano R2 sea llevado a
una recta, como en el caso (3.4). También puede suceder que toda una recta sea llevada a un punto, como es el
caso de la matriz A del ejercicio (c) (todo el eje x es llevado al 0 2 R2 ). El caso extremo es cuando todo el plano
es llevado al origen, es decir, cuando la matriz A tiene todas las entradas nulas.
Matriz diagonal. Un caso muy sencillo de analizar, lo constituye el conjunto formado por las matrices en forma
diagonal; es decir, aquellas que tienen todas sus entradas iguales a cero salvo en la diagonal:

1 0
A= , 1, 2 2 R .
0 2

En este caso, el vector e1 es transformado por la matriz A en el vector 1 e1 , y, a su vez, el vector e2 es transformado
en el vector 2 e2 .
La interpretación geométrica de Ae1 es, en este caso, sumamente sencilla, ya que la dirección dada por el
vector e1 es conservada y sólo se modifica la magnitud y el sentido dependiendo de la naturaleza de 1 . Lo mismo
sucede con Ae2 . Por ejemplo, si la matriz es 
4 0
,
0 5
entonces Ae1 = ( 4, 0) = 4 e1 , y Ae2 = (0, 5) = 5 e2 . Como puede verse, la dirección definida por e1 y aquélla
definida por e2 son conservadas por A (ver figura 3.7); se dice, en este caso, que las direcciones e1 y e2 son las
direcciones invariantes de A.

Figura 3.7.

Más adelante habremos de hablar con mayor detenimiento sobre las direcciones invariantes bajo la acción de
una matriz.
El análisis que hemos hecho hasta ahora en R2 puede ser llevado a R3 (o a Rn ) sin ninguna modificación
sustancial que no sea la de considerar tres (n en caso de Rn ) vectores canónicos e1 = (1, 0, 0), e2 = (0, 1, 0),
3.1. MATRICES Y TRANSFORMACIONES LINEALES INDUCIDAS: UN GUIÑO DE GEOMETRÍA. 33

e3 = (0, 0, 1), en lugar de los dos utilizados para el caso del plano. En este caso, cualquier punto x 2 R3 puede
ser expresado como combinación lineal con coeficientes reales de los vectores e1 , e2 y e3 : x = x1 e1 + x2 e2 + x3 e3 ,
xi 2 R, i = 1, 2, 3. Además, e1 , e2 y e3 son linealmente independientes; es decir, si se tiene una combinación lineal
con coeficientes reales de los vectores e1 , e2 y e3 : 0 = x1 e1 + x2 e2 + x3 e3 , entonces los coeficientes satisfacen
x1 = x2 = x3 = 0. En otras palabras, ninguno de los vectores e1 , e2 , e3 puede ser expresado como combinación
lineal de los dos restantes.
Se invita al lector a hacer ejemplos varios, análogos a los que hicimos en R2 , con matrices de distintos tipos
en R3 .
Determinantes: una forma simple de expresar áreas y volúmenes con orientación. 
a11 a12
Regresemos a los vectores canónicos e1 y e2 de R2 y a la acción de la matriz A = sobre ellos.
a21 a22
Consideremos el cuadrado que tiene por lado a los vectores e1 y e2 , y consideremos también el paralelogramo
formado por los vectores Ae1 = (a11 , a21 ) y Ae2 = (a12 , a22 ) (ver figura 3.2). El área del cuadrado formado por
e1 y e2 es igual a uno, ya que todos sus lados tienen longitud igual a uno. Podemos preguntarnos ahora cómo
fue modificada el área del cuadrado bajo la acción de la matriz A; es decir, deseamos saber cuál es el área del
paralelogramo formado por los vectores Ae1 y Ae2 . Para ello consideremos los vectores (a11 , a21 ) y (a12 , a22 )
como en la figura 3.8.

Figura 3.8.

Denotemos por ✓ el ángulo formado por los vectores (a11 , a21 ), (a12 , a22 ). La altura h del paralelogramo con
base en el vector (a11 , a21 ) se calcula fácilmente como
h = sen ✓ k(a12 , a22 )k
o, equivalentemente,
h = cos (⇡/2 ✓) k(a12 , a22 )k .
Puesto que la norma del vector ( a21 , a11 ) es la misma que la del vector (a11 , a21 ), podemos escribir la longitud
de la base del paralelogramo como k( a21 , a11 )k. Así, el área del paralelogramo generado por los vectores Ae1 y
Ae2 está dada por ⇣⇡ ⌘
Área [Ae1 , Ae2 ] = k( a21 , a11 )k k(a12 , a22 )k cos ✓ .
2
Por lo que vimos en el ejemplo 1.16 de la Introducción, la expresión, de la derecha no es sino el producto escalar
de los vectores ( a21 , a11 ), (a12 , a22 ). Así, el área buscada tiene una expresión sumamente sencilla en términos
de los coeficientes de la matriz A. A saber,
Área [Ae1 , Ae2 ] = ( a21 , a11 ) · (a12 , a22 ) = a11 a22 a21 a12 .


a11 a12
Definición 3.2. Dada la matriz A = definimos el determinante como el área orientada del para-
a21 a22
lelogramo formado por los vectores Ae1 , Ae2 , donde e1 , e2 son los vectores canónicos de R2 . Es decir,
det A = a11 a22 a12 a21 .

Observación 3.3. 1. Decimos que Ae1 , Ae2 tienen orientación positiva si el ángulo de Ae1 a Ae2 (recorriendo
en sentido contrario al de las manecillas del reloj) es menor que ⇡ (es decir, tienen la misma orientación que la
pareja ordenada {e1 , e2 }). Decimos que Ae1 , Ae2 tienen orientación negativa si el ángulo medido del vector Ae1
al vector Ae2 es mayor que ⇡ (es decir, tienen la misma orientación que la pareja ordenada {e2 , e1 }).

2. La definición del determinante tiene la siguiente implicación geométrica: Cuando el determinante de una
matriz se anula, los dos vectores canónicos son transformados por la matriz en vectores colineales (el área del
paralelogramo formado por los vectores imagen es cero).
34 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

Figura 3.9.


0 1
Ejemplo 3.4. La matriz A = manda al cuadrado generado por los vectores e1 , e2 en sí mismo pero
1 0
con la orientación invertida: det A = 1.

Para el caso de dimensión 3, R3 , se puede observar que dados tres vectores v1 = (a11 , a21 , a31 ), v2 =
(a12 , a22 , a32 ), v3 = (a13 , a23 , a33 ), el volumen del paralelepípedo P cuyos lados son estos tres vectores está
dado por la expresión

volumen(P ) := | a13 det A1 a23 det A2 + a33 det A3 |,


  
a21 a22 a11 a12 a11 a12
donde A1 = , A2 = , A3 = .
a31 a32 a31 a32 a21 a22
Así mismo decimos que el volumen orientado volumen(P ) de los tres vectores v1 , v2 , v3 es
volumen(P ) = a13 det A1 a23 det A2 + a33 det A3 ,

Figura 3.10.

Con esto, tiene lugar la siguiente definición:

Definición 3.5. Sea A una matriz de 3 ⇥ 3 en R3 :


2 3
a11 a12 a13
A = 4 a21 a22 a23 5 .
a31 a32 a33
El determinante de A, det A, se define como el volumen orientado del paralelepípedo formado por los vectores
Ae1 , Ae2 , Ae3 donde e1 , e2 , e3 son los vectores canónicos en R3 .

Observación 3.6. Un análisis geométrico más cuidadoso muestra que cuando el vector
N = (det A1 , det A2 , det A3 )
no es cero, es un vector ortogonal al plano generado por los vectores v1 , v2 . Además, N se encuentra en aquella
componente, de las dos en que este plano divide al espacio R3 , a la que apunta la parte positiva del eje de giro
considerado para medir el ángulo menor que ⇡ de v1 a v2 . En lenguaje coloquial, si se coloca la mano derecha en el
origen y los dedos distintos del pulgar se apuñan girando de v1 a v2 , el pulgar apunta hacia la misma componente
en que se encuentra el vector N (la regla de la mano derecha, ver figura 3.10).
La norma del vector N es el área del paralelogramo cuyos dos lados concurrentes son v1 , v2 . Utilizando
este hecho y la fórmula del producto escalar de dos vectores para el caso de los vectores N y v3 se obtiene el
volumen orientado del paralelepípedo P , N · v3 = det A (el signo depende de si el vector v3 está o no en la misma
componente en la que se encuentra el vector N).

Propiedades básicas de la función determinante. Las siguientes son propiedades básicas del determinante
de cualquier matriz de n ⇥ n.
3.2. UNA LLUVIA DE IMÁGENES: SOLUCIONES DE LAS ECUACIONES DIFERENCIALES 35

Sean A, B dos matrices de n ⇥ n con coeficientes reales. Entonces


a) det(AB) = (det A) (det B). 0 2 3 1
 1 0 ... 0
1 0 B 6 0 1 ... 0 7 C
b) det Id = 1, donde Id = en R2 , B 6 7 nC
@Id = 4 : : ... : 5 en R A.
0 1
0 0 ... 1
c) det A 6= 0 si y sólo si existe una matriz A 1 tal que A A 1 = A 1 A = Id.
d) det(B) = det(A 1 BA) = det(ABA 1 ) (esta propiedad es consecuencia directa de la propiedad a) y la
propiedad c)).

Ejercicio 3.7.
 Da una razón geométrica
 por la cual, dada una constante real c no nula, se satisface la igualdad
a11 a12 a11 a12 + ca11
det A = det = det .
a21 a22 a21 a22 + ca21

3.2. Soluciones de las ecuaciones diferenciales definidas por matrices diagonalizables.


Consideremos la ecuación diferencial definida en R2 por el campo vectorial v(x1 , x2 ) = ( 1 x1 , 2 x2 )

ẋ1 = 1 x1
(3.6) ,
ẋ2 = 2 x2

con 1, 2 R, x = (x1 , x2 ) 2 R2 . La ecuación (3.6) puede ser escrita en forma matricial como la ecuación
2
1 0
ẋ = ⇤x, donde ⇤ = :
0 2
  
ẋ1 1 0 x1
(3.7) = .
ẋ2 0 2 x2
Observamos nuevamente que la ecuación (3.7) indica que el cambio instantáneo en la posición que tiene
x = x(t), es igual a la definida por el vector que resulta de aplicar la matriz ⇤ al vector x.
En los ejemplos 1.10, 1.11, 1.12, 1.13 y 1.14 de la introducción a este libro vimos la forma que toman los
campos vectoriales que tienen la forma (3.6). Ahora, vamos a calcular las soluciones explícitas de éstos, haciendo
uso de los resultados que vimos en el caso de una sola variable.
La ecuación (3.6) es de variables separables; es decir, el comportamiento de la variable x1 no depende de la
variable x2 y viceversa. Por esta razón, podemos resolver la ecuación (3.6) resolviendo cada una de las ecuaciones
por separado tal como se hizo para el caso de una variable.
Así,
1 (t t0 )
x1 (t) = x10 e
2 (t t0 )
x2 (t) = x20 e ,
donde x10 y x20 son las condiciones iniciales al tiempo t = t0 . La solución x(t) = (x1 (t), x2 (t)) es, por tanto,
⇣ ⌘
(3.8) x(t) = x10 e 1 (t t0 ) , x20 e 2 (t t0 ) .
Escribiendo el resultado en forma matricial se tiene
  
x1 (t) e 1 (t t0 )
0 x10
x(t) = = 2 (t t0 )
.
x2 (t) 0 e x20

Ejemplos. Los siguientes ejemplos nos muestran explícitamente cómo son algunas de las soluciones de las ecua-
ciones vistas en la introducción a este libro.
(1) Consideremos la ecuación en el plano
ẋ1 = 2x1
ẋ2 = 2x2 , (x1 , x2 ) 2 R2 .
Este sistema, escrito en forma matricial, toma la forma
  
ẋ1 2 0 x1
= .
ẋ2 0 2 x2
Si integramos por separado cada una de las variables, obtenemos
x1 (t) = x10 e2(t t0 )

2(t t0 )
(3.9) x2 (t) = x20 e .
Para graficar el comportamiento de las soluciones en el plano (x1 , x2 ) observamos que x1 (t) y x2 (t)
satisfacen la relación
(3.10) x2 = cx1 ,
36 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

donde c = xx2010
, para x10 6= 0. Es decir, en el plano se tiene una familia de rectas de pendiente c
(la pendiente varía según se vayan moviendo las condiciones iniciales). Hacemos notar que, para una
pendiente fija, la relación (3.10) se satisface para toda t (ver figura 3.11).

Figura 3.11.

Las rectas solución de la ecuación se alejan exponencialmente del origen como puede verse de la
forma explícita de las soluciones en (3.9).
(2) Consideremos ahora la ecuación diferencial
ẋ1 = 2x1
ẋ2 = 4x2 , (x1 , x2 ) 2 R2 .
La ecuación en forma matricial es
  
ẋ1 2 0 x1
= , (x1 , x2 ) 2 R2 .
ẋ2 0 4 x2
Dado que la matriz que define la ecuación es diagonal, sabemos que las soluciones se expresan como
⇣ ⌘
x(t) = (x1 (t), x2 (t)) = x10 e2(t t0 ) , x20 e4(t t0 ) ,
donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 .
Con el fin de graficar las soluciones en el plano (x1 , x2 ) observemos la relación que guardan x1 (t) y
x2 (t):
(3.11) x2 = cx21 ,
x20
donde c = ,
para x10 6= 0. Para c fija se tiene que la expresión (3.11) se satisface para toda t. La
(x10 )2
solución cuya condición inicial (x10 , x20 ) satisface la relación c = (xx10
20
)2
es una parábola parametrizada
por la relación (3.11). Por lo tanto, al mover la constante c se obtiene una familia de parábolas que se
alejan del origen conforme t ! 1, como puede verse en la figura 3.12.

Figura 3.12.

(3) Consideremos ahora la ecuación diferencial


ẋ1 = 2x1
ẋ2 = 2x2 ,
es decir,   
ẋ1 2 0 x1
= .
ẋ2 0 2 x2
Las soluciones de este sistema son de la forma
⇣ ⌘
(3.12) x(t) = (x1 (t), x2 (t)) = x10 e 2(t t0 ) , x20 e2(t t0 )
,
3.2. UNA LLUVIA DE IMÁGENES: SOLUCIONES DE LAS ECUACIONES DIFERENCIALES 37

donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 . La relación que guarda la variable
x2 con respecto a la variable x1 es
1
(3.13) x2 (t) = c(x1 (t)) .
Para c fija, la ecuación obtenida muestra que la curva x(t) está sobre una hipérbola.
Observemos que cualquier solución con condición inicial x0 fuera de los ejes coordenados x1 = 0
y x2 = 0 tiene la propiedad de que si t tiende a infinito, la solución tiende al eje x2 . En efecto, de la
expresión (3.11) puede verse que la primera coordenada de x(t), x1 (t), tiende a cero conforme t tiende
a infinito y, al mismo tiempo, la segunda coordenada, x2 (t), en valor absoluto, tiende a infinito. Por
consiguiente, al mover las condiciones iniciales obtenemos una familia de hipérbolas parametrizadas por
la constante c (ver figura 3.13).

Figura 3.13.

Ejercicio 3.8. Considera la ecuación diferencial en el plano


  
ẋ1 a 0 x1
= , (x1 , x2 ) 2 R2 .
ẋ2 0 1 x2
a) Encuentra las soluciones.
b) Mueve el valor de a continuamente en los números reales y observa cómo van cambiando los distintos
tipos de soluciones que se obtienen.

Observamos que, en los ejemplos anteriores, el paso de expresar a la variable x2 en función de la variable x1
lleva intrínseco un cambio de variable. A saber, si las soluciones de la ecuación del ejemplo 2 son de la forma
⇣ ⌘
x(t) = (x1 (t), x2 (t)) = x10 e2(t t0 ) , x20 e4(t t0 ) , x10 6= 0 ,
donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 , entonces, despejando t t0 en función de
(t) 1
valor x1 (t), se tiene t t0 = ln( xx110 ) 2 . Sustituyendo esta expresión en la segunda coordenada, se tiene
x (t) 1
4ln( x1 )2
x2 (t) = x20 e4(t t0 )
= x20 e 10 .
Simplificando esta última expresión (haciendo uso de las propiedades del logaritmo), se obtiene la relación x2 =
cx1 2 con c = (xx10
20
)2
.

Observación 3.9. Es importante hacer notar que el hecho de que hayamos podido poner a la variable t t0 en
función de x1 , t t0 = (t t0 )(x1 ) se debe a que el cociente xx110
(t)
= e2(t t0 ) nunca se anula. Esto nos ha permitido
establecer una relación uno a uno entre las variables t y x1 . Dicho en términos de las derivadas de las funciones,
hemos resuelto la ecuación dx 2
dx1
= dx 2 dt
dt dx1
= 4x 2
2x1
. Hacemos notar que lo que hemos hecho para las dos variables
es válido en el caso de tres o más variables.

Las ecuaciones diferenciales que están definidas por una matriz en forma diagonal resultan ser siempre muy
sencillas de comprender.
Veamos un ejemplo en R3 . Para ello, consideremos la ecuación diferencial
ẋ1 = 2x1
ẋ2 = 2x2
ẋ3 = 2x3 , (x1 , x2 , x3 ) 2 R3 ,
que, en forma matricial, se expresa como
2 3 2 32 3
ẋ1 2 0 0 x1
4 ẋ2 5 = 4 0 2 0 5 4 x2 5 , (x1 , x2 , x3 ) 2 R3 .
ẋ3 0 0 2 x3
38 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

La solución x(t) con condición inicial x0 = (x01 , x02 , x03 ) se obtiene en forma análoga al caso de una variable
pues la ecuación diferencial es de variables separables. Así,
x(t) = (x1 (t), x2 (t), x3 (t)) = x01 e2t , x02 e2t , x03 e 2t
.
En el plano x1 x2 (i.e., x3 = 0) el comportamiento que se tiene es el analizado en el ejemplo 1 de esta sección,
es decir, rectas se alejan del origen conforme t tiende a infinito (positivamente). Por otra parte, en el plano x1 x3
(i.e., x2 = 0) se tiene un comportamiento análogo al del ejemplo 3 de esta sección, es decir, se tiene una familia
de hipérbolas que tienden al eje x1 conforme t tiende a infinito positivamente. En el plano x2 x3 se tiene también
una familia de hipérbolas; éstas tienden al eje x2 conforme t tiende a infinito. Finalmente, un punto que no se
encuentre en ninguno de los planos coordenados tiende al plano x1 x2 conforme t tiende a infinito (ver figura 3.14).

Figura 3.14.

Ejercicio 3.10. Considera la ecuación en el espacio R3


ẋ1 = 2x1
ẋ2 = 2x2
ẋ3 = 4x3 , (x1 , x2 , x3 ) 2 R3 ,
que, en su forma matricial, se expresa como
2 3 2 32 3
ẋ1 2 0 0 x1
4 ẋ2 5 = 4 0 2 0 5 4 x2 5 .
ẋ3 0 0 4 x3
a) Resuelve la ecuación y haz el retrato de las fases de las soluciones de la ecuación.
b) Haz lo mismo que hiciste en el inciso anterior, para la ecuación
2 3 2 32 3
ẋ1 1 0 0 x1
4 ẋ2 5 = 4 0 2 0 5 4 x2 5 .
ẋ3 0 0 4 x3

3.3. Un cambio de enfoque.


Podemos preguntarnos qué sucede cuando la matriz que define al campo vectorial no es una matriz diagonal.
Cabe preguntarse si en este caso, como en el caso diagonal, existen o no direcciones invariantes.
Para responder a esta pregunta necesitamos introducir algunos conceptos básicos relacionados con el álgebra
lineal. Sin embargo, antes de hacerlo, daremos una introducción informal a dichos conceptos con el fin de lograr
una mayor claridad.
Marcos de referencia. Supongamos que en el teatro de Bellas Artes hay una cantante en el centro del escenario.
Observamos que desde el punto de vista del director de orquesta, la cantante está cantando de frente y arriba de
donde éste se encuentra. Los músicos también la escuchan arriba, aunque hacia la izquierda o la derecha según sea
la posición que guarden en la orquesta en relación a su instrumento; para los espectadores que están en la platea,
la cantante se encuentra en el mismo nivel, aunque puede estar a la izquierda, a la derecha o enfrente de ellos. La
gente del anfiteatro ve a la cantante abajo de ellos (a la izquierda, de frente o la derecha), y así, sucesivamente.
Cada espectador localiza a la cantante de acuerdo al punto donde éste se halle situado. La cantante, sin embargo,
está exactamente en el mismo punto. Lo único que cambia es el marco de referencia desde el cual cada espectador
la observa.
3.3. UN CAMBIO DE ENFOQUE. 39

Algo semejante sucede cuando se tiene un punto x en el espacio R3 . Usualmente hacemos referencia a los
vectores canónicos e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1). De esta forma, el punto x puede escribirse como
x = x1 e1 + x2 e2 + x3 e3 ,
es decir,
x = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1)
= (x1 , x2 , x3 ) .
Los valores reales x1 , x2 , x3 son las coordenadas de x con respecto a los vectores canónicos. Estamos tan acos-
tumbrados a esta manera de escribir las cosas que no se nos ocurre pensar que podemos elegir otros vectores en
R3 , f1 , f2 , f3 , y con ellos expresar también a x:
x = y1 f 1 + y2 f 2 + y 3 f 3 .
Surge de inmediato una pregunta: ¿Cómo deben de ser f1 , f2 , f3 para que todo punto x pueda ser expresado
como una combinación lineal de f1 , f2 y f3 ?
Por ejemplo, si f2 = f1 , f3 = 2f1 , claramente los tres vectores están alineados y, a lo más, podríamos
escribir como combinación lineal de f1 , f2 , f3 a los puntos que están en la recta generada por f1 : {af1 , a 2 R}
(ver figura 3.15).

Figura 3.15.

Así, f1 , f2 y f3 deberán ser vectores no colineales. Veamos ahora qué sucede si consideramos f1 y f2 no
colineales; las combinaciones lineales de f1 y f2 nos describen a los puntos que están en un plano
p = a1 f 1 + a2 f 2 , a1 , a2 2 R .
(ver figura 3.16).

Figura 3.16.

Claramente, si el vector f3 se puede escribir como combinación lineal de f1 y f2 , entonces f3 estará contenido
en el plano generado por f1 y f2 y, por consiguiente, no podremos expresar a todo punto de R3 como combinación
lineal de f1 , f2 y f3 .
Pongamos todas estas consideraciones en un lenguaje más formal.

Definición 3.11. Sea B = {f1 , f2 , f3 } un conjunto de vectores en R3 . Decimos que el conjunto B genera a R3
si todo punto x 2 R3 puede ser escrito como combinación lineal de los vectores f1 , f2 , f3 ; es decir, si para todo
x 2 R3 existen escalares ↵1 , ↵2 , ↵3 2 R tales que
x = ↵1 f1 + ↵2 f2 + ↵3 f3 .
40 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

Decimos que el conjunto B es linealmente independiente sobre R si ninguno de los fj puede ser escrito como
combinación lineal con coeficientes reales de los restantes; equivalentemente, si dada una combinación lineal de
los vectores f1 , f2 , f3 , igualada a cero (0 2 R3 ), ↵1 f1 + ↵2 f2 + ↵3 f3 = 0, se tiene que los coeficientes satisfacen
↵1 = ↵2 = ↵3 = 0. Una base de R3 es un conjunto de vectores que tienen la propiedad de ser linealmente
independientes sobre R y generar a todo R3 . Este concepto se extiende de manera análoga para cualquier
dimensión a otros espacios vectoriales.

Ejercicio 3.12.
a) ¿Es posible encontrar un conjunto de vectores en R3 que generen R3 pero que no sean linealmente
independientes?
b) ¿Es posible encontrar un conjunto de vectores en R3 que sean linealmente independientes en R3 pero
no generen todo R3 ?

Antes de seguir adelante hagamos un ejemplo sencillo: Consideremos la base de R3 formada por los vectores
canónicos, B1 = {e1 , e2 , e3 }, y consideremos la base B2 = {f1 , f2 , f3 } donde f1 = (1, 1, 1), f2 = ( 1, 1, 0) y
f3 = (0, 0, 2). Consideremos ahora un punto p 2 R3 cuya expresión en las coordenadas canónicas es
p = (5, 3, 9) ;
es decir,
p = 5e1 + ( 3)e2 + 9e3 .
Para encontrar la expresión del mismo punto en la base B2 tenemos que resolver la siguiente igualdad:
(5, 3, 9) = a(1, 1, 1) + b( 1, 1, 0) + c(0, 0, 2) :
es decir, tenemos que resolver el sistema
5= a b
3= a+b
9 = a + 2c .
Sumando las primeras dos ecuaciones se tiene 2 = 2a, de donde obtenemos que a = 1. Los valores de b y c se
obtienen ahora sustituyendo el valor de a obtenido: b = 4, c = 4.
Así, el punto p en la base definida por los vectores f1 , f2 , f3 se expresa como
p = 1f1 + ( 4)f2 + 4f3 .
Es decir, p = (1, 4, 4) en la base B2 .

Ejercicio 3.13. Localiza gráficamente los vectores f1 , f2 , f3 en R3 y encuentra el punto p en función de estos
vectores (i.e., p = 1f1 4f2 + 4f3 ). Haz lo mismo con los vectores e1 , e2 , e3 .

3.4. Diagonalización de una ecuación diferencial lineal


A estas alturas uno puede preguntarse para qué nos sirve hablar de distintas bases o distintos marcos de
referencia lineales. Pues bien, como es de esperarse, una matriz que define un campo vectorial no tiene necesaria-
mente una forma diagonal. Sin embargo, en algunos casos es posible ver una matriz que no es diagonal en la base
canónica como una matriz diagonal en una base apropiada. Así, haciendo un cambio de base, podemos entender
el comportamiento del campo vectorial en una base apropiada y después, regresando a la base original, podemos
reinterpretar dicho comportamiento. Habremos de ver que este procedimiento (en los casos en los que sea posible
hacerlo) nos permite, a su vez, encontrar soluciones explícitas de una ecuación definida por una matriz que no
está expresada en forma diagonal.
Supongamos que nos es dada una ecuación diferencial
(3.14) ẋ = Ax , x 2 R3 ,
donde A no es una matriz diagonal,
2 3
a11 a12 a13
(3.15) A = 4 a21 a22 a23 5 , aij 2 R.
a31 a32 a33
Sabemos, dado que A no es diagonal, que los vectores canónicos e1 , e2 , e3 no son necesariamente direcciones
invariantes de A. ¿Cuáles son entonces las direcciones invariantes? ¿Existen 2 R y x 2 R3 tales que
Ax = x ?
La respuesta a esta pregunta está en algunos resultados básicos de álgebra lineal. Antes de introducir dichos
resultados, supongamos que, en efecto, existen tres direcciones invariantes f1 , f2 , f3 en R3 y tres escalares reales
1 , 2 , 3 , distintos dos a dos, tales que
3.4. DIAGONALIZACIÓN DE UNA ECUACIÓN DIFERENCIAL LINEAL 41

Af1 = 1 f1 ,
(3.16) Af2 = 2 f2 ,
Af2 = 3 f3 .

A los vectores fj , j = 1, 2, 3, que marcan las direcciones invariantes por la acción de la matriz A se les
conoce como vectores propios (o eigenvectores) de A . A los escalares j , j = 1, 2, 3, se les conoce como
valores propios (o eigenvalores) de A. Los vectores fj y ej , j = 1, 2, 3, se relacionan entre sí mediante una
expresión sumamente sencilla. En efecto, consideremos la matriz que se forma transponiendo los vectores fj ; es
decir,2cada vector
3 fj = (fj1 , fj2 , fj3 ), j = 1, 2, 3, lo trasponemos (o “paramos”) para formar un vector columna1
fj1
fj = 4 fj2 5 , j = 1, 2, 3. Así, la matriz resultante es
fj3
2 3
f11 f21 f31
[f1 , f2 , f3 ] = 4 f12 f22 f32 5 .
f13 f23 f33
Denominemos a esta matriz P (la “P ” nos recuerda que estamos “parando” a los vectores); es decir,
(3.17) P = [f1 , f2 , f3 ] .
Observemos que al aplicar el vector e1 a la matriz P obtenemos el vector f1 :
2 32 3 2 3
f11 f21 f31 1 f11
Pe1 = 4 f12 f22 f32 5 4 0 5 = 4 f12 5 = f1 .
f13 f23 f33 0 f13
Análogamente, se observa que Pe2 = f2 y Pe3 = f3 . Así, P es la matriz que cambia la base formada por los
vectores {e1 , e2 , e3 } en la base formada por los vectores {f1 , f2 , f3 } (cabe resaltar que dado que los valores propios
1 , 2 , 3 son reales y distintos, se demuestra fácilmente que los vectores propios correspondientes f1 , f2 , f3 forman
una base de R3 ).

Observación 3.14. En general, en nuestro caso Rn o Cn , en todos los casos en los que se tienen valores propios
distintos dos a dos, la matriz P construida por los vectores propios de la transformación lineal correspondiente
es invertible –se deja al lector dar una demostración de ello–, es decir, existe una matriz que denotamos por P 1
tal que P P 1 = P 1 P = Id. Así, P 1 fj = P 1 Pej = ej , para j = 1, 2, . . . , n.

Veamos entonces qué sucede si consideramos la matriz A definida en (3.15) y le anteponemos la matriz P.
Al aplicar la matriz AP a los vectores ej observamos lo siguiente:
APej = Afj , j = 1, 2, 3 .
Por (3.16), Afj = j fj , de modo que APej = j fj , para j = 1, 2, 3. Es decir, si formamos la matriz con los
vectores e1 , e2 , e3 (colocados en forma de columna) y la matriz con los vectores f1 , f2 , f3 (colocados también en
forma de columna), obtenemos
AP [e1 , e2 , e3 ] = [ 1 f1 , 2 f2 , 3 f3 ] .
Si ahora deseamos regresar la expresión obtenida a una expresión dada en función de los vectores canónicos
e1 , e2 , e3 , basta observar que
P 1 fj = ej .
Así,
P 1 AP [e1 , e2 , e3 ] = P 1 [ 1 f1 , 2 f2 , 3 f3 ]
= [ 1 e1 , 2 e2 , 3 e3 ] .
La expresión [ 1 e1 , 2 e2 , 3 e3 ] no es otra cosa que la matriz
2 3
1 0 0
(3.18) 4 0 2 0 5
0 0 3

que, en adelante, denotaremos por ⇤.


Hemos obtenido entonces la relación
1
(3.19) ⇤=P AP ,
donde ⇤ es la matriz diagonal dada por (3.18) y P es la matriz (3.17) formada por los vectores propios fj de la
matriz A, j = 1, 2, 3. A la relación (3.19) se le conoce como conjugación de la matriz A por la matriz P 1 y, de
igual forma, a la relación A = P⇤P 1 se le conoce como conjugación de la matriz ⇤ por la matriz P.
1A lo largo del libro no escribiremos (salvo que sea estrictamente necesario) al vector traspuesto a f como f T , como se hace
usualmente, a fin de no engrosar la notación; el contexto en todos los casos indica claramente si el vector ha sido traspuesto o no.
42 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

La relación (3.19) nos dice que la matriz A puede ser transformada en una matriz diagonal. Nos preguntamos
ahora, ¿qué puede hacerse para que la ecuación ẋ = Ax pueda ser vista como una ecuación definida por una
matriz diagonal?
Pues bien, dada la ecuación (3.14), lo que necesitamos buscar es un cambio lineal de marco de referencia; es
decir, buscamos expresar cualquier punto x 2 R3 de una manera distinta haciendo uso de cambios lineales.
Supongamos entonces que x = x(t) satisface la ecuación diferencial (3.14) y sea Q una matriz de 3 ⇥ 3 con
coeficientes reales, invertible (Q Q 1 = Q 1 Q = Id). Consideremos la transformación lineal
(3.20) y = Qx , x 2 R3 .
Como x depende de t y Q representa una matriz con coeficientes constantes, podemos derivar y con respecto a t
coordenada a coordenada y obtenemos la expresión
(3.21) ẏ = Qẋ .
Como ẋ satisface la ecuación ẋ = Ax, entonces la igualdad (3.21) puede reescribirse como
ẏ = QAx .
Esta última expresión está en función de las variables x y y. De modo que, si queremos expresarla exclusivamente
en función de la variable y, basta con aplicar la matriz Q 1 en la relación (3.20). Así, x = Q 1 y, por tanto,
1
ẏ = QAx = QAQ y.
Como dijimos anteriormente, nuestro objetivo es encontrar una matriz Q tal que QAQ 1 sea la matriz
diagonal ⇤. De la igualdad (3.19) se sigue que, definiendo Q = (P) 1 , obtenemos el resultado deseado: ẏ = ⇤y.
El siguiente teorema resume todo lo que hemos visto hasta ahora.

Teorema 3.15. Sea


ẋ = Ax , x 2 R3 ,
la ecuación definida por la matriz A cuyos valores propios 1, 2, 3, son reales y distintos dos a dos. Entonces
a): Existe un cambio de variable lineal y = Qx tal que
ẏ = ⇤y , y 2 R3 ,
donde ⇤ es la matriz diagonal,
2 3
1 0 0
⇤=4 0 2 0 5.
0 0 3

b): Si f1 , f2 , f3 son los vectores propios de A (Afj = j fj , j = 1, 2, 3), la matriz Q está definida por Q = (P) 1
,
donde P es la matriz dada por la transposición de los vectores propios fj de A:
P = [f1 , f2 , f3 ] .

Ejemplo 3.16. Consideremos la ecuación en R3 , ẋ = Ax, donde A es la matriz


2 3
3 0 0
A=4 0 2 0 5.
1 0 1

En este caso, los valores y vectores propios pueden ser calculados fácilmente (el procedimiento para calcularlos
se expone en el punto 3.5) y son 1 = 1, 2 = 2, 3 = 3; f1 = (0, 0, 1), f2 = (0, 1, 0), f3 = (2, 0, 1),
respectivamente.
La matriz P fue definida en (3.17) como la matriz que se obtiene transponiendo los vectores propios f1 , f2 , f3 .
Por lo tanto,
2 3
0 0 2
P=4 0 1 0 5.
1 0 1
Sabemos que P 1
A P = ⇤, donde
2 3
1 0 0
⇤=4 0 2 0 5.
0 0 3
Así, si y = P 1
x, tenemos que la ecuación ẋ = Ax puede verse en las coordenadas y como
ẏ = ⇤y ;
3.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 43

es decir, 2 3 2 32 3
ẏ1 1 0 0 y1
4 ẏ2 5 = 4 0 2 0 5 4 y2 5 .
ẏ3 0 0 3 y3
Las soluciones de esta ecuación se calculan coordenada a coordenada tal como lo hicimos en la sección 3.2.
Por lo tanto,
y1 (t) = y10 e t
2t
y2 (t) = y20 e
3t
y3 (t) = y30 e
donde y10 , y20 , y30 son las condiciones iniciales. El retrato de las fases dado por las soluciones de este sistema se
comportan en las coordenadas (y1 , y2 , y3 ) como se indica en la figura 3.17.

Figura 3.17.

Nos interesa, sin embargo, comprender el comportamiento de las soluciones en las coordenadas originales
(x1 , x2 , x3 ). Para ello, recordamos que x y y están relacionadas mediante la matriz P: x = Py. Por consiguiente,
2 3 2 32 3
x1 (t) 0 0 2 y1 (t)
4 x2 (t) 5 = 4 0 1 0 5 4 y2 (t) 5 ;
x3 (t) 1 0 1 y3 (t)
es decir,
3t
x1 (t) = 2y3 (t) = 2y30 e
2t
x2 (t) = y2 (t) = y20 e
t 3t
x3 (t) = y1 (t) + y3 (t) = y10 e + y30 e .
Se deja al lector obtener el retrato de las fases.
Como pudimos constatar en el ejemplo, el saber los valores y vectores propios de la matriz que describe la
ecuación ẋ = Ax nos permite construir la matriz P que traduce las soluciones obtenidas en la base propia en
las soluciones expresadas en la base canónica. Observamos que no es necesario calcular explícitamente la inversa
P 1 . Resta entonces entender cómo podemos calcular los valores y vectores propios de una matriz.

3.5. Valores y vectores propios de una matriz


En el punto anterior vimos que si la matriz que define la ecuación lineal (3.14) tiene valores propios distintos,
entonces resulta muy sencillo construir la matriz P que traduce las soluciones de la ecuación diferencial diagonal
(expresadas en la base propia) en las soluciones la ecuación diferencial original (expresadas en la base canónica).
Nuestro objetivo ahora es, dada una matriz A, calcular los valores propios de ésta, así como sus vectores propios.
Para ello, introducimos a continuación la noción de núcleo de una matriz.
Sea A una matriz de 3 ⇥ 3 con coeficientes reales
2 3
a11 a12 a13
(3.22) A= 4 a21 a22 a23 5 , aij 2 R .
a31 a32 a33

Definición 3.17. El núcleo (o kernel) de A es el conjunto


Ker A : = f 2 R3 | Af = 0 2 R3 .
44 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

En otras palabras, el núcleo de A consta de todos aquellos vectores f de R3 que son enviados al vector cero
bajo A.
Como estamos buscando los posibles valores propios de la matriz A, nos interesa saber si existen 2 R y
f 2 R3 tales que
(3.23) Af = f .
2 3
1 0 0
Sea Id la matriz identidad en R3 , Id = 4 0 1 0 5. La multiplicación del vector f por el escalar puede
0 0 1
ser escrita entonces como f = Id(f ). La igualdad (3.23) puede ser reescrita entonces como
Af Id(f ) = 0 2 R3 .
Por linealidad, esta última igualdad se escribe como
(A Id) f = 0 2 R3 ;
es decir, buscamos el núcleo de la transformación A Id.
Como 2 3
a11 a12 a13
A Id = 4 a21 a22 a23 5
a31 a32 a33
y f = (f11 , f12 , f13 ), entonces encontrar el núcleo de A Id es lo mismo que resolver el sistema de ecuaciones
simultáneas
(a11 )f11 + a12 f12 + a13 f13 = 0
(3.24) a21 f11 + (a22 )f12 + a23 f13 = 0
a31 f11 + a32 f12 + (a33 )f13 = 0.
Claramente, f = 0 2 R satisface el sistema. La existencia de soluciones de (3.24) distintas de la trivial depende
3

del determinante de la matriz A Id. En efecto, si el determinante de dicha matriz es distinto de cero, entonces
f = 0 2 R3 es la única solución posible. Sin embargo, si el determinante de A Id se anula, podemos encontrar
soluciones no triviales de la ecuación (los vectores propios, como veremos más adelante).
Por otra parte, de la igualdad
(3.25) det(A Id) = 0
podemos encontrar los valores explícitos de :
2 3
a11 a12 a13
det(A Id) = det 4 a21 a22 a23 5 = 0.
a31 a32 a33
El cálculo directo del determinante nos muestra que satisface un polinomio de tercer grado p( ) = a 3 +
b + c + d = 0 donde a, b, c, d son constantes que dependen de los valores aij de la matriz A. Por consiguiente,
2

puede tener, a lo más, tres valores distintos 1 , 2 , 3 , correspondientes a las raíces del polinomio p( ). Estas
raíces j pueden ser reales o complejas. Nosotros nos ocupamos por el momento sólo del caso en el que todas las
raíces son reales.

Observación 3.18. 1. Al polinomio p( ) se le conoce como polinomio característico.


2. En el caso de dimensión dos, R2 , el polinomio característico es un polinomio de grado dos en que puede
ser expresado en términos de la traza y del determinante de la matriz A:
2
p( ) = (trA) + det A,

a11 a12
donde A = , la traza de A = trA = a11 + a22 , y el determinante de A es det A = a11 a22 a21 a12 .
a21 a22
3. En general, los coeficientes del polinomio característico de una matriz A definida en Rn están definidos
por las fórmulas de Vieta 2 (o Vieta-Cardano). Dichas fórmulas nos muestran que los coeficientes del polinomio
característico asociado a una matriz están determinados por las funciones simétricas de sus raíces. Se invita al
lector a convencerse de lo anterior para el polinomio característico asociado a matrices de dos por dos y de tres
por tres.

Ejemplo 3.19. Consideremos la matriz 


6 4
A1 = .
5 3

2Fórmulas que llevan el nombre del matemático francés François Viète, 1540-1603, a quien se le considera como uno de
precursores del uso del álgebra en criptografía.
3.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 45

Buscamos los valores de tales que A1 f = f para alguna f 2 R2 . Es decir, buscamos resolver la ecuación
(A1 Id) = 0 2 R2 .
Podemos encontrar soluciones no triviales de esta última ecuación si det(A1 Id) = 0:

6 4
det = 0.
5 3
El polinomio característico es, en este caso,
p( ) = (6 )( 3 ) + 20 = ( 2)( 1) = 0;
por consiguiente, 1 = 1, 2 = 2 son los valores propios de A1 .

0 2
Ejemplo 3.20. Consideremos ahora la matriz A2 = .
2 0
En este caso, 
2 2
det(A2 Id) = det = 4 = 0.
2
Las raíces del polinomio son 1 = 2, 2 = 2.

Supongamos ahora que ya han sido hallados los valores propios 1 , 2 , 3 de la matriz A y que éstos son
reales y distintos dos a dos. Nos interesa entonces hallar los vectores propios f1 , f2 , f3 asociados a 1 , 2 , 3
respectivamente. Las igualdades (A 1 Id)f1 = 0, (A 2 Id)f2 = 0 y (A 3 Id)f3 = 0 nos permiten calcular
los vectores deseados.

6 4
Ejemplo 3.21. Retomemos el caso de la matriz A1 = , cuyos valores propios son 1 =1y 2 = 2.
5 3
Para encontrar el vector propio f1 asociado a 1 consideramos la igualdad
  
6 1 4 f11 0
(3.26) (A1 1 I)f1 = = .
5 3 1 f12 0
Esta igualdad es equivalente al sistema
5f11 + 4f12 = 0
5f11 4f12 = 0.

Como puede verse, ambas ecuaciones tienen el mismo conjunto de soluciones (ya que una es llevada a la otra
mediante la multiplicación por 1). Por consiguiente, si elegimos f11 = 4, f12 = 5, habremos encontrado una
solución a (3.26). Cualquier múltiplo escalar del vector f1 = (4, 5) es también solución de (3.26). El vector
propio asociado a 2 = 2 se obtiene de forma análoga resolviendo la igualdad
  
6 2 4 f21 0
(A1 2 I)f2 = = ;
5 3 2 f22 0
es decir,
4f21 + 4f22 = 0
5f21 5f22 = 0.
Claramente, el vector f2 puede ser elegido como f2 = (1, 1).
Los vectores f1 , f2 hallados forman una nueva base para R2 . La matriz

4 1
P =
5 1
es la matriz que transforma la base canónica {e1 , e2 } en la base {f1 , f2 } y, en esta base, la transformación A1
tiene la forma 
1 0
.
0 2

Observación 3.22. Sea A una matriz de n ⇥ n con coeficientes constantes y sea Q una matriz de n ⇥ n invertible.
Por las reglas básicas de la función determinante (ver punto 3.1) se tiene que si B = QAQ 1 , entonces
1
det(B Id) = det(QAQ Id)
1 1
= det(QAQ QIdQ )
1
= det(Q(A Id)Q )
1
= det Q det(A Id) det Q
= det(A Id) .
46 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE

De aquí se sigue que al ser las matrices A y B conjugadas (B = QAQ 1


), los valores propios de A y de B
coinciden.

8 11
Ejemplo 3.23. Consideremos la ecuación ẋ = Ax, donde A = . Para resolver la ecuación encon-
6 9
tramos primeramente los valores propios de la matriz calculando las raíces del polinomio característico p( ), es
decir las raíces de la ecuación:

8 11
p( ) = det =( 8 )(9 ) + 66 = 2 6 = 0.
6 9
Así, las raíces de p( ) son 1 = 2, 2 = 3. Para calcular el vector propio f1 , correspondiente al valor propio
1 = 2, consideramos el sistema de ecuaciones (A 1 Id)f1 = 0 :
  
8+2 11 f11 0
=
6 9+2 f12 0
es decir,  
6f11 + 11f12 0
= .
6f11 + 11f12 0
En este sistema, claramente la primera y la segunda ecuación son dependientes (lo cual es de esperarse, pues 1
fue escogida para que el determinante de A 1 Id se anulase). Por consiguiente, si escogemos f11 = 11, f12 = 6,
obtenemos una solución no trivial del sistema y, en consecuencia, un vector propio, f1 = (11, 6), correspondiente
al valor propio 1 = 2.
Para calcular el vector propio f2 , correspondiente al valor propio 2 = 3, consideramos el sistema de ecuaciones
(A 2 Id)f2 = 0 :
  
8 3 11 f21 0
= .
6 9 3 f22 0
Así, basta encontrar una solución para la ecuación 11f21 + 11f22 = 0. Haciendo f21 = f22 = 1, obtenemos el
vector propio f2 = (1, 1) correspondiente al valor propio 2 = 3. 
11 1
Una vez calculados los vectores propios, la matriz P está dada por P = . Por lo visto anteriormente,
6 1
sabemos que el cambio de coordenadas y = P x transforma la ecuación diferencial original en la ecuación
1

diferencial diagonal:   
ẏ1 2 0 y1
= .
ẏ2 0 3 y2
Las soluciones de la ecuación diferencial diagonal son (y1 (t), y2 (t)) = (c1 e 2t , c2 e3t ) y, por consiguiente, el
comportamiento de las soluciones en estas coordenadas queda descrito por la figura 3.18

Figura 3.18.

Como nos interesan las soluciones de la ecuación diferencial original, hacemos uso del cambio de coordenadas
x = Py. Así,
(x1 (t), x2 (t)) = c1 e 2t f1 + c2 e3t f2 = (c1 11e 2t + c2 e3t , c1 6e 2t + c2 e3t ).
Para entender el comportamiento de las soluciones en estas coordenadas, basta observar que, puesto que f1 es
el vector propio correspondiente al valor propio 2, la dinámica de contracción se da en esta dirección; mientras
que la dinámica de expansión se observa a lo largo de la recta generada por el vector f2 (que corresponde al valor
propio 2 = 3). El comportamiento de las soluciones se ilustra en la figura 3.19.

Los siguientes ejercicios buscan dar al lector una cantidad suficiente de ejemplos para ensayar las técnicas
aprendidas.

Ejercicio 3.24. Considera la ecuación diferencial


(3.27) ẋ = Ax ,
3.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 47

Figura 3.19.

 
1 0 0
donde A =  1 −2 0 .
1 4 −1
a) Calcula los valores propios de A.
b) Calcula los vectores propios f1 , f2 , f3 de A.
c) Encuentra la matriz P que transforma la base canónica en la base propia.
d) Escribe la ecuación en forma diagonal (es decir, en las coordenadas de la base propia) y calcula sus
soluciones.
e) Haz el retrato de las fases correspondiente a las soluciones obtenidas en el inciso anterior.
f) Encuentra las soluciones de (3.27) y haz el retrato de las fases correspondiente.

Ejercicio 3.25. Resuelve los problemas a)-f) planteados en el ejercicio anterior para cada una de las matrices
que se indican a� continuación:
� � �
4 2 1 1
1. A = 2. A =
3 3 4 1
� � � �
−10 −18 6 −3
3. A = 4. A =
6 11 2 1
� � � �
−12 −7 1 −3
5. A = 6. A =
14 9 −2 2
� � � �
16 −36 −3 1
7. A = 8. A =
6 −14 2 −2
 
1 −1 4
9. A =  3 2 −1 
2 1 −1

Ejercicio 3.26. Construye una ecuación diferencial dada por una matriz A de coeficientes constantes, no diagonal,
de 2 × 2, que tenga valores propios λ1 = −5 y λ2 = −3, y tal que la matriz P que transforma a la matriz A en
una matriz diagonal Λ tenga entradas en Z.

Lo que hemos visto hasta ahora puede ser resumido en el siguiente enunciado. Enunciamos el resultado en
Rn , si bien para nuestros propósitos n es 2 ó 3.
CAPÍTULO 4

Lo complejo: la expresión más sencilla de un comportamiento


barroco

La voie la plus courte et la meilleure entre deux vérités du monde réel passe souvent par le
domaine de l’imaginaire.
Jacques Hadamard
Essai sur la psychologie de l’invention
dans le domaine mathématique [Ha]
En esta sección veremos reiteradamente cómo los números complejos tienen el encanto de dar una repre-
sentación simple y profundamente estética a aquello que, a primera vista, se nos presenta como algo intrincado.
Saquemos entonces de nuestra mente el prejucio que nos hace pensar que los números complejos son complicados
y estemos listos a abrirnos a la geometría que su estructura ofrece.
Primeramente daremos una muy breve introducción histórica sobre el origen de los números complejos y
hablaremos un poco sobre sus propiedades básicas. Más adelante, concentraremos nuestra atención en aquellos
campos vectoriales lineales que tienen la propiedad de que las raíces del polinomio característico asociado a la
matriz que define a cada uno de ellos, son complejas. En el plano real, las soluciones de las ecuaciones definidas
por campos vectoriales de este tipo tienen (en coordenadas adecuadas) forma de elipses, círculos concéntricos
o de espirales (ver Introducción, ejemplos 1.16 y 1.17). Este movimiento en espiral, de por sí caprichoso, tiene
una expresión matemática que reúne a la función exponencial, a la variable compleja y al tiempo real en una
asombrosa fórmula que es profundamente estética por su significado y sencillez.

4.1. Los números complejos: su interpretación geométrica.


Empecemos dando breve contexto histórico. Es conveniente ubicar en el siglo IX uno de los momentos
más importantes en el futuro desarrollo del pensamiento filosófico y científico. Al mismo tiempo que Europa se
encontraba hundida en los años más oscuros de la Edad Media, en Bagdad, al abrigo del califato abasí, se vivía un
florecimiento del pensamiento, la cultura y el comercio. Los abasíes eran herederos de las tradiciones árabe-islámica
y persa. En 820, el matemático, astrónomo y geógrafo Mohammed Ibn Musa abu Djafar al-Juarizmi, nacido en 780
en la ciudad persa de Juarizmi (actual Jiva, en Uzbekistán), fue llamado a Bagdad por el califa abasida al-Mamún
(Abū al-�Abbās �Abd Allāh ibn Hārūn ar-Rashı̄d) para incorporarse en la Casa de la Sabiduría, que era una
institución creada para el enriquecimiento del saber. Bajo su cobijo, fueron traducidas al árabe obras científicas y
filosóficas griegas e hindúes, y se realizaban, asimismo, observaciones astronómicas. En este rico ambiente científico
y multicultural se educó y trabajó al-Juarizmi. Todo este florecimiento traería importantes consecuencias en el
desarrollo de la ciencia en Europa, principalmente a través del también deslumbrante califato de Córdoba en
España y de las traducciones al latín de las obras tanto de al-Juarizmi como de otros destacados filósofos y
matemáticos radicados en ciudades controladas por los califatos de Córdoba (al-Andalús) y Bagdad. El tratado
de álgebra, Kitab al-jabr wa’l-muqabala, de al-Juarizmi es una introducción al cálculo de ecuaciones cuadráticas,
usando reglas para completar y reducir ecuaciones. Además de sistematizar la resolución de ecuaciones cuadráticas,
también trata geometría y cálculos relativos al comercio. Los términos al-jabr y al-muqabala se utilizan para
denominar lo que nosotros llamamos transposición de términos y simplificación de términos semejantes. En otra
de sus obras, se describen con detalle los números indoarábigos, el sistema indio de numeración posicional en
base 10 y métodos para hacer cálculos con él. Este sistema pasó a la región de al-Andalús y de ahí se dispersó
gradualmente hacia el resto de Europa. En sus trabajos, al-Juarismi notó el problema presente en la extracción
de raíz cuadrada de números negativos e hizo un intento de dar una solución geométrica al problema. Siguiendo
las ideas de al-Juarismi, el matemático, astrónomo, médico y poeta persa, Omar al-Jayam (Ghiyath al-Din Abu
l-Fath Omar ibn Ibrahim Jayam Nishapurí ), nacido y fallecido en Nishapur, Irán, 1048-1131 respectivamente,
desarrolla un método de solución de las ecuaciones cuadráticas y cúbicas a partir de las secciones cónicas. Este
procedimiento lo desarrolla en el trabajo Tratado sobre demostraciones de álgebra y comparación y le permite
clasificar las ecuaciones cúbicas y encontrar, en éstas, una raíz positiva y demostrar, intersecando cónicas, la
existencia de al menos una segunda raíz. Afirmó que las raíces de una ecuación cúbica no pueden encontrarse en
este caso mediante regla y compás, lo cual sólo pudo ser demostrado muchos siglos después. 1
1Omar al-Jayam es el primero en hacer el desarrollo de un binomio con potencia natural. Introdujo la noción actual de variable
x que llamó shay que podría ser traducido como algo, además de otros conceptos cuya relevancia no fue entendida sino mucho
después. Su compendio de poesía Rubaiyat sigue siendo estudiado y admirado en nuestra época.

51
52 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Cuatro siglos tuvieron que pasar, para que un nuevo rastro de la presencia de números imaginarios se hiciera
presente (no hay que olvidar que diversos sucesos lamentables en distintas regiones de Europa y Asia provocaron
la quema de tratados muy valiosos en los que se perdió, para siempre, un cúmulo de reflexiones y pensamientos).
Es así, que una de las primeras menciones sobre los números imaginarios como raíces cuadradas de números
negativos se vuelven a encontrar en el Ars Magna (1545) de Gerolamo Cardano (1501-1576), quien escribe:
Olvidad las torturas mentales que esto os producirá e introducid estas cantidades (las raíces
negativas) en la ecuación.
Sin embargo, es el matemático italiano Rafael Bombelli (1526-1572) quien usa las raíces negativas estableciendo
operaciones con ellas para la solución de ecuaciones de tercer grado. Posteriormente, el matemático francés Albert
Girard (1595-1632) en su Invention nouvelle en algèbre razona sobre la necesidad de admitir las raíces negativas
en ecuaciones de grado cuatro y se le considera por algunos autores como un precursor del teorema fundamental
del álgebra. El matemático francés René Descartes (1596-1650) les da a las raíces cuadradas de números negativos
el apelativo de imaginarias y él particularmente no les da un uso especial.
Sin embargo, hasta mediados del siglo XVIII los números imaginarios aparecen sólo de manera accidental en
los trabajos de científicos tales como Nicolaus Bernoulli (1695-1726), Gottfried Leibniz (1646-1716), Issac Newton
(1642-1727) y Alexis Clairaut (1713-1765).
El matemático suizo, Leonard Euler (1707-1783) considera a los números complejos como "números imposi-
bles" pero útiles. En su Vollständige Anleitung zur Algebra 46 (1770), (traducción al francés en [E]) señala:
Ahora, dado que todos los números que es posible imaginar son mayores o menores que 0,
o son incluso 0, está claro que ni siquiera se puede contar la raíz cuadrada de un número
negativo entre los números posibles, por lo que hay que decir que es una cantidad imposible.
Así es como llegamos a la idea de números que por su naturaleza son imposibles. Se les
denomina usualmente a esos números cantidades imaginarias, porque ellas existen solamente
en la imaginación. ([E] nota 143, p.104 )
Finalmente, nos queda despejar la duda que se pueda tener sobre la utilidad de los números que
acabamos de hablar; pues, de hecho, al ser estos números imposibles, no sería sorprendente
que se pensara que son completamente inútiles y que sólo son objeto de una vana especulación.
Sin embargo, uno estaría equivocado, el cálculo de los imaginarios es de la mayor importancia;
a menudo surgen preguntas de las que no es posible decir de una vez si contienen algo real
y posible o no. Pero cuando la solución de tal pregunta nos lleva a números imaginarios,
estamos seguros de que lo que estamos preguntando es imposible. ([E] nota 151, p.109)
Con este criterio de utilidad de uso de los números complejos, Euler es considerado como uno de los principales
impulsores de la teoría de la variable
√ compleja. En Introductio in analysin infinitorum (1748), Euler introduce el
símbolo “i” de imaginario: i = −1 ó i2 = −1 y deduce la fórmula

eiπ = cos(θ) + i sin(θ) , i2 = −1 .


A partir de ahí, los números complejos se definen como z = a + ib, donde a, b son números reales. Al número a se
le conoce como la parte real de z y al número b la parte imaginaria de z. Al conjunto de los números complejos
se le denota por C. Los números complejos, al igual que los números reales, forman lo que en álgebra se conoce
como un campo o cuerpo.
En 1797 el danés Caspar Wessel (1745-1818) da una interpretación geométrica de los números complejos.
Esta interpretación identifica al número complejo z = a + ib (compuesto por dos números reales a y b) con la
pareja del plano real z = (a, b). El punto z = a + ib se representa, por lo tanto, como un vector en el plano (aquí
entra la noción de dirección, magnitud y sentido (ver figura 4.1)).

Figura 4.1.

Con esta representación, las parejas de la forma (a, 0) denotan a los números reales y las parejas de la
forma (0, b) denotan a los números imaginarios (puros). En particular, hacemos notar que al 1 ∈ C lo estamos
4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 53

identificando con el vector canónico (1, 0) de R2 , y a i ∈ C lo identificamos con el segundo vector canónico (0, 1)
de R2 . Por otra parte, si z = a + ib denotamos por Rez, Im z a las partes real e imaginaria de z respectivamente:

Re(z) = a, Im(z) = b .

Así mismo, denotamos por |z| a la magnitud de z:



|z| = a2 + b2

Definición 4.1. El conjunto de números complejos, denotado por C, es el conjunto R 2 junto con las reglas usuales
de adición vectorial y multiplicación escalar por números reales:
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
α(x, y) = (αx, αy), α ∈ R,

y la operación de multiplicación compleja definida por

(x1 , y1 )(x2 , y2 ) : = (x1 x2 − y1 y2 , x1 y2 + y1 x2 ) .

La operación de multiplicación de dos números complejos z1 = x1 + iy1 , z2 = x2 + iy2 dada en la definición


se escribe usualmente como

z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 − y1 y2 + i(x1 y2 + y1 x2 ).

Ejercicio 4.2. ¿Es o no, la operación de multiplicación compleja, conmutativa, asociativa y distributiva?

Para comprender el sentido de la multiplicación compleja vamos a introducir un poco de trigonometría básica.
El punto z = (a, b) o z = a + ib se representa en el plano como un vector que parte del origen, o, y termina en el
punto (a, b). Los segmentos [oz], [oa] y [az] forman un triángulo rectángulo.√ Denotemos por θ al ángulo opuesto
al segmento [az], y denotemos por ρ a la magnitud del segmento [oz], ρ = a2 + b2 . Así, a = ρ cos θ, b = ρ sen θ
(ver figura 4.2).

Figura 4.2.

De esta forma, el número complejo z puede ser representado haciendo uso de las funciones trigonométricas
seno y coseno como
z = a + ib = ρ(cos θ + i sen θ) .
La interpretación geométrica de la multiplicación de dos números complejos

z1 = ρ1 (cos θ1 + i sen θ1 ), z2 = ρ2 (cos θ2 + i sen θ2 )

es ahora muy sencilla, ya que de la igualdad


z1 z2 = ρ1 ρ2 [(cos θ1 cos θ2 − sen θ1 sen θ2 ) + i(cos θ1 sen θ2 + cos θ2 sen θ1 )]
= ρ1 ρ2 (cos(θ1 + θ2 ) + i sen(θ1 + θ2 )) ,

se sigue que el resultado de la multiplicación z1 z2 es un número complejo cuya magnitud es igual al producto de
las magnitudes de z1 y z2 , y cuyo argumento es igual a la suma de los argumentos de dichos números (ver figura
4.3). En otras palabras, el resultado de multiplicar al complejo z 1 por el complejo z2 puede ser interpretado como
la aplicación de una rotación por un ángulo θ2 al complejo z1 , seguida de aplicar una homotecia (contracción o
expansión por un factor ρ2 ).
54 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.3.

4.1.1. R-linealidad y C-linealidad. Cabe hacer notar que la multiplicación compleja sólo agrega una
propiedad nueva a R2 . Así, los conceptos usuales de límite y continuidad en R2 se mantienen sin ningún cambio al
interpretar a R2 como C. Sin embargo, la estructura que la multiplicación induce en R 2 se refleja en su totalidad
en el proceso de diferenciación. La clave para comprender esta nueva estructura está en hacer una diferencia clara
entre lo que significa el que una transformación de C en C sea R-lineal o C-lineal.
Por esta razón, y por todo lo que haremos en este capítulo, es importante detenernos a analizar los conceptos
de R-linealidad y C-linealidad.

Definición 4.3. Decimos que una función ψ : C → C es R-lineal si para para toda z, w ∈ C se satisface
a) ψ(z + w) = ψ(z) + ψ(w)
b) ψ(λz) = λψ(z), para todo λ ∈ R.
Si además se satisface
c) ψ(λz) = λψ(z), para todo λ ∈ C,
entonces decimos que ψ es C − lineal.

Observamos que el conjunto de las funciones C − lineales es un subconjunto de las funciones R − lineales.
Vamos a dar una expresión, en términos de z y z̄, para las funciones R − lineales. Para ello, consideremos
una función ψ : C → C, tal que ψ es R − lineal. Entonces, si escribimos z = x + iy, se tiene
ψ(z) = ψ(x + iy) = ψ(x) + ψ(iy) ,
y como ψ es R − lineal,
(4.1) ψ(z) = xψ(1) + yψ(i) .
Denotemos α := ψ(1), β := ψ(i), y escribamos a x y a y en términos de z y de z̄,
z + z̄ z − z̄
(4.2) x= , y= .
2 2i
Con esta notación se tiene el siguiente teorema.

Teorema 4.4. Toda función R − lineal ψ : C → C se escribe como


(4.3) ψ(z) = az + bz̄ ,
donde a = 1
2
(α − iβ), y b = 1
2
(α + iβ).

Demostración. Por (4.1) sabemos que ψ(z) = xψ(1) + yψ(i). Sustituyendo ahora las expresiones de x y y
obtenidas en (4.2) se tiene que
z + z̄ z − z̄
ψ(z) = α+ β.
2 2i
Reagrupando se tiene que
� � � �
α β α β
ψ(z) = + z+ − z̄
2 2i 2 2i
� � � �
α − iβ α + iβ
= z+ z̄
2 2
= az + bz̄.

4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 55

Haciendo uso del teorema anterior, y de las expresiones obtenidas para ψ y a en él, es ahora simple observar
que ψ es una transformación C-lineal si y sólo si
ψ(i · 1) = iψ(1) = iα;
en cuyo caso,
(4.4) ψ(z) = xψ(1) + iyψ(1) = ψ(1)(x + iy) = αz.
En otras palabras, si ψ es C-lineal entonces en la expresión (4.3) se tiene necesariamente que b = 0 y a = α.
Retomemos lo que hemos hecho hasta ahora desde el punto de vista de R2 . A saber, si ψ es una transformación
R-lineal, ψ : C → C, entonces podemos escribirla, por el teorema anterior, como
ψ(z) = az + bz̄.
Si recordamos que a 1 ∈ C lo identificamos con el vector canónico (1, 0) de R 2 , y a i ∈ C lo identificamos con
el segundo vector canónico (0, 1) de R2 , entonces la transformación lineal ψ aplicada en el complejo 1 podemos
leerla como la transformación R-lineal ψ aplicada al vector (1, 0) definida por,
� � � �� � � �
1 a11 a12 1 a11
�→ = .
0 a21 a22 0 a21
Asimismo, la transformación R-lineal ψ en el complejo i podemos leerla como la transformación R-lineal ψ sobre
el vector (0, 1) definida como,
� � � �� � � �
0 a11 a12 0 a12
�→ = .
1 a21 a22 1 a22
Si ahora pedimos que ψ sea no sólo R-lineal sino también C-lineal, entonces ψ(z) = az y deberá satisfacerse que

ψ(i · 1) = iψ(1) = iα;


es decir,
ψ((0, 1)) = iψ((1, 0))
Escribiendo esta última expresión en términos de vectores en R2 , se tiene
� � � � � �
a12 a11 −a21
ψ(0, 1) = =i = ;
a22 a21 a11
es decir,
� � � �
a12 −a21
= .
a22 a11
Así, la matriz A que define a la transformación C-lineal ψ es de la forma
� �
a11 −a21
A= .
a21 a11
En resumen, la multiplicación por un número complejo µ ∈ C es una transformación C-lineal de C en sí
mismo que puede verse también como una transformación R-lineal (que tiene una expresión particular) del plano
R2 en sí mismo (una rotación y una homotecia).
Para dar un sentido preciso a la afirmación anterior observemos, como antes, que la multiplicación de z = x+iy
por el número complejo µ = α + iβ puede verse como una transformación del plano R 2 en sí mismo si escribimos
la transformación z �→ µz como � � � �� �
x α −β x
�→ .
y β α y
En efecto, de la igualdad � �� � � �
α −β x αx − βy
= ,
β α y βx + αy
y de la identificación del punto
� (αx −�βy, βx + αy) con � el� punto αx − βy + i(βx + αy) = µz, se tiene que la
α −β x
multiplicación de la matriz por el vector corresponde a la multplicación de µ por z.
β α y
Para finalizar, recordemos que el número complejo µ = α + iβ puede ser escrito como µ = ρ(cos θ + i sen θ)
donde ρ = |µ| y θ = arg z. Por lo tanto, la matriz correspondiente a µ puede ser escrita como
� �
ρ cos θ −ρ sen θ
(4.5) .
ρ sen θ ρ cos θ
Así, dado que se satisface la igualdad
� � � �� �
ρ cos θ −ρ sen θ ρ 0 cos θ − sen θ
= ,
ρ sen θ ρ cos θ 0 ρ sen θ cos θ
56 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

se tiene que la matriz (4.5) puede ser vista como la rotación por el ángulo θ (representada por la matriz de coseno
y seno) seguida del cambio de magnitud (representado por la multiplicación por ρ).

Ejercicio 4.5.
� �
0 −1
(1) Considera la matriz M = .
1 0
(a) ¿A qué número complejo corresponde?
(b) Analiza el comportamiento geométrico de la transformación z �→ M z, donde z = (x, y).

4.2. La función exponencial: una pequeña joya.


“...No dejen de admirar, cuando salgan, la fórmula escrita, encima de una puerta. Es de
Leonard Euler. Es, sin duda, la más hermosa de todas las matemáticas.” Todos levantaron la
cabeza al salir y leyeron:
eiπ = −1
Dennis Guedj
El teorema del loro [G]
La función exponencial real, denotada por ex o por exp(x), suele ser definida como aquella función f que
satisface que, para todo x ∈ R, su derivada es ella misma: f (x) = f � (x). También suele definirse como la serie
convergente2

x2 x3 x4
ex = 1 + x +
+ + + ... .
2! 3! 4!
Cuando x es un número imaginario, x = ib, b ∈ R, definimos e como
ib

eib := cos b + i sen b .


Además, si x = a + ib,
ea+ib := ea eib = ea (cos b + i sen b) .
Esta definición no es casual. Si en la serie que define a la función exponencial sustituimos el valor de x = ib,
entonces se tiene
(ib)2 (ib)3
(4.6) eib = 1 + (ib) + + + ...
2! 3!
Se demuestra (ver por ejemplo [M], o la sección 4.7 de este libro) que esta serie está bien definida y es
convergente en los complejos, de modo que el número eib está bien definido para toda b ∈ R. Si ahora separamos
en la serie (4.6) la parte real de la parte imaginaria, obtenemos
� � � �
b2 b4 b6 b3 b5
(4.7) eib = 1 − + − + ... + i b − + − ...
2! 4! 6! 3! 6!
En la parte real de la serie (4.7) reconocemos a la serie que define a la función cos b, y, en la parte imaginaria,
a la función sen b (ver [Ar], [B], [M]). De tal suerte, que la definición de eib como cos b+i sen b queda perfectamente
justificada. La definición de ea+ib = ea eib nos permite hacer uso de la exponencial compleja con las mismas leyes
que rigen a la exponencial real.

Ejercicio 4.6. Calcula e interpreta geométricamente ea+ib en los siguientes casos


a): a = 0 y b = π/2
b): a = 0 y b = π
c): a = 0 y b = 3π/4
d): a = 0 y b = 2π
e): a < 0 y b = π/4.

Por último, si queremos dar una interpretación geométrica a la transformación


z �→ ea+ib · z, z = x + iy ∈ C ,
basta recordar que la multiplicación por e y por e tienen una representación matricial:
a ib
� � � a �� �� �
x e 0 cos b − sen b x
�→ .
y 0 ea sen b cos b y
Así, ea+ib z significa rotar z un ángulo b y multiplicar su magnitud por e a .
Esta sencilla interpretación geométrica habrá de sernos de gran utilidad en el siguiente punto.

2Una serie convergente representa al límite cuando n tiende a infinito de la sucesión formada por las sumas parciales de sus
n primeros términos.
4.3. UN CONCIERTO DE CÍRCULOS Y ESPIRALES. 57

4.3. Un concierto de círculos y espirales.


En esta sección veremos cómo el darle al plano real una estructura compleja (es decir, identificar a plano real
R2 con C) nos permite resolver cierto tipo de ecuaciones diferenciales lineales.
Consideremos la ecuación diferencial
ẋ = ax − by
ẏ = bx + ay , a, b ∈ R, (x, y) ∈ R2 .
Este sistema tiene notación matricial
� � � �� �
ẋ a −b x
(4.8) = .
ẏ b a y
� �
a −b
Si reemplazamos la matriz por el número complejo µ = a + ib, y reemplazamos el vector (x, y) por el
b a
número complejo z = x + iy, entonces la ecuación (4.8) se expresa como
(4.9) ż = µz , z ∈ C.
La ecuación (4.9) nos trae a la mente la ecuación lineal de primer orden homogénea que analizamos en la sección
2.2. La función exponencial z(t, k) = keµt , t ∈ R y k ∈ C, z(0, k) = k, es, en este caso, una solución de la
ecuación, con condición inicial k = k1 + ik2 . Si observamos la igualdad
eµt = e(a+ib)t = eat eibt ,
podemos ver claramente que el factor eat es el responsable de modificar (al variar t) el radio de la solución; mientras
que el factor eibt = cos bt + i sen bt, es un círculo que, cuando t crece, se recorre positivamente o negativamente
según sea el signo de la constante de b.
Así, si a = 0, la solución general toma la forma z(t, k) = keibt . Escribiendo k = k1 + ik2 y z(t) = x(t) + iy(t)
se tiene
x(t) + iy(t) = (k1 + ik2 )(cos bt + i sen bt);
Separando parte real e imaginaria
x(t) = k1 cos bt − k2 sen bt
y(t) = k1 sen bt + k2 cos bt .
En la forma matricial z(t, k) = ke se escribe como
ibt
� � � �� �
x(t) cos bt − sen bt k1
(4.10) = .
y(t) sen bt cos bt k2
A la matriz de (4.10) se conoce como matriz de rotación. El vector (k 1 , k2 ) representa la condición inicial en
el plano. Las soluciones son círculos concéntricos (ver figura 4.4 donde b > 0).

Figura 4.4.

En el caso en que a �= 0, los círculos eibt se ven afectados por el factor eat . Si a < 0 la distancia al origen se
va reduciendo mientras que el efecto de eibt hace girar las soluciones. El resultado de estos dos comportamientos
son espirales que convergen al origen (ver figura 4.5, donde a < 0, b > 0).
Las soluciones en este caso se escriben como
x(t) + iy(t) = (k1 + ik2 )eat (cos bt + i sen bt)
= eat (k1 cos bt − k2 sen bt) + ieat (k2 cos bt + k1 sen bt)
58 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.5.

En forma matricial escribimos


� � � at �� �� �
x(t) e 0 cos bt − sen bt k1
(4.11) = .
y(t) 0 e at
sen bt cos bt k2

La primera matriz representa la contracción (o expansión si a > 0) y la segunda matriz es la matriz de


rotación (en el sentido positivo si b > 0 y en el sentido negativo si b < 0).
La expresión keµt , k, µ ∈ C, t ∈ R, es, sin duda, una clara muestra de cómo un movimiento tan caprichoso
como lo es el de la espiral, es posible expresarlo (con ayuda de la notación compleja) mediante una expresión
fascinante por su sencillez.

Ejercicio 4.7. Haciendo uso de coordenadas polares demuestra que la ecuación ż = µz tiene, en efecto, la
solución dada por z(t) = keµt , t ∈ R y k ∈ C.

Ejercicio 4.8. Considera la ecuación (4.8). Resuélvela y representa gráficamente el comportamiento de las
soluciones en los casos
a): a > 0, b > 0
b): a > 0, b < 0
c): a < 0, b < 0.

Pasemos ahora al caso en tres dimensiones. Consideremos la ecuación en R3 dada por


ẋ1 = ax1 − bx2
(4.12) ẋ2 = bx1 + ax2
ẋ3 = λx3 ,

donde a, b, λ ∈ R y (x1 , x2 , x3 ) ∈ R3 . Escribiendo en forma matricial se tiene


    
ẋ1 a −b 0 x1
 ẋ2  =  b a 0   x2  .
ẋ3 0 0 λ x3
� �
ẋ1
Como la variable x3 está separada de x1 , x2 , entonces podemos resolver de manera independiente =
ẋ2
� �� �
a −b x1
y ẋ3 = λx3 .
b a x2
La solución la escribimos entonces como
   at  
x1 (t) e cos bt −eat sen bt 0 x01
(4.13)  x2 (t)  =  e sen bt
at at
e cos bt 0  x02  ,
x3 (t) 0 0 eλt x03

donde x0 = (x01 , x02 , x03 ) representa las condiciones iniciales.


Para graficar las soluciones supongamos primero que a > 0, b > 0, λ > 0. En este caso, la expresión representa
un movimiento parecido al de un tornado (ver figura 4.6).
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 59

Figura 4.6.

En el caso a > 0, b > 0, λ < 0, se tiene un movimiento como en la figura 4.7.

Figura 4.7.

En el caso a < 0, b > 0, λ < 0, la dinámica nos recuerda a lo que sucede con el agua del lavabo al salir por
la coladera (ver figura 4.8).

Ejercicio 4.9. Considera la ecuación (4.12) y encuentra el comportamiento de las soluciones en los casos
a): a < 0, b < 0, λ < 0,
b): a < 0, b < 0, λ > 0,
c): a > 0, b < 0, λ > 0,
d): a > 0, b < 0, λ < 0,
e): a = 0, b < 0, λ < 0.

4.4. Complejificación de Rn . Valores propios de AC


En este capítulo estudiaremos el caso general en el que la matriz A que define la ecuación diferencial ẋ = Ax,
A = [aij ], aij ∈ R tiene polinomio característico p(λ) = det(A − λId) con raíces complejas (no reales).
Lo primero que observamos es que bajo estas condiciones la matriz A no puede tener valores propios. En
efecto, si existiese λ ∈ C � R y f ∈ R2 tal que Af = λf se tendría una expresión falsa pues el lado izquierdo de
la igualdad es un vector en R2 mientras que en el lado derecho es un vector en C2 . Geométricamente también
es posible entender la observación, pues al buscar que Af = λf , buscamos direcciones invariantes bajo A, pero
multiplicar un vector en el plano real por un número complejo (no real) no deja direcciones invariantes en R 2
(recordemos que multiplicar por un número complejo no real siempre lleva intrínseca una rotación).
Lo anterior nos lleva a concluir que en este caso el plano real, R2 , no es ya el espacio apropiado para resolver
el problema de encontrar los valores propios de A; el lugar apropiado para hacerlo es el plano complejo, C 2 . Por
60 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.8.

consiguiente, consideraremos lo que se conoce como complejificación de la ecuación. En C 2 daremos una respuesta
a la ecuación complejificada y después veremos cómo, de lo hecho en los complejos, logramos dar una respuesta
para el problema original.
Así, en lugar de considerar
A : R2 −→ R2 ,
consideramos
AC : C2 −→ C2 ,
� �
a11 a12
donde AC = , aij ∈ R.
a21 a22

Observación 4.10. Como matrices AC y A son iguales, lo que cambia es el dominio de definición de A. Éste lo
extendemos de R2 a C2 y, para recordarlo, lo denotamos por AC .
AC |R2 = A : R2 −→ R2 ,
A este proceso se le llama complejificación de la matriz A.

Así, dada la ecuación


(4.14) ẋ = Ax,
consideramos la ecuación complejificada
(4.15) ẋC = AC xC , xC ∈ C2 .
Para esta ecuación consideramos sus valores propios y definimos una matriz P C formada por vectores propios de
AC . Cabe observar que si AC tiene valor propio λ ∈ C y f ∈ C2 es un vector propio asociado a λ entonces
AC f = λf.
Conjugando esta igualdad se tiene
AC f = λf ;
es decir,
AC f = λf ,
pues AC = AC por ser una matriz de coeficientes reales. Esto nos dice que f es vector propio de AC correspondiente
al valor propio λ.
Observamos que, como λ �= λ, entonces f y f son linealmente independientes sobre C. Esto se debe a que si
suponemos que f = cf , c ∈ C, entonces AC f = λf y AC f = AC (c · f ) = c · λf = λf . Así, λf = λf y, por lo
tanto, λ = λ. Lo que nos lleva a una contradicción pues supusimos que λ es un complejo no real, y por lo tanto
λ �= λ̄. � �
Formemos entonces la matriz PC : = f f con f = u + iv, u = (u1 , u2 ) y v = (v1 , v2 ), con u y v
vectores en R2 . Sabemos que, al igual que sucedía en el caso de raíces reales distintas, la conjugación de la matriz
AC por la matriz PC nos da como resultado una matriz diagonal ΛC que actúa de C2 en sí mismo, y que tiene en
la diagonal a los valores = λ y λ,
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 61

� �
λ 0
P−1
C A C P C = ΛC = .
0 λ
Así, si consideramos el cambio de coordenadas yC := P−1
C xC se tiene, como vimos antes, que
� �
λ 0
(4.16) ẏC = ΛC yC , donde ΛC = .
0 λ

Observación 4.11. Esta ecuación no es el resultado de la complejificación de una ecuación en R 2 pues sus
coeficientes no son reales.

Las soluciones de la ecuación (4.16) son:


� � � λt �
y 1C e c1
= con c1 , c2 ∈ C.
y 2C eλt c2
Por consiguiente, las soluciones de la ec. (4.15) están dadas por x C = PC yC , es decir,
� � � �
x 1C � � eλt c1
(4.17) = f f = c1 eλt f + c2 eλt f .
x 2C eλt c2

Observación 4.12. La expresión (4.17) representa a todas las soluciones de la ecuación ẋ C = AC xC y éstas
son únicas una vez dada la condición inicial. Para probar la unicidad, tenemos que demostrar primero que las
soluciones de la ecuación (4.16) son únicas una vez fija la condición inicial. Este hecho se puede demostrar
fácilmente coordenada a coordenada pues las variables en esta ecuación están desacopladas. Así, para probar
que la ecuación ẏjC = λj yjC tiene como única solución a yjC (t) = cj eλj t (que satisface yjC (0) = cj ) suponemos
que existe otra y la denotamos por ϕj (t), ϕj (0) = cj . Como eλj t �= 0 para todo t ∈ R, podemos escribir
ϕj (t) = gj (t)eλj t para alguna función diferenciable gj . Por ser ϕj solución ẏjC = λj yjC se tiene que
ϕ̇jC = λj ϕjC ;
es decir,
ġj eλj t + gj λj eλj t = λj gj eλj t .
Así, ġj = 0 y, por consiguiente gj (t) = kj , kj constante. Por lo tanto, ϕj (t) = kj eλj t . Como ϕj (0) = cj , entonces
kj = cj . Esto nos da, coordenada a coordenada, la unicidad de y C (t). Para obtener la unicidad de las soluciones
xC (t) = PC yC (t) de la ecuación ẋC = AC xC , basta ahora con observar que la invertibilidad de la matriz P C implica
inmediatamente el resultado.

Si ahora nos preguntamos por aquellas soluciones de la ecuación (4.15) que están contenidas en R 2 para todo
tiempo t ∈ R, bastará con buscar aquellas soluciones xC que satisfacen la condición
xC (t) = xC (t) para todo t ∈ R.
Así,
xC (t) = c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f = xC (t) ;
es decir,
c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f .
Igualando a cero:
(c1 − c2 )eλt f + (c2 − c1 )eλt f = 0.
Observamos que haciendo t = 0 obtenemos
(c1 − c2 )f + (c2 − c1 )f = 0.
Como los vectores f y f son linealmente independientes se sigue que
(c1 − c2 ) = 0 = (c2 − c1 );
Es decir c2 = c1 . Sustituyendo este valor de c2 en (4.17) se tiene que
xC (t) = c1 eλt f + c1 eλt f .
Por lo tanto,
(4.18) xC (t) = 2Re(c1 eλt f ).
Como xC (t) = 2Re(c1 e f ) ∈ R para todo t, y xC satisface la ecuación ẋC = AC xC , entonces todas las soluciones
λt 2

x(t) = xC (t) definidas como en (4.18) son soluciones para el problema inicial ẋ = Ax. Cabe ahora preguntarse
si éstas son todas. Para responder a esta pregunta observemos que hemos resuelto la ecuación x˙C = AC xC y
expresado de manera explícita en (4.17) sus soluciones; asimismo, hemos caracterizado a aquellas que pertenecen
62 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

a R2 para todo tiempo t (ver (4.18)). Cabe preguntarse ahora, si es posible o no que una solución que tiene
condición inicial en C2 \ R2 interseque al plano R2 en algún momento para algún valor t0 ∈ R .

Figura 4.9.

Para responder a esta pregunta, supongamos que ϕ(t, p) es solución, ϕ(0, p) = p ∈ C2 \ R2 , tal que para algún
valor t = t0 se tiene que ϕ(t0 , p) = x0 ∈ R2 (ver figura 11.2). Entonces

= AC ϕ,
dt
y, conjugando esta ecuación, se tiene

= AC ϕ .
dt
Es decir, ϕ también es solución, ϕ(0, p) = p y ϕ(t0 , p) = x0 = x0 ∈ R2 . Por consiguiente, si ϕ no es solución en
R2 para toda t, entonces ϕ �= ϕ y ϕ(t0 , p) = x0 = ϕ(t0 , p), lo que contradice la unicidad de las soluciones. Por
consiguiente, si ϕ(t, p) es solución de xC = AC xC , y ϕ(τ, p) ∈ R2 para algún τ ∈ R, entonces ϕ(t, p) ∈ R2 para
todo t ∈ R; por lo tanto, ϕ(t, p) es solución de ẋ = Ax. En otras palabras, la expresión (4.18) representa a todas
las soluciones de la ecuación original (4.14).
Regresemos ahora a la expresión obtenida en (4.18) para encontrar una interpretación geométrica de lo que
hemos realizado. Lo primero que se observa, es que x(t) depende únicamente de f y no de f¯. Escribimos a f
como u + iv, donde u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 ; además, siendo c1 = α + iβ y λ = a + ib, se tiene

x(t) = 2Re(c1 eλt f )


= 2Re[(α + iβ)eat (cos bt + i sen bt)(u + iv)]
= 2Re[(α + iβ)eat (cos bt · u − sen bt · v + i(u sen bt + v cos bt))]
= 2eat [αu cos bt − αv sen bt − βu sen bt − βv cos bt]
= 2eat [v(−α sen bt − β cos bt) + u(α cos bt − β sen bt)]
� �
� � −α sen bt − β cos bt
= 2eat v u
α cos bt − β sen bt
� �� �
� � cos bt − sen bt −β
= 2eat v u α, β ∈ R.
sen bt cos bt α
Por lo tanto,
� �� �
� � cos bt − sen bt −2β
(4.19) x(t) = eat v u .
sen bt cos bt 2α
Desde el punto de vista meramente analítico, esta expresión nos da, nuevamente, la descripción completa de las
soluciones de la ecuación ẋ = Ax. Sin embargo, un análisis más cuidadoso nos permite ver a esta expresión de las
soluciones como una transformación R-lineal que multiplica a las soluciones de una ecuación sencilla (ver figura
4.10). A saber, la expresión (4.19) indica que la solución x(t) se expresa como una combinación lineal de las
soluciones de la ecuación � � � �� �
ξ˙1 a −b ξ1
= ❀ ξ˙ = λξ.
ξ˙2 b a ξ2
Para demostrar esta afirmación, retomemos la ecuación
ẋ = Ax ,
y observemos que si λ y f son el valor y el vector propio, respectivamente, de AC , entonces
AC f = λf.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 63

Escribiendo f = u + iv y λ = a + ib se tiene que

AC (u + iv) = (a + ib)(u + iv)

AC u + iAC v = au − bv + i(bu + av)


Así,
Au = au − bv
Av = bu + av.

Observación 4.13. Como u y v están en R2 hemos escrito A y no AC .

Observación 4.14. Los vectores v y u son linealmente independientes en R2 . En efecto, si v = ku, k ∈ R,


entonces
f = u + iv = u + iku = (1 + ik)u ,

f = u − iv = (1 − ik)u.
Lo que implica que f = 1−ik
1+ik
f y ello contradice que f y f sean C-linealmente independientes en C2 .

Consideremos la base {v, u} de R2 y sea ξ = ξ1 v + ξ2 u.


Aξ = ξ1 Av + ξ2 Au
= ξ1 (bu + av) + ξ2 (au − bv)
= (ξ1 a − ξ2 b)v + (ξ1 b + ξ2 a)u.

Es decir, en esta base se tiene


Aξ = (ξ1 a − ξ2 b, ξ1 b + ξ2 a)
� �� �
a −b ξ1
= .
b a ξ2
� �
a −b
Por consiguiente, la matriz A tiene en la base {v, u} la forma . Lo anterior puede verse también
b a
� �
observando que si P = v u
P−1 APe1 = P−1 Av
= P−1 (bu + av)
= bP−1 u + aP−1 v
= be2 + ae1
� �
a
= ,
b

P−1 APe2 = P−1 Au


= P−1 (au − bv)
= aP−1 u − bP−1 v
= ae2 − be1
� �
−b
= .
a
� �
a −b
Así, P−1 AP = .
b a
Por consiguiente, si ξ = P−1 x, entonces la ecuación ẋ = Ax se escribe en coordenadas ξ como

ξ˙ = P−1 ẋ
= P−1 Ax
= P−1 APξ
� �
a −b
= ξ.
b a
En resumen, hemos probado el siguiente teorema.
64 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a

en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).

Figura 4.10.

� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.

A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.

Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3

p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
64 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a

en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).

Figura 4.10.

� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.

A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.

Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3

p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 65

(2) Complejificación de la ecuación. Al ser las raíces del polinomio característico complejas (no reales),
necesitamos considerar la extensión del dominio de definición de la matriz A a C 2 ; consideremos, a su
vez, la extensión del dominio de la ecuación (es decir, su complejificación), ẋ C = AC xC ,
� � � �� �
ẋ1C −3 10 x 1C
= , con (x1C , x2C ) ∈ C2 .
ẋ2C −1 3 x 2C
En la complejificación tiene sentido calcular los vectores propios de A C :
� �� � � �
i + 3 −10 f11 0
= ,
1 i−3 f12 0
que implica la relación
f11 + (i − 3)f12 = 0.
Si f12 = 1, entonces f11 = 3 − i. Por consiguiente, f = (3 − i, 1) = (3, 1) + i(−1, 0) = u + iv es un vector
propio asociado al valor propio i; además f es también vector propio (correspondiente�a λ). �
3−i 3+i
(3) La ecuación diferencial diagonalizada y sus soluciones. Consideremos la matriz P C =
1 1
y el cambio de coordenadas yC = P−1 C xC . Así,
ẏC = P−1 −1 −1
C ẋC = PC AC xC = PC AC PC yC = ΛC yC ,

con � � � �
λ 0 i 0
ΛC = = .
0 λ 0 −i
Las soluciones de esta ecuación son:
yC (t) = (eλt c1 , eλt c2 ) = (eit c1 , e−it c2 ).
(4) Soluciones de la ecuación original complejificada. Usando el cambio de coordenadas x C = PC yC encon-
tramos las soluciones de la ecuación ẋC = AC xC del punto 2.
� �
� � � � eλt c1
x C = f f yC = f f = eλt c1 f + eλt c2 f .
eλt c2

(5) Obtención de las soluciones de la ecuación original: las soluciones reales satisfacen x C (t) = xC (t) y por
lo tanto son soluciones de ẋ = Ax. Estas soluciones se obtienen al desarrollar x C (t) = xC (t):
eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ (c1 − c2 )eλt f + (c2 − c1 )eλt f = 0
Si t=0, entonces
(c1 − c2 )f + (c2 − c1 )f = 0
Por lo tanto,
c1 = c2 y c2 = c 1 .
De aquí,
x(t) = 2Re(c1 eλt f )
= 2Re(c1 eit f )
� �� �� �
−1 3 cos t − sen t −2β
=
0 1 sen t cos t 2α
con c1 = α + iβ.
(6) Retrato de las fases de la ecuación original. La expresión de x(t) encontrada en el punto 5 nos indica
que hay
� una matriz �
−1 3
P = y un cambio de coordenadas ξ = P−1 x tal que en las coordenadas ξ la ecuación
0 1
� �
0 −1
ẋ = Ax tiene la forma ξ˙ = ξ (equivalentemente, ξ˙ = iξ. Esta ecuación tiene como soluciones
1 0
� � � �� �
ξ1 (t) cos t − sen t k1
a = que es una familia de círculos concéntricos (parametrizados
ξ2 (t) sen t cos t k2
por t, y que dependen de la condición inicial k = (k1 , k2 )).
Así, como x = Pξ, se tiene que las soluciones de la ecuación original son la imagen, bajo la
transformación P, de la familia de círculos concéntricos que está definida por las soluciones de la
ecuación ξ˙ = iξ. Esta imagen está dada por elipses, como se muestra en la figura 4.11.
Además, observamos que como det P < 0, entonces se invierte la orientación con respecto a la
ecuación en las coordenadas (ξ1 , ξ2 ).
66 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.11.

� �
−3 −4
Ejemplo 4.18. Sea ẋ = Ax definida por A = . Repetimos nuevamente varias etapas para resolver
10 9
la ecuación.
(1) Obtención del polinomio característico y sus raíces.
� �
−3 − λ −4
p(λ) = det(A − λId) = det =0
10 9−λ
= (λ + 3)(λ − 9) + 40 = 0
= λ2 − 6λ − 27 + 40 = λ2 − 6λ + 13 = 0 ,
y finalmente

36 − 52
6± 6 ± 4i
λ= = = 3 ± 2i .
2 2
(2) Complejificación de la ecuación y obtención de los vectores propios de ẋ C = AC x.
� � � �� �
ẋ1C −3 −4 x 1C
= , (x1C , x2C ) ∈ C2 .
ẋ2C 10 9 x 2C
Podemos calcular los vectores propios a la matriz AC , que define a la ecuación anterior, como sigue:
� �� � � �
−6 − 2i −4 f11 0
= ;
10 6 − 2i f12 0
es decir,
(−6 − 2i)f11 − 4f12 = 0 .
Si f11 = −2, entonces f12 = 3 + i. Así f = (−2, 3 + i) = (−2, 3) + i(0, 1) y f = (−2, 3 − 1) =
(−2, 3) + i(0, −i).
(3) Ecuación diagonalizada
� ẏC = ΛC y�C y sus soluciones.
� Consideramos
� el cambio de coordenadas yC =
−1 −2 −2 λ 0
PC xC , con PC = . Así, ẏC = yC , y sus soluciones son:
3+i 3−i 0 λ
� � � � � �
y1C (t) c1 eλt c1 e(3+2i)t
= = , c1 , c2 ∈ C.
y2C (t) c2 eλt c2 e(3−2i)t

(4) Soluciones de ẋC = AC xC . Las soluciones son


� �
� � c1 e(3+2i)t
xC (t) = f f = c1 e(3+2i)t f + c2 e(3−2i)t f .
c2 e(3−2i)t
(5) Las soluciones reales de ẋC = AC xC , son
x(t) = 2Re(c1 e(3+2i)t f ), c1 = α + iβ
� �� �
� � cos 2t − sen 2t −2β
= v u e3t .
sen 2t cos 2t 2α
(6) Esta última expresión nos indica que las soluciones de la ecuación ẋ = Ax se obtienen de transformar
a las soluciones de la ecuación
� � � �� �
ξ˙1 3 −2 ξ1
= ,
ξ˙2 2 3 ξ2
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 67

con un cambio de coordenadas x = Pξ, con


� �
� � 0 −2
P= v u = ,
1 3
� �
3 −2
que lleva a las soluciones ξ(t) de la ecuación ξ˙ = ξ en las soluciones de ẋ = Ax.
2 3
� �
3 −2
Las soluciones de ξ˙ = ξ son de la forma
2 3
� �� �
cos 2t − sen 2t k1
ξ(t) = e3t ,
sen 2t cos 2t k2
y éstas corresponden a espirales que se abren en sentido positivo y se alejan del origen (ver figura 4.12):

Figura 4.12.

(7) Las soluciones de ẋ = Ax son, por consiguiente, x(t) = Pξ(t), y en consecuencia, también son espirales
(ver figura 4.13). Observamos que det P = 2 > 0, por lo que P es una transformación R-lineal que
deforma el plano sin cambiar la orientación.

Figura 4.13.

Ejercicio 4.19. Encontrar las soluciones y el retrato de fases de ẋ = Ax, x ∈ R 2 , en los siguientes casos. Hacemos
notar que en cada caso se indican, a un lado de la matriz A correspondiente, las raíces del polinomio característico
asociado; en el inciso c) se indica también el vector propio correspondiente a la complejificación A C de A:
� �
−2 1
(a) A= ❀ λ = −4 ± i .
−5 −6
� �
1 1
(b) A= ❀ λ = 2 ± i.
−2 3
� �
2 −5
(c) A= ❀ λ = ±i ❀ f = (5, 2 − i) = (5, 2) + i(0, −1) .
1 −2
� �
−8 −3
(d) A= ❀ λ = −2 ± 3i .
15 4
68 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Ejercicio 4.20. Construye un ejemplo de una ecuación diferencial ẋ = Ax, x ∈ R 2 , tal que su retrato de las
fases tenga una elipse cuyo eje mayor esté dado por el vector (5, 2), y tal que la curva que define a dicha elipse
pase por el punto (3, 1) del plano.

Hagamos ahora un ejemplo en dimensión tres.

Ejemplo 4.21. Sea ẋ = Ax con x ∈ R3 y


 
2 −2 2
A= 6 0 4 .
−3 2 −3
El polinomio característico es p(λ) = λ3 + λ2 + 4λ + 4 = (λ + 1)(λ2 + 4) = 0. Eso implica que λ1 = −1,
λ2 = 2i y λ3 = −2i. Ahora consideremos ẋC = AC xC , la complejificación de la ecuación.

Para λ1 = −1:     
3 −2 2 f11 0
 6 1 4   f12  =  0  ,
−3 2 −2 f13 0
es decir, 

3f11 − 2f12 + 2f13 =0
6f11 + f12 + 4f13 =0


−3f11 + 2f12 − 2f13 =0
Si f12 = 0, entonces 3f11 + 2f13 = 0. Y si f11 = −2, entonces f13 = 3. Esta elección anula a las tres
ecuaciones. Por lo tanto,
f1 = (−2, 0, 3).
Para λ2 = 2i:     
2 − 2i −2 2 f21 0
 6 −2i 4   f22  =  0 .
−3 2 −3 − 2i f23 0
Equivalentemente, 

(2 − 2i)f21 − 2f22 + 2f23 =0
6f21 − 2if22 + 4f23 =0


−3f21 + 2f22 − (3 + 2i)f23 = 0 .
Sumando la primera y la tercera ecuación se tiene (−1 − 2i)f21 − (1 − 2i)f23 = 0. Por lo tanto,
f21 + f23 = 0.
Si f21 = 1, entonces f23 = −1. Ahora, sustituyendo en la segunda ecuación, se tiene 6 − 2if22 − 4 = 0, que a su
vez implica que
f22 = −i.
Por lo tanto,
f2 = (1, −i, −1) = (1, 0, −1) + i(0, −1, 0)
Para λ3 = −2i:
f3 = f 2 = (1, i, −1) = (1, 0, −1) + i(0, 1, 0).
 
� � −2 1 1
Consideramos xC = PC yC con PC = f1 f2 f 2 =  0 −i i . Este cambio de coordenadas lleva a
3 −1 −1
ẋC = AC xC en la ecuación ẏC = ΛC yC con
 
−1 0 0
ΛC =  0 2i 0 .
0 0 −2i
   
y1C (t) c1 e−t
La solución de esta ecuación es  y2C (t)  =  c2 e 2it 
.
y3C (t) c3 e−2it
Ahora, para recuperar las soluciones de la ecuación ẋC = AC xC basta con multiplicar esta última expresión
por la matriz PC . A saber,
 
� � c1 e−t
xC (t) = PC yC (t) = f1 f2 f 2  c2 e2it  = c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 .
c3 e−2it
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 69

La condición xC (t) = xC (t) nos permite encontrar la soluciones de ẋ = Ax:


c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 = c1 e−t f 1 + c2 e−2it f 2 + c3 e2it f2 .
De esta última igualdad podemos escribir una ecuación equivalente igualada a cero y que se expresa como com-
binación lineal (con coeficientes variables) de los vectores propios f 1 , f2 y f¯2 :
(c1 − c1 )e−t f1 + (c2 − c3 )e2it f2 + (c3 − c2 )e−2it f 2 = 0 (Atención: f1 = f 1 ).3
Evaluando en t = 0 se tiene
(c1 − c1 )f1 + (c2 − c3 )f2 + (c3 − c2 )f 2 = 0;
por la independencia lineal de los vectores f1 , f2 y f¯2 los coeficientes deben ser cero y por consiguiente
c1 = c1 , c3 = c 2 y c 3 = c2 .
Por lo tanto,
x(t) = c1 e−t f1 + 2Re(c2 e2it f2 )
 −t  
� � e 0 0 k1
= f1 v u  0 cos 2t − sen 2t   k2  , kj ∈ R.
0 sen 2t cos 2t k3

� �
Observación 4.22. La matriz P = f1 v u sirve para definir un cambio de coordenadas x = Pξ de R3 en
R3 . Este cambio de coordenadas nos permite conocer el comportamiento geométrico de las soluciones (ver figura
4.14).

Si consideramos el cambio de coordenadas ξ = P−1 x, entonces la ecuación ẋ = Ax  induce una ecuación


 en
−1 0 0
las coordenadas ξ. A saber, ξ˙ = P−1 ẋ = P−1 Ax = P−1 APξ. No es difícil ver que ξ˙ =  0 0 −2  ξ, y que
0 2 0
las soluciones de esta ecuación son
 −t  
e 0 0 k1
ξ(t) =  0 cos 2t − sen 2t   k2  con k1 , k2 , k3 ∈ R.
0 sen 2t cos 2t k3
En efecto,
P−1 APe1 = P−1 Af1
= P−1 (−1)f1
= −P−1 f1
= −e1 .
Además, como AC f = λf = 2i(u + iv), se sigue
Au + iAv = −2v + i2u,
Av = 2u y Au = −2v.
Así,
P−1 APe2 = P−1 Av
= P−1 2u
= 2P−1 u
= 2e3
y
P−1 APe3 = P−1 Au
= P−1 (−2v)
= −2P−1 v
= −2e2 .
Por lo tanto,  
−1 0 0
P−1 AP =  0 0 −2  .
0 2 0

3Hacemos notar que al estar los vectores en el espacio complejo, pudimos haber tomado al primer vector con entradas complejas;
sin embargo, dicho vector sería un múltiplo complejo del vector f1 y nuestros razonamientos seguirían las mismas líneas. Por lo
tanto, siempre que el valor propio sea un número real podemos considerar al vector propio correspondiente como un vector propio
con entradas reales, o bien, un vector propio con entradas complejas.
70 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.14. Soluciones de la ecuación ξ˙ = P−1 APξ, y de la ecuación ẋ = Ax .

Observamos que para el caso de una ecuación ẋ = Ax, con x ∈ Rn para n arbitrario, se procede de manera
análoga. Por consiguiente, para el caso de raíces distintas del polinomio característico (asociada a la matriz A
que define la ecuación) se tiene el teorema siguiente.

Teorema 4.23. Sea A ∈ Mn×n (R), tal que el polinomio característico p(λ) = det(A−λId), tiene raíces λ1 , . . . , λn
distintas dos a dos; entonces toda solución de la ecuación ẋ = Ax se escribe como
n−r
r
� �
2
λk t
x(t) = ak e fk + c k e λ k t f k + f k e λk t f k
k=1 k=r+1
n−r
r
� �
2

= a k e λk t f k + 2Re(ck eλk t fk ),
k=1 k=r+1

donde ak ∈ R, ck ∈ C, las raíces λ1 , . . . , λr están en R, y las raíces λr+1 , . . . , λ n−r están en C � R, considerando
2
los vectores
fk ∈ R2 tal que Afk = λk fk , para k = 1, . . . , r ,
fk ∈ C2 tal que A C f k = λk f k , para k = r + 1, . . . , n−r
2
.

Después de lo que hemos visto hasta ahora, el lector debe de ser capaz de escribir la demostración de este
teorema. La demostración, por lo tanto, se deja como ejercicio.

Observación 4.24. Hemos usado, a lo largo de los capítulos 3 y 4, el que los vectores propios asociados a valores
propios distintos (dos a dos) son linealmente independientes. Este hecho bien conocido de álgebra lineal, nos ha
servido para encontrar los cambios de coordenadas que simplifican a las ecuaciones; es por lo tanto pertinente
hacer un paréntesis para demostrar esta afirmación. En la demostración se procede por inducción. A saber, sea A
una matriz que define una transformación lineal de Rn en sí mismo (o de Cn en sí mismo), tal que todos sus valores
propios, λ1 , . . . , λn , son distintos dos a dos. Consideremos dos vectores propios f1 y f2 de ésta, correspondientes
a dos valores propios distintos λ1 y λ2 , λ1 �= λ2 , entonces afirmamos que f1 y f2 son linealmente independientes.
Si suponemos lo contrario, es decir, que existe una constante c tal que f 2 = cf1 , entonces, aplicando A de
ambos lados de la igualdad, se tiene que A(f2 ) = A(cf1 ) = cA(f1 ), de donde se sigue que λ2 f2 = cλ1 f1 .
Reagrupando se tiene que λ2 f2 = λ1 cf1 = λ1 f2 , lo que nos llevaría a que λ2 = λ1 , que es una contradicción.
Supongamos la afirmación válida para j vectores propios, f 1 , . . . , fj , j ≤ n, y sus valores propios correspondientes,
λ1 , . . . , λj . Sea λj+1 un valor propio distinto de los primeros j valores propios anteriores, y supongamos que el
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 71

vector propio correspondiente, fj+1 , puede ser expresado como combinación lineal de los primeros j vectores
propios, fj+1 = c1 f1 + · · · + cj fj ; entonces, aplicando la matriz A de ambos lados de la igualdad, se tiene
A(fj+1 ) = A(c1 f1 + · · · + cj fj ); por linealidad de A, obtenemos que λj+1 fj+1 = λ1 c1 f1 + · · · + λj fj . De aquí,
escribiendo a fj+1 como combinación lineal de f1 , . . . , fj , se tiene λj+1 (c1 f1 + · · · + cj fj ) = λ1 c1 f1 + · · · + λj cj fj .
Así, se llega a la igualdad, (λ1 − λj+1 )c1 f1 + · · · + (λj − λj+1 )cj fj = 0. Como, por hipótesis de inducción, los
vectores f1 , . . . , fj son linealmente independientes, y sabemos que los valores propios son distintos dos a dos,
entonces c1 = · · · = cj = 0. Eso significa que el vector propio fj+1 es el vector cero, lo que es una contradicción.
Así, la colección f1 , . . . , fj+1 es linealmente independiente. Como j ≤ n, entonces la afirmación es válida para
f1 , . . . , fn .
Es importante notar que en la demostración usamos fuertemente el que los valores propios λ 1 , . . . , λn fuesen
distintos dos a dos. Como veremos en la siguiente sección, tener valores propios repetidos nos llevará a proceder
de una manera diferente, ya que, por cada valor propio repetido, perdemos por lo menos un vector propio para
formar la matriz P (PC ) de cambio de coordenadas.

Para mirar más lejos: Razonamiento heurístico sobre el operador la exponencial de una matriz
para raíces simples del polinomio característico. Haremos una breve disgresión en la que veremos, dando
un razonamiento heurístico, la pertinencia de definir la transformación exponencial de una matriz para expresar
las soluciones de las ecuaciones ẋ = Ax. Más adelante, cuando definamos la norma de una matriz, haremos una
exposición formal y detallada de estas ideas (ver 4.7).
Afirmación: Las soluciones de ẋ = Ax, x ∈ Rn , se ven como x(t) = PeΛt P−1 c donde o bien
 
λ1 0
 .. 
Λ= . ,
0 λn
con λj ∈ R, o bien
 
λ1 0
 .. 
 . 
 
 λs 
Λ=

,

 A1 
 .. 
 . 
0 Am
� �
aj −bj
con λ1 , . . . , λs reales y distintas y Aj = , j = 1, ..., m, correspondientes a las raíces complejas
bj aj
(también distintas dos a dos). En ambos casos las soluciones son explícitas y únicas, una vez dada la condición
inicial.
Para argumentar el porqué de esta afirmación consideremos primero el caso Λ diagonal, es decir, λ 1 , . . . , λn
reales y distintas. Observemos que si definimos eΛt como sigue
 λ1 t 
e 0
 .. 
eΛt :=  . ,
λn t
0 e
entonces, por la convergencia de la exponencial en cada variable se tiene,
 � (λ1 t)k


k=0 k!
0 ∞
 ..  � (Λt)j
eΛt =  .
=
 .
�∞ (λn t)k j=0
j!
0 k=0 k!

La convergencia en R de cada una de las funciones eλj t nos permite definir perfectamente a la matriz eΛt .
Retomemos el problema: queremos encontrar la solución de la ecuación ẋ = Ax que pasa, en t = 0, por el
punto q. Para ello,
� consideremos � los vectores propios f1 , . . . , fn asociados a los valores propios λ1 , . . . , λn de A.
La matriz P = f1 · · · fn define un cambio de coordenadas y = P−1 x. En las coordenadas y la ecuación
ẋ = Ax se escribe como ẏ = Λy. Las soluciones de esta ecuación están dadas por y(t) = eΛt c, con
 
λ1 0
 .. 
Λ= . 
0 λn
y c = (c1 , . . . , cn ). Observamos también que, en las coordenadas y, el punto q se escribe como P−1 q. Así, la
solución de ẋ = Ax que pasa por q se escribe como
x(t) = PeΛt P−1 q .
72 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Hay que notar que



� ∞
(Λt)k −1 (∗) � P(Λt)k P−1
PeΛt P−1 = P P =
k! k!
k=0 k=0
(4.20) ∞ ∞
� (PΛP−1 )k tk � A k tk
= = =: eAt .
k! k!
k=0 k=0

La segunda igualdad (marcada con asterisco) en la expresión (4.20) se obtiene por la convergencia uniforme de
cada una de las funciones eλj t . Así, la expresión x(t) = PeΛt P−1 a la que hemos dado por ahora sólo el nombre
x(t) := eAt q es la solución con condición inicial x(0) = q.
Cabe destacar nuevamente que más adelante (ver 4.7) definiremos la norma de una transformación lineal
definida por una matriz y demostraremos, en general, la pertinencia de la expresión
�∞
(At)j
x(t) = eAt q = q, q ∈ Rn .
j=0
j!

Figura 4.15.

� �
En el caso de raíces complejas el razonamiento es semejante: para dimensión dos la matriz P = v u ,
con f = u + iv vector propio asociado a λ = a + ib, define un cambio de coordenadas que lleva a A en
� �
a −b
Λ= .
b a
4
Por lo tanto, si observamos que la expresión formal

� (Λt)k
eΛt c = c,
k!
k=0

es equivalente a la expresión compleja (convergente)



� λ k tk
eΛt c = · (c1 + ic2 ) .
k!
k=0

−1
Como PΛP = A, entonces podemos definir
−1
(4.21) eAt q := ePΛP t
q = PeΛt P−1 q .

La igualdad (4.21) es nuevamente la expresión de lo que se denomina una equivalencia lineal entre las soluciones
de dos ecuaciones lineales ẋ = Ax y ẏ = Λy. Puede verse en (4.21), que la solución φA (t, q) = eAt q de la ecuación
ẋ = Ax, con condición inicial q, es transformada bajo P en la solución φ Λ (t, P−1 q) = eΛt P−1 q de la ecuación
ẏ = Λy, con condición inicial P−1 q (ver figura 4.15).
Así, en general, para una matriz A con raíces del polinomio característico distintas, podemos escribir

x(t, c) = eAt c

4Esta afirmación no es evidente. Se requiere probar la convergencia de la expresión

�∞
(Λt)k
c
k=0
k!

para poder introducir en cada sumando el vector c y así demostrar que Λk c es equivalente a la multiplicación compleja λk (c1 + ic2 )
donde λ = a + ib. Esto lo veremos más adelante (ver sección 4.7) al hablar de la convergencia de la serie
�∞
At (At)k
e := .
k=0
k!
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 73

donde A = PΛP−1 , con


 
λ1 0
 .. 
 . 
 
 λr 
 
Λ= Ar+1 ,
 
 .. 
 
 . 
0 A n+r
2
� �
aj −bj
donde λ1 , . . . , λr ∈ R, Aj = ❀ λj = aj + ibj , con j = r + 1, . . . , n−r
2
,y
bj aj
� �
P = f1 · · · fr vr+1 ur+1 · · · v n−r 2
u n−r .
2

Ejercicio 4.25.

(1) Considera la ecuación ẋ = Ax, x ∈ R3 con


 
12 −4 −5
A =  12 2 −4 
30 −8 −13
con raíces del polinomio característico λ1 = −3, λ2 = 2 + 4i y λ̄2 = 2 − 4i, y vectores f1 , f2 y f¯2 de la
complejificación AC , correspondientes a los valores λ1 , λ2 y λ̄2 , dados por f1 = (1, 0, 3), f2 = (1, −i, 2)
y f¯2 = (1, i, 2) .
(a) Encuentra la matriz PC y el cambio de coordenadas que lleva a la ecuación ẋC = AC xC en la
ecuación ẏC = ΛC yC , con
 
λ1 0 0
ΛC =  0 λ 2 0  ,
0 0 λ2
y resuelve esta última ecuación.
(b) Encuentra las soluciones de ẋC = AC xC .
(c) Encuentra las soluciones de ẋ = Ax.
(d) Usando lo que encontraste en el inciso (c), define un cambio de coordenadas de R 3 en R3 que
transforme a la ecuación ẋ = Ax en una ecuación de la forma
 
−3 0 0
ξ˙ =  0 2 −4  ξ, ξ ∈ R3 .
0 4 2
(e) Haz el retrato de las fases correspondiente a las soluciones de la ecuación
 
−3 0 0
˙
ξ= 0 2 −4  ξ, ξ ∈ R3 .
0 4 2
(f) Explica, analizando los exponentes dados por la parte real de las raíces del polinomio característico,
si las soluciones se aproximan al origen siguiendo la forma de un paraboloide, un cono, un cilindro
o una pseudoesfera.
(g) Haciendo uso de lo que encontraste en (d) y (e) haz el retrato de las fases correspondiente a las
soluciones de la ecuación ẋ = Ax.
(2) Haz lo mismo para ẋ = Ax, x ∈ R3 , con
 
−7 −2 −6
A =  −1 2 −1  ,
9 3 8
tal que AC tiene valores propios, λ1 = 2 + i, λ2 = 2 − i y λ3 = −1, y vectores propios f1 = (−2i, −1, 3i),
f2 = f¯1 y f3 = (1, 0, −1).
(3) También considera ẋ = Ax, x ∈ R3 con
 
−9 2 4
A=  4 3 −2  ,
−24 6 11
con valores propios de AC λ1 = 3 − 2i, λ̄1 = 3 + 2i y λ3 = −1, y vectores propios f1 = (i, −1, 3i), f2 = f¯1
y f3 = (1, 0, 2).
74 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

(4) De igual forma, considera ẋ = Ax, x ∈ R3 , con


 
−7 −4 −4
A =  −2 −1 −2  ,
6 6 3
con valores propios de AC λ1 = −1 + 2i, λ̄1 = −1 − 2i y λ3 = −3, y vectores propios f1 = (−2i, −1, 3i),
f2 = f¯1 y f3 = (1, 0, −1).
(5) Igual para ẋ = Ax, x ∈ R3 , con
 
2 −2 2
A= 6 0 4 ,
−3 2 −3
con valores propios de AC , λ1 = −1, λ2 = 2i y λ3 = λ̄2 = −2i, y vectores propios f1 = (−2, 0, 3),f3 =
(1, −i, −1) y f3 = f¯2 .
(6) Finalmente, considera ẋ = Ax, x ∈ R3 , con
 
13 1 −5
A= 2 −2 −1  ,
30 3 −12
con valores propios de AC λ1 = −2 + i, λ̄1 = −2 − i y λ3 = 3, y vectores propios f1 = (i, −1, 3i), f2 = f¯1
y f3 = (1, 0, 2).

Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).

Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:

Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .

Demostración. La demostración es consecuencia directa de la linealidad de la derivada y de la linealidad


de la multiplicación por matrices.
(a) Si ϕ1 y ϕ2 son soluciones de ẋ = Ax, entonces ϕ1 + ϕ2 también lo es.
d(ϕ1 + ϕ2 ) dϕ1 dϕ2
= + = Aϕ1 + Aϕ2 = A(ϕ1 + ϕ2 ) .
dt dt dt
(b) Si µ ∈ R (o bien C) y ϕ es solución de ẋ = Ax (ẋC = AC xC ), entonces µϕ también lo es.
d(µ · ϕ) dϕ
=µ· = µ · Aϕ = A(µϕ) .
dt dt

Hemos probado que el conjunto de soluciones de ẋ = Ax (ẋC = AC xC ) forma un espacio vectorial sobre los
reales (los complejos) que denotaremos por χ. Ahora, es natural preguntarse por la dimensión de este espacio.
Más adelante (ver el teorema 4.37) probaremos que la dimensión del espacio de soluciones de la ecuación ẋ = Ax,
x ∈ Rn , es justamente n.

4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no
74 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

(4) De igual forma, considera ẋ = Ax, x ∈ R3 , con


 
−7 −4 −4
A =  −2 −1 −2  ,
6 6 3
con valores propios de AC λ1 = −1 + 2i, λ̄1 = −1 − 2i y λ3 = −3, y vectores propios f1 = (−2i, −1, 3i),
f2 = f¯1 y f3 = (1, 0, −1).
(5) Igual para ẋ = Ax, x ∈ R3 , con
 
2 −2 2
A= 6 0 4 ,
−3 2 −3
con valores propios de AC , λ1 = −1, λ2 = 2i y λ3 = λ̄2 = −2i, y vectores propios f1 = (−2, 0, 3),f3 =
(1, −i, −1) y f3 = f¯2 .
(6) Finalmente, considera ẋ = Ax, x ∈ R3 , con
 
13 1 −5
A= 2 −2 −1  ,
30 3 −12
con valores propios de AC λ1 = −2 + i, λ̄1 = −2 − i y λ3 = 3, y vectores propios f1 = (i, −1, 3i), f2 = f¯1
y f3 = (1, 0, 2).

Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).

Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:

Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .

Demostración. La demostración es consecuencia directa de la linealidad de la derivada y de la linealidad


de la multiplicación por matrices.
(a) Si ϕ1 y ϕ2 son soluciones de ẋ = Ax, entonces ϕ1 + ϕ2 también lo es.
d(ϕ1 + ϕ2 ) dϕ1 dϕ2
= + = Aϕ1 + Aϕ2 = A(ϕ1 + ϕ2 ) .
dt dt dt
(b) Si µ ∈ R (o bien C) y ϕ es solución de ẋ = Ax (ẋC = AC xC ), entonces µϕ también lo es.
d(µ · ϕ) dϕ
=µ· = µ · Aϕ = A(µϕ) .
dt dt

Hemos probado que el conjunto de soluciones de ẋ = Ax (ẋC = AC xC ) forma un espacio vectorial sobre los
reales (los complejos) que denotaremos por χ. Ahora, es natural preguntarse por la dimensión de este espacio.
Más adelante (ver el teorema 4.37) probaremos que la dimensión del espacio de soluciones de la ecuación ẋ = Ax,
x ∈ Rn , es justamente n.

4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no
4.5. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ QUE TIENE UNA ÚNICA DIRECCIÓN INVARIANTE REAL O COMPLEJA
75

homogénea (i.e. es de la forma ξ˙ = µξ + b(t)). Para encontrar una solución que no esté en el espacio de soluciones
generado por eµt , proponemos una solución de la forma
(4.22) x1 (t) = f (t) · eµt .
Derivando ésta se obtiene
(4.23) ẋ1 (t) = f˙(t)eµt + f (t)µeµt .
Como x1 debe satisfacer
(4.24) ẋ1 = µx1 + eµt c,
entonces, sustituyendo (4.22) y (4.23) en la expresión (4.24), se tiene
f˙(t)eµt + f (t)µeµt = µf (t)eµt + eµt c.
Así,
f˙(t) = c ,
y por lo tanto
f (t) = ct + k .
La solución x(t) se escribe entonces como
� � � �
x1 (t) (ct + k)eµt
= .
x2 (t) ceµt
Es decir,
� � � �� �
x1 (t) eµt teµt k
=
x2 (t) 0 eµt c
(ver figura 4.16, para µ >0; obsérvese que el campo vectorial se vuelve vertical a lo largo de la recta x 2 = −µx1 ).

Figura 4.16.

La forma en la que procedimos para encontrar las soluciones de la ecuación (4.24) no homogénea en la variable
x1 , definiendo x1 (t) = f (t) · eµt y encontrando la función f (t) adecuada, se conoce como método de variación
de constantes o variación de parámetros. Tal como su nombre lo indica, estamos multiplicando una solución de
la ecuación homogénea por una función en t y no por una constante para poder salir del espacio vectorial de
las soluciones de la ecuación homogénea, y de esta manera, encontrar una solución de la ecuación no homogénea
correspondiente.

Ejercicio 4.28. Considera la ecuación ẋ = Λx, x ∈ R3 , con


 
µ 1 0
Λ= 0 µ 1 .
0 0 µ
Procediendo de forma análoga al caso anterior, demuestra que las soluciones están dadas por la expresión
   2  
x1 (t) 1 t t2! c1
µt
x(t) =  x2 (t)  = e  0 1 t   c2  .
x3 (t) 0 0 1 c3

Para resolver el caso general con un solo valor repetido requerimos recordar un teorema de álgebra lineal:
76 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Teorema 4.29 (Cayley-Hamilton [S-R], [Z]). Sea ρ(λ) = det(A − λId) el polinomio característico asociado a la
matriz A ∈ Mn×n (R) (o bien A ∈ Mn×n (C)). Entonces
ρ(A) = 0 .

Hagamos uso de este teorema en el caso de una matriz de 2 × 2. Supongamos que la matriz A es diferente a
µId, pero tiene a µ como un valor propio de multiplicidad dos, es decir, ρ(λ) = (λ − µ) 2 ; consideremos f �= 0 un
vector propio asociado al valor propio µ, es decir, (A − λId)f = 0.
Sea v un vector linealmente independiente a f . Ya que hemos supuesto que A �= µId, se tiene que Av �= µv
o, equivalentemente, (A − λId)v �= 0. Sin embargo, por el teorema de Cayley-Hamilton, ρ(A) = 0. Es decir,
ρ(A) = (A − µId)2 = 0 y, por lo tanto,

(A − µId)2 v = 0 .
Como (A − µId)2 v = (A − µId)((A − µId)v) = 0, entonces (A − µId)v = kf para alguna k ∈ R (es decir,
(A − µId)v está en el subespacio generado por f ). Al vector v se le conoce como vector propio generalizado (ver
figura 4.17).

Figura 4.17. El vector propio generalizado v es transformado bajo A − µId a un múltiplo del
vector propio f , de modo que al aplicar nuevamente la matriz A − µId, éste se va a cero.

Consideremos la igualdad (A − µId)v = kf . De aquí, obtenemos la imagen del vector v bajo la matriz A
como Av = µv + kf . � �
Consideremos la matriz P = f, v . Deseamos conocer cuál es la matriz definida por la conjugación
P−1 AP; para ello, evaluemos a P−1 AP en los vectores canónicos. A saber,
� �
µ
P−1 APe1 = P−1 Af = P−1 µf = µP−1 f = µe1 = ,
0
P−1 APe2 = P−1 Av = P−1 (µv + kf ) = µP−1 v + kP−1 f
� �
k
= µe2 + ke1 = .
µ
Por lo tanto,
� �
µ k
Λ := P−1 AP = .
0 µ
Si k = 1, entonces la matriz obtenida es la correspondiente al caso que ya resolvimos. Observamos que siempre
podemos tomar v tal que (A − µId)v = f .

Ejemplo 4.30. Considera la ecuación ẋ = Ax, con


� �
−5 1
A= ,
−1 −3
� �
1
con valor propio µ = −4 y vector propio asociado f = .
1
Sea v un vector linealmente independiente al vector propio f , v �= kf , k ∈ R, y tal que (A − µId)v = f . Es
decir,
� �� � � �
−5 + 4 1 v1 1
(A + 4Id)v = =
−1 −3 + 4 v2 1
� �� � � �
−1 1 v1 1
= = .
−1 1 v2 1
De aquí, si definimos v1 = 1, entonces v2 = 2.
4.5. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ QUE TIENE UNA ÚNICA DIRECCIÓN INVARIANTE REAL O COMPLEJA
77

� �
1 1
Por lo que hemos visto anteriormente, el cambio de cordenadas y = P−1 x, con P = , transforma a
1 2
la ecuación ẋ = Ax en la ecuación
� � � � � �� �
ẏ1 y1 −4 1 y1
= P−1 AP = .
ẏ2 y2 0 −4 y2
Sabemos que sus soluciones son
� � � �� �
y1 (t) e−4t te−4t c1
= .
y2 (t) 0 e−4t c2
y2 (t)
Para conocer el comportamiento asintótico de las soluciones consideremos el cociente y1 (t)
y calculemos el límite
−4t
cuando la variable t tiende a infinito, lim y2 (t) = e c2
lim −4t (c +tc = c2
lim (c1 +tc = 0 (lo mismo para
t→+∞ y1 (t) t→+∞ e 1 2) t→+∞ 2)

t → −∞). Ver figura 4.18.

Figura 4.18.

En las coordenadas x = Py se tiene la solución


� � � −4t �� �
1 1 e te−4t c1
x(t) = ,
1 2 0 e−4t c2
cuyo retrato de las fases puede verse en la figura 4.19.

Figura 4.19.

Observación 4.31. Para realizar el retrato de las fases correctamente nos auxiliamos de la expresión del campo
vectorial Ax y buscamos aquellos subconjuntos de R2 para los cuales el campo vectorial es vertical u horizontal.
En efecto, no es difícil ver que a lo largo de la recta x2 = 5x1 , el campo se vuelve vertical y en x2 = − 13 x1 se
vuelve horizontal.
78 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Hacemos notar que cuando la matriz A que define a la ecuación ẋ = Ax, x ∈ R n , tiene un único valor propio
λ (Af = λf ), y la matriz A − λId tiene núcleo de dimensión 1 (i.e., {v ∈ Rn | Av = 0} es un subespacio de
dimensión 1), entonces se tendrán que encontrar n − 1 vectores propios generalizados. La forma de recuperar esos
vectores es considerar n − 1 vectores linealmente independientes, vj , que satisfagan respectivamente la condición
(A − λId)j vj = f , para j = 1, . . . , n − 1. Lo anterior puede lograrse, por ejemplo, haciendo recursivamente
(A − λId)vk+1 = vk , para k = 1, . . . , n − 2.

Ejemplo 4.32. Considera la ecuación ẋ = Ax, con


 
2 −1 0
A =  −3 2 1 ,
0 −3 2
 
1
con valor propio µ = 2 y vector propio asociado f =  0 .
3
Sea v un vector en R3 , tal que (A − 2Id)v = f . Es decir,
    
0 −1 0 v1 1
(A − 2Id)v =  −3 0 1   v2  =  0 
0 −3 0 v3 3
De aquí, dado que tenemos dos grados de libertad, podemos elegir v1 = 0, v2 = −1, v3 = 0.
Por otra parte, sea w un vector linealmente independiente al subespacio generado por los vectores f y v,
w �= k1 f + k2 v, para k1 , k2 ∈ R, y w satisface que (A − 2Id)w = v, y en consecuencia, (A − 2Id)2 w = f . Es decir,
    
0 −1 0 w1 0
(A − 2Id)w =  −3 0 1   w2  =  −1  .
0 −3 0 w3 0
Entonces, dado que tenemos dos grados de libertad, podemos elegir w 1 = 1, w2 = 0, w3 = 2. Con estos tres
vectores f , v y w, podemos construir una matriz P y un cambio de coordenadas x = Py, tal que la ecuación
ẋ = Ax sea transformada
 en una  ecuación sencilla que sabemos resolver. En efecto, el cambio de coordenadas
1 0 1
y = P−1 x, con P =  0 −1 0 , lleva a la ecuación ẋ = Ax en la ecuación
3 0 2
      
ẏ1 y1 2 1 0 y1
−1
 ẏ2  = P AP  y2  =  0 2 1   y2  .
ẏ3 y3 0 0 2 y3
Sabemos que sus soluciones, haciendo uso de variación de parámetros, son
   2t 2  
y1 (t) e te2t t2! e2t c1
 y2 (t)  =  0 e2t te2t   c2  .
y3 (t) 0 0 e2t c3
Las soluciones de la ecuación original, estarán entonces dadas por la igualdad x(t) = Py(t).
 2t 2  
� � e te2t t2! e2t c1
x(t) = f1 v w  0 e2t te2t   c2  , kj ∈ R.
0 0 e2t c3
Es decir,
   2t t2 2t
 
1 0 1 e te2t 2!
e c1
x(t) =  0 −1 0  0 e2t te 2t   c2  , kj ∈ R.
3 0 2 0 0 e2t c3

Ejercicio 4.33. Encontrar las soluciones y los retratos de las fases correspondientes a la ecuación ẋ = Ax,
x ∈ R2 , en los siguientes casos:
� �
2 1
(a) A = .
−1 4
� �
0 1
(b) A = .
−1 −2
� �
1 −1
(c) A = .
1 3
� �
1 −1
(d) A = .
4 5
4.5. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ QUE TIENE UNA ÚNICA DIRECCIÓN INVARIANTE REAL O COMPLEJA
79

El siguiente ejercicio es una invitación a hacer uso de lo visto en la presente sección:

Ejercicio 4.34. Encontrar las soluciones correspondientes a la ecuación diferencial ẋ = Ax, x ∈ R 4 , donde
 
1 −2 1 0
 0 1 2 1 
A=  4
,
0 −3 −2 
−8 −4 12 5
y una raíz del polinomio característico es µ = 1+2i. Se sugiere usar un vector propio sencillo de la complejificación
AC de A; a saber, f = (i, 1, 0, 2i).

Para resolver el problema de un valor propio múltiple en dimensiones mayores es útil hacer uso del siguiente
resultado. Si bien en la sección 4.7 hablaremos de la exponencial de una matriz de una forma rigurosa, cuando se
tienen de raíces del polinomio característico de multiplicidad mayor que uno, se tiene una propiedad de nilpotencia
que hace que el problema de convergencia para definir el operador exponencial de una matriz se reduzca, en este
caso, a una suma finita. Ello evita para este tipo de ejemplos la necesidad de introducir criterios de convergencia.
El siguiente teorema recoge esta peculiaridad.

Teorema 4.35. Sea A : Rn −→ Rn una transformación lineal y supongamos que la matriz A que la representa
tiene un único valor propio µ de multiplicidad n. Entonces A = S + N (o bien A C = SC + NC en el caso en el
que A tenga raíz compleja múltiple), donde S = µId, Nn = 0 y SN = NS.

Demostración. Sea N := A − S. Por el teorema de Cayley-Hamilton se tiene


Nn = (A − S)n = (A − µId)n = 0
Además NS = SN porque NS = NµId = µNId = µIdN = SN. �
Esta descomposición nos permite definir el operador exponencial como

� ∞
(∗) (µIdt)k � (tN)k
etA := et(S+N) = 5 etS · etN = · .
k! k!
k=0 k=0

Así,  
eµt 0
 ..  1 1
etA =  .
2
 · (Id + Nt + (Nt) + . . . + (Nt)n−1 + 0).
2! (n − 1)!
0 eµt
Observemos que lo anterior nos permite encontrar, para el caso de un solo valor propio real de multiplicidad n,
las soluciones de la ecuación ẋ = Ax como x(t, c) = eAt c sin tener que hablar especialmente del problema de la
convergencia.
� �
1 −1
Ejemplo 4.36. Sea la ecuación ẋ = x, cuyo polinomio característico es ρ(λ) = (λ − 1)(λ − 3) + 1 =
1 3
λ − 4λ + 4 = (λ − 2) . Lo cual implica que tiene sólo un valor propio repetido, λ = 2, de multiplicidad dos.
2 2
� �
−1 −1
N = (A − 2Id) = .
1 1
Entonces, � �� � � �
−1 −1 −1 −1 0 0
N2 = = .
1 1 1 1 0 0
Así,
 

2
0 
t
x(t) = At
e c=e 20 · eNt c
�� � �k
2 0
�∞ t
0 2
= · (Id + Nt)c
k!
k=0
� 2t � �� � � � �� �
e 0 1 0 −1 −1 c1
= + t
0 e2t 0 1 1 1 c2
� �� �
2t 1−t −t c1
= e .
t 1+t c2

5(*) La igualdad eS+N = eS eN es válida, si y sólo si, SN = NS (ver [A]).


80 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Nota: Observa que el resultado tiene que ser el mismo resultado que el obtenido en el ejercicio (c) de la última
sección de ejercicios. Se sugiere analizar con detalle.

4.6. Teorema de Liouville


Esta sección vamos a dedicarla al teorema de Liouville para ecuaciones diferenciales ordinarias. Este teorema
es conocido también como fórmula de Liouville o fórmula de Abel-Liouville.
Antes de enunciar el teorema de Liouville vamos a dar un resultado que nos permite conocer la dimensión
del espacio de soluciones de una ecuación diferencial lineal con coeficientes constantes. En esencia lo único que
haremos es establecer, como consecuencia del teorema de existencia y unicidad (ver teorema 9.10), un isomorfismo
entre las soluciones de una ecuación diferencial lineal en Rn y sus condiciones iniciales (este teorema es igualmente
válido para el caso correspondiente en Cn ). A saber,

Teorema 4.37. El espacio vectorial χ formado por el conjunto de soluciones de la ecuación diferencial ẋ = Ax,
x ∈ Rn (ẋC = AC xC , x ∈ Cn ) es isomorfo al espacio de las fases de la ecuación.

Demostración. Sea Bτ la familia de transformaciones dada por


B τ
ϕ(t, x0 ) �−→ ϕ(τ, x0 ) .
Observamos que para cada valor fijo de τ , la transformación B τ , Bτ : χ �−→ Rn , hace corresponder a cada solución
φ(t, x0 ) de la ecuación el punto correspondiente a dicha solución en el tiempo t = τ . La transformación B τ es un
homomorfismo con la suma; nosotros vamos a considerar B0 , es decir, τ = 0 (ver figura 4.20).
B0 (ϕ(t, x0 )) = ϕ(0, x0 ) = x0 .
Demostraremos que B0 es biyectiva. Con ello obtendremos que B0 define un isomorfismo entre χ y Rn .

(a) B0 es suprayectiva pues para cada c ∈ Rn , basta considerar la solución ϕ(t, c) con condición inicial c.
(b) B0 es inyectiva pues si B0 (ϕ(t, x0 )) = 0, entonces
B0 (ϕ(t, x0 )) = ϕ(τ, x0 )τ =0 = 0 .
Por el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales (ver teorema 9.10), la
solución ϕ(t, 0) tiene que ser la constante cero, ϕ(t, x0 ) ≡ 0.
Así, B0 (χ) = Rn y por lo tanto dim(χ) = n. �

Figura 4.20.

Sabiendo ahora que el espacio de soluciones de una ecuación lineal en R n tiene dimensión n, podemos
preguntarnos si dadas n soluciones de una ecuación diferencial lineal éstas generan o no al resto de las soluciones.
Veamos por ejemplo el caso en dimensión dos. Nos preguntamos si dadas dos soluciones ϕ 1 y ϕ2 de la ecuación
ẋ = Ax, x ∈ R2 , cualquier otra solución x(t) de ẋ = Ax puede ser escrita o no como combinación lineal de ϕ 1 y
ϕ2 , i. e., x(t) = c1 ϕ1 + c2 ϕ2 .
En otra palabras, nos preguntamos si existen constantes c1 , c2 ∈ R tales que
� � � �
x1 (t) � � c1
= ϕ1 (t) ϕ2 (t) ∀t ∈ R.
x2 (t) c2
4.6. TEOREMA DE LIOUVILLE 81

La respuesta está entonces centrada en ver si la matriz definida por las soluciones ϕ 1 y ϕ2 es o no invertible; es
decir, siempre podemos encontrar c1 y c2 si
� �
det ϕ1 (t) ϕ2 (t) �= 0 para todo t ∈ R.
Esto nos conduce a la siguiente definición (válida en Rn ).

Definición 4.38. Decimos que el wronskiano de dos funciones vectoriales f j : I −→ R2 , j = 1, 2, es el área


orientada del paralelogramo generado por los vectores f 1 (t) = (f11 (t), f12 (t)) y f2 (t) = (f21 (t), f22 (t)) en R2 (para
cada t fija). � �
f11 (t) f21 (t)
W (t) = det .
f12 (t) f22 (t)

Figura 4.21.

A partir de esta definición surgen de manera natural las siguientes preguntas:


a) ¿Será cierto que si W (t) = 0 para algún t = t0 , entonces f1 es linealmente dependiente con respecto a
f2 sobre R? Es decir, ¿f2 (t) = cf1 (t) para alguna c ∈ R?

No. Por ejemplo: f1 (t) = (t, t2 ) y f2 (t) = (t, t + t2 ) son tales que W (0) = 0 pero f1 y f2 son
linealmente independientes sobre R.

b) ¿Será cierto entonces que si W (t) = 0 para todo t ∈ R, entonces f2 (t) = cf1 (t), para alguna c ∈ R?

Tampoco. Por ejemplo: f1 (t) = (1, t5 ) y f2 (t) = (t3 , t8 ).

¿En qué consiste entonces el papel del wronskiano? La respuesta a esta pregunta está en el siguiente teorema de
Joseph Liouville (1809-1882, Francia). Enunciamos por el momento una versión sencilla del teorema, por lo que
lo llamaremos «chico». Más adelante daremos otras dos versiones más generales.

Teorema 4.39 (de Liouville -chico-). El wronskiano W (t) de las soluciones de la ecuación ẋ = Ax satisface la
ecuación diferencial
(4.25) Ẇ = trA · W .
En otras palabras W (t) = etrAt c, con c = W (0).

Demostración. Analicemos el caso n = 2. Denotemos por ΦA (t, C) a la matriz formada por las soluciones
ϕ1 (t, c1 ), ϕ2 (t, c2 ) de la ecuación ẋ = Ax,

(4.26) ΦA (t, C) = [ϕ1 (t, c1 ), ϕ2 (t, c2 )] ,


donde C es la matriz de coeficientes constantes (vectores de condiciones iniciales), C = [c 1 , c2 ]. Sabemos que si
P es la matriz que conjuga a la matriz A con su forma normal Λ, P−1 AP = Λ, entonces

(4.27) ϕ1 (t, c1 ) = PΦΛ (t, P−1 c1 ) , ϕ2 (t, c2 ) = PΦΛ (t, P−1 c2 ) ,


donde ΦΛ corresponde a la matriz que en cada caso modelo definimos en las secciones anteriores como e Λt y que
define a las soluciones de la ecuación ẏ = Λy correspondiente. Así, la matriz Φ A (t, C) podemos escribirla como
80 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Nota: Observa que el resultado tiene que ser el mismo resultado que el obtenido en el ejercicio (c) de la última
sección de ejercicios. Se sugiere analizar con detalle.

4.6. Teorema de Liouville


Esta sección vamos a dedicarla al teorema de Liouville para ecuaciones diferenciales ordinarias. Este teorema
es conocido también como fórmula de Liouville o fórmula de Abel-Liouville.
Antes de enunciar el teorema de Liouville vamos a dar un resultado que nos permite conocer la dimensión
del espacio de soluciones de una ecuación diferencial lineal con coeficientes constantes. En esencia lo único que
haremos es establecer, como consecuencia del teorema de existencia y unicidad (ver teorema 9.10), un isomorfismo
entre las soluciones de una ecuación diferencial lineal en Rn y sus condiciones iniciales (este teorema es igualmente
válido para el caso correspondiente en Cn ). A saber,

Teorema 4.37. El espacio vectorial χ formado por el conjunto de soluciones de la ecuación diferencial ẋ = Ax,
x ∈ Rn (ẋC = AC xC , x ∈ Cn ) es isomorfo al espacio de las fases de la ecuación.

Demostración. Sea Bτ la familia de transformaciones dada por


B τ
ϕ(t, x0 ) �−→ ϕ(τ, x0 ) .
Observamos que para cada valor fijo de τ , la transformación B τ , Bτ : χ �−→ Rn , hace corresponder a cada solución
φ(t, x0 ) de la ecuación el punto correspondiente a dicha solución en el tiempo t = τ . La transformación B τ es un
homomorfismo con la suma; nosotros vamos a considerar B0 , es decir, τ = 0 (ver figura 4.20).
B0 (ϕ(t, x0 )) = ϕ(0, x0 ) = x0 .
Demostraremos que B0 es biyectiva. Con ello obtendremos que B0 define un isomorfismo entre χ y Rn .

(a) B0 es suprayectiva pues para cada c ∈ Rn , basta considerar la solución ϕ(t, c) con condición inicial c.
(b) B0 es inyectiva pues si B0 (ϕ(t, x0 )) = 0, entonces
B0 (ϕ(t, x0 )) = ϕ(τ, x0 )τ =0 = 0 .
Por el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales (ver teorema 9.10), la
solución ϕ(t, 0) tiene que ser la constante cero, ϕ(t, x0 ) ≡ 0.
Así, B0 (χ) = Rn y por lo tanto dim(χ) = n. �

Figura 4.20.

Sabiendo ahora que el espacio de soluciones de una ecuación lineal en R n tiene dimensión n, podemos
preguntarnos si dadas n soluciones de una ecuación diferencial lineal éstas generan o no al resto de las soluciones.
Veamos por ejemplo el caso en dimensión dos. Nos preguntamos si dadas dos soluciones ϕ 1 y ϕ2 de la ecuación
ẋ = Ax, x ∈ R2 , cualquier otra solución x(t) de ẋ = Ax puede ser escrita o no como combinación lineal de ϕ 1 y
ϕ2 , i. e., x(t) = c1 ϕ1 + c2 ϕ2 .
En otra palabras, nos preguntamos si existen constantes c1 , c2 ∈ R tales que
� � � �
x1 (t) � � c1
= ϕ1 (t) ϕ2 (t) ∀t ∈ R.
x2 (t) c2
4.6. TEOREMA DE LIOUVILLE 81

La respuesta está entonces centrada en ver si la matriz definida por las soluciones ϕ 1 y ϕ2 es o no invertible; es
decir, siempre podemos encontrar c1 y c2 si
� �
det ϕ1 (t) ϕ2 (t) �= 0 para todo t ∈ R.
Esto nos conduce a la siguiente definición (válida en Rn ).

Definición 4.38. Decimos que el wronskiano de dos funciones vectoriales f j : I −→ R2 , j = 1, 2, es el área


orientada del paralelogramo generado por los vectores f 1 (t) = (f11 (t), f12 (t)) y f2 (t) = (f21 (t), f22 (t)) en R2 (para
cada t fija). � �
f11 (t) f21 (t)
W (t) = det .
f12 (t) f22 (t)

Figura 4.21.

A partir de esta definición surgen de manera natural las siguientes preguntas:


a) ¿Será cierto que si W (t) = 0 para algún t = t0 , entonces f1 es linealmente dependiente con respecto a
f2 sobre R? Es decir, ¿f2 (t) = cf1 (t) para alguna c ∈ R?

No. Por ejemplo: f1 (t) = (t, t2 ) y f2 (t) = (t, t + t2 ) son tales que W (0) = 0 pero f1 y f2 son
linealmente independientes sobre R.

b) ¿Será cierto entonces que si W (t) = 0 para todo t ∈ R, entonces f2 (t) = cf1 (t), para alguna c ∈ R?

Tampoco. Por ejemplo: f1 (t) = (1, t5 ) y f2 (t) = (t3 , t8 ).

¿En qué consiste entonces el papel del wronskiano? La respuesta a esta pregunta está en el siguiente teorema de
Joseph Liouville (1809-1882, Francia). Enunciamos por el momento una versión sencilla del teorema, por lo que
lo llamaremos «chico». Más adelante daremos otras dos versiones más generales.

Teorema 4.39 (de Liouville -chico-). El wronskiano W (t) de las soluciones de la ecuación ẋ = Ax satisface la
ecuación diferencial
(4.25) Ẇ = trA · W .
En otras palabras W (t) = etrAt c, con c = W (0).

Demostración. Analicemos el caso n = 2. Denotemos por ΦA (t, C) a la matriz formada por las soluciones
ϕ1 (t, c1 ), ϕ2 (t, c2 ) de la ecuación ẋ = Ax,

(4.26) ΦA (t, C) = [ϕ1 (t, c1 ), ϕ2 (t, c2 )] ,


donde C es la matriz de coeficientes constantes (vectores de condiciones iniciales), C = [c 1 , c2 ]. Sabemos que si
P es la matriz que conjuga a la matriz A con su forma normal Λ, P−1 AP = Λ, entonces

(4.27) ϕ1 (t, c1 ) = PΦΛ (t, P−1 c1 ) , ϕ2 (t, c2 ) = PΦΛ (t, P−1 c2 ) ,


donde ΦΛ corresponde a la matriz que en cada caso modelo definimos en las secciones anteriores como e Λt y que
define a las soluciones de la ecuación ẏ = Λy correspondiente. Así, la matriz Φ A (t, C) podemos escribirla como
82 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

(4.28) ΦA (t, C) = PΦΛ (t)P−1 C,


Por consiguiente, si escribimos, por brevedad, W (t) = W [ϕ2 , ϕ2 ] (t), entonces

(4.29) W (t) = det ΦA (t, C) = det P det ΦΛ (t) det P−1 det C.
Finalmente,
(4.30) W (t) = det ΦA (t, C) = det ΦΛ (t) det C.
En otras palabras, el wronskiano de ΦA (t, C) depende del wronskiano de la matriz dada por las soluciones ΦΛ (t)
de la ecuación en su forma normal y el determinante de la matriz de condiciones iniciales det C. Tenemos tres
casos a analizar según sean las raíces del polinomio característico de A (que son las del polinomio característico
de Λ):
� �
λ1 0
(1) Si Λ = , entonces y(t) = eΛt p, con p = (p1 , p2 ), y la matriz ΦΛ (t) está dada por
0 λ2
� λ1 t �
e 0
ΦΛ (t) = λ2 t .
0 e
Así, � λ1 t �
e 0
W (t) = det ΦΛ (t) det C = det λ2 t W (0).
0 e
6
Por lo tanto, W (t) = det ΦΛ (t) det C = etrΛt det C = etrAt det C . Claramente, si t = 0, entonces
W (0) = det C. Así,
W (t) = det ΦA (t, C) = det ΦΛ (t) det W (0) = etrAt det W (0).
� � � �� �
a −b cos bt − sen bt p1
(2) Si Λ = , entonces y(t) = eat . Por consiguiente, la matriz ΦΛ (t)
b a sen bt cos bt p2
es igual a
� �
cos bt − sen bt
ΦΛ (t) = eat .
sen bt cos bt
Por lo tanto, el wronskiano es en este caso

W (t) = e2at (cos2 bt + sen2 bt) det C = e2at det C = etrAt W (0).
� �
µ 1
(3) Si Λ = , entonces
0 µ
� µt �
e teµt
W (t) = det eΛt det C = det det C = e2µt det C = etrΛ det C = etrA W (0).
0 eµt
Para el caso general, sólo resta ver que la matriz Λ está descompuesta en tres bloques diferenciados que
nos permiten expresar tanto al espacio vectorial de condiciones iniciales como al de soluciones en suma directa.
Distinguimos una submatriz diagonal correspondiente a las raíces reales simples del polinomio característico , una
submatriz por bloques correspondientes a la expresión matricial de números complejos simples (como en el inciso
(2)), y una submatriz dada por bloques triangulares de distintas dimensiones según sean las multiplicidades de
las distintas raíces del polinomio característico. En cada uno de estos bloques ya preparados se hace el análisis
correspondiente, tal como se hizo en el caso de dimensión dos. Con esto finalizamos la demostración. �

Observación 4.40. El teorema de Liouville nos dice que, en el caso de soluciones ϕ 1 y ϕ2 de una ecuación
diferencial lineal, el wronskiano W (t) = W [ϕ1 (t), ϕ2 (t)] tiene la propiedad de que W (τ ) = 0, para alguna
t = τ ∈ R, si y sólo si W (t) = 0, para toda t ∈ R.
En efecto, si W (τ ) = e(trA)τ W (0) = 0, entonces
W (t) = e(trA)(t+τ −τ ) W (0) = etrA(t−τ ) · etrAτ W (0) = 0 , para todo t ∈ R .
� �
Por lo tanto, si dos soluciones ϕ1 y ϕ2 son tales que det ϕ1 ϕ2 = 0, para alguna τ ∈ R, entonces W (t) = 0
para toda t ∈ R. La generalización de esta observación para más variables es inmediata.

Observación 4.41. El teorema de Liouville nos permite determinar entonces cuándo soluciones de una ecuación
diferencial lineal son linealmente independientes. En efecto, bastará con evaluar su wronskiano en un valor de t
específico,–por simplicidad, algunas veces es conveniente tomarlo en el valor de t de la condición inicial–. Esta
noción de independencia lineal de soluciones de una ecuación diferencial nos permite centrar nuestra atención en

6trA = trΛ (ver [S-R],[Z])


4.6. TEOREMA DE LIOUVILLE 83

soluciones que sean generadoras del resto de las soluciones. Esto lo asentamos en la siguiente definición de matriz
fundamental de soluciones.

Definición 4.42. Sea


(4.31) ẋ = Ax , x ∈ Rn ,
donde A es una matriz de n × n de coeficientes constantes en R. Decimos que una matriz Φ A (t) formada por
n soluciones φ1 (t), ..., φn (t) es una matriz fundamental de soluciones si éstas son linealmente independientes, es
decir, si su wronskiano W (t) es distinto de cero para alguna t. Más aún, si Φ A (t) evaluada en la condición inicial
t0 es la matriz identidad, ΦA (t0 ) = Id, decimos que la matriz fundamental es una matriz fundamental canónica.

Ejemplos. Veamos los siguientes ejemplos sencillos.


� �
5 0
(1) Sea ẋ = x. Las soluciones son de la forma ϕ1 (t) = (e5t c1 , e−2t c2 ). Si ϕ2 = kϕ1 , entonces
0 −2
ϕ2 (0) = k(c1 , c2 ).
� 5t � � �
e c1 0
ϕ2 (t) = k +k −2t .
0 e c2
Es sencillo en este ejemplo formar una matriz fundamental canónica de soluciones. A saber,
� 5t �
e 0
ΦA (t) = .
0 e−2t
� � � �
0 −1 c1 cos t − c2 sen t
(2) Sea ẋ = x. Las soluciones son de la forma x(t) = Por lo tanto podemos
1 0 c1 sen t + c2 cos t
escribir,
� � � �
cos t c1
ϕ1 (t) = c1 , ϕ1 (0) = ,
sen t 0
y también
� � � �
− sen t 0
ϕ2 (t) = c2 , ϕ2 (0) .
cos t c2
Observamos que ϕ1 genera a las soluciones que tienen como condición inicial (c1 , 0) y ϕ2 las que tienen
(0, c2 ). En este ejemplo es sencillo también formar una matriz fundamental canónica de soluciones. A
saber,
� �
cos t − sen t
ΦA (t) = .
sen t cos t

A continuación enunciamos dos teoremas de Liouville. En realidad lo que llamamos teorema “chico” y “medi-
ano” son casos particulares del teorema de Liouville (para distinguirlos los hemos llamado “chico” y "mediano").

Teorema 4.43 (de Liouville -mediano-). El wronskiano W (t) de las soluciones de la ecuación ẋ = A(t)x satisface
la ecuación
Ẇ = trA(t)W
donde A(t) es una matriz que depende de t.

Teorema 4.44 (de Liouville). Sea D ∈ Rn un conjunto contenido en el dominio de definición de v(x), ẋ = v(x).
Denotamos por D(t) a la imagen de D bajo la acción del flujo de la ecuación: D(t) = {ϕ(t, x)|x ∈ D}, y sea V (t)
el volumen de la región D(t). Entonces

dV
= div (v(x)) dx.
dt D(t)

En particular, si ẋ = −Hy , ẏ = Hx , para una función H : U −→ R, H ∈ Ck , k > 2, entonces


div v(x) = −Hyx + Hxy = 0,
y el volumen V (t) del flujo al tiempo t permanece constante para toda t.

Un campo vectorial v(x) diferenciable (de clase C1 (U )) definido en un abierto U de R2 , se denomina hamilto-
niano si existe una función H , H : U −→ R , H ∈ C2 (U ) tal que v(x) = (Hy , −Hx ). En este caso, la ecuación que
dicho campo vectorial define es de la forma ẋ = Hy y ẏ = −Hx . Este tipo de ecuaciones tiene una gran cantidad
de propiedades, mismas que habremos de explorar en el capítulo 8.
CAPÍTULO 5

Ecuaciones diferenciales lineales de primer orden no homogéneas

Una vez que hemos aprendido a resolver ecuaciones lineales

(5.1) ẋ = Ax, x ∈ Rn , A ∈ Mn×n (R)

podemos estudiar ahora otro tipo de ecuaciones no lineales de la forma

(5.2) ẋ = Ax + B(t),

donde B(t) = [b1 (t), ..., bn (t)] es un vector en Rn cuyas entradas son funciones diferenciables. La técnica para
resolver este tipo de ecuaciones se llama variación de parámetros o variación de constantes 1. Lo primero que
haremos será dar una caracterización del conjunto de soluciones de la ecuación (5.2).

Para entender la esencia del problema, consideremos primero el caso n = 2, es decir, cuando tenemos una
ecuación de la forma
� � � �� � � �
ẋ a b x b1 (t)
(5.3) = + , (x, y) ∈ R2 ,
ẏ c d y b2 (t)
Notemos que si ϕ y ξ son soluciones de la ecuación ẋ = Ax, entonces cualquier combinación lineal de éstas
también será una solución. En efecto, si k1 , k2 ∈ R, entonces
d(k1 ϕ + k2 ξ) d(k1 ϕ) d(k2 ξ)
= + = k1 A(ϕ) + k2 A(ξ) = A(k1 ϕ + k2 ξ).
dt dt dt
Recordemos ahora que una matriz fundamental de soluciones de la ecuación
� � � �� �
ẋ a b x
(5.4) =
ẏ c d y
es una matriz invertible de la forma
 
ϕ1 (t) ξ1 (t)
Φ(t) =  ,
ϕ2 (t) ξ2 (t)

tal que Φ̇ = AΦ, es decir


    
ϕ˙1 ξ˙1 a b ϕ1 ξ1
 =  
ϕ˙2 ξ˙2 c d ϕ2 ξ2

 
aϕ1 + bϕ2 aξ1 + bξ2
=  = [Aϕ Aξ].
cϕ1 + dϕ2 cξ1 + dξ2

Las columnas ϕ, ξ de Φ son soluciones linealmente independientes de la ecuación (5.4), y por lo tanto generan al
conjunto de soluciones de la ecuación ẋ = Ax. Si ahora consideramos un vector k = (k 1 , k2 ) entonces Φk también
es una solución de (5.4) puesto que es una combinación lineal de ϕ y ξ
        
ϕ1 ξ 1 k1 ϕ 1 k1 + ξ 1 k 2 ϕ1 ξ1
Φk =     =   = k1   + k2  
ϕ2 ξ 2 k2 ϕ 2 k1 + ξ 2 k 2 ϕ2 ξ2

= k1 ϕ + k2 ξ.

1Este método se encuentra presente en los textos de Leonhard Euler (1707–1783), así como en los de Joseph-Louis Lagrange
(1736–1813).

99
100 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Una vez hechas estas observaciones, supongamos que φ es una solución de la ecuación (5.3). Por consiguiente
se satisface la igualdad φ̇ = Aφ + B(t). Veamos ahora que Φk + φ también es una solución de (5.3)
d(Φk + φ) d(Φk) dφ d(k1 ϕ + k2 ξ) dφ dϕ dξ dφ
= + = + = k1 + k2 +
dt dt dt dt dt dt dt dt

= k1 Aϕ + k2 Aξ + Aφ + B(t)

� �
= A (k1 ϕ + k2 ξ ) + φ + B(t).

Finalmente,
d(Φk + φ)
= A(Φk + φ) + B(t).
dt
Recíprocamente, si ψ es una solución de la ecuación ẋ = Ax + B entonces existe (α1 , α2 ) ∈ R2 tal que
ψ = Φα + φ. Para demostrar esta última afirmación, consideremos la resta ψ − φ y derivemos
d(ψ − φ)
= ψ̇ − φ̇ = (Aψ + B) − (Aφ + B) = Aψ − Aφ = A(ψ − φ).
dt
Esta igualdad significa que ψ − φ es una solución de la ecuación ẋ = Ax. Como ϕ y ξ generan al espacio de
soluciones de dicha ecuación, existen α1 , α2 ∈ R tales que ψ − φ = α1 ϕ + α2 ξ = Φα, por lo tanto ψ = Φα + φ.

De este modo hemos podido caracterizar a las soluciones de la ecuación


(5.5) ẋ = Ax + B(t), x ∈ R2 ,
como aquellas que pertenecen al conjunto {Φk + φ} donde Φ es una matriz fundamental de la ecuación diferencial
ẋ = Ax, φ es una solución particular de ẋ = Ax + B y k ∈ R2 .

Observación: Es inmediato ver que el análisis que hicimos de las soluciones de (5.3) se traslada análogamente
al caso en que A ∈ Mn×n (R) y x, B ∈ Rn . Queda al lector convencerse de lo anterior.

5.1. Variación de parámetros


El método de variación de parámetros consiste en construir las soluciones de la ecuación no homogénea
(5.6) ẋ = Ax + B(t), x ∈ Rn
a partir de la matriz fundamental canónica2 de soluciones Φ, Φ(0) = Id, de la ecuación
(5.7) ẋ = Ax , x ∈ Rn .
Para ello, proponemos como posible solución a una de la forma Ψ(t) = Φ(t)F (t). El objetivo es dar una expresión
explícita de F , a fin de tener una solución Ψ completamente determinada. Comencemos derivando nuestra
propuesta de solución
(5.8) Ψ̇ = ΦḞ + Φ̇F = ΦḞ + AΦF.
Si Ψ fuese, en efecto, una solución, debería de satisfacer que Ψ̇ = AΨ + B, así que igualamos esta expresión con
(5.8) para poder hallar a F
(5.9) Ψ̇ = ΦḞ + AΦF = AΨ + B.
Sustituyendo la expresión Ψ(t) = Φ(t)F (t) en (5.9) se tiene
ΦḞ + AΦF = AΦF + B.
Por consiguiente,
(5.10) ΦḞ = B.
Como Φ es una matriz fundamental canónica, es invertible para todo tiempo (ver 4.40). Por consiguiente, podemos
multiplicar la igualdad (5.10) por la matriz inversa, Φ−1 , para obtener que Ḟ = Φ−1 B. A continuación integramos
esta expresión de 0 a t:
� t � t
Ḟ (τ ) dτ = Φ−1 (τ )B(τ ) dτ.
0 0
Por el teorema fundamental del cálculo se tiene
� t
F (t) − F (0) = Φ−1 (τ )B(τ ) dτ.
0

2Recordemos que esto quiere decir que las columnas de Φ son soluciones linealmente independientes y además Φ(0) = Id.
5.1. VARIACIÓN DE PARÁMETROS 101

Y por lo tanto,
� t
F (t) = F (0) + Φ−1 (τ )B(τ ) dτ.
0
Ahora sustituimos esta expresión de F en Ψ para obtener que
� � t �
Ψ(t) = Φ(t) F (0) + Φ−1 (τ )B(τ ) dτ
0
� t
= Φ(t)F (0) + Φ(t) Φ−1 (τ )B(τ ) dτ.
0
Nos queda averiguar el término F (0). Para ello, consideremos la solución Ψ en el tiempo t = 0
� 0
Ψ(0) = Φ(0)F (0) + Φ(0) Φ−1 (τ )B(τ ) dτ = Id F (0) = F (0).
0
Esto nos dice que F (0) es nuestra condición inicial, que variamos en Rn . Ahora si ya tenemos completamente
determinada a nuestra solución Ψ, a saber
� t
(5.11) Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn .
0
Aunque por construcción sabemos que hemos obtenido con este procedimiento la solución general de la ecuación
original (5.6), observemos qué pasa al derivar el segundo sumando de la expresión de Ψ
� � t � � t
d
Φ(t) Φ−1 (τ )B(τ ) dτ = Φ̇(t) Φ−1 (τ )B(τ ) dτ + Φ(t)Φ−1 (t)B(t)
dt 0 0
� � t �
= A Φ(t) Φ−1 (τ )B(τ ) dτ + B(t).
0
�t −1
Esto significa que Φ(t) 0 Φ (τ )B(τ ) dτ es una solución particular de ẋ = Ax + B, así que por la caracterización
que hicimos antes de las soluciones de esta ecuación, podemos concluir que el espacio de soluciones es el conjunto
� � t �
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ | K ∈ Rn .
0

Ejemplo 5.1. Hallar las soluciones de la ecuación


� � � �� � � �
ẋ 3 0 x 2e−t √
(5.12) = + 3t x(0) = π, y(0) = 2
ẏ 0 −4 y e
usando el método de variación de parámetros.
� �
3 0
Solución: Como la matriz A = es diagonal, sus valores propios son λ1 = 3 y λ2 = −4, por lo que
0 −4
las soluciones están dadas por
� � � 3t �� �
x(t) e 0 k1
= −4t .
y(t) 0 e k2
� 3t �
e 0
La matriz Φ(t) = es la matriz fundamental canónica, Φ(0) = Id. Su inversa es
0 e−4t
� −4t � � −3t �
1 e 0 e 0
Φ−1 (t) = −t 3t = 4t .
e 0 e 0 e
Por consiguiente,
      
e−3t 0 2e−t e−3t 2e−t 2e−4t
−1
Φ (t)B(t) =   = = .
0 e4t e3t e4t e3t e7t

Así, la solución Ψ(t) con condición inicial K = (π, 2) está dada por
 3t    3t   � t −4τ 
e 0 π e 0 0
2e dτ
Ψ(t) =  

+ 
� t 7τ

0 e−4t 2 0 e−4t 0
e dτ

   �t     −4t

πe3t 2e3t 0
e−4τ dτ πe3t 2e3t (1−e4 )

= √ + = +





�t √
2e−4t 2e−4t
−4t 7τ 7t
e e dτ −4t (e −1)
0 e 7
102 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Finalmente, la solución Ψ(t) buscada es


 
e3t −e−t
πe3t + 2
 
Ψ(t) =  .
√ −4t (e3t −e−4t )
2e + 7

El alcance que tiene este método es muy amplio y suele encontrarse en diversos contextos. Veremos ahora
cómo éste nos permite resolver ecuaciones diferenciales que involucran derivadas de orden superior. En particular,
nos concentramos en las ecuaciones de segundo orden de la forma aẍ + bẋ + cx = f (t) pues nos permiten entender
fenómenos físicos que pueden ser estudiados por las ecuaciones de Newton.

Ejemplo 5.2. Resuelve la ecuación ẍ + 16x = 5 cos 2t usando el método de variación de parámetros.

Solución. Definiendo y = ẋ tenemos que ẏ = ẍ = 5 cos 2t − 16x, y entonces la ecuación de primer orden
equivalente en R2 es
� � � �� � � �
ẋ 0 1 x 0
(5.13) = + .
ẏ −16 0 y 5 cos 2t

Primero buscaremos una matriz fundamental canónica de soluciones de la ecuación homogénea


� � � �� �
ẋ 0 1 x
(5.14) = .
ẏ −16 0 y

El polinomio característico de la matriz que define la ecuación (5.14) es p(λ) = λ 2 + 16 y sus raíces son λ1 = 4i y
λ2 = −4i. Busquemos un vector propio f = (f1 , f2 ) asociado a λ1 ; para ello, debemos resolver el siguiente sistema
� �� � � �
−4i 1 f1 0
= .
−16 −4i f2 0

Por consiguiente, −4i f1 +f2 = 0. Tomando f1 = 1 tenemos que f2 = 4i, y por lo tanto f = (1, 4i) = (1, 0)+i(0, 4).
Así, las soluciones de (5.14) están dadas por

� � � �� �� �
x(t) 0 1 cos 4t −sen4t k1
= .
y(t) 4 0 sen4t cos 4t k2
� �
0 1
Para obtener una matriz fundamental canónica de soluciones notemos que la inversa de P = es
4 0
� �
0 14
P−1 = ; así, la matriz fundamental canónica correspondiente es
1 0
� �
cos 4t −sen4t
Φ(t) = P P−1
sen4t cos 4t
� �� �� �
0 1 cos 4t −sen4t 0 14
=
4 0 sen4t cos 4t 1 0
� �� �
sen4t cos 4t 0 14
=
4 cos 4t −4sen4t 1 0
� �
cos 4t 1
4
sen4t
= .
−4sen4t cos 4t

Ahora calculemos su inversa. Para ello, notemos que el determinante de Φ es 1, y por lo tanto
� �
cos 4t − 14 sen4t
Φ−1 = .
4sen4t cos 4t

La solución Ψ de la ecuación (5.13) es entonces

� � � � � t � �
x(t) c1 0
Ψ(t) = = Φ(t) + Φ(t) Φ−1 (τ ) dτ.
y(t) c2 0 5 cos 2τ
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 103

Es decir,
� �� �
cos 4t 1
4
sen4t c1
=
−4sen4t cos 4t c2
� �� t � �� �
cos 4t 1
4
sen4t cos 4τ − 14 sen4τ 0
+ dτ,
−4sen4t cos 4t 0 4sen4τ cos 4τ 5 cos 2τ

y por lo tanto,
 c2

c1 cos 4t + 4
sen4t
Ψ(t) =  
−c1 4sen4t + c2 cos 4t
  �t 
cos 4t 1
4
sen4t − 0 54 cos 2τ.sen4τ dτ
+ 
�t
.
−4sen4t cos 4t 0
5 cos 2τ. cos 4τ dτ

5.2. Ecuaciones diferenciales lineales de segundo orden


Las ecuaciones de segundo orden son ecuaciones que aparecen de manera natural al analizar una partícula x(t)
que se desplaza con el tiempo y se considera no sólo la primera la derivada de la posición ẋ(t) con respecto al tiempo
(la velocidad), sino también la segunda derivada ẍ(t) (la aceleración). Estas ecuaciones, como es natural, están
íntimamente ligadas a los fenómenos asociados a las leyes de Newton. Para el caso de ecuaciones de segundo orden
con coeficientes constantes daremos inicialmente un enfoque desde el punto de vista de ecuaciones diferenciales
lineales definidas por matrices, que es un contexto completamente natural en el marco de lo que hemos venido
trabajando hasta este momento. Posteriormente, retomaremos el mismo problema con un enfoque que no hace
uso de las matrices. Estas dos perspectivas, en especial la segunda, son visiones que están ampliamente presentes
en la literatura. Con el primer enfoque, haciendo uso de las ecuaciones diferenciales lineales en dos variables
y del método de variación de parámetros, se logran resolver de manera explícita todas las ecuaciones de este
tipo. Sin embargo, algunas veces se requiere tener expresiones más simples de las soluciones y es ahí en donde el
segundo enfoque resulta atractivo (aunque es más limitado el espectro de ecuaciones que pueden resolverse). Por
estas razones daremos dos perspectivas para resolver las ecuaciones mencionadas. Más adelante, dedicaremos una
sección a dar ejemplos sencillos de vibraciones mecánicas en donde se analizarán fenómenos como el oscilador con
y sin amortiguamiento, y la aparición de pulsos y resonancias, entre otros ejemplos. Finalmente, dedicaremos un
pequeño apartado a las ecuaciones de segundo orden con coeficientes variables. Este tipo de ecuaciones admiten
también un enfoque matricial y uno que resulta de proponer soluciones expresadas en series de potencia para
después analizar su convergencia. En el marco de las ecuaciones diferenciales con parametrización en C, las
ecuaciones de segundo orden con coeficientes variables dan lugar a las ecuaciones de tipo Fuchs y al problema de
Riemann-Hilbert. Una exposición muy interesante sobre este tema puede consultarse en el libro de Yu. Ilyashenko
y S.Yakovenko [Il-Ya].

5.2.1. Ecuaciones diferenciales lineales de segundo orden con coeficientes constantes. Una ecuación
de segundo orden con coeficientes constantes es una ecuación de la forma

(5.15) aẍ + bẋ + cx = f (t),

donde a, b y c son constantes y f es una función diferenciable (basta pedir que la función f sea continua). Una
manera de proceder para hallar las soluciones es llevar la ecuación (5.15) a una de primer orden en R 2 definiendo
una nueva variable y = ẋ. Entonces, despejando a ẋ de la ecuación obtenemos que ẏ = ẍ = f (t)a
− ab ẋ − ac x =
f (t)
a
− a y − a x, y la ecuación de primer orden asociada es
b c

      
ẋ 0 1 x 0
(5.16)  =  + .
c b f (t)
ẏ − a
− a
y a

La ecuación (5.16), por todo lo que hemos visto en los capítulos previos, ya la sabemos resolver por variación de
parámetros (ver (5.11)). A saber,

� t
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn ,
0

donde Φ(t) es la matriz fundamental canónica de la ecuación diferencial homogénea y B(t) es el vector que define
el término no homogéneo de la ecuación,
104 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

 
0
B(t) =  .
f (t)
a
Cabe hacer notar que las soluciones obtenidas de esta manera tienen, por construcción, a las soluciones de la
ecuación (5.15) representadas por el primer renglón de la matriz, y a su derivada en el segundo renglón. Es claro
de la expresión obtenida para Ψ, que toda ecuación de la forma (5.15) con f continua, tiene una solución explícita
dada por (5.11). El problema estará entonces en resolver la integral correspondiente, lo que algunas veces puede
resultar complicado, cuando no imposible. Notamos también que el espacio de soluciones es de dimensión dos en
las variables x y y, lo que significa que se requieren dar dos condiciones iniciales x(0) = k1 y y(0) = k2 . Esto,
dado que por definición y = ẋ, significa que en las condiciones iniciales de la ecuación estamos fijando la posición
inicial del objeto y su velocidad.

Ejemplo 5.3. Resolvamos la ecuación diferencial de segundo orden no homogénea definida por
(5.17) x�� + 9x = e−5t x(0) = 7, x� (0) = 5.
La ecuación equivalente en R2 haciendo y = x� es:
� � � �� � � �
ẋ 0 1 x 0
(5.18) = + −5t .
ẏ −9 0 y e

Empezaremos resolviendo la ecuación homogénea.

Solución de la ecuación homogénea.


El polinomio característico es p(λ) = λ2 + 9 y por lo tanto sus raíces son λ = ±3i. Así, si complejificamos la
ecuación homogénea
� � � �� �
ẋ 0 1 x
=
ẏ −9 0 y
podemos encontrar los vectores propios de la matriz en C2 encontrando f11 y f12 en la expresión:
� �� � � �
−3i 1 f11 0
(AC − (3i)I) f = = .
−9 −3i f12 0
Así, −3if11 + f12 = 0. Haciendo f11 = 1, se tiene f12 = 3i, y por lo tanto, f = (1, 3i) = (1, 0) +i (0, 3). Por
� �� � � �� �
u v
consiguiente, la matriz fundamental de soluciones es:
� �� � � �
0 1 cos 3t −sen3t sen3t cos 3t
Φ(t) = = ,
3 0 sen3t cos 3t 3cos3t −3sen3t
y la solución Ψ de la ecuación no homogénea (5.3) es:
� � t � � �
0
Ψ(t) = Φ(t) g(t0 ) + Φ−1 (τ ) −5t dτ .
t0 =0 e τ

� �
0 1
Observación 5.4. Hacemos notar que Φ(0) = , es decir, Φ es matriz fundamental pero no canónica.
3 0

� �
7
Por consiguiente, para obtener los valores de k1 y k2 observamos que Ψ(0) = , pues x(0) = 7, x� (0) = 5
5
son las condiciones iniciales dadas. Entonces,
� � � � � �� �
7 k1 0 1 k1
= Ψ(0) = Φ(0)g(t0 ) = Φ(0) =
5 k2 3 0 k2
así, k2 = 7 y 3k1 = 5.

Finalmente, � � �� 5 � � � � �
t
sen3t cos 3t 0
Ψ(t) = 3 + Φ−1 (τ ) dτ .
3 cos 3t −3 sin 3t 7 0 e−5τ
.

Ejercicio 5.5. (1) Haz el retrato de las fases en R2 de la ecuación homogénea (5.3) asociada a la ecuación
no homogénea (5.18).
(2) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación homogénea.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 105

(3) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación no homogénea (5.18). Ob-
serva que, en este ejemplo, el comportamiento que de la solución particular lo puedes deducir fácilmente,
¿por qué?

Como hicimos mención al inicio de este apartado, existe otro método para encontrar las soluciones de (5.15)
que podría parecer menos natural que el método de variación de parámetros, pero que es útil para fines prácticos.
Para explicar cómo se procede introducimos el operador
(5.19) L[x] = aẍ + bẋ + cx.
El operador L[x] es lineal por estar definido sólo en términos de adiciones y derivación. Las soluciones de
L[x] = f (t) forman un espacio afín; a saber, serán la suma de las soluciones de la ecuación homogénea L[x] = 0
más una solución particular de la ecuación no homogénea L[x] = f (t). Nos ocuparemos primero de resolver la
ecuación homogénea L[x] = 0.
Resolución de la ecuación homogénea L[x] = 0. Para resolver la ecuación homogénea, consideremos
primero el polinomio característico de la matriz
� �
0 1
A= c b .
−a −a
Dicho polinomio es p(λ) = λ2 + ab λ + ac . Recordemos que los valores propios de A son los ceros de p(λ):
b c
p(λ) = λ2 + λ+ =0
a a
Equivalentemente, son los ceros del polinomio
aλ2 + bλ + c = 0.

−b± b2 −4ac
Por lo tanto, λ = 2a
y entonces tenemos tres casos que dependen del valor de b2 − 4ac.

Caso (i) b2 − 4ac > 0.


En este caso p(λ) tiene dos raíces diferentes λ1 �= λ2 , y proponemos como solución de L[x] = 0 a la función
φ(t, α) = αeλt , donde λ ∈ {λ1 , λ2 } y α es una constante. Veamos lo que sucede al sustituir φ en el operador L
L[φ] = aφ̈ + bφ̇ + cφ
= a(αλ2 eλt ) + b(αλeλt ) + c(αeλt )
= αeλt (aλ2 + bλ + c)
= 0, pues λ es raíz del polinomio característico.
Por lo tanto L[φ] = 0, lo cual quiere decir que φ es solución de la ecuación homogénea. De este modo obtuvimos
dos soluciones linealmente independientes de L[x] = 0, a saber
(5.20) φ1 (t, α) = αeλ1 t y φ2 (t, β) = βeλ2 t , α, β constantes no cero.
Caso (ii) b2 − 4ac < 0.
En este caso tenemos dos raíces complejas que son conjugadas λ = α + iβ y λ = α − iβ. En vista de lo hecho en
el caso anterior, proponemos ahora como solución a la función φ(t, q) = qe λt donde q = q1 + iq2 , y al sustituirla
en el operador L obtenemos lo siguiente
L[φ] = aφ̈ + bφ̇ + cφ
= a(qλ2 eλt ) + b(qλeλt ) + c(qeλt )
= qeλt (aλ2 + bλ + c)
= 0, pues λ es raíz de p(λ).
Ahora desarrollemos la solución φ(t, q):
φ(t, q) = qeλt
= (q1 + iq2 )eαt (cos βt + isenβt)
= eαt (q1 cos βt − q2 senβt) + ieαt (q1 senβt + q2 cos βt)
= φ1 (t, q1 ) + iφ2 (t, q2 )
donde φ1 (t, q1 ) = e q1 cos βt − eαt q2 senβt y φ2 (t, q2 ) = eαt q1 senβt + eαt q2 cos βt son dos soluciones L[x] = 0
αt

linealmente independientes.

Caso (iii) b2 − 4ac = 0.


En este caso el polinomio característico tiene una única raíz λ de multiplicidad dos. Sabemos que φ 1 (t, α) = αeλt
es solución de L[x] = 0, pero necesitamos otra solución linealmente independiente. Para obtenerla propongamos
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 103

Es decir,
� �� �
cos 4t 1
4
sen4t c1
=
−4sen4t cos 4t c2
� �� t � �� �
cos 4t 1
4
sen4t cos 4τ − 14 sen4τ 0
+ dτ,
−4sen4t cos 4t 0 4sen4τ cos 4τ 5 cos 2τ

y por lo tanto,
 c2

c1 cos 4t + 4
sen4t
Ψ(t) =  
−c1 4sen4t + c2 cos 4t
  �t 
cos 4t 1
4
sen4t − 0 54 cos 2τ.sen4τ dτ
+ 
�t
.
−4sen4t cos 4t 0
5 cos 2τ. cos 4τ dτ

5.2. Ecuaciones diferenciales lineales de segundo orden


Las ecuaciones de segundo orden son ecuaciones que aparecen de manera natural al analizar una partícula x(t)
que se desplaza con el tiempo y se considera no sólo la primera la derivada de la posición ẋ(t) con respecto al tiempo
(la velocidad), sino también la segunda derivada ẍ(t) (la aceleración). Estas ecuaciones, como es natural, están
íntimamente ligadas a los fenómenos asociados a las leyes de Newton. Para el caso de ecuaciones de segundo orden
con coeficientes constantes daremos inicialmente un enfoque desde el punto de vista de ecuaciones diferenciales
lineales definidas por matrices, que es un contexto completamente natural en el marco de lo que hemos venido
trabajando hasta este momento. Posteriormente, retomaremos el mismo problema con un enfoque que no hace
uso de las matrices. Estas dos perspectivas, en especial la segunda, son visiones que están ampliamente presentes
en la literatura. Con el primer enfoque, haciendo uso de las ecuaciones diferenciales lineales en dos variables
y del método de variación de parámetros, se logran resolver de manera explícita todas las ecuaciones de este
tipo. Sin embargo, algunas veces se requiere tener expresiones más simples de las soluciones y es ahí en donde el
segundo enfoque resulta atractivo (aunque es más limitado el espectro de ecuaciones que pueden resolverse). Por
estas razones daremos dos perspectivas para resolver las ecuaciones mencionadas. Más adelante, dedicaremos una
sección a dar ejemplos sencillos de vibraciones mecánicas en donde se analizarán fenómenos como el oscilador con
y sin amortiguamiento, y la aparición de pulsos y resonancias, entre otros ejemplos. Finalmente, dedicaremos un
pequeño apartado a las ecuaciones de segundo orden con coeficientes variables. Este tipo de ecuaciones admiten
también un enfoque matricial y uno que resulta de proponer soluciones expresadas en series de potencia para
después analizar su convergencia. En el marco de las ecuaciones diferenciales con parametrización en C, las
ecuaciones de segundo orden con coeficientes variables dan lugar a las ecuaciones de tipo Fuchs y al problema de
Riemann-Hilbert. Una exposición muy interesante sobre este tema puede consultarse en el libro de Yu. Ilyashenko
y S.Yakovenko [Il-Ya].

5.2.1. Ecuaciones diferenciales lineales de segundo orden con coeficientes constantes. Una ecuación
de segundo orden con coeficientes constantes es una ecuación de la forma

(5.15) aẍ + bẋ + cx = f (t),

donde a, b y c son constantes y f es una función diferenciable (basta pedir que la función f sea continua). Una
manera de proceder para hallar las soluciones es llevar la ecuación (5.15) a una de primer orden en R 2 definiendo
una nueva variable y = ẋ. Entonces, despejando a ẋ de la ecuación obtenemos que ẏ = ẍ = f (t)a
− ab ẋ − ac x =
f (t)
a
− a y − a x, y la ecuación de primer orden asociada es
b c

      
ẋ 0 1 x 0
(5.16)  =  + .
c b f (t)
ẏ − a
− a
y a

La ecuación (5.16), por todo lo que hemos visto en los capítulos previos, ya la sabemos resolver por variación de
parámetros (ver (5.11)). A saber,

� t
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn ,
0

donde Φ(t) es la matriz fundamental canónica de la ecuación diferencial homogénea y B(t) es el vector que define
el término no homogéneo de la ecuación,
104 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

 
0
B(t) =  .
f (t)
a
Cabe hacer notar que las soluciones obtenidas de esta manera tienen, por construcción, a las soluciones de la
ecuación (5.15) representadas por el primer renglón de la matriz, y a su derivada en el segundo renglón. Es claro
de la expresión obtenida para Ψ, que toda ecuación de la forma (5.15) con f continua, tiene una solución explícita
dada por (5.11). El problema estará entonces en resolver la integral correspondiente, lo que algunas veces puede
resultar complicado, cuando no imposible. Notamos también que el espacio de soluciones es de dimensión dos en
las variables x y y, lo que significa que se requieren dar dos condiciones iniciales x(0) = k1 y y(0) = k2 . Esto,
dado que por definición y = ẋ, significa que en las condiciones iniciales de la ecuación estamos fijando la posición
inicial del objeto y su velocidad.

Ejemplo 5.3. Resolvamos la ecuación diferencial de segundo orden no homogénea definida por
(5.17) x�� + 9x = e−5t x(0) = 7, x� (0) = 5.

La ecuación equivalente en R haciendo y = x es:
2
� � � �� � � �
ẋ 0 1 x 0
(5.18) = + −5t .
ẏ −9 0 y e

Empezaremos resolviendo la ecuación homogénea.

Solución de la ecuación homogénea.


El polinomio característico es p(λ) = λ2 + 9 y por lo tanto sus raíces son λ = ±3i. Así, si complejificamos la
ecuación homogénea
� � � �� �
ẋ 0 1 x
=
ẏ −9 0 y
podemos encontrar los vectores propios de la matriz en C2 encontrando f11 y f12 en la expresión:
� �� � � �
−3i 1 f11 0
(AC − (3i)I) f = = .
−9 −3i f12 0
Así, −3if11 + f12 = 0. Haciendo f11 = 1, se tiene f12 = 3i, y por lo tanto, f = (1, 3i) = (1, 0) +i (0, 3). Por
� �� � � �� �
u v
consiguiente, la matriz fundamental de soluciones es:
� �� � � �
0 1 cos 3t −sen3t sen3t cos 3t
Φ(t) = = ,
3 0 sen3t cos 3t 3cos3t −3sen3t
y la solución Ψ de la ecuación no homogénea (5.3) es:
� � t � � �
0
Ψ(t) = Φ(t) g(t0 ) + Φ−1 (τ ) dτ .
t0 =0 e−5τ

� �
0 1
Observación 5.4. Hacemos notar que Φ(0) = , es decir, Φ es matriz fundamental pero no canónica.
3 0

� �
7
Por consiguiente, para obtener los valores de k1 y k2 observamos que Ψ(0) = , pues x(0) = 7, x� (0) = 5
5
son las condiciones iniciales dadas. Entonces,
� � � � � �� �
7 k1 0 1 k1
= Ψ(0) = Φ(0)g(t0 ) = Φ(0) =
5 k2 3 0 k2
así, k2 = 7 y 3k1 = 5.

Finalmente, � � �� 5 � � � � �
t
sen3t cos 3t 0
Ψ(t) = 3 + Φ−1 (τ ) −5τ dτ .
3 cos 3t −3 sin 3t 7 0 e
.

Ejercicio 5.5. Resuelve las siguientes preguntas relacionadas con la ecuación (5.3).
a) Haz el retrato de las fases en R2 de la ecuación homogénea asociada a la ecuación no homogénea (5.3).
b) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación homogénea.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 105

c) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación no homogénea (5.3). Ob-
serva que, en este ejemplo, el comportamiento que de la solución particular lo puedes deducir fácilmente,
¿por qué?

Ejercicio 5.6. Encuentra por variación de parámetros las soluciones de las ecuaciones.

a) ẋ1 = 3x1 − 2x2 + t2 b) ẍ + 36x = t3 + e5t


ẋ2 = 2x1 + 3x2 − 5t x(0) = 2, x� (0) = 3.

Como hicimos mención al inicio de este apartado, existe otro método para encontrar las soluciones de (5.15)
que podría parecer menos natural que el método de variación de parámetros, pero que es útil para fines prácticos.
Para explicar cómo se procede introducimos el operador

(5.19) L[x] = aẍ + bẋ + cx.

El operador L[x] es lineal por estar definido sólo en términos de adiciones y derivación. Las soluciones de
L[x] = f (t) forman un espacio afín; a saber, serán la suma de las soluciones de la ecuación homogénea L[x] = 0
más una solución particular de la ecuación no homogénea L[x] = f (t). Nos ocuparemos primero de resolver la
ecuación homogénea L[x] = 0.

Resolución de la ecuación homogénea L[x] = 0. Para resolver la ecuación homogénea, consideremos


primero el polinomio característico de la matriz
� �
0 1
A= .
− ac − ab

Dicho polinomio es p(λ) = λ2 + ab λ + ac . Recordemos que los valores propios de A son los ceros de p(λ):

b c
p(λ) = λ2 + λ+ =0
a a
Equivalentemente, son los ceros del polinomio

aλ2 + bλ + c = 0.

−b± b2 −4ac
Por lo tanto, λ = 2a
y entonces tenemos tres casos que dependen del valor de b2 − 4ac.

Caso (i) b2 − 4ac > 0.


En este caso p(λ) tiene dos raíces diferentes λ1 �= λ2 , y proponemos como solución de L[x] = 0 a la función
φ(t, α) = αeλt , donde λ ∈ {λ1 , λ2 } y α es una constante. Veamos lo que sucede al sustituir φ en el operador L

L[φ] = aφ̈ + bφ̇ + cφ


= a(αλ2 eλt ) + b(αλeλt ) + c(αeλt )
= αeλt (aλ2 + bλ + c)
= 0, pues λ es raíz del polinomio característico.

Por lo tanto L[φ] = 0, lo cual quiere decir que φ es solución de la ecuación homogénea. De este modo obtuvimos
dos soluciones linealmente independientes de L[x] = 0, a saber

(5.20) φ1 (t, α) = αeλ1 t y φ2 (t, β) = βeλ2 t , α, β constantes no cero.

Caso (ii) b2 − 4ac < 0.


En este caso tenemos dos raíces complejas que son conjugadas λ = α + iβ y λ = α − iβ. En vista de lo hecho en
el caso anterior, proponemos ahora como solución a la función φ(t, q) = qe λt donde q = q1 + iq2 , y al sustituirla
en el operador L obtenemos lo siguiente

L[φ] = aφ̈ + bφ̇ + cφ


= a(qλ2 eλt ) + b(qλeλt ) + c(qeλt )
= qeλt (aλ2 + bλ + c)
= 0, pues λ es raíz de p(λ).
106 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Ahora desarrollemos la solución φ(t, q):


φ(t, q) = qeλt
= (q1 + iq2 )eαt (cos βt + isenβt)
= eαt (q1 cos βt − q2 senβt) + ieαt (q1 senβt + q2 cos βt)
= φ1 (t, q1 ) + iφ2 (t, q2 )

donde φ1 (t, q1 ) = e q1 cos βt − eαt q2 senβt y φ2 (t, q2 ) = eαt q1 senβt + eαt q2 cos βt son dos soluciones L[x] = 0
αt

linealmente independientes.

Caso (iii) b2 − 4ac = 0.


En este caso el polinomio característico tiene una única raíz λ de multiplicidad dos. Sabemos que φ 1 (t, α) = αeλt
es solución de L[x] = 0, pero necesitamos otra solución linealmente independiente. Para obtenerla propongamos
(haciendo uso de lo que sabemos sobre las ecuaciones lineales que presentan un valor propio de multiplicidad dos)
una posible solución de la forma φ2 (t, β) = βteλt y veamos lo que obtenemos al sustituirla en el operador L[x]
L[φ2 ] = aφ¨2 + bφ˙2 + cφ2
= a(βλeλt + βλeλt + βtλ2 eλt ) + b(βeλt + βtλeλt ) + c(βteλt )
= a(2βλeλt + βtλ2 eλt ) + b(βeλt + βtλeλt ) + c(βteλt )
= βteλt (aλ2 + bλ + c) + βeλt (2aλ + b).

Observamos que aλ2 + bλ + c = 0 porque λ es raíz del polinomio característico, y en este caso tenemos que
b
λ = − 2a , y por lo tanto también 2aλ + b = 0. Así, L[φ2 ] = 0, lo cual muestra que φ2 también es solución de
la ecuación homogénea y es linealmente independiente de φ1 (t, α) = αeλt . Hacemos notar que φ2 (t, β) pudimos
haberla obtenido utilizando directamente variación de parámetros: φ 2 (t, β) = g(t)φ1 (t, α), y encontrando la ex-
presión precisa de g.

En la siguiente tabla resumimos las soluciones de la ecuación homogénea L[x] = 0 dependiendo del valor del
discriminante b2 − 4ac. Observamos que, en cada caso, la solución general de la ecuación homogénea estará escrita
por combinaciones lineales de las soluciones φ1 y φ2 correspondientes.
Discriminante Raíces Soluciones

b2 − 4ac > 0 λ1 �= λ2 φ1 (t, α) = αeλ1 t , α ∈ R

φ2 (t, β) = βeλ2 t , β ∈ R

b2 − 4ac < 0 λ1 = α + iβ φ1 (t, q1 ) = eαt (q1 cos βt − q2 senβt)

λ2 = α − iβ φ2 (t, q2 ) = eαt (q1 senβt + q2 cos βt)

b2 − 4ac = 0 λ1 = λ 2 φ1 (t, α) = αeλ1 t , α ∈ R

φ2 (t, β) = βteλt , β ∈ R

Ejercicio 5.7. Resuelve la ecuación de segundo orden siguiente sin convertirla a una ecuación lineal de dos
variables equivalente.
ẍ + 5ẋ + 6x = 0 , x(0) = 1, x� (0) = 2.
Grafica con respecto a t la solución x(t) obtenida.

Ejercicio 5.8. Nuevamente, resuelve la ecuación de segundo orden siguiente sin convertirla a una ecuación lineal
de dos variables equivalente.
ẍ − 6ẋ + 9x = 0 , x(0) = −1, x� (0) = 3.
Grafica con respecto a t la solución x(t) obtenida.

Resolución de la ecuación no homogénea L[x] = f (t). Definamos como antes L[x] := ax �� + bx� + cx.
La ecuación homogénea es:
L[x] = 0.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 107

La ecuación no homogénea es:


L[x] = f (t).
Para hallar una solución particular de la ecuación no homogénea, vamos a hacer varios casos según la naturaleza
de la función f (t):
1) L[x] = q(t), q(t) = a0 + a1 t + · · · + an tn .
2) L[x] = keαt , k, α ∈ R (o k, α ∈ C) .
3) L[x] = q(t)e

αt
, q(t) un polinomio en t.
k cos(µt).
4) L[x] =
ksen(µt).
5) L[x] = q(t) cos µt o L[x] = q(t)senµt, q(t) un polinomio en t.
6) Combinaciones de los 4 casos anteriores˙
En los casos (1) ,(3) y (5), el término q(t) es un polinomio en la variable t de grado n,
(5.21) q(t) = αo + α1 t + ... + αn tn .
..
Caso (1) L[x] = ax + bẋ + cx = q(t). Primero resolvemos la ecuación homogénea L[x] = 0, y para la no
homogénea proponemos:

b0 + b1 t + · · · + bn tn si en ax�� + bx� + cx = q(t), c �= 0;
ψ(t) =
b0 + b1 t + · · · + bn+1 t n+1
si en ax�� + bx� + cx = q(t), c = 0.
En efecto, como L[x] está igualado a un polinomio q de grado n, como en (5.21), si c �= 0 debemos proponer como
solución ψ a un polinomio de grado n. Es inmediato observar que si c �= 0 no debemos proponer un polinomio de
grado n + 2 o n + 1 porque el término cψ nos arrojaría una potencia n + 2 o n + 1 de t, y q(t) tiene grado n:
ψ(t) = bo + b1 t + ... + bn tn
La idea es que, usando el hecho de que queremos que ψ sea solución de L[x] = q(t), calculemos los coeficientes
bo , b1 , ..., bn . Para ello primero calculamos ψ̇, ψ̈ y sustituimos en L[x]. Luego factorizamos cada potencia de t,
igualamos los coeficientes correspondientes con los de q(t) y resolvemos para los b i , i = 1, ..., n.

Observación 5.9. Si b = 0 y c = 0 la solución es inmediata.

Este método quedará más claro si hacemos un ejemplo.

Ejemplo 5.10. Hallar la solución general de la ecuación


L[x] = ẍ + 2ẋ − 8x = 6 + t + 4t3
Primero resolvamos la ecuación homogénea
L[x] = ẍ + 2ẋ − 8x = 0.
Para ello, definamos y = ẋ. Entonces, ẍ = ẏ = 8x − 2y , y la ecuación equivalente de primer orden en R 2 es
� � � �� �
ẋ 0 1 x
= .
ẏ 8 −2 y
El polinomio característico de la matriz que define esta ecuación es p(λ) = λ 2 + 2λ − 8 y sus raíces son
� �
−2 + 4 + 4(8) −2 − 4 + 4(8)
λ1 = = 2 y λ2 = = −4.
2 2
Por lo tanto, el conjunto de soluciones de la ecuación homogénea está dado por
φ(t) = k1 e2t + k2 e−4t .
Para hallar ahora una solución particular de la ecuación no homogénea, notemos que el polinomio q(t) = 6+t+4t 3
tiene grado tres, esto nos lleva a proponer entonces como solución un polinomio del mismo grado
ψ(t) = bo + b1 t + b2 t2 + b3 t3 ,
y nuestro objetivo será hallar los coeficientes. Para ello calculemos
ψ̇ = b1 + 2b2 t + 3b3 t2
ψ̈ = 2b2 + 6b3 t.
Posteriormente sustituimos ψ, ψ̇ y ψ̈ en el operador L y factorizamos cada potencia de t:
L[ψ] = ψ̈ + 2ψ̇ − 8ψ
= (2b2 + 6b3 t) + 2(b1 + 2b2 t + 3b3 t2 ) − 8(bo + b1 t + b2 t2 + b3 t3 )
= (2b2 + 2b1 − 8bo ) + (6b3 + 4b2 − 8b1 )t + (6b3 − 8b2 )t2 − 8b3 t3 .
108 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Como queremos que ψ sea solución, deberá cumplirse que L[ψ] = q(t), es decir
(2b2 + 2b1 − 8bo ) + (6b3 + 4b2 − 8b1 )t + (6b3 − 8b2 )t2 − 8b3 t3 , = 6 + t + 4t3 ,
lo cual sucede si y sólo si
(2b2 + 2b1 − 8bo ) = 6 ...(1)
(6b3 + 4b2 − 8b1 ) = 1 ...(2)
(6b3 − 8b2 ) = 0 ...(3)
−8b3 = 4. ...(4)
De (4) tenemos que b3 = − 12 .
Sustituyendo b3 en (3) obtenemos que b2 = 38 .
Luego sustituimos b3 y b2 en (2) y obtenemos que b1 = − 16 5
.
Finalmente, sustituimos b3 , b2 y b1 en (1) y obtenemos que bo = − 47 64
.
Por lo tanto, la solución particular de la ecuación no homogénea L[x] = f (t) es
ψ(t) = − 47
64
5
− 16 t + 38 t2 − 12 t3 .
Finalmente, la solución general de la ecuación ẍ + 2ẋ − 8x = 6 + t + 4t3 es
� �
47 5 3 1
Φ(t) = (k1 e2t + k2 e−4t ) + − − t + t2 − t3 , con (k1 , k2 ) ∈ R2 .
64 16 8 2

Caso (2). L[x] = keαt con α ∈ R (o α ∈ C).


(2.1) Si α ∈ R no es raíz del polinomio característico, proponemos ψ(t) = βe αt . Al sustituir en el operador
L[x] = keαt obtenemos que
L[ψ] = a(βα2 eαt ) + b(βαeαt ) + cβeαt
= βeαt (aα2 + bα + c).
Entonces L[ψ] = keαt si y sólo si βeαt (aα2 + bα + c) = keαt ; por lo tanto, para que ψ sea solución debe
cumplirse que
k
β= .
aα2 + bα + c
(2.2) Si α ∈ R es raíz de multiplicidad uno del polinomio característico, proponemos ψ(t) = βte αt . Susti-
tuyamos nuestra propuesta en L[x] para ver qué condiciones debe cumplir β.
L[ψ] = a(βαeαt + βαeαt + βα2 teαt ) + b(βeαt + βαteαt ) + cβteαt
= βeαt (2aα + aα2 t + b + bαt + ct)
= βteαt (aα2 + bα + c) + βeαt (2aα + b)
= βeαt (2aα + b)
= keαt .
Por lo tanto, β = 2aα+bk
. Observamos que como α es raíz de multiplicidad uno y no dos, entonces
2aα + b �= 0, lo que permite que la constante β esté siempre bien definida.
(2.3) Si α ∈ R es raíz de multiplicidad dos del polinomio característico, proponemos ψ(t) = βt 2 eαt .
L[ψ] =a(2βeαt + 2βαteαt + 2βαteαt + βα2 t2 eαt )
+ b(2βteαt + βαt2 eαt ) + cβt2 eαt
=t2 βeαt (aα2 + bα + c) + 2tβeαt (2aα + b) + 2αβeαt
=2αβeαt
=keαt .
Por lo tanto, β = 2α k
.
En resumen, en el caso 2, resolvemos primero la ecuación homogénea, L[x] = 0, y para la ecuación no homogénea
proponemos Ψ(t) = βeαt si α no es raíz de p(λ) = aλ2 + bλ + c = 0. En este caso, L[ψ] = βeαt ( α2 + bα + c ).
� �� �
�=0
k
Como queremos que L[ψ] = ke , entonces basta definir β =
αt
.
aα2 + bα + c
Si α sí es raíz de p(λ), entonces proponemos:

βt si α es raíz simple de p(λ);
ψ(t) = g(t)eαt con g(t) =
βt2 si α es raíz doble de p(λ).
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 109

Cabe observar que g(t) pudo ser obtenida directamente por variación de parámetros.

Ejemplo 5.11. Hallar el conjunto de soluciones de la ecuación


L[x] = ẍ + 25ẋ = et + e3t .
Primero resolvemos la ecuación homogénea,
(5.22) L[x] = ẍ + 25x = 0.
Para ello, transformamos la ecuación (5.22) en una ecuación de primer orden en R 2 definiendo y = ẋ. Despejando
de (5.22) tenemos que ẍ = ẏ = −25x. Así, la ecuación equivalente es
� � � �� �
ẋ 0 1 x
(5.23) = .
ẏ −25 0 y

El polinomio característico de la matriz que define esta ecuación es p(λ) = λ 2 + 25, y sus raíces son λ1 = 5i y
λ2 = −5i. Hallemos un vector propio f = (f1 , f2 ) asociado al valor propio λ1 . Para ello, resolvemos la siguiente
ecuación
� �� � � �
−5i 1 f1 0
= .
−25 −5i f2 0
De la igualdad anterior se tiene que
−5if1 + f2 = 0
−25f1 − 5if2 = 0.
Si tomamos f1 = 1, entonces f2 = 5i. Así, f = (1, 5i) = (1, 0) + i(0, 5). Luego, las soluciones a la ecuación
diferencial (5.23) son
� � � �� �� �
x(t) 0 1 cos 5t −sen5t k1
=
y(t) 5 0 sen5t cos 5t k2
� �� �
sen5t cos 5t k1
= ,
5 cos 5t −5sen5t k2
y el conjunto de soluciones de la ecuación (5.22) es
φ(t) = k1 sen5t + k2 cos 5t, (k1 , k2 ) ∈ R2 .
Para hallar una solución particular de la ecuación no homogénea
L[x] = ẍ + 25ẋ = et + e3t
resolvamos primero las ecuaciones L1 [x] = et y L2 [x] = e3t . Notemos que estas ecuaciones son del mismo tipo que
analizamos en el caso 2.1, pues ni 1 ni 3 son raíces del polinomio característico; así, ψ 1 (t) = β1 et y ψ2 (t) = β2 e3t
son soluciones de L1 y L2 respectivamente, donde
1 1 1 1
β1 = = y β2 = = .
1(1)2 + 0(1) + 25 26 1(3)2 + 0(3) + 25 34
et e3t
Por consiguiente, ψ1 (t) = 26
y ψ2 (t) = 34
.

Notemos ahora que el operador L aplicado a la suma ψ1 (t) + ψ2 (t) satisface


L[ψ1 + ψ2 ] = (ψ1 + ψ2 )�� + 25(ψ1 + ψ2 )
= ψ¨1 + ψ¨2 + 25ψ1 + 25ψ2
= (ψ¨1 + 25ψ1 ) + (ψ¨2 + 25ψ2 )
= L1 [ψ1 ] + L2 [ψ2 ]
= et + e3t .
Por lo tanto, la suma ψ1 (t) + ψ2 (t),
et e3t
ψ1 (t) + ψ2 (t) =
+ ,
26 34
es una solución particular de la ecuación no homogénea. Finalmente, la solución general de la ecuación ẍ + 25ẋ =
et + e3t es
� t �
e e3t
Φ(t) = (k1 sen5t + k2 cos 5t) + + , con (k1 , k2 ) ∈ R2 .
26 34
110 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Caso (3) L[x] = q(t) eαt . Resolvemos primero la ecuación homogénea L[x] = 0, y para la ecuación no
homogénea proponemos ψ = u(t)eαt . Por lo tanto, como queremos que ψ resuelva L[ψ] = q(t)eαt entonces
calculamos:
ψ(t) = u · eαt
ψ̇(t) = αueαt + u̇eαt
ψ̈(t) = α2 ueαt + 2αu̇eαt + üeαt .
Así,
� �
L[ψ] = eαt a(α2 + 2αu̇ + ü) + b(αu + u̇) + cu
� �
= eαt aü + (2αa + b)u̇ + (aα2 + bα + c)u
= q(t)eαt .
Por lo tanto, tenemos que resolver ahora la ecuación:
aü + (2αa + b)u̇ + (aα2 + bα + c)u = q(t),
que es como el caso (1). En efecto, haciendo A = a, B = 2aα+b y C = aα2 +bα+c. Se tiene, Aü+B u̇+C u = q(t),
que es del tipo de ecuación analizada en el caso (1). En consecuencia, podemos resolver la ecuación para u y
después sustituir el resultado en nuestra propuesta de ψ.

Ejemplo 5.12. Encuentra la solución general de la ecuación


(5.24) L[x] = ẍ − 6ẋ + 9x = (3t + 2t2 ) e2t .
Solución. Primero resolvamos la ecuación homogénea ẍ − 6ẋ + 9x = 0 . Para ello definamos la variable
y = ẋ, de modo tal que ẏ = ẍ = 6ẋ − 9x, y la ecuación diferencial equivalente de primer orden en R 2 es
� � � �� �
ẋ 0 1 x
(5.25) = .
ẏ −9 6 y
El polinomio característico de la matriz que define esta última ecuación es p(λ) = λ 2 − 6λ + 9 y tiene una única
raíz de multiplicidad dos, λ = 3. Un vector propio asociado al valor propio λ es f = (1, 3) y un vector propio
generalizado es v = (1, 4). Por consiguiente, las soluciones de la ecuación diferencial (5.25) están dadas por
� � � � � �� � � �� �
x(t) 1 1 1 t k1 1 t+1 k1
= e3t = e3t .
y(t) 3 4 0 1 k2 3 3t + 4 k2
Así, la solución de la ecuación homogénea ẍ − 6ẋ + 9x = 0 es
φ(t) = k1 e3t + k2 e3t (t + 1), con ( k1 , k2 ) ∈ R2 .

Para encontrar una solución particular de la ecuación L[x] = (3t + 2t 2 ) e2t proponemos a ψ(t) = u(t) e2t . Al
sustituir esta propuesta en L[x] obtenemos que
L[ψ] = ψ̈ − 6ψ̇ + 9ψ
� �
= ü e2t + 4 u̇ e2t + 4 u e2t − 6 u̇ e2t − 12 u e2t + 9 u e2t
= e2t (ü − 2 u̇ + u) = (3t + 2t2 ) e2t

Por lo tanto, ü − 2 u̇ + u = 3t + 2t2 .


Entonces, para encontrar una función u(t) que satisfaga la ecuación anterior, proponemos un polinomio de
grado dos, u(t) = ao + a1 t + a2 t2 ; lo que debemos hacer ahora es hallar los coeficientes ao , a1 y a2 . Sustituyendo
el polinomio u(t) que proponemos en el operador L[x]� obtenemos lo siguiente

L[u] = (2 a2 ) − 2( a1 + 4 a2 t) + (ao + a1 t + a2 t2 )
= (ao − 2 a1 + 2 a2 ) + (a1 − 4 a2 )t + a2 t2 .

Entonces L[u] = 3t + 2t2 si y sólo si (ao − 2 a1 + 2 a2 ) + (a1 − 4 a2 )t + a2 t2 = 3t + 2t2 y de esta última igualdad
obtenemos el siguiente sistema de tres ecuaciones lineales con tres incógnitas
ao − 2 a1 + 2 a2 = 0...(1)
a1 − 4 a2 = 3...(2)
a2 = 2...(3)
Sustituyendo a2 en (2) obtenemos que a1 = 11, y sustituyendo a1 y a2 en (1) obtenemos que ao = 18. Por
lo tanto, u(t) = 2 t2 + 11 t + 18 y ψ(t) = (2 t2 + 11 t + 18) e2t . Así, la solución general de la ecuación
L[x] = ẍ − 6ẋ + 9x = (3t + 2t2 ) e2t es
� � � �
Φ(t) = k1 e3t + k2 e3t (t + 1) + (2 t2 + 11 t + 18) e2t , ( k1 , k2 ) ∈ R2 .
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 111

Caso (4) L[x] = k cos µt ó L[x] = k sen µt. Para resolver cualquiera de estos dos casos consideramos la
complejificación del problema. A saber, después de resolver la ecuación homogénea L[x] = 0 consideramos la
ecuación L[x] = eiµt . Para resolver esta ecuación procedemos como en el caso (2). Encontraremos por tanto una
solución compleja ψ(t) = ψ1 (t) + iψ2 (t) que satisface
L[ψ] = L[ψ1 + iψ2 (t)] = eiµt = cos t + isent.
Por linealidad,
L[ψ1 + iψ2 (t)] = L[ψ1 ] + iL[ψ2 (t)].
Por lo tanto,
L[ψ] = L[ψ1 ] + iL[ψ2 (t)] = cos µt + isenµt.

De aquí, L[ψ1 ] = cos µt y por lo tanto ψ1 resuelve el problema. Análogamente para ψ2 se tiene, L[ψ2 ] = senµt.
Nuevamente hay que poner atención a las soluciones de la ecuación homogénea, por lo que habrán de consi-
derarse, como lo hicimos anteriormente, varias posibilidades que a continuación analizamos.
a) Consideremos la ecuación L[x] = aẍ + bẋ + cx = k eiµt y supongamos que iµ no es raíz del polinomio
p(λ) = aλ2 + bλ + c y proponemos a ψ(t) = α eiµt , con α = α1 + iα2 ∈ C. Al sustituir nuestra propuesta
en el operador L[x] obtenemos que
L[ψ] = aψ̈ + bψ̇ + cψ
= −aα µ2 eiµt + bα i µ eiµt + cα eiµt
= α eiµt (c − b iµ − a µ2 ).
Luego, L[ψ] = k eiµt si y sólo si αeiµt (c − b iµ − a µ2 ) = k eiµt , de donde obtenemos que
k
α = α1 + iα2 = ∈ C.
(c − aµ2 ) + i(bµ)
Por lo tanto, podemos expresar a la solución que propusimos de la siguiente manera
ψ(t) = (α1 + iα2 ) eiµt
= (α1 + iα2 ) (cos µt + isenµt)
= (α1 cos µt − α2 senµt) + i(α1 senµt + α2 cos µt)
= ψ1 (t) + i ψ2 (t) ,
donde ψ1 (t) = α1 cos µt − α2 senµt y ψ2 (t) = α1 senµt + α2 cos µt. Ahora observemos que, por un lado
L[ψ] = L[ψ1 + iψ2 ] = L[ψ1 ] + iL[ψ2 ],
y por otro lado
L[ψ] = k eiµt = k cos µt + i ksenµt .
Entonces, se debe cumplir que L[ψ1 ] = k cos µt y L[ψ2 ] = ksenµt; por lo tanto, ψ1 es solución particu-
lar de la ecuación aẍ+bẋ+cx = k cos µt y ψ2 es solución particular de la ecuación aẍ+bẋ+cx = ksenµt.

b) Ahora supongamos que iµ es raíz simple del polinomio aλ2 + bλ + c. Proponemos como solución a
ψ(t) = h(t) eiµt y vamos a buscar la función h con el método de variación de parámetros. Para ello
primero sustituimos ψ en el operador.
L[ψ] = a(ḧ eiµt + 2ḣ iµ eiµt − h µ2 eiµt ) + b(ḣ eiµt + h iµ eiµt ) + c h eiµt
� �
= eiµt a ḧ + ḣ(2aiµ + b) + h(c + biµ − aµ2 )
� �
= eiµt a ḧ + ḣ(2aiµ + b) .

Como queremos resolver la ecuación


L[ψ] = k eiµt ,

entonces, por lo que hemos visto, deberá satisfacerse


a ḧ + ḣ(2aiµ + b) = k
y esta última ecuación es una del caso (1), así que proponemos un polinomio de grado uno h(t) =
Ao + A1 t como solución. Notemos que ḧ = 0 y ḣ = A1 , entonces al sustituir en la última igualdad
tenemos que
A1 (2aiµ + b) = k .
112 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Por lo tanto, A1 = k
2aiµ+b
y así,
� �
kt
ψ(t) = Ao + eiµt .
2aiµ + b
Es claro que Ao eiµt es solución de la ecuación homogénea, por lo que nuestra atención habrá de centrarse
en encontrar las soluciones ψ1 y ψ2 de la expresión

kt
ψ = ψ1 + iψ2 = eiµt .
2aiµ + b
Si escribimos β = β1 + iβ2 = k
2aiµ+b
, entonces

ψ1 + iψ2 = βt eiµt = (β1 + iβ2 )t (cos µt + i senµt).


Claramente,

ψ1 = t(β1 cos µt − β2 senµt).

ψ2 = t(β1 senµt + β2 cos µt).


Sin duda será de gran utilidad desarrollar un ejemplo:

Ejemplo 5.13. Encontrar la solución general de la ecuación


ẍ + 2ẋ − 24x = 2sen2t
Solución. Primero tenemos que encontrar el conjunto de soluciones de la ecuación homogénea ẍ+2ẋ−24x = 0.
Definiendo y = ẋ tenemos que ẏ = 24x − 2y, entonces la ecuación diferencial equivalente en R 2 es
� � � �� �
ẋ 0 1 x
=
ẏ 24 −2 y
y el polinomio característico de la matriz que define esta ecuación es p(λ) = λ 2 + 2λ − 24, con raíces λ1 = 4 y
λ2 = −6, así que las soluciones de la ecuación homogénea están dadas por φ(t) = k1 e4t + k2 e−6t .

Para hallar una solución particular de la ecuación no homogénea resolvamos primero la ecuación complejificada
L[x] = ẍ + 2ẋ − 24x = 2 ei2t . Notemos que 2i no es raíz del polinomio característico, así que proponemos como
solución a ψ(t) = k ei2t . Al sustituir esta propuesta de solución en el operador L[x] obtenemos lo siguiente
L[ψ] = −24(k ei2t ) + 4i k ei2t ) − 4 k ei2t
= k ei2t (−28 + 4i) .

Dado que la ecuación a resolver es L[x] = 2 ei2t , entonces se tiene k ei2t (−28 + 4i) = 2 ei2t y por lo tanto,
� �
1 1 i
k= =− + .
−14 + 2i 50 100
Ahora sustituimos el valor de k en ψ y desarrollamos para obtener su parte real e imaginaria
� �
1 i
ψ(t) = ψ1 + i ψ2 = − + e2it
50 100
� �
1 i
=− + (cos 2t + isen2t)
50 100
� � � �
− cos 2t sen2t −sen2t cos 2t
= + +i − .
50 100 50 100
� − cos 2t � � �
Por consiguiente, ψ1 = 50
+ sen
100
2t
y ψ2 = −sen50
2t
− cos
100
2t
. Ahora recordemos que por un lado

L[ψ] = L[ψ1 + iψ2 ] = L[ψ1 ] + iL[ψ2 ]


y por otro lado
L[ψ] = 2 e2it = 2 cos 2t + i 2sen2t .
Por lo tanto,
L[ψ1 ] = 2 cos 2t y L[ψ2 ] = 2sen2t .
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 113

Así, la solución particular de la ecuación no homogénea que queremos resolver es ψ 2 y la solución general queda
expresada como
� �
� � sen2t cos 2t
Φ(t) = k1 e4t + k2 e−6t − + , (k1 , k2 ) ∈ R2 .
50 100

Caso 5). Los casos L[x] = q(t) cos µt y L[x] = q(t) sen µt son combinación del caso (3) y del caso (4) que
acabamos de analizar.

5.3. Ejemplos sencillos de vibraciones mecánicas.


Vamos a recordar la primera y segunda ley de movimiento de Newton. La primera ley afirma que un objeto
se moverá a una velocidad constante, o permanecerá en reposo, si no existe ninguna fuerza actuando sobre él.
La fuerza ejercida sobre el objeto puede ser la gravedad de la tierra, así como cualquier otra fuerza que esté en
contacto con el objeto y lo jale o empuje.
La segunda ley de Newton afirma que la aceleración de un cuerpo es proporcional a la fuerza F que actúa en
él. Esta fuerza F es, en realidad, una suma de fuerzas que actuán sobre el objeto. Así, si x(t) denota la posición
del objeto, las fuerzas que hacen que el valor de x(t) se incremente se consideran positivas y las que hacen que el
valor de x(t) se decremente se consideran negativas. La suma de estas fuerzas positivas y negativas es la fuerza
F que actúa sobre el cuerpo.
Dado que la aceleración de un cuerpo está dada por la segunda derivada del desplazamiento x(t) con respecto
al tiempo t, tenemos que
1
(5.26) ẍ = F,
m
2
donde ẍ = ddt2x y m representa la masa del cuerpo.
A continuación analizaremos el comportamiento de distintos movimientos oscilatorios. Empezaremos por el
caso más sencillo que es cuando se tiene un movimiento oscilatorio sin amortiguamiento.

Movimiento vibratorio sin amortiguamiento y sin fuerza externa. Supongamos ahora que tenemos
un objeto de masa m colgado de un resorte. Decimos que el objeto está en posición de equilibrio si éste se
encuentra en reposo y no hay fuerzas actuando sobre él. Denotamos por cero a la posición de equilibrio de la
masa en el resorte. Supongamos, además, que a la masa se le ha dado un desplazamiento inicial x 0 y una velocidad
inicial v0 (ver figura 5.1).

Figura 5.1
114 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Nos interesa describir el movimiento de la masa para todo t. Para ello, hacemos dos suposiciones:
La primera es que la masa se mueve a lo largo de una recta vertical que pasa por el centro de gravedad del
objeto (lo que equivale a pensar que se considera una masa puntual). La segunda es que la fuerza ejercida por el
resorte sobre la masa es, en todo tiempo, proporcional a la diferencia de la longitud λ(t) del resorte y su longitud
de equilibrio λ0 . A la constante k de proporcionalidad se le conoce como constante del resorte. Por lo tanto,
F = −k(λ(t) − λ0 ) = −kx(t) .
(a este principio se le conoce como ley de Hooke). Retomando la ecuación que describe la segunda ley de
Movimiento de Newton se tiene
k
(5.27) ẍ = − x
m

Observación 5.14. Si x(t) denota el desplazamiento del resorte desde el punto de equilibrio y consideramos este
desplazamiento como positivo cuando el resorte se está estirando, el signo negativo en la ecuación se debe a que
la fuerza siempre actúa hacia la posición de equilibrio y, por tanto, apunta en sentido contrario al sentido de x.
Por otra parte, la ecuación (5.26) representa también la llamada ecuación del péndulo cuando es sometido a
pequeñas oscilaciones (ver las figura 5.2.)

Figura 5.2.

Para resolver la ecuación (5.26) vamos a descomponerla en un sistema de ecuaciones introduciendo la variable
y = ẋ .
Derivando, ẏ = ẍ = k
−m x.
Así,
ẋ = y
k
ẏ = − x,
m
o, equivalentemente,
� � � �� �
ẋ 0 1 x
(5.28) = k .
ẏ −m 0 y

Las raíces del polinomio característico de esta ecuación son ±iw, donde w : = k
m
.
Si consideramos la complejificación de la matriz
� �
0 1
2 ,
−w 0
es decir, si la consideramos como una matriz de C2 en sí mismo, calcular el vector propio fC de la complejificación
asociado a iw se reduce a encontrar el vector fC = (f11 , f12 ) ∈ C2 tal que
� �� � � �
0 1 f11 f11
2 = iw .
−w 0 f12 f12
Equivalentemente,
� �� �
−iw 1 f11
= 0.
−w2 −iw f12
De aquí, fC = (f11 , f12 ) = (1, iw) es un vector propio. Separando este vector en su parte real e imaginaria se tiene
fC = (1, 0) + i(0, w) .
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 115

Definimos u : = (1, 0) y v : = (0, w). Claramente {v, u} forman una base de R2 y la matriz
� �
0 1
P=
w 0
transforma los vectores canónicos de R2 , e1 = (1, 0), e2 = (0, 1) en los vectores v, u. Como vimos en la sección 4.4
la ecuación (5.28) en la base {v, u} se escribe como
� � � �� �
ż1 0 −w z1
= ,
ż2 w 0 z2
y su solución está dada por
� � � �� �
z1 (t) cos wt − sen wt c1
= ,
z2 (t) sen wt cos wt c2
donde c1 , c2 son constantes reales. Por consiguiente, la solución en las coordenadas (x, y) está dada por
� � � �� �� �
x(t) 0 1 cos wt − sen wt c1
= .
y(t) w 0 sen wt cos wt c2
Es decir,

� � � �� �
x(t) senωt cos ωt c1
=
y(t) ω cos ωt −ωsenωt c2
� �
c1 senωt + c2 cos ωt
= .
c1 ω cos ωt − c2 ωsenωt

Figura 5.3.

Finalmente,
x(t) = c1 sen(wt) + c2 cos(wt)
y(t) = w(c1 cos(wt) − c2 sen(wt)) ,

con x(0) = c2 , y(0) = x (0) = ωc1 . Haciendo uso de las condiciones iniciales x(0) = x0 y y(0) = v0 y del hecho
de que y(t) representa la velocidad de x(t) al tiempo t, (y(t) = ẋ(t)), encontramos que
v0
c 2 = x 0 , c1 = .
w
Por lo tanto,
�v �
0
x(t) = x0 cos wt + sen wt .
w
Ver figura 5.3
Para hacer el retrato de las fases en las coordenadas (x, y) recordamos que det P < 0. Así, no es difícil con-
vencerse de que las imágenes en la figura 5.4, representan, respectivamente, los comportamientos de las soluciones
en el retrato de las fases y el retrato de las fases extendido.
Para comprender mejor el comportamiento de x(t) consideraremos su gráfica � con respecto a t. Para ello,
� �2
denotamos por r 2 = c21 + c22 , donde − c1 = rsenφ, c2 = r cos φ; es decir, r = x20 + vw0 y tan φ = −xv00 w (ver
figura 5.5).
x(t) = c1 senωt + c2 cos ωt
(5.29)
= −rsenφ · senωt + r cos φ · cos ωt
116 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Figura 5.4.

Si hacemos ahora uso de las igualdades


� (φ+ωt)i
e = cos (φ + ωt) + isen (φ + ωt)
eφi · eωti = (cos φ + isenφ) (cos ωt + isenωt) ,
obtenemos las identidades trigonométricas

cos(wt + φ) = cos φ cos wt − sen φ sen wt

sen(wt + φ) = sen φ cos wt + cos φ sen wt

Figura 5.5

Así, sustituyendo en la expresión (5.29) de x(t) se tiene,


(5.30) x(t) = r cos(wt + φ) .
De esta expresión resulta claro que x(t) oscila entre r y −r. A r se le conoce como amplitud del movimiento, al
valor φ se le conoce como ángulo de fase del movimiento, a τ0 = 2πw
se le conoce como período del movimiento y
a w como la frecuencia natural del sistema. El movimiento estudiado se denomina movimiento armónico simple
(ver figura 5.6).

Movimiento vibratorio amortiguado y sin fuerza externa. Vamos a considerar ahora el mismo fenó-
meno de antes, pero supongamos ahora que se tiene una fuerza de amortiguamiento que el medio circundante
ejerce sobre la masa (esta fuerza es la acción de resistencia al movimiento que oponen medios como el agua, el
aire o el aceite). Esta acción actúa en sentido opuesto al movimiento y puede ser considerada como proporcional
a la velocidad dxdt
(por ejemplo, mientras más lento es un movimiento la resistencia del aire es menor). Así, si
denotamos por b a dicha constante de proporcionalidad, la fuerza de amortiguamiento es − b dx dt
.
La ecuación del movimiento vibratorio amortiguado es, por consiguiente,
d2 x dx
m = −b − kx .
dt dt
Haciendo, como antes, y = dx
dt
, se tiene la ecuación diferencial
� � � �� �
ẋ 0 1 x
= k b .
ẏ −m −m y
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 117

Figura 5.6

Las raíces del polinomio característico son, en este caso,


√ √
−b + b2 − 4km −b − b2 − 4km
λ1 = , λ2 = .
2m 2m
Nosotros consideraremos los casos
a) b2 − 4km > 0
b) b2 − 4km < 0.
En el caso a) se tiene que la matriz que define a la ecuación diferencial tiene los dos valores propios negativos
y distintos. Por lo tanto, la ecuación diferencial en la base propia se escribe como
� � � �� �
ξ˙1 λ1 0 ξ1
˙ = ,
ξ2 0 λ2 ξ2
y la solución está dada por
ξ1 (t) = k1 eλ1 t , ξ2 (t) = k2 eλ2 t .
De aquí se sigue fácilmente (se sugiere al lector convencerse de ello) que x(t) = c1 eλ1 t + c2 eλ2 t para c1 , c2 ∈ R. En
este caso, no se presenta ningún tipo de vibración y la masa tiende rápidamente al equilibrio (ver figura. 5.8a).
En el caso b) las raíces son complejas:

b 4km − b2
λ1 = µ + iν , con µ = − , ν= .
2m 2m
Como ya hemos visto en la sección 4.4, en coordenadas apropiadas, la ecuación diferencial toma la forma
� � � �� �
ż1 µ −ν z1
= .
ż2 ν µ z2
Por lo tanto, la solución en estas coordenadas es
� � � �� �
z1 (t) cos νt − sen νt k1
= eµt .
z2 (t) sen νt cos νt k2
Regresando a las coordenadas originales, se tiene que la solución al problema puede ser escrita como
x(t) = eµt (c1 cos νt + c2 sen νt) ,
donde c1 y c2 son constantes y dependen de las condiciones iniciales como en la figura 5.5

Para graficar la solución x(t) recordamos nuevamente las identidades trigonométricas


r sen(νt + φ) = r sen φ cos νt + r cos φ sen νt ,

r cos(νt + φ) = r cos φ cos νt − r sen φ sen νt ,



donde tan φ = −c1 /c2 y r = c21 + c22 (ver figura 5.5). Así,
x(t) = reµt cos(νt + φ) .
De esta expresión se sigue que x(t) oscila entre las curvas reµt y −reµt y que, por consiguiente, representa a una
curva que oscila mientras su amplitud decrece (ver figura 5.7).
Este comportamiento es muy frecuente en los sistemas mecánicos y muestra cómo un elemento de fricción,
como podría ser por ejemplo un medio denso, amortigua la acción de las fuerzas y produce que el movimiento se
apague con el tiempo.
118 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Figura 5.7. Comportamiento de la curva x(t) = reµt cos(νt + φ). Esta curva oscila y se
encuentra delimitada entre las curvas reµt y −reµt , donde µ = − 2m
b
.


−b± b2 −4ac
En resumen: si la ecuación es de la forma ax�� + bx� + c = 0, con a, b, c > 0, entonces λ = 2a
y
siempre se tiene que Re(λ) < 0 . Por esta razón x(t) → 0.
a) Si Im(λ) = 0, entonces x(t) → 0 sin oscilar.
b) Si Im(λ) �= 0, entonces x(t) → 0 oscilando.
Ver la figura 5.8.

(a) Im(λ) = 0 (b) Im(λ) �= 0

Figura 5.8.

A continuación sugerimos hacer unos ejercicios sencillos.

Ejercicios 5.15. Resuelve, grafica y compara las ecuaciones de los incisos a) y b).
a): La ecuación del péndulo (con pequeñas oscilaciones)
ẍ = −kx , k > 0,
donde ẍ es el ángulo bajo el cual el péndulo se desvía de la vertical (ver figura 5.9). Cabe subrayar
nuevamente que este modelo es válido sólo para el caso de pequeñas oscilaciones.

Figura 5.9
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 119

b): La ecuación del péndulo invertido (con pequeñas oscilaciones). Nuevamente, el valor de x representa el ángulo
bajo el cual el péndulo se desvía de la vertical (ver figura 5.10).
ẍ = x .

Figura 5.10

Movimiento oscilatorio no amortiguado con fuerzas externas. A continuación describiremos distintos


movimientos oscilatorios que están sujetos a fuerzas externas oscilatorias muy particulares. Este tipo de ejemplos
están estrechamente relacionados con fenómenos de la física que son de particular interés.
a) x�� + ω 2 x = cos αt
Resolvemos primero x�� +ω 2 x = eiαt . Por lo que vimos previamente, la solución de la ecuación homogénea
es ϕ(t) = c1 cos ωt + c2 senωt. Para resolver la ecuación no homogénea, vamos a discernir entre dos
posibles casos: α �= ω y α = ω. El caso de α �= ω se conoce como el caso en el que no hay un fenómeno
de resonancia presente. Para este caso proponemos la solución ψ(t) = ke iαt . Así, considerando a ψ y
sus derivadas se tiene

ψ(t) = keiαt 


iαt
ψ̇(t) = kiαe De aquí, L[ψ] = keiαt (−α2 + ω 2 ) = eiαt .



ψ̈(t) = −kα2 eiαt .
Por lo tanto, el valor de la constante k debe ser k = ω2 −α
1
2 y entonces ψ queda determinada por ψ(t) =
1
ω 2 −α2
e . Finalmente, dado que la ecuación que queremos resolver es de la forma x�� + ω 2 x = cos αt,
iαt

entonces Re ψ(t) = ω2 −α1


2 cos αt es la solución particular de la ecuación no homogénea que buscamos.

Por lo tanto, haciendo uso de las identidades en (5.29) y (5.30), la solución general está dada por
1
x(t) = r cos(θ + ωt) + ω2 −α 2 cos αt.

Si |ω 2 −α2 | � 1 (i.e. si α2 y ω 2 son muy cercanos) se forman pulsos (ver figura 5.11). Esto se debe a
que se están sumando dos movimientos oscilatorios con frecuencias muy cercanas, uno representado por
la solución de la ecuación homogénea y el otro por la solución particular de la ecuación no homogénea.
Las crestas y valles de cada una de las curvas que los representan se suman durante un largo tiempo
y se van desfasando muy poco a poco, mientras que una vez estando desfasados, las ondas formadas
por las crestas de una y los valles de la otra (y viceversa) logran casi cancelarse unos a otros también
durante largo tiempo; esto se va repitiendo formando el fenómeno conocido como pulsos.

Figura 5.11. Fenómeno de pulsos formado por la suma de una solución de la ecuación ho-
mogénea con la solución particular de la ecuación no homogénea en el caso en el que ω 2 y α2
son muy cercanos.
120 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Si α2 y ω 2 no son cercanos, no hay un comportamiento reconocible a tiempos cortos (ver figura


5.12).

Figura 5.12. Posible gráfica de la suma de una solución de la ecuación homogénea con la
solución de la ecuación no homogénea, cuando α2 y ω 2 no son cercanos.

b) Si α = ω. Hay presencia del fenómeno de resonancia:


La ecuación homogénea se resuelve igual que en el caso anterior, ϕ(t) = r cos(θ + ωt), y la no homogénea
la resolvemos por variación de parámetros. Es decir, para resolver ẍ + ω 2 x = eiωt proponemos

ψ(t) = u · eiωt
ψ̇(t) = iωueiωt + u̇eiωt
ψ̈(t) = ueiωt · (−ω 2 ) + 2u̇iωeiωt + üeiωt .
Así, deberá satisfacerse
� �
L[ψ] = eiωt −ω 2 u + 2iω u̇ + ü + ω 2 u
= eiωt (ü + 2iω u̇)
= eiωt .
Por lo tanto, ü + 2iω u̇ = 1. Proponemos u(t) = kt + c, por lo que u̇ = k, ü = 0. Así, 2iω · k = 1 y
−i
despejando el valor de k se tiene, k = . Por consiguiente,


−it iωt � −it t
ψ(t) = e = cos ωt + senωt
2ω 2ω 2ω
.
Como queremos resolver ẍ + ω 2 x = cos ωt consideramos la parte real de la solución:
t
ψ1 (t) = Re ψ(t) = senωt

.
Hacemos notar que las ondas crecen con t. Esto lleva a un comportamiento de la solución ψ 1 como se
muestra en la figura 5.13.

Por tanto, la solución general se expresa como


t
x(t) = r cos(θ + ωt) + senωt.

Figura 5.13.
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 121

Movimiento oscilatorio amortiguado y con fuerza externa. Este último caso es sencillo de resolver si
se toma en cuenta lo que hemos estado analizando en los casos previos. Por ejemplo, consideremos la ecuación

−b ± b2 − 4c
(5.31) x�� + bx� + cx = 3senωt, b, c > 0, λ= , λ = −α + iβ α �= 0.
2
Lo primero a observar es que la solución ϕ de la ecuación homogénea es una solución que se amortigua cuando
t tiende a infinito pues Re(λ) < 0. A ésta se le suma una solución particular ψ de la ecuación no homogénea, que
es oscilante, periódica (ver figura 5.14). Si t → ∞, entonces |ϕ(t)| → 0, por lo que z(t) = ϕ(t) + ψ(t) tiene, al

Figura 5.14.

incrementarse el tiempo t, un comportamiento que se asemeja al comportamiento de ψ (ver figura 5.15).

Figura 5.15.
122 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS

Ejercicios 5.16. (1) ¿Es cierto o no que una ecuación de la forma


b2
x = 0 , x ∈ R2 ,
ẍ + bẋ +
4
puede conservar área? Da una demostración o un contraejemplo.

(2) Encuentra, por variación de parámetros, las soluciones de las ecuaciones siguientes:

a) ẋ1 = x1 + x2 + 6t2 b) ẍ + 81x = t4 + e2t


ẋ2 = −2x1 + 3x2 − cos 3t + 2t x(0) = 2, x� (0) = 3.

(3) Sin usar variación de parámetros encuentra la solución general de las siguientes ecuaciones:

a) ẍ + 2ẋ + 10x = 6 sen 3t, x(0) = 0, x� (0) = 3.


b) ẍ + 4ẋ = 6 cos 2t, x(0) = 1, x� (0) = 0.
c) ẍ + 4ẋ = 6t2 cos 2t, x(0) = 0, x� (0) = 1.
d) ẍ − 3ẋ + 2x = e−t + et ,
Sugerencia: Primero resuelve L[x] = e−t y después L[x] = et
e) ẍ + 25x = 5 sen 3t, x(0) = 0, x� (0) = 1.
(4) ¿ Cómo es la matriz fundamental de soluciones de la ecuación diferencial lineal de primer orden asociada
a la siguiente ecuación diferencial lineal homogénea de tercer orden?

a3 x��� + a2 x�� + a1 x� + ao x = 0, a3 �= 0.
(5) ¿Bajo qué condición sobre los coeficientes de la ecuación del ejercicio anterior se puede afirmar que el
flujo de la ecuación conserva el volumen? Justifica bien tu respuesta.
(6) Responde a la misma pregunta para una ecuación diferencial lineal homogénea de orden n?

an x�(n) + an−1 x(n−1) + ... + a1 x� + ao x = 0, an �= 0.


(7) Determina a qué ecuación podría corresponder cada una de las gráficas que se presentan y justifica tu
respuesta. Atención, sobra una ecuación.
CAPÍTULO 8

Ecuaciones integrables

Tal vez una de las cosas que más sorprenden al iniciar el estudio de las ecuaciones diferenciales es encontrarse
con que sólo ecuaciones pertenecientes a un subconjunto relativamente pequeño de éstas pueden ser resueltas
explícitamente. Ante tal perspectiva, uno quisiera tener otras formas de analizar a las ecuaciones diferenciales;
a saber, no sólo desde el punto de la existencia local de sus soluciones, problema que es resuelto por el teorema
de existencia y unicidad, sino de una forma global como en el caso de las ecuaciones diferenciales lineales, o
por lo menos semi-global. Esta posibilidad de ir un poco más allá nos la dan las ecuaciones conocidas como
ecuaciones integrables y, en particular, las ecuaciones hamiltonianas. Sin embargo, si bien se habrá de tener
en muchos casos una información global del retrato de las fases de este tipo de ecuaciones, habremos de perder
generalmente la posibilidad de encontrar parametrizaciones explícitas. Las ecuaciones diferenciales hamiltonianas
(W.R. Hamilton1, 1833) tienen su origen en la física (ver [Ar.3]) y se relacionan, al igual que las de I. Newton
(1686), con las ecuaciones de movimiento de partículas que son sometidas a fuerzas diversas. En particular, una
función proveniente de una ecuación hamiltoniana se caracterizará por ser constante a lo largo de las soluciones;
en física, esta propiedad significa que a lo largo de las soluciones el nivel de energía de un fenómeno se mantiene
constante.
El hecho de que las ecuaciones hamiltonianas sean en cierto sentido más sencillas de entender que otras que
no lo son, hace que sean consideradas muchas veces como un punto de partida para la teoría de bifurcaciones. Si
se tiene una ecuación hamiltoniana es muy sencillo considerar una ligera perturbación de sus coeficientes y obtener
como resultado una ecuación no hamiltoniana cercana. El analizar qué características se conservan y cuáles son
modificadas sustancialmente después de la perturbación y cómo, son preguntas que pueden ser muy complejas y
que aún siguen siendo activamente exploradas desde perspectivas distintas.

8.1. Ecuaciones hamiltonianas


Por lo dicho en los párrafos anteriores, nos será importante poder determinar cuándo una ecuación es hamil-
toniana. Para ello, empecemos analizando la situación siguiente: Sea H una función de clase C 2 (U ), definida en
un abierto U de R2 , y sea α(t) = (x(t), y(t)) una curva diferenciable en U , parametrizada por t, t ∈ [a, b], tal
que la función H es constante a lo largo de ella, H(α(t)) = c. Derivando esta última igualdad con respecto a la
variable t se tiene
d
H(α(t)) = 0; es decir, (Hx , Hy )α(t) · α� (t) = 0.
dt
Como α� (t) = (x� (t), y � (t)), entonces
(8.1) ∇α(t) H · α� (t) = (Hx , Hy )α(t) · (x� (t), y � (t)) = 0.
En otras palabras, la derivada de Lie de la función H en la dirección de los vectores α � (t) es cero,
Lα� (t) H = 0.
Esto equivale a decir que la curva α(t) parametriza a una curva de nivel de la función H o por lo menos a una
porción de ésta (ver figura 8.1).
De las igualdades (8.1), se tiene desprende la ecuación diferencial
x� (t) = Hy
y � (t) = −Hx .
Así mismo, de (8.1) se desprende, a su vez, la familia de ecuaciones
x� (t) = µHy
y � (t) = −µHx ,
donde µ es una función Ck (U ) que no se anula salvo, tal vez, en los ceros de (Hx , Hy ).
Observamos que ambos casos recogen el hecho de que el campo de vectores que define a la ecuación corres-
pondiente es ortogonal al vector gradiente de la función H, la única diferencia entre uno y otro es la magnitud
–más no la dirección–del vector en cada punto. Nosotros centraremos inicialmente nuestra atención en el primer
caso -que es el segundo caso cuando µ = 1-.

1William R. Hamilton (Dublín, 1805-1865) fue un matemático, físico, y astrónomo irlandés, que dominaba entre otros idiomas,
el árabe, el persa, hindustaní, malayo y sánscrito. Se le conoce, entre otras cosas, por sus contribuciones en mecánica (conocida
como mecánica hamiltoniana) y por la noción y desarrollo de los números cuaterniones.

167
168 8. ECUACIONES INTEGRABLES

Figura 8.1.

Definición 8.1. Decimos que la ecuación


ẋ = A(x, y)
(8.2)
ẏ = B(x, y),
(x, y) ∈ U , U ⊆ R2 , con A, B ∈ C1 (U ), es hamiltoniana si existe H : U −→ R tal que
ẋ(t) = Hy
(8.3)
ẏ(t) = −Hx

Es inmediato observar, por lo que acabamos de ver, que toda función H dos veces continuamente diferenciable
en un abierto cualquiera de R2 induce una ecuación hamiltoniana. Es natural entonces retomar la pregunta sobre
la existencia de algún criterio que nos permita caracterizar a una ecuación hamlltoniana.

Observación 8.2. Observemos que una condición necesaria para que un campo vectorial sea hamiltoniano es que
Ax = −By (pues al ser el campo vectorial (8.3) continuamente diferenciable debe satisfacerse que H xy = Hyx ).

Veamos un ejemplo sencillo de una ecuación hamiltoniana

Ejemplo 8.3.
ẋ(t) = y = Hy
(8.4)
ẏ(t) = x = −Hx
Observemos que Hyx = Hxy = 0. Las expresiones Hy = y y −Hx = x nos permiten, integrando, recuperar a la
función H. En efecto, si integramos Hy = y con respecto a la variable y se tiene

y2
H(x, y) = y dy + h(x) = + h(x),
2
donde h(x) es una función de x que no recuperamos mediante la integración por y pero que podría estar presente
en la expresión de H. Para determinar quién es esa posible función integramos ahora la expresión H x = −x

x2
H(x, y) = −x dx + k(y) = − + k(y),
2
donde k(y) es ahora la función de y que no podemos recuperar bajo la integración por x que hemos realizado.
2 2
Así, de ambas expresiones de H obtenidas se tiene que h(x) = − x2 y k(y) = y2 . Por lo tanto,
x2 y2
H(x, y) = − +
2 2
es la función buscada. 2
2
Para recuperar el retrato de las fases podemos considerar las curvas de nivel de H, H(x, y) = − x2 + y2 = c.
Las hipérbolas de esta familia están parametrizadas por las curvas de fase de la ecuación diferencial. En efecto,
si analizamos el campo vectorial que define a la ecuación (8.4) podemos observar que la matriz asociada tiene
polinomio característico p(λ) = λ2 − 1. Por consiguiente, los valores propios son λ1 = 1 y λ2 = −1. Dos vectores
propios correspondientes a λ1 = 1 y λ2 = −1 son f1 = (1, 1) y f2 = (−1, 1). El retrato de las fases corresponde al
de un punto singular de tipo silla en el plano y el retrato de las fases es el dado por las hipérbolas cuyas direcciones
asintóticas coinciden con las direcciones marcadas por los vectores propios f 1 = (1, 1) y f2 = (−1, 1) (ver figura
8.1. ECUACIONES HAMILTONIANAS 169

8.2). Las direcciones de recorrido de las curvas en la figura 8.2 indican cómo están parametrizadas las curvas de
nivel de H, y se obtienen directamente del campo vectorial.

2 y2
Figura 8.2. Curvas de nivel de la función H(x, y) = − x2 + 2
= c que son parametrizadas
por las soluciones de la ecuación (8.4).

En la observación 8.2 hicimos notar que la condición Ax = −By es necesaria para que una ecuación del tipo
(8.2) sea hamiltoniana. Cabe entonces preguntarse si dicha condición es también suficiente para la existencia de
una función dos veces continuamente diferenciable H tal que H(ϕ(t)) = H(x(t), y(t)) = c, donde ϕ(t) es solución
de la ecuación (8.2). El siguiente teorema nos da la respuesta a esta pregunta.

Teorema 8.4. Sea


ẋ = A(x, y)
(8.5)
ẏ = B(x, y)
una ecuación diferencial definida en un rectángulo U = (a, b) × (c, d) con A, B ∈ C1 (U ). Entonces (8.5) es una
ecuación hamiltoniana si y sólo si Ax = −By .

Demostración. Si (8.5) es hamiltoniana ya vimos que Ax = −By .


Supongamos ahora que Ax = −By , entonces construimos H de la siguiente manera
� y � x
(8.6) H(x, y) := A(x, s) ds − B(s, y0 ) ds
y0 x0

Es fácil ver que


Hy (x, y) = A(x, y)
� y
Hx (x, y) = Ax ds + B(x, y0 )
y
� 0y
= −By (x, s) ds + B(x, y0 )
y0
= −B(x, y) + B(x, y0 ) − B(x, y0 )
= −B(x, y)

Observación 8.5. Supongamos que la ecuación diferencial (8.5) definida en el abierto U ⊆ R 2 es hamiltoniana.
Sea H : U → R la función de clase C2 (U ) que satisface A = Hy , B = −Hx .
Consideremos una curva γ = (γ1 , γ2 ) definida en el intervalo [a, b] ⊆ R, con imagen en U de clase C1 en el
intervalo abierto (a, b). Entonces, como consecuencia del teorema fundamental del cálculo tenemos:
� b
d (H ◦ γ)
H(γ(b)) − H(γ(a)) = (s) d s
a ds
� b
� �
= Hx |γ(s) γ1� (s) + Hy |γ(s) γ2� (s) d s
a
� b� �
= −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s .
a
� b� �
En particular, si γ es un lazo (i.e., γ(a) = γ(b)) entonces la integral a −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s es
igual a cero. Es decir, H(γ(b)) − H(γ(a)) = 0.
Consideremos ahora el caso particular en el que la curva γ parametriza una parte del rectángulo determinado
por sus extremos γ(a) = (x0 , y0 ) y γ(b) = (x, y), siendo éstos vértices opuestos (ver la figura 8.3). Concretamente,
supongamos que existe c ∈ [a, b], de tal modo que en [a, c] la curva γ recorre el segmento que une (x 0 , y0 ) con
170 8. ECUACIONES INTEGRABLES

(x, y0 ) (i.e., γ2 (r) = y0 si r ∈ [a, c]), y en [c, d] recorre el segmento que une (x, y0 ) con (x, y) (i.e., γ1 (r) = x si
r ∈ [c, b]). Dicha parametrización se ilustra en la figura 8.3.
Por lo tanto,
� c � b
(8.7) H(γ(b)) − H(γ(a)) = −B(γ(s)) γ1� (s) d s + A(γ(s)) γ2� (s) d s .
a c

Figura 8.3.

Observación 8.6. Aquí consideramos a la ecuación definida en una región rectangular U . En realidad no es
necesario que la región sea de este tipo, sino que lo importante es que sea una región simplemente conexa 2.
Justo en esa propiedad radica que la integral no dependa de la trayectoria elegida al momento de hacer la
integración. Así, si se tiene una ecuación como en (8.5) y se sabe que está definida en una región simplemente
conexa U donde Ax = −By , entonces existe una función H ∈ C2 (U ) tal que Hy = A y −Hx = B, como veremos
enseguida.
Consideramos (x0 , y0 ) un punto en U . Dado un punto (x, y), existe una curva γ = (γ1 , γ2 ) : [a, b] → U de
clase C1 (a, b), que comienza en (x0 , y0 ) y termina en (x, y), γ(a) = (x0 , y0 ), γ(b) = (x, y). Entonces, motivados
por la observación 8.5, definimos
� b
� �
H(x, y) := −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s .
a
Pero, ¿por qué H está bien definida?, ¿por qué el valor H(x, y) no depende de la curva elegida γ? Esto se
debe a que, al ser U una región simplemente conexa, cualquier lazo τ = (τ1 , τ2 ) : [α, β] → R en (x0 , y0 ) (i.e.,
τ (α) = τ (β) = (x0 , y0 )) se puede deformar continuamente al punto (x0 , y0 ). En consecuencia, la integral definida
en los lazos es igual a cero:
� β
� �
−B(τ (s)) τ1� (s) + A(τ (s)) τ2� (s) d s = 0 .
α

Así, si se tiene una ecuación como en (8.5) y se sabe que ésta está definida en una región simplemente
conexa y satisface que Ax = −By , entonces existe una función H ∈ C2 (U ) tal que Hy = A y −Hx = B. Para
encontrar explícitamente cómo es la función H bastará con integrar H x y Hy con respecto a las variables x y y
respectivamente: � �
H(x, y) = Hy dy + h(x) = A dy + h(x)
� �
H(x, y) = Hx dx + k(y) = −B dx + k(y).
Esto nos da dos expresiones de H de las cuales podemos recuperar los valores específicos de las funciones h(x) y
k(y).

Ejemplo 8.7. Consideremos la ecuación definida por el campo vectorial v(x, y) = (A(x, y), B(x, y))

ẋ = A(x, y) = x sen y
,
ẏ = B(x, y) = cos y
con (x, y) ∈ R2 . Si calculamos las parciales Ax y By se tiene, Ax = sen y = −By . Así, existe una función
H ∈ C2 (U ) tal que Hy = A y −Hx = B. Para encontrar explícitamente cómo es la función H bastará con integrar
Hx y Hy con respecto a las variables x y y respectivamente:
� �
H(x, y) = Hy dy + h(x) = x sen y dy + h(x) = −x cos y + h(x)

2Un espacio topológico X es simplemente conexo cuando es conexo por caminos y su grupo fundamental es el grupo trivial.
De forma equivalente, un espacio topológico X es simplemente conexo si es conexo por caminos y todo lazo γ en X puede ser
deformado continuamente en X a un punto.
8.1. ECUACIONES HAMILTONIANAS 171

� �
H(x, y) = Hx dx + k(y) = − cos y dx + k(y) = −x cos y + k(y).
Esto nos da dos expresiones de H de las cuales podemos recuperar los valores específicos de las funciones h(x)
y k(y). En este caso, h(x) = k(y) = 0. Por consiguiente, H(x, y) = −x cos y. Las curvas de nivel de la función
H nos permiten recuperar el retrato de las fases de la ecuación. Observemos primero que los puntos singulares
de la ecuación diferencial se encuentran contenidos en el eje y como (0, kπ + π2 ). Para éstos calculamos la matriz
derivada del campo vectorial. Esta es:
a) Para k entero par.
� � � �
sen y x cos y 1 0
D(0,kπ+π/2) v = = .
0 − sen y (0,kπ+π/2) 0 −1
b) Para k entero impar.
� � � �
sen y x cos y −1 0
D(0,kπ+π/2) v = = .
0 − sen y (0,kπ+π/2)
0 1
En ambos casos se tienen puntos silla de la ecuación definida por la parte lineal del campo vectorial en los
puntos singulares. Por el teorema de Grobman-Hartman la ecuación original tiene también, en esos puntos,
singularidades de tipo silla. Si hacemos uso de esta información sobre los puntos singulares y de la expresión
explícita que obtuvimos de la función H, podemos recuperar el retrato de las fases de la ecuación. Éste está dado
como se indica en la figura 8.4.

Figura 8.4. Retrato de las fases de la ecuación (8.7) que se corresponde con las curvas de nivel
de la función H(x, y) = −xcosy.

Se invita al lector a construir la superficie cuyas curvas de nivel son las indicadas por el retrato de las fases
en la figura 8.4 y comparar con la figura 8.5.

Figura 8.5. Superficie asociada a la función H(x, y) = −xcosy. Los cortes a alturas fijas
z = cte se corresponden, en el plano (x, y), con las curvas de nivel de H y forman el retrato de
las fases de la ecuación (8.7) que se representó en la figura 8.4.

Observación 8.8. Si aplicamos el teorema 10.30 de Liouville a este ejemplo, podemos observar cómo es que el
área se conserva. En efecto, en la figura 8.6 se representa lo que sucedería con el área de una pequeña bola que
172 8. ECUACIONES INTEGRABLES

se deja fluir a lo largo de las soluciones. Ésta se abre en una especie de "bigote" que se irá estirando conforme el
tiempo t transcurra positivamente, pero siempre conservando el área de la bola.

Figura 8.6. Al ser una ecuación hamiltoniana, el área de la figura sombreada circular se
conserva al transcurrir el tiempo y ser deformada con el flujo formando en este caso la figura
sombreada de "bigote".

Ejemplo 8.9. Consideremos la ecuación definida por el campo vectorial v(x, y) = (A(x, y), B(x, y))
x
ẋ = A(x, y) = x2 +y 2
y
ẏ = B(x, y) = x2 +y 2
,

con (x, y) ∈ R2 \ {0}. Si calculamos las parciales Ax y By se tiene,


(x2 + y 2 ) − 2xx y 2 − x2
Ax = 2 2 2
= 2
(x + y ) (x + y 2 )2
(x2 + y 2 ) − 2yy x2 − y 2
By = 2 2 2
= 2 .
(x + y ) (x + y 2 )2
Por lo tanto, Ax = −By . ¿Es hamiltoniana la ecuación diferencial? Supongamos que sí.
Por la observación ??, si γ = (γ1 , γ2 ) : [a, b] → R2 � {0} es un lazo (es decir, γ(a) = γ(b)), entonces
� b
� �
0= −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s
a

En particular, consideremos el lazo γ(s) = (r cos s, r sen s), s ∈ [0, 2πn], con n ∈ N \ {0} (o bien, s ∈ [2πn, 0],
si −n ∈ N \ {0}). El lazo γ parametriza a la circunferencia de radio r centrada en el origen y la recorre n veces en
sentido positivo (o −n veces en sentido negativo, si n < 0). Así, se tiene γ � (s) = (−r sen s, r cos s). Por lo tanto,
r sen s
B(γ(s)) γ1� (s) = (−r sen s) = −(sen s)2 ,
(r cos s)2 + (r sen s)2
r cos s
A(γ(s)) γ2� (s) = (r cos s) = (cos s)2 ;
(r cos s)2 + (r sen s)2
en consecuencia, si n ∈ N � {0}
� 2πn � �
0= −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s
0
� 2πn � 2πn
� �
= (sen s)2 + (cos s)2 d s = 1ds
0 0
= 2πn ,
Esto nos lleva a una contradicción (observe que si n < 0, obtenemos exactamente el mismo resultado en la integral).
Por lo tanto, la ecuación no es hamiltoniana. De aquí que sea un hecho sustancial el que en la demostración del
teorema 8.4 se haya considerado una región simplemente conexa (ver disgresión en el apartado 8.2).

Como acabamos de ver, si ẋ = v(x) es una ecuación diferencial hamiltoniana,


� entonces �se satisface div v = 0.
¿Es cierto al revés? No necesariamente: Si v está definido como v(x1 , v2 ) = x2
, −x1 , entonces
x +x2 x2 +x2
2
1 2 1 2
� �
∂ x2 2x1 x2
= 2 .
∂x1 x21 + x22 (x1 + x22 )2
8.1. ECUACIONES HAMILTONIANAS 173

� �
∂ −x1 −2x1 x2
= .
∂x2 x21 + x22 (x21 + x22 )2
Por lo tanto,
div v = 0 .
Sin embargo, el campo no tiene integral primera ya que no está bien definido en (0, 0); es decir, la integral
� �
x1 x2
dx 1 + dx2
x21 + x22 x21 + x22
sí depende de la trayectoria. Sucede aquí algo interesante pues si bien la ecuación satisface que la divergencia del
campo vectorial que la define es cero, hay una obstrucción para definir una integral primera en toda región que
contenga al punto (0, 0). De algún modo que aquí sólo decimos de manera heurística, el proceso de integración
detecta que hay un hueco en la región. Este es el punto medular de la cohomología de De Rham (se recomienda
ver el capítulo 6 del libro [Ar.3], así como [T], [Spi-1], [N]}).
8.1. ECUACIONES HAMILTONIANAS 177

Ejemplo 8.14.
ẋ(t) = y = A(x, y)
(8.11)
ẏ(t) = − sen x = B(x, y)
Observemos que Ax = −By = 0. Ahora integramos

y2
H(x, y) = y dy + h(x) = + h(x)
2

H(x, y) = sen x dx + k(y) = − cos(x) + k(y)
y2
Así, h(x) = − cos x y k(y) = 2
. Por lo tanto,
y2
− cos x.
H(x, y) =
2
Encuentra el retrato de las fases de esta ecuación analizando las curvas de nivel de la superficie definida por
la función H.
8.1. ECUACIONES HAMILTONIANAS 181

Lema 8.16. En ecuaciones hamiltonianas no existe un subconjunto abierto de soluciones que se acumulen a un
punto singular o a una órbita periódica.

Demostración. Sea
ẋ = Hy (x, y)
(8.13)
ẏ = −Hx (x, y) ,
una ecuación hamiltoniana. Supongamos que existe un subconjunto abierto U ∈ R 2 y un subconjunto S : =
{ϕ(t, p), p ∈ U, t ∈ [0, ∞)} de soluciones de la ecuación (8.13) que tienen la propiedad de que se acumulan a un
punto ξ del plano, ξ �∈ U ; es decir,
lim ϕ(t, p) = ξ ,
t→∞
para todo p ∈ U . Si aplicamos H a ambos lados de esta igualdad, se tiene
lim H(ϕ(t, p)) = H(ξ) ,
t→∞

para todo p ∈ U . Si H(ξ) = c = cte, por continuidad, toda solución en S deberá satisfacer que H(ϕ(t, p)) = c
para toda t ∈ [0, ∞)}; en particular, para el conjunto U se satisface también que H(U ) = c. Así,la ecuación
diferencial (8.13), restringida a U es la ecuación idénticamente cero; es decir, la ecuación (8.13) tiene a todos los
puntos del subconjunto U como puntos singulares. Esto contradice el que las soluciones con condición inicial en
U tiendan al punto ξ si t tiende a infinito. La demostración en el caso de una órbita periódica es análoga. �
192 8. ECUACIONES INTEGRABLES

Si la ecuación

ẋ = A(x, y)
(8.19) v(x, y), (x, y) ∈ R2 .
ẏ = B(x, y)
no es hamiltoniana, buscamos una función µ = µ(x, y) ∈ C1 que no se anule en el dominio de definición de la
ecuación (o lo haga sólo en los puntos singulares de v) tal que
ẋ = µ · A(x, y)
(8.20)
ẏ = µ · B(x, y)
sí sea hamiltoniana.

Observación 8.28. Hacemos notar que lo que estamos cambiando es la velocidad y/o el sentido, pero no la
dirección. Por consiguiente, las dos ecuaciones tienen que tener el mismo retrato de las fases.

Así, buscamos la existencia de una función diferenciable H : U ⊂ R2 −→ R tal que


Hy = µA
−Hx = µB.
Para ello basta que
Hyx = −(µx A + µAx ) = (µy B + µBy ) = Hxy ,
es decir,
µ(Ax + By ) = −µx A − µy B.
Esta ecuación no es fácil de resolver a menos de que µx = 0 o µy = 0.
(a) Si µx = 0, entonces
µy Ax + By
= .
µ −B
Ax +By
Así, es posible hallar µ si −B
es una función que depende sólo de y:
� y � y
µy A x + By
ln µ(y) − ln µ(y0 ) = dy = dỹ.
y0 µ y0 −B
Por lo tanto,
� y Ax +By
dỹ
µ(y) = µ0 e y0 −B .
(b) Si µy = 0, entonces
� x Ax +By
dx̃
µ(x) = µ0 e x0 −A .

Ejemplo 8.29.
ẋ = x
(8.21)
ẏ = x2 + y .
Esta ecuación no es hamiltoniana pues Ax �= −By . Por lo tanto, buscamos una función µ tal que al multiplicarla
por el campo vectorial que define a la ecuación (8.21) sí se tenga una ecuación hamiltoniana cuyo retrato de las
fases coincida con el de la ecuación original.
x·µ = Hy
(x2 + y) · µ = −Hx .
Si dicha µ existe, deberá satisfacer
(µx x + µ) = −µy (x2 + y) + µ.
µx
Supongamos que µy = 0, entonces µx x − µ = −µ y 2µ = −µx x. Así, µ
= − x2 . Integrando ln µ = −2 ln x y
µ(x) = x−2 .
Por lo tanto, la ecuación obtenida es
1
ẋ = = Ã
(8.22) x
ẏ = 1 + xy2 = B̃
y ésta cumple Ãx = −B̃y .
Así, si omitimos el eje {x = 0}, la ecuación es hamiltoniana en el semiplano izquierdo y en el semiplano
derecho, y por lo tanto, existe H1 : R+ × R −→ R tal que H1 es constante a lo largo de las soluciones de (8.22)
para (x, y) ∈ R+ × R. �
1 y
H1 (x, y) = dy = + k(x)
x x

y y
H1 (x, y) = (1 + 2 ) dx = −x + + h(y).
x x
8.1. ECUACIONES HAMILTONIANAS 193

Por consiguiente,
y
H1 (x, y) = −x + .
x
Las curvas de nivel son H1 (x, y) = c. Así, para c = 0 se tiene
x2 − y = 0 , es decir, y = x2 .
Y para c �= 0 se tiene
x2 − y = cx , es decir, y = x(x − c).
Para el semiplano izquierdo el análisis es el mismo y obtenemos una función H2 : R− × R −→ R que se define
como H1 pero cuyo dominio es R− .
Para recuperar el retrato de las fases observamos que las curvas de nivel son parábolas y pasan siempre por
el punto x = 0 y por el punto x = c. Como el valor de c va cambiando, la parábola correspondiente se ve como
una parábola anclada en x = 0 y con un extremo que cambia según sea el valor de c. Para guiarnos en el bosquejo
del retrato de las fases observamos, haciendo uso de la información del campo vectorial (8.21), que en a lo largo
de la curva auxiliar y = −x2 el campo vectorial (8.21) es horizontal; por lo tanto se tiene el retrato de las fases
que se observa en la figura 8.24.

Figura 8.24. Retrato de las fases correspondiente a la ecuación (8.21).

Sabemos que un nodo repulsor no puede existir en una ecuación hamiltoniana y pareciera, al ver el retrato
de las fases obtenido, que hemos llegado a un sinsentido. Hacemos notar, sin embargo, que no hay contradicción
alguna pues justamente los puntos del eje y no podían ser considerados, ya que a lo largo de éstos la función
y = x−2 no está definida. Así, la información de lo que sucede en el eje y se obtiene la directamente del campo
vectorial original. Con esto finalizamos el análisis y queda justificado el retrato de las fases obtenido.

Ejercicio 8.30. Encuentra el retrato de las fases de la siguiente ecuación haciendo uso de lo que hemos visto a
lo largo de este capítulo.
ẋ = −3x2 − y 2
ẏ = 2xy .

El siguiente ejemplo tiene su origen en el análisis que el matemático italiano, Vito Volterra (1860 − 1940) y,
de manera independiente, el matemático norteamericano Alfred J. Lotka (1880 − 1949) realizaron en relación al
comportamiento de dos especies que coexisten en un mismo ambiente. Antes de ver el ejemplo, hagamos un alto
para saber un poco sobre sus biografías.
En los años posteriores a la Primera Guerra Mundial, Vito Volterra establece un modelo matemático después
de observar el comportamiento que tenían un par de especies –sardinas y tiburones– en el mar Adriático.
Como resultado de sus estudios sobre este fenómeno, Vito Volterra fue invitado por Emile Borel (1871-1956),
en el semestre de 1928-1929, a dictar un curso en el Instituto Henri Poincaré de París. Este curso sobre la
lucha por la supervivencia dio origen a la publicación Leçons sur la théorie mathématique de la lutte pour la
vie, compilada por Gaston Julia y editada por Gauthier-Villars en 1931. El curso fue de los primeros cursos de
matemática aplicada al estudio de la biología, temática que posteriormente se denominaría biomatemática. Las
ideas de Volterra encontraron tal resonancia en el medio académico, que se documentan alrededor de 400 cartas
de científicos en el mundo, mismas que se conservan hasta nuestros días en la Accademia del Lincei en Roma. En
particular, destaca el intercambio epistolar de 68 cartas entre Volterra y el científico ruso Vladimir A. Kostitzin
(ver [I-M]).
194 8. ECUACIONES INTEGRABLES

Asimismo, cabe destacar que en noviembre de 1931, Volterra fue uno de los doce académicos, entre alrededor
de mil doscientos cincuenta académicos universitarios italianos, que se negó a firmar una carta de lealtad a
Mussolini. Como resultado, Volterra fue suspendido de su cargo en la Universidad de Roma y tuvo que partir al
extranjero 3.
Por otra parte, y desde una perspectiva distinta, el matemático y estadístico austro-húngaro Alfred J. Lotka
(1880-1949) se interesa también por la dinámica de las poblaciones. Lotka realiza sus estudios en la Universidad
de Cornell (Estados Unidos) y en la Universidad de Birmingham (Reino Unido). En 1925 publica lo que algunos
consideran como una de las primeras obras de matemáticas aplicadas a biología, Elements of physical biology, en
el que generaliza los trabajos de Pierre-François Verhulst sobre dinámica de poblaciones.
Pasemos ahora al modelo depredador-presa definido por la ecuación de Lotka-Volterra para un caso -hipotético
para los datos del problema pero real como fenómeno- en la zona lacustre en Xochimilco. Quien esté interesado
en saber más sobre este tema puede consultar, entre otras fuentes, el breve documental de UNAM Global, relativo
al rescate de los ajolotes y el ecosistema chinampero de la Ciudad de México 4.

Ejemplo 8.31 (Ecuación de Lotka-Volterra o depredador-presa.). Vamos a analizar un modelo en el que dos
poblaciones coexisten en cierto medio. Para fijar ideas suponemos que se trata de un caso, no necesariamente
cierto, de ajolotes y carpas en el lago de Xochimilco. Suponemos que una de las especies, x -ajolotes-, en ausencia
de cualquier otra especie, crece a una velocidad proporcional al número de pobladores presentes: ẋ = αx. Sin
embargo, en el medio habita otra especie, y –carpas–, que tiene como único alimento a la especie x. La velocidad
con que la especie y se come a la especie x es proporcional al número de encuentros entre las dos especies. Así,
la velocidad de crecimiento de x, está determinada por la ecuación
ẋ = αx − βxy , α > 0, β > 0 .
Por otra parte, se sabe que la especie y tiene como único alimento a la especie x (esto no sucede necesariamente
en el caso de las carpas pero vamos a suponerlo para este modelo). Así, la especie y muere, en ausencia de la
especie x, a una velocidad proporcional a la cantidad de pobladores: ẏ = −γy. Sin embargo, en presencia de la
especie x, la especie y crece a una tasa de proporcional a la cantidad de pobladores x que logra comerse: δxy.
Así, la velocidad de crecimiento de y está dada por la ecuación
ẏ = −γy + δxy , γ > 0, δ > 0 .
A la especie y la denominamos depredador y a la especie x, presa. De tal modo, hemos llegado al modelo
más simple de depredador-presa, conocido como modelo de Lotka-Volterra:

ẋ = αx − βxy
(8.23) v α, β, γ, δ > 0.
ẏ = −γy + δxy
Por tratarse de un modelo de población, éste tiene sentido sólo para los valores de x y y en el primer
cuadrante del plano: x ≥ 0, y ≥ 0. Lo primero que observamos es que no es hamiltoniana pues A x �= By . Los
puntos singulares de la ecuación son p = (0, 0), q = (γ/δ, α/β). El primer punto corresponde al momento en que
hay ausencia total de pobladores, y el segundo punto corresponde a un equilibrio entre las tasas de crecimiento
de las dos poblaciones.
Encuentra el retrato de las fases de la ecuación.

3ver CNRS Images des Mathématiques, Y yo, ¿habría firmado?, Michèle Audin, traducción al español, Andrés Navas,
http://images.math.cnrs.fr/Y-yo-habria-firmado.html?lang=fr
4el enlace a este reportaje y documental es https://unamglobal.unam.mx/la-unam-acude-al-rescate-del-ajolote-en-xochimilco/

También podría gustarte