Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tal vez no sea exagerado decir que el origen de las ecuaciones diferenciales está en la fascinación instintiva y
racional que el ser humano ha tenido desde tiempos remotos por todo aquello que está en movimiento. Es difícil
no sentir embeleso al mirar las olas en el mar o el correr del agua cristalina en ríos y riachuelos; al elevar la mirada
y ver el ligero andar de las nubes en el cielo, el movimiento del sol y la luna, el desplazamiento de los animales
y el propio, el caer lento de una gota en la palma de la mano, el sentir un latido, un parpadeo... Todo está en
movimiento.
Siendo el cambio algo intrínseco a la vida, no resulta extraño el que haya surgido y siga aún latente en el
ser humano el interés de entender y representar todo aquello que cambia al paso del tiempo. Y es en ese afán de
comprender aquello que nos rodea y de lo que formamos parte, que surgen los conceptos de campos vectoriales y
de ecuaciones diferenciales.
En esta parte del libro presentamos nociones básicas sobre campos vectoriales y sobre las ecuaciones diferen-
ciales que éstos inducen. Como es usual, este libro está pensado para ir creciendo poco a poco en profundidad y
complejidad. Esta introducción obedece por lo tanto a un deseo de establecer un puente entre el contenido del
libro y el lector, apelando a aquellas cosas que puedan serle familiares.
De manera heurística, un campo de vectores representará, en cada punto en donde se encuentre definido,
una tendencia instantánea de desplazamiento. Si pensamos en una partícula de polvo y una corriente de aire,
podemos decir que ésta ejerce sobre la partícula una tendencia a cambiar de posición en cada instante. Si
quisiéramos representar esta tendencia instantánea, bastaría con dibujar una flecha anclada en el punto en que
se halla la partícula con la dirección, la magnitud y el sentido apropiados. Esta flecha es un vector. Si esta
asociación la hacemos en todo punto de una región (a cada punto asociamos el vector correspondiente) habremos
definido un campo vectorial. La trayectoria que la partícula habrá de seguir al paso del tiempo es justamente la
trayectoria correspondiente a una solución de la ecuación diferencial definida por dicho campo de vectores.
Muy posiblemente, las palabras campo vectorial y ecuaciones diferenciales nos sean ajenas o poco conoci-
das, sin embargo, en cada momento de nuestras vidas nos encontramos rodeados de campos vectoriales y, por
consiguiente, de ecuaciones diferenciales que representan el movimiento que dichos campos inducen.
Entender comportamientos asociados a los campos vectoriales y a las ecuaciones diferenciales inducidas por és-
tos, nos abrirá la posibilidad de disfrutar de dinámicas diversas: algunas serán sumamente sencillas, otras sorpren-
dentemente complicadas; un objetivo de lo que aquí presentaremos, es mostrar que algunos comportamientos en
apariencia muy complicados, pueden ser entendidos, en su esencia, de manera extraordinariamente simple...Buscar
la simpleza en el razonamiento es una de las características fundamentales del pensamiento matemático.
Hace un momento mencionamos que vivimos rodeados de campos vectoriales. Dejemos las corrientes de aire
y observemos con cuidado lo que sucede cuando, con una cucharita, movemos el café que nos servimos cada
mañana. Las trayectorias que siguen de manera tangente a los vectores del campo vectorial que generamos con
el movimiento de la cucharilla podríamos dibujarlas como en la figura 1.1. Una dinámica parecida podemos
observarla al lavarnos las manos: el agua que se va por el desagüe del lavabo tiene también un comportamiento
similar al que se observa en la figura 1.1.
Los barquitos de papel, nuestros grandes navíos de la infancia, se desplazaban por las corrientes de los ríos
y arroyos porque estaban bajo la influencia de un campo vectorial. Seguramente nuestro mirar pudo percibir
cómo nuestros navíos seguían trayectorias sumamente caprichosas que incluían a curiosos remolinos; ¡ah!, por
cierto, algo aprendimos ahí: la trayectoria que seguía nuestro barco en la corriente del río dependía del lugar
en el que lo soltábamos (la condición inicial), algunas veces se desplazaba veloz hasta perderse a nuestra vista y
otras encallaba en la orilla o se quedaba atorado en un remolino. ¿Más ejemplos? Resulta sorprendente saber que
algunos fenómenos relacionados con la temperatura, la glucosa en la sangre, el crecimiento de ciertas poblaciones,
el decaimiento radiactivo, la absorción de medicamentos por los organismos vivos, la velocidad de proliferación
de células cancerosas, la propagación de una enfermedad contagiosa, así como fenómenos de contaminación (por
dar tan sólo unos pocos ejemplos), pueden ser algunas veces entendidos gracias a los campos vectoriales y a las
ecuaciones diferenciales que éstos inducen. En este texto revisaremos algunos de estos aspectos y exploraremos
conceptos fundamentales de lo que son las ecuaciones diferenciales ordinarias y de lo que podemos hacer para
entenderlas.
Campos vectoriales y las ecuaciones diferenciales ordinarias inducidas por éstos. De aquí en adelante
vamos a denotar por Rn al espacio vectorial real de dimensión n. Por ejemplo, cuando n = 1, R1 , representa la
recta real, cuando n = 2, R2 representa el plano real; cuando n = 3, R3 representa el espacio tridimensional real.
1
2 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Figura 1.1.
A lo largo del libro nos restringiremos con frecuencia a los casos de dimensión n = 1, 2, 3. Sólo haremos
mención a dimensiones mayores cuando ello sea conveniente.
Por razones que más adelante quedarán claras, pediremos que el campo vectorial sea de clase C1 ; es decir,
que cada una de las funciones diferenciables vj , j = 1, ..., n, que definen al campo vectorial v satisfaga que su
primera derivada con respecto a cada una de las variables sea continua.
Para fijar ideas pensemos que en cada punto x de Rn tenemos una tendencia instantánea de movimiento que
es representada por un vector v(x) 2 Rn . Así, al vector v(x) lo representaremos como una flecha en Rn parada
en x, que tiene la magnitud, la dirección y el sentido del vector que asociamos a x. La asociación x 7! v(x) para
x 2 R3 , se ve como en la figura 1.2.
Figura 1.2.
Figura 1.3.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 3
Figura 1.4.
Figura 1.5.
Si los empujones que damos son muy espaciados, las tendencias al movimiento que se inducen harán que la
trayectoria que siga la pelota sea zigzagueante y difícilmente ésta se amoldará al camino prescrito. Sin embargo,
si nuestros empujones comienzan a ser más frecuentes, las tendencias al movimiento variarán a su vez con más
frecuencia y la trayectoria de la pelota se amoldará con más facilidad al camino. Cada nuevo empujón modifica la
dirección, magnitud y sentido de la tendencia al desplazamiento anterior. Así, si pudiésemos variar a cada instante
las tendencias de desplazamiento dando empujones instantáneos, amoldaríamos perfectamente la trayectoria de
la pelota a cualquier camino sin importar lo sinuoso que éste fuera.
En general, al cambio instantáneo de posición con respecto al tiempo podemos representarlo (siguiendo a I.
Newton (1642-1727) y G.W. Leibniz (1646–1716) ) con el símbolo dx dt
; este cambio está representado en cada
punto por el vector correspondiente, lo que permite definir la ecuación diferencial ordinaria (autónoma)
dx
= v(x) .
dt
Esta ecuación nos dice: “el cambio instantáneo en la posición del punto x es igual a la tendencia a desplazarse,
representada por v(x), que experimenta el punto x en ese instante”. Dado que la variación instantánea de la
posición x con respecto al tiempo no es otra cosa que la velocidad, la ecuación anterior nos dice que la velocidad
de x en cada instante está dada por el vector “v(x)”. Ahora el problema que se nos presenta es resolver dicha
ecuación. Es decir, encontrar cuál es la trayectoria que mejor se amolda al campo de vectores en cada uno de los
puntos. 1.
Dado un punto x 2 Rn arbitrario, encontrar la trayectoria que mejor se amolde al campo vectorial v, es
encontrar una transformación, ' : R ⇥ Rn ! Rn , (t, x) 7! '(t, x), que sea una parametrización por t de una
curva que pasa por x. Dicha parametrización ' es tal que para algún valor t0 –que llamamos inicial–, '(t0 , x) = x,
y cuyo vector velocidad en el instante t, es v('(t, x)). Es decir,
d'
(t, x) = v('(t, x)), '(t0 , x) = x,
dt
Definición 1.2. Dado un campo vectorial diferenciable (de clase C1 ) v : Rn ! Rn , decimos que
dx
(1.1) = v(x)
dt
es la ecuación diferencial autónoma inducida por el campo vectorial v, y la transformación, ' : R ⇥ Rn ! Rn ,
(t, x) 7! '(t, x), que satisface
d'
(1.2) (t, x) = v('(t, x)), '(t0 , x) = x,
dt
es la solución de la ecuación, que satisface la condición inicial '(t0 , x) = x.
1Isaac Newton consideraba que todo fenómeno de la naturaleza podía ser expresado por medio de ecuaciones diferenciales. De
ahí surgió el afán de resolver explícitamente todas las ecuaciones.
4 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Definición 1.3. Al abierto de Rn en el que las soluciones de la ecuación están definidas y son representadas, se
le conoce como retrato de las fases. Este nombre hace referencia al abierto del espacio en donde las distintas fases
o estados de un fenómeno ocurren. A la gráfica con respecto de t de las soluciones, se le conoce como retrato de
las fases extendido.
Observación 1.4. Puede suceder, y de hecho es frecuente, que los campos vectoriales estén definidos y sean
diferenciables sólo en subconjuntos abiertos de Rn . La definición de ecuación diferencial autónoma correspondiente
se deriva de esta restricción. Nosotros en un inicio haremos referencia a campos vectoriales definidos en todo Rn
y sólo después, cuando sea necesario por la naturaleza misma del campo de vectores que defina la ecuación,
restringiremos el dominio a abiertos U de Rn .
Las soluciones de una ecuación diferencial (1.1) satisfacen las siguientes propiedades básicas que enunciamos
a continuación.
(1) Si '(t, x), '(t0 , x) = x, es solución de la ecuación (1.1) definida en un intervalo (a, b), entonces '(t+c, x),
también es solución; esta última puede verse también como una solución que en el tiempo t = t0 c
pasa por el punto x, '(t0 c + c, x) = x, y por lo tanto es una solución de la ecuación distinta a la
anterior (su parametrización difiere de la correspondiente a '(t, x)), si bien ambas describen a la misma
curva.
(2) Si '(t, x), '(t0 , x) = x, es solución de la ecuación (1.1) definida en un intervalo (a, b), entonces podemos
reparametrizar la solución de modo que la condición inicial esté tomada al tiempo cero. A saber, si
⌧ = t t0 , entonces '(⌧, x), '(0, x) = x; el intervalo de definición correspondiente es, en este caso,
(a t0 , b t0 ).
(3) '(t + s, x) = '(t, '(s, x)) siempre y cuando t, s y t + s pertenezcan al intervalo (a, b).
Observación 1.5. En lo sucesivo, la notación ẋ representa a la derivada de la variable con respecto a t, ẋ = dx/dt,
x 2 Rn , t 2 R. A lo largo de este texto usaremos indistintamente una u otra notación. Asimismo, hacemos notar
que para los elementos x en Rn no escribiremos ninguna notación que indique que se trata de un punto en varias
variables; esto deberá de ser claro para el lector según el contexto.
También puede suceder que el campo vectorial sea dependiente del tiempo, es decir, que en lugar de tener
v : Rn ! Rn , v = v(x), se tenga una dependencia explícita de cada vector con respecto a la variable t:
v : R ⇥ Rn ! Rn , v = v(t, x). En este caso, se dice que la ecuación que define dicho campo vectorial es no
autónoma.
Veamos ahora unos ejemplos de campos vectoriales y de las ecuaciones que éstos inducen. En los ejemplos
incluiremos también a las curvas que mejor se adaptan a un campo vectorial, sin dar por el momento, una
explicación rigurosa de ello. Esto lo veremos con todo detalle en las siguientes secciones.
En este caso el campo vectorial es constante. Por ello, a cada punto de la recta real le asociamos el mismo
vector c. Si c > 0, el campo vectorial apunta hacia la derecha como se indica en la figura 1.6:
Figura 1.6.
Figura 1.7.
Observación 1.7. En cada punto x 2 R hay un vector c. Nosotros sólo representamos algunos vectores que
nos dan una idea del comportamiento del campo vectorial. Por lo general, escogemos puntos suficientemente
separados para evitar que se encimen los vectores al ser representados gráficamente. En algunos casos usamos
escalas pequeñas al dibujar a los vectores pues de lo contrario sería imposible comprender el comportamiento que
se pretende analizar.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 5
Si c = 0, todo punto x en este ejemplo tiene velocidad cero. Se dice que todos los puntos son singulares para
el campo vectorial.
Figura 1.8.
Definición 1.8. Decimos que x0 2 Rn es un punto singular de la ecuación ẋ = v(x) si el campo vectorial en
dicho punto se anula: v(x0 ) = 0.
Si x0 es un punto singular del campo v entonces la solución '(t, x0 ) = x0 se denomina solución de equilibrio.
Es claro que si v(x0 ) = 0, el punto x0 permanecerá en reposo o equilibrio todo el tiempo.
(a) Supongamos c > 0. Observemos que el único punto singular es el origen x = 0. La velocidad de
los demás puntos es de una magnitud proporcional a su vector de posición. Así, en este ejemplo, la
magnitud del vector v(x) irá creciendo conforme el valor absoluto de x vaya aumentando:
Figura 1.9.
(b) Supongamos c < 0. Este caso es análogo al anterior salvo por el hecho de que los vectores apuntan hacia
el origen (los vectores tienen dirección contraria a la del vector de posición).
Figura 1.10.
Consideremos ahora ejemplos en dos dimensiones; en todos lo casos que siguen escribiremos la ecuación
diferencial así como su notación matricial (en la sección 3.1 se explica con detalle la utilidad de usar esta notación).
Nuevamente, el origen es el único punto singular de la ecuación. En el eje x1 tenemos la misma situación que
ya analizamos en el ejemplo 1.9. En el eje x2 esta situación se repite (sólo basta girar 90 grados para convencerse
de que sucede lo mismo que en el eje x1 ).
Figura 1.11.
Consideremos el punto (1, 1). El vector asociado a este punto es el (2, 2). En el caso del punto (1, 1) el
vector asociado es (2, 2). Veamos ahora las rectas x2 = x1 y x2 = x1 . Ahí los vectores son (2x1 , 2x1 ) y
(2x1 , 2x1 ) respectivamente (ver figura 1.12).
6 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Figura 1.12.
Si ahora continuamos analizando el comportamiento del campo vectorial en cualquier punto de la recta
x2 = ax1 , a 2 R, obtenemos los vectores (2x1 , 2ax1 ) (ver figura 1.13).
Figura 1.13.
Así, la trayectoria que sigue un punto arbitrario x = (x1 , x2 ) 2 R2 \ {0} es en línea recta y su velocidad
va aumentando en proporción (con constante de proporcionalidad 2) a la magnitud de su vector de posición. El
punto x = 0 2 R2 es el único punto singular de este campo vectorial.
Ejemplo 1.11.
ẋ1 = 2x1 ẋ1 2 0 x1
⇠ = .
ẋ2 = 4x2 notación matricial ẋ2 0 4 x2
Este caso es semejante al anterior pero ahora la primera componente del vector v(x1 , x2 ) = (2x1 , 4x2 ) tiene
una menor magnitud que la de la segunda componente. Así, si representamos el comportamiento del campo
vectorial en los ejes coordenados {(x1 , x2 ) : x1 = 0}, {(x1 , x2 ) : x2 = 0} y en las rectas x2 = cte . se tiene un
comportamiento como el que se ilustra en la figura 1.14
Figura 1.14.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 7
Figura 1.15.
Los puntos singulares en los ejemplos 1.10, 1.11, 1.12 se denominan nodos repulsores.
Ejemplo 1.13. Los ejemplos 1.10, 1.11, 1.12 nos sirven para entender el comportamiento de las soluciones de las
ecuaciones siguientes:
(a)
ẋ1 = 5x1 ẋ1 5 0 x1
⇠ = .
ẋ2 = 5x2 ẋ2 0 5 x2
(b)
ẋ1 = 4x1 ẋ1 4 0 x1
⇠ = .
ẋ2 = 2x2 ẋ2 0 2 x2
(c)
ẋ1 = 3x1 ẋ1 3 0 x1
⇠ = .
ẋ2 = 6x2 ẋ2 0 6 x2
En todos ellos los puntos singulares se denominan nodos atractores.
Los ejemplos 1.11-1.13 nos muestran campos vectoriales que se parecen a fenómenos que nos encontramos
cotidianamente. En efecto, cuando lavamos una naranja, el efecto del chorro del agua sobre ésta puede ser
representado como se muestra en la figura 1.16. En el casquete superior de la esfera (que representa a la naranja)
encontramos trayectorias que se amoldan a lo que correspondería a un nodo repulsor y en el casquete inferior, a
las correspondientes a un nodo atractor. Formalmente, las trayectorias viven en la esfera y en cada punto de ésta
está definido un vector tangente a la esfera. Dicho vector pertenece al plano tangente a la esfera en el punto. No
abundaremos en ello por ahora.
Figura 1.16.
8 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Figura 1.17.
Observemos que un punto p = (p1 , p2 ) que se encuentra muy cercano al eje x1 (ie. si |p2 | es muy pequeño)
y muy lejano del eje x2 (ie. si |p1 | es muy grande) tiene un vector asociado con una componente horizontal muy
grande y, relativamente, una componente vertical muy pequeña (ver figura 1.18):
Figura 1.18.
Este comportamiento hace que un punto p se desplace rápidamente a lo largo de su trayectoria hacia el eje x2
mientras se separa lentamente del eje x1 . El comportamiento descrito cambia conforme la trayectoria del punto
p se aproxima al eje x2 . En efecto, hay un momento en el que la magnitud de la componente del vector en la
dirección horizontal comienza a ser más pequeña con respecto a la magnitud de la componente vertical (en la
dirección del eje x1 ). Así, el desplazamiento se acerca asintóticamente al eje x2 mientras se aleja del eje x1 . El
comportamiento de las trayectorias tangentes al campo vectorial se ilustra en la figura 1.19.
Figura 1.19.
Por la dinámica de atracción y repulsión que presenta el punto singular, se le conoce como punto silla .
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 9
Nuevamente observamos que no es díficil encontrarse con ejemplos cotidianos en los que se presenten puntos
singulares de tipo silla. Podemos pensar, por ejemplo, en lo que sucede cuando una rosquilla es bañada con
chocolate. Un esquema visual del comportamiento de las trayectorias se ilustra en la figura 1.20.
Figura 1.20.
En la parte superior se observan trayectorias que parecen las correspondientes a un nodo repulsor, después,
en la parte interna de la superficie de la rosquilla, se observa cómo se forman dos puntos tipo silla y, finalmente,
en la parte inferior se observa algo que asemeja a un nodo atractor.
Antes de ver otros dos ejemplos relevantes en dimensión 2, veamos un ejemplo sencillo en dimensión 3:
Ejemplo 1.15.
2 3 2 3
ẋ1 = 2x1 ẋ1 2 0 0
ẋ2 = 2x2 ⇠ 4 ẋ2 5 = 4 0 2 0 5.
ẋ3 = 2x3 ẋ3 0 0 2
Para estudiar este ejemplo hacemos notar que en los planos (x1 , x3 ), (x2 , x3 ) se tiene el comportamiento
descrito en el ejemplo 1.14; en el plano (x1 , x2 ) se tiene el comportamiento descrito en el ejemplo 1.10.
Los puntos que no se encuentran en ninguno de los planos coordenados son atraídos al plano (x1 , x2 ) mientras
se alejan del eje x3 , como se muestra en la figura 1.21.
Figura 1.21.
Regresemos ahora al caso del plano. Analizaremos un par de campos vectoriales (y las correspondientes
ecuaciones diferenciales) cuya matriz asociada no es diagonal como sucedía en los ejemplos anteriores.
10 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Ejemplo 1.16.
ẋ1 = x2 ẋ1 0 1 x1
⇠ = .
ẋ2 = x1 ẋ2 1 0 x2
Analizando los vectores en los ejes coordenados, obtenemos que los puntos con coordenadas (x1 , 0) tienen el
vector asociado (0, x1 ). Asimismo, los puntos con coordenadas (0, x2 ) tienen como vector asociado el ( x2 , 0)
(ver figura 1.22).
Figura 1.22.
Si ahora consideramos los puntos (x1 , x1 ), (x1 , x1 ) en las rectas {(x1 , x2 ) : x2 = x1 } y {(x1 , x2 ) : x2 = x1 }
respectivamente, obtenemos los vectores respectivos ( x1 , x1 ) y (x1 , x1 ) (ver figura 1.23).
Figura 1.23.
Al analizar el campo vectorial, observamos que las curvas que mejor se adapten a éste deberán girar alrededor
del origen. Cabe preguntarse en qué forma giran y si forman o no trayectorias cerradas como círculos o elipses.
Para responder a ello, consideremos los círculos Cr = (x1 , x2 ) | x21 + x22 = r2 , de radio r, r > 0, con
centro en el origen, y veamos cómo es el campo vectorial para puntos situados en cada círculo Cr . Con el fin
de realizar este análisis introducimos el producto escalar entre dos vectores (x1 , x2 ), (y1 , y2 ), definiéndolo como
(x1 , x2 ) · (y1 , y2 ) = x1 y1 + x2 y2 . Este producto satisface la igualdad:
Figura 1.24.
En nuestro ejemplo, cualquier punto (x1 , x2 ) en círculo Cr tiene asociado el vector ( x2 , x1 ). El producto
escalar de estos dos vectores es cero:
(x1 , x2 ) · ( x2 , x1 ) = 0 .
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 11
Figura 1.25.
Ejemplo 1.17. Consideremos ahora un ejemplo ligeramente diferente al anterior. A saber, sea " > 0 un número
positivo muy cercano a cero y sea
ẋ1 = "x1 x2 ẋ1 " 1 x1
⇠ =
ẋ2 = x1 + "x2 ẋ2 1 " x2
Analizando los vectores del campo vectorial asociados a los ejes coordenados, observamos que los puntos
con coordenadas (x1 , 0) tienen asociado el vector ("x1 , x1 ) y los puntos con coordenadas (0, x2 ) tienen asociado el
vector ( x2 , "x2 ). Así, como " es positivo, podemos observar una ligera rotación positiva de los vectores obtenidos
en el ejemplo 1.16 (ver figura 1.26).
Figura 1.26.
Lo mismo sucede si consideramos las rectas x2 = x1 y x2 = x1 , es decir, los vectores asociados son los
vectores obtenidos en el ejemplo 1.16 ligeramente rotados positivamente.
Figura 1.27.
Al igual que en el ejemplo anterior, veamos cómo es el campo vectorial para puntos situados en el círculo Cr :
12 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
Si (x1 , x2 ) es un punto en Cr , entonces ("x1 x2 , x1 + "x2 ) es el vector asociado a este punto por el campo
vectorial. Si ahora consideramos el producto escalar de estos dos vectores, obtenemos
(x1 , x2 ) · ("x1 x2 , x1 + "x2 ) = k(x1 , x2 )kk("x1 x2 , x1 + "x2 )k cos ✓ .
Por otra parte, calculando directamente el producto escalar de los dos vectores, se obtiene la igualdad
(x1 , x2 ) · ("x1 x2 , x1 + "x2 ) = "x21 x1 x2 + x1 x2 + "x22 = "r2 > 0 ,
por lo que k(x1 , x2 )kk("x1 x2 , x1 + "x2 )k cos ✓ = "r2 > 0, y por lo tanto, cos ✓ > 0. Lo anterior nos indica que
el vector ("x1 x2 , x1 + "x2 ) nunca es tangente al círculo Cr y siempre apunta hacia afuera de éste (ver figura
1.28).
Así, si (x1 , x2 ) es un punto de norma k(x1 , x2 )k = c (es decir, cuya distancia al origen es c), la trayectoria
que sale de (x1 , x2 ) atraviesa cualquier círculo CR , R > c (ver figura 1.28):
Figura 1.28.
Figura 1.29.
A este tipo de punto singular se le conoce como punto singular de tipo foco.
Ejemplo 1.18. Por último juntemos las dinámicas que obtuvimos en los ejemplos 1.9 y 1.17 para construir un
ejemplo en R3 : 2 3 2 32 3
ẋ1 = "x1 x2 ẋ1 " 1 0 x1
ẋ2 = x1 + "x2 ⇠ 4 ẋ2 5 = 4 1 " 0 5 4 x2 5
ẋ3 = 2x3 ẋ3 0 0 2 x3
Si hacemos x3 = 0 entonces en el plano (x1 , x2 ) tenemos la misma dinámica del ejemplo anterior. En cambio, si
x1 = x2 = 0 entonces tenemos la dinámica del ejemplo 1.9 (en el caso c > 0).
Un punto (x1 , x2 , x3 ), x3 > 0, que no esté en el plano (x1 , x2 , 0) ni en el eje x3 , tiene asociado un vector cuya
tercera componente apunta hacia arriba (ie. en la dirección positiva del eje x3 ) y es de magnitud proporcional
a x3 , mientras que, en las variables x1 , x2 , las primeras dos componentes del vector se comportan como en el
ejemplo 1.17. Por consiguiente, los vectores resultantes en cada punto de este tipo apuntan siempre hacia arriba,
si x3 > 0 (hacia abajo si x3 < 0), mientras que describen una trayectoria giratoria como la del ejemplo 1.17. La
dinámica que se obtiene finalmente es parecida a la de un “tornado” (ver figura 1.30).
Todos los ejemplos los hemos analizado sin dar una solución explícita a las ecuaciones diferenciales asociadas.
Por consiguiente, aunque nos hemos dado una idea sobre los posibles comportamientos, nada nos garantiza aún
la exustencia de las trayectorias que hemos dibujado. Más adelante veremos cómo resolver explícitamente este
tipo de ecuaciones conocidas como ecuaciones diferenciales lineales autónomas.
La mejor manera de adentrarse en una teoría matemática es ensayar en ejemplos cada uno de los conceptos
que se introducen. Éstos deben escogerse muy sencillos al inicio e irse complicando gradualmente. Los siguientes
ejercicios tienen como objetivo que quien intente resolverlos adquiera la soltura de trabajar con campos vectoriales
en un nivel informal (en un primer momento). Al paso del tiempo, uno debe ser capaz de elaborar ejemplos que,
en su simplicidad, guarden las características esenciales del fenómeno que se está estudiando.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 13
Figura 1.30.
Ejercicio 1.19. (1) Analiza mediante dibujos parecidos a los que hicimos en los ejemplos 1.6–1.14, el
comportamiento de las trayectorias del campo vectorial
ẋ1 = x1 ẋ1 1 0 x1
, ⇠ = ,
ẋ2 = kx2 ẋ2 0 k x2
donde k es una constante real. Considera por separado los casos k < 0, k = 0 y k > 0. En este último
caso resulta también interesante observar lo que sucede con la concavidad de las trayectorias cuando se
considera el cambio de k < 1 a k > 1.
Observa que al considerar distintos valores de k fijos obtienes campos vectoriales diferentes. Si
ahora varías la constante k continuamente, los campos vectoriales cambian, a su vez, en forma continua
con respecto a k.
(2) Sean a, b 2 R. Analiza el comportamiento de las trayectorias del campo vectorial
ẋ1 = ax1 ẋ1 a 0 x1
⇠ = ,
ẋ2 = bx2 ẋ2 0 b x2
para distintos valores de a y b. Observa que el campo vectorial del ejercicio anterior se obtiene del campo
vectorial de este ejercicio multiplicando por a 1 y haciendo k = ab . Esto, como se verá más adelante
con detalle, equivale a cambiar la velocidad en la que son recorridas las curvas que mejor se adaptan al
campo vectorial. A saber, si s = a 1 t, entonces por regla de la cadena, se tiene que el parámetro ahora
para x(t) = (x1 (t), x2 (t)) será la variable s, x = x(s) = (x1 (s), x2 (s)); así,
dx1 1 dx1
ds
= a dt
= x1 ,
dx2 1 dx2 b
ds
= a dt
= x .
a 2
Ejemplo 1.20. Supongamos que deseamos construir un campo vectorial en la recta real que tenga las siguientes
características:
(a) En el punto 1 el campo vectorial se anula y es punto singular repulsor.
(b) En el origen el campo vectorial se anula y es punto singular atractor.
(c) En el punto 1 el campo vectorial se anula y es un punto singular repulsor.
Para construir un campo vectorial con estas características, primero hacemos un esquema de lo que requeri-
mos.
En la figura 1.31 vemos un campo vectorial con las características descritas en el inciso a):
Figura 1.31.
En la figura 1.32 vemos ahora un campo vectorial con las características descritas en los incisos a) y b):
Finalmente, en la figura 1.33 vemos un campo vectorial con las características descritas en los incisos a), b)
y c):
14 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
-1 0
Figura 1.32.
-1 0 1
Figura 1.33.
Siendo que este último campo vectorial posee las características que se necesitan, ¿cómo podemos dar una
expresión analítica de este campo vectorial? Pues bien, para hacerlo, comencemos por definir un campo vectorial
(y su correspondiente ecuación diferencial) cuya expresión satisfaga las características que se piden en cada inciso:
En el inciso a): ẋ = x + 1 ,
En el inciso b): ẋ = x ,
En el inciso c): ẋ = x 1 .
Después, consideremos el producto de las primeras dos expresiones para tener las características requeridas
en a) y b):
ẋ = x(x + 1) .
Puede verse que este campo vectorial se anula en 1 y 0, siendo 1 un repulsor y 0 un atractor. Finalmente,
procediendo de manera análoga, obtenemos una ecuación diferencial definida por un campo vectorial (que ya no
es lineal) con todas las características deseadas
ẋ = (x + 1)( x)(1 x) .
Es decir,
ẋ = x3 x.
Ejemplo 1.21. Veamos ahora la forma que tiene la ecuación diferencial definida por el campo vectorial v(x) =
((x1 + 1)( x1 )(1 x1 ), 3x2 , 2x3 ):
x˙1 = (x1 + 1)( x1 )(1 x1 )
x˙2 = 3x2
x˙3 = 2x3
El campo vectorial v tiene, en el eje x1 , las mismas características vistas en el ejemplo 1.20. Así, su restricción
al plano (x1 , x2 , 0), tiene la forma que se indica en la figura 1.34.
-1 0 1
Figura 1.34.
Lo mismo sucede si se considera la restricción al plano (x1 , 0, x3 ), ya que en el eje x3 se tiene una contracción
del mismo tipo que en el eje x2 .
Hagamos ahora un análisis de lo que sucede en el plano en el plano (0, x2 , x3 ) . Ahí nos encontramos con un
nodo atractor parecido al visto en el ejemplo 1.11, aunque en este caso las curvas están acercándose al origen como
puede verse en la ver figura.1.35. Hacemos notar que en esta figura se están representando sólo las trayectorias y
no los vectores tangentes.
1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES 15
Figura 1.35.
Si juntamos ahora toda la información que hemos recabado en los distintos cortes, podemos darnos una idea
de cómo tendrían que comportarse las trayectorias asociadas al campo vectorial en R3 (ver figura 1.36).
Figura 1.36.
Ejercicio 1.22.
1. Haz una descripción del comportamiento del campo vectorial que define a la ecuación diferencial
ẋ = a(x3 x) en los casos a > 0 y a < 0.
2. En cada uno de los siguientes incisos determina si es posible o no definir un campo vectorial en el plano
que tenga exactamente los puntos singulares de los tipos que a continuación se piden.
Observación: Comienza por hacer dibujos para entender las dinámicas posibles. Después puedes intentar
dar expresiones explícitas en los casos más sencillos ayudándote con lo visto en los ejemplos 1.20 y 1.21.
(a) Un punto singular tipo nodo atractor y un punto singular tipo silla.
(b) Construye un campo vectorial en el plano x1 x2 que tenga exactamente un punto singular tipo silla
en el punto ( 4, 0), un punto singular tipo nodo atractor en el punto (0, 0) y un punto singular
tipo silla (2, 0).
(c) Un punto singular tipo silla en el punto ( 3, 0) y un punto singular tipo silla en el punto (3, 0).
(d) Tres puntos singulares tipo silla en los puntos ( 4, 0), (0, 0) y (4, 0).
En los siguientes incisos sólo se pide que hagas los dibujos correspondientes cuando ello es posible.
(e) En el plano dos puntos singulares tipo nodo repulsor.
(f) En el plano dos puntos singulares tipo centro.
(g) En el plano un punto singular tipo centro y un punto singular tipo foco.
(h) En el plano dos puntos singulares tipo foco atractor.
(i) Nuevamente intenta los cuatro incisos anteriores en la esfera.
(j) En la esfera un campo vectorial con un único punto silla.
(k) En el toro (dona) un campo vectorial sin puntos singulares.
(l) En la esfera un campo vectorial con un único punto singular.
(m) En la esfera un campo vectorial sin puntos singulares.
16 1. INTRODUCCIÓN A LOS CAMPOS VECTORIALES
3. Define un campo de vectores que tenga las características que se describen en la figura 1.37.
Figura 1.37.
4. Define un campo de vectores, y su ecuación diferencial asociada, que tenga las características que se
describen en la figura 1.38.
Figura 1.38.
5. Define un campo de vectores, y su ecuación diferencial asociada, que tenga las características que se
describen en la figura 1.39.
Figura 1.39.
CAPÍTULO 2
En este capítulo resolveremos la ecuación diferencial lineal más sencilla; ésta está definida por un campo
vectorial lineal en R, es decir, con coeficiente constante real y lineal en la variable x:
Observamos que si c es una constante y F (t) es una primitiva de f (t), entonces F (t) + c es, a su vez, primitiva de
f (t).
El siguiente resultado, conocido como teorema fundamental del cálculo, nos proporciona una relación entre el
proceso de derivación y el de integración además de dar condiciones suficientes (en este caso la continuidad de f
en el intervalo de definición) para la existencia de primitivas.
Teorema 2.1. Teorema fundamental del cálculo. Sea f (t) una función continua en la variable t definida en el
intervalo real I. Si F (t) es cualquier función primitiva de f , F 0 (t) = f (t), t 2 I, entonces
Z t
(2.2) F (t) F (t0 ) = f (⌧ ) d⌧ ,
t0
para t, t0 2 I.
Supongamos ahora que F (t) se expresa como una composición de dos funciones diferenciables g y x: F (t) =
(g x)(t). Entonces, aplicando el teorema fundamental del cálculo, tenemos por un lado:
Z t
d(g x)
(2.3) (g x)(t) (g x)(t0 ) = (⌧ ) d⌧
t0 d⌧
y por otro lado (aplicando nuevamente el teorema fundamental del cálculo a g(x(t))) se tiene,
Z x(t)
dg
g(x(t)) g(x(t0 )) = (⌧ ) d⌧ .
x(t0 ) dx
Por otra parte, aplicando al integrando la regla de la cadena, el miembro derecho de la ecuación (2.3) satisface
Z t Z t
d(g x) dg dx
(⌧ )d⌧ = (x(⌧ )) d⌧ .
t0 d⌧ t0 dx d⌧
17
18 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
2.2. Solución de la ecuación de primer orden lineal homogénea con coeficiente constante.
La ecuación
(2.5) ẋ = x, ,x 2 R,
corresponde al campo vectorial analizado en el ejemplo 1.9. Si bien ya conocemos el comportamiento de las
trayectorias de dicho campo (ver ejemplo 1.9 incisos a) y b)), nos interesa conocer la solución explícita de la
ecuación; es decir, nos interesa conocer la función x(t) cuya velocidad al instante t es x(t) : dx dt
(t) = x(t).
Posiblemente, quien tiene un poco de soltura en derivar funciones sabe que la función exponencial x(t) = e t
satisface la igualdad
de t
= e t.
dt
Así, ẋ(t) = x(t). Lo mismo sucede si a x(t), así definida, la multiplicamos por una constante arbitraria. Vamos,
sin embargo, a hacer la deducción formal de la solución de la ecuación con el fin de que, en adelante, tengamos
una referencia precisa.
Retomando la ecuación (2.5) con condición inicial x(t0 ) = x0 , tenemos
dx
(2.6) = x, x(t0 ) = x0 .
dt
La condición inicial significa que en el momento t0 tenemos información sobre el fenómeno que se está analizando.
En este caso, la igualdad x(t0 ) = x0 significa que en el instante t0 el fenómeno analizado está en la posición x0 .
Nos interesa, entonces, saber lo que sucede con la trayectoria x(t) que parte de la posición x0 después de haber
transcurrido un cierto tiempo. Si x0 es cero, entonces la función constante x(t) ⌘ 0 satisface tanto la ecuación
(2.6) como la condición inicial dada. En el caso que x(t) 6= 0 en un intervalo abierto, podemos multiplicar la
ecuación (2.6) por x1
1 dx x
=
x dt x
y después procederemos a integrarla de t0 a t:
Z t Z t
1 dx
(2.7) d⌧ = d⌧ .
t0 x d⌧ t0
dg
Hagamos uso ahora de la expresión obtenida en (2.4). Observemos que, en este caso, dx
(x) = 1
x
:
Z x(t) Z t
1 1 dx
dx = d⌧ .
x(t0 ) x t0 x d⌧
Como la exponencial y el logaritmo son funciones inversas la una de la otra: ln ex = x y eln x = x (esta última
igualdad se satisface si x > 0). Así, aplicando la función exponencial de ambos lados de la igualdad (2.9), se tiene
⇣ ⌘
x(t)
exp ln x(t 0)
= exp( (t t0 )).
x(t) (t t0 )
(2.10) x(t0 )
= e .
x(t)
Quisiéramos eliminar el valor absoluto de la igualdad anterior. Para ello, debemos de determinar si x(t0 )
> 0
x(t) x(t)
o bien < 0 para todo t; nos bastará con saber el valor del cociente para alguna t . Observamos que x(t
x(t0 ) 0)
no puede ser igual a cero para ninguna t pues en el lado derecho de la igualdad (2.10) tenemos a la función
exponencial y ésta es siempre no nula (y de hecho siempre positiva). Basta ahora con observar que para el valor
t = t0 se tiene x(t 0)
x(t0 )
= 1; de esta manera, podemos eliminar el valor absoluto de la igualdad (2.10) y obtenemos
x(t) (t t0 )
x(t0 )
=e .
2.2. ECUACIÓN DE PRIMER ORDEN LINEAL HOMOGÉNEA 19
(t t0 )
(2.12) x(t, x0 ) = x0 e .
Observemos que la función x(t, x0 ), así definida, toma el valor x0 para t = t0 y además satisface x0 (t, x0 ) =
x(t, x0 ) para todo t, t 2 R. Usualmente se escribe x(t, x0 ) para indicar que la condición inicial está tomada
justamente en el punto x0 . A lo largo de este libro nosotros usaremos esa notación cuando sea necesario, en caso
contrario la omitiremos para no recargar la información. Otra notación equivalente que usaremos con mucha
frecuencia en el libro para escribir a las soluciones de una ecuación es '(t, x0 ). Esta notación es equivalente a
escribir x(t, x0 ).
Si > 0 la trayectoria x(t, x0 ) para x0 > 0 y t 2 R es siempre positiva y su velocidad se incrementa según
nos alejamos del origen. Para x0 < 0 la trayectoria x(t, x0 ) toma valores negativos y su velocidad se incrementa
(en valor absoluto) según nos alejamos del origen. El punto x(t, x0 ) = x0 = 0 permanece fijo para toda t:
Figura 2.1.
Figura 2.2.
Figura 2.3.
Observación 2.2. Unicidad de las soluciones. Hemos encontrado la solución (2.12) de la ecuación diferencial
(2.5), y es importante para nosotros saber si esta solución, una vez fija la condición inicial x0 , es única o no. Para
ello, supongamos que existe otra solución (t, x0 ). Dado que e (t t0 ) nunca es cero, siempre es posible escribir
a (t, x0 ) como (t, x0 ) = g(t)e (t t0 ) . Así, dado que es solución de la ecuación diferencial (2.5), deberá de
cumplirse que ˙ = . Al mismo tiempo, ˙ = g(t)e˙ (t t0 )
+ g(t) e (t t0 ) . De aquí, igualando ambas ecuaciones
tenemos,
= g(t)e (t t0 ) = g(t)e˙ (t t0 )
+ g(t) e (t t0 ) .
Cancelando de ambos lados de la ecuación obtenemos,
˙
0 = g(t)e (t t0 )
.
20 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
Por consiguiente, g(t) ˙ = 0 y g(t) = cte, para toda t 2 R. Llamemos k a dicha constante. La solución (t, x0 )
deberá por lo tanto escribirse como (t, x0 ) = ke (t t0 ) y deberá satisfacer (t0 , x0 ) = k = x0 . Por lo tanto,
(t, x0 ) = x(t, x0 ) = x0 e (t t0 ) . Con ello, hemos demostrado que la soluciones de la ecuación diferencial (2.5) son
únicas una vez fija la condición inicial.
En el siguiente punto veremos cómo la ecuación diferencial lineal (2.5), a pesar de su sencillez, nos sirve de
guía para entender una gran cantidad de comportamientos de la naturaleza.
2.3. Aplicaciones.
Para quien haya decidido omitir en una primera lectura los puntos 2.1 y 2.2, diremos que la ecuación diferencial
ẋ = v(x) definida por el campo vectorial v(x) = x, tiene como solución a la función x(t) = x0 e (t t0 ) . En efecto,
si sustituímos la función x(t) = x0 e (t t0 ) en la ecuación
ẋ = x ,
obtenemos
dx d ⇣ (t t0 )
⌘
(t t0 )
(t) = x0 e = x0 e = x(t) .
dt dt
Además, si t = t0 ,
(t0 t0 )
x(t0 ) = x0 e = x0 e0 = x0 .
Es decir, la solución x(t) = x0 e se representa por la trayectoria que en el tiempo t = t0 pasa por el punto
(t t0 )
x0 .
Observemos que la ecuación (2.1) nos indica que la velocidad de cambio de x con respecto a t, dx dt
, es
proporcional al valor de x: dx
dt
= x. Así, el valor absoluto de la velocidad con que x cambia es mayor (menor) si
|x| es mayor (menor). Lo anterior ya lo habíamos observado gráficamente desde el ejemplo 1.9 de la introducción.
Sin embargo, ahora debemos dar a este hecho un sentido que nos permita entender ciertos fenómenos que se
presentan en la naturaleza.
Crecimiento de Bacterias.
Ejemplo 2.3. Comenzaremos por hablar de las formas de vida más ampliamente distribuidas en la Tierra: las
bacterias. Las bacterias tienen una extraordinaria capacidad de adaptación; se les encuentra en el agua, en el aire
y en las partes internas y externas de plantas y animales. Los minerales de uranio radiactivo contienen bacterias
vivas, y se han logrado aislar bacterias vivas en viejos bloques de sal que datan de 320 millones de años. Más aún,
se tienen indicios de la existencia de cianobacterias que se remontan a 2,700 millones de años. Éstas tuvieron un
papel primordial en la acumulación de oxígeno en la atmósfera y, en la actualidad, siguen siendo suministradores
principales de nitrógeno en el proceso de transferencias nutritivas en los mares.
Las bacterias tienen un papel clave en los ciclos biolólogicos pues son los agentes de putrefacción y fer-
mentación que transforman la materia orgánica en gases y materiales inertes que se incorporan al ciclo vital. Las
bacterias fijan el gas de la atmósfera y enriquecen al suelo en nitrógeno. De este modo, los vegetales disponen
de alimentos inorgánicos que requieren para su desarrollo. Actualmente, la ingeniería genética integra en el cro-
mosoma bacteriano genes procedentes de células productoras de sustancias de interés para el ser humano (por
ejemplo antígenos para vacunación, hormonas, etc.), con el fin de convertir a la bacteria en un microlaboratorio
secretor de dichas sustancias.
¿Qué tiene que ver todo esto con nuestra ecuación diferencial lineal? Pues bien, las bacterias tienen no
sólo una importante acción bioquímica, sino que se reproducen muy rápidamente. Se ha podido observar que en
condiciones apropiadas, la velocidad de crecimiento de las bacterias se puede considerar proporcional a la cantidad
de bacterias presente. Denotemos por b(t) a la cantidad de bacterias presente en el instante t, y sea la constante
de proporcionalidad. Así, la velocidad de crecimiento de una colonia de bacterias satisface la ecuación
db
(2.13) = b.
dt
Supongamos ahora que se está realizando un experimento y para ello se tienen inicialmente, al tiempo t = 0,
una cantidad b0 de bacterias con una cantidad relativamente abundante de alimento. Puede interesarnos, para
los fines de nuestro experimento, saber en cuánto tiempo se duplica la población inicial de bacterias. Para ello,
empezamos por resolver la ecuación (2.13) con condición inicial b0 :
(2.14) b(t) = b0 e t .
Ahora nos interesa conocer el tiempo t tal que b(t) = 2b0 . Así, sustituyendo este valor de b(t) en (2.14) se
tiene,
2b0 = b0 e t ;
es decir,
t
2=e
2.3. APLICACIONES. 21
y, por consiguiente,
t = ln 2 .
Despejando obtenemos,
1
(2.15) t= ln 2
Observamos que el tiempo t necesario para que una población inicial de bacteria se duplique no depende de
la cantidad inicial de bacteria, b0 , sino de la constante .
Este sencillo procedimiento nos permite saber no sólo cuándo se duplica la población, sino que también puede
usarse para saber cuándo se triplica, cuadriplica, quintuplica, etc. Esto noi atañe sólo a bacterias, sino que es
también de gran utilidad en otros contextos. Por ejemplo, en epidemiología este dato es sustancial, pues es la
base para determinar la velocidad de contagios que puede haber en una población.
primeros son isótopos del carbono y los dos últimos son isótopos del uranio. La radiactividad es la propiedad de
los nucleidos inestables de desintegrarse espontáneamente emitiendo partículas o radiaciones electromagnéticas
(fotones) para formar nuevos nucleidos.
La radiactividad fue descubierta en 1896 por el físico francés Henri Becquerel y, en 1898, confirmada en
el torio por la física francesa, de origen polaco, Marie Curie . Por sus trabajos en este área, así como por el
aislamiento del polonio y el radio, Marie Curie, Pierre Curie y Henri Becquerel recibieron en 1903 el Premio
Nobel de Física.
El físico británico Ernest Rutherford (1871–1937), en colaboración con otro científicos británicos, mostró que
los átomos de ciertos elementos radiactivos son inestables. Esta inestabilidad significa que después de un cierto
periodo de tiempo una proporción fija de los átomos de un elemento se desintegra para formar átomos de un
nuevo elemento1. Rutherford (Premio Nobel de Química en 1908) mostró que la radiactividad de un material es
directamente proporcional al número de átomos presentes en dicho material. Así, si x(t) denota el número de
átomos presentes en el tiempo t, entonces el número de átomos que se desintegran por unidad de tiempo, es decir,
la pérdida instantánea de átomos, es proporcional a x:
dx
(2.16) = x, > 0.
dt
La constante es conocida como constante de desintegración.
Por lo que hicimos en la sección 2.2, sabemos resolver la ecuación (2.16). Supongamos entonces que x(t0 ) = x0
es la cantidad de átomos en el tiempo t0 . La solución a la ecuación (2.16) con condición inicial x(t0 ) = x0 es
✓Z t ◆
(2.17) x(t) = x0 exp ds = x0 e (t t0 ) .
t0
Una manera de medir la tasa de desintegración de un material, es medir el tiempo que se requiere para que la
mitad de una cantidad dada de átomos radiactivos se desintegre. Dicho de otra forma, si x(t0 ) = x0 es la cantidad
inicial de átomos, nosotros buscamos el tiempo t tal que x(t) = 12 x0 . Usando la expresión (2.17) tenemos que
1 x(t) (t t0 )
= =e .
2 x0
Por consiguiente,
1
ln = (t t0 ) .
2
Multiplicando esta expresión por 1 y haciendo uso de las propiedades del logaritmo natural ( ln a = ln a 1
) se
tiene que
✓ ◆ 1
1
ln = (t t0 );
2
es decir,
ln 2 = (t t0 ) .
1La desintegración de un átomo es la transformación de su núcleo por emisión o captura de partículas y energía.
22 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
Finalmente,
1
(2.18) t t0 = ln 2 .
Al tiempo obtenido en (2.18) se le conoce como periodo o vida media del material.
Observamos que, cuanto más corto es el periodo, más inestable es el material radiactivo. Así, mientras el
isótopo de uranio, 238 U , tiene una vida media de 4 500 000 000 años el isótopo de radio, 226 Ra, tiene un periodo
de 1 600 años y el de Polonio, 218 P o, de 3 minutos.
Comenzaremos por ver un ejemplo relacionado con un isótopo que ha sido de gran utilidad para determinar
la edad de fósiles y restos arqueológicos. Nos referimos al isótopo de carbono 14 (isótopo que posee en su núcleo
6 protones y 8 neutrones).
Ejemplo 2.4. Se sabe que el periodo o vida media del carbono 14, 14
C, es de 5730 años. Calcula la constante
de desintegración del 14 C.
Solución: Sabemos que el isótopo de carbono 14 satisface la ecuación
(t t0 )
x(t) = x0 e .
Así mismo, sabemos que el tiempo t que se requiere para que la cantidad de 14 C se desintegre a la mitad es de 5730
años. Es decir,
1
x(5730) = x0 .
2
Así,
1
= e (5730)
2
y, por tanto,
1
ln = 5730 .
2
Finalmente,
ln 12 ln 2
= = .
5730 5730
Como ln 2 ⇡ 0.693, se tiene que el valor aproximado de la constante de desintegración es
⇡ 0.000121 .
Solución. En este caso conocemos, por los datos del problema, la vida media del cobalto. Este dato nos permite conocer
la constante de desintegración del cobalto haciendo uso de la expresión obtenida en (2.18):
t t0 = 5.27 años ,
1
5.27 = ln 2 .
Por consiguiente,
1
= ln 2 .
5.27
Denotemos ahora por k el nivel de cobalto aceptable para la vida humana. Sabemos que, debido al accidente nuclear, en
la región afectada hay 80k. Tomemos entonces, como condición inicial en el tiempo t0 = 0, el valor x(0) = 80k. Necesitamos
encontrar el tiempo t tal que x(t) = k (que es el nivel de cobalto aceptable para la vida humana). Así, si consideramos la
solución de la ecuación inicial x(0) = x0 tenemos
x(t) = x0 e t .
De aquí,
x(t) k
= =e t
x0 k 80
y, por tanto,
1 ⇣ ⌘
ln = ln e t .
80
Equivalentemente,
✓ ◆ 1
1 1
t = ln = ln .
80 80
De donde obtenemos el valor de t,
1
t = ln 80 .
2La bomba de cobalto forma parte de los medios de guerra radiológica. Fue experimentada en 1953.
2.3. APLICACIONES. 23
Figura 2.4. El carbono 14 se mantiene en equilibrio en los seres vivos debido fundamentalmente
a los procesos de alimentación y respiración.
Si bien el 14 C se desintegra, en los tejidos vivos se renueva constantemente, manteniéndose en equilibrio. Así,
mientras un ser vivo mantiene sus funciones vitales, permanece constante el 14 C en sus tejidos.
Después de la muerte del organismo, cesa para él la absorción de gas carbónico proveniente de la atmósfera
y, por tanto, la concentración de 14 C comienza a disminuir según la ecuación
(2.19) ẋ = x,
donde x(t) representa la cantidad de átomos de 14 C presentes en el tejido al tiempo t.
Si tomamos una muestra de tejido fósil, un hueso por ejemplo, sabemos que la tasa de desintegración N (t) es
proporcional a la cantidad de átomos de 14 C presentes en la muestra: N (t) = ˜ x(t). Si tomamos como t0 = 0 el
24 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
instante en el que el organismo deja de absorber 14 C (es decir, el momento en el que la vida del organismo cesa),
entonces la tasa de desintegración en ese momento es N (0) = ˜ x(0)
Además, sabemos que x(t) satisface la ecuación (2.19) y, por lo tanto,
t
(2.20) x(t) = x0 e .
¿Cómo podemos calcular N (0) si el organismo murió hace cientos o miles de años? Pues bien, primeramente
necesitamos hacer la suposición de que la intensidad de la radiación cósmica sobre la tierra ha permanecido
siempre constante. Así, si medimos la tasa de desintegración de 14 C en el tejido óseo de un animal vivo, podemos
considerar dicha tasa como N (0).
Para calcular la edad del fósil retomemos la ecuación (2.20) y sustituyamos en ella los valores x(t) = N˜(t) ,
N (0)
x(0) = ˜ :
N (t) N (0) t
= e ,
˜ ˜
Por consiguiente,
N (t)
t
e =;
N (0)
sacando logaritmo natural en ambos miembros de la igualdad, se obtiene
N (t)
t = ln ;
N (0)
es decir,
1 N (t)
t= ln .
N (0)
Finalmente,
1 N (0)
(2.21) t= ln .
N (t)
Cabe señalar que la tasa de desintegración se puede calcular mediante un aparato conocido como Contador
de Geiger-Müller. Este contador de partículas fue creado por el físico Alemán Geiger en 1913 y fue perfeccionado
junto con Müller en 1925.
El método del 14 C que acabamos de describir es útil para proporcionar fechas aproximadas de restos arque-
ológicos o de capas sedimentarias, si las muestras usadas contienen una cantidad suficiente de materia orgánica
(carbón, madera, concha, tejidos, hueso, cuero, etc.). El método permite datar restos hasta de 35,000 años. Sin
embargo, con el uso de aceleradores de partículas, se ha podido mejorar el método y actualmente pueden datarse
objetos hasta de 80,000 años de antigüedad.
Se sabe que todo organismo vivo tiene la misma radiactividad que el gas carbónico que hay en la atmósfera.
Al morir, los intercambios gaseosos se interrumpen y, en consecuencia, cesa la renovación de 14 C. A partir de ese
momento, la radiactividad del 14 C decrece lentamente: cada 5730 años su radiactividad decrece a la mitad.
El 14 C se encuentra en proporciones mínimas en el CO2 que hay en la atmósfera. El 14 C que está presente
en un gramo de carbono se desintegra a razón de 13.56 desintegraciones por minuto por gramo (dpmg). Esta
proporción de carbono 14 es constante en todo el mundo, se ha conservado igual a lo largo del tiempo, y se le
conoce como desintegración de referencia. Cabe señalar sin embargo, que el uso industrial de materiales fósiles
como el petróleo significaron, a finales del siglo XIX y principios del XX, una introducción a la atmósfera de
CO2 en la que el 14 C estaba ausente. Esto implicó una primera modificación en la concentración de 14 C en la
atmósfera. La segunda modificación se debió a las explosiones atómicas realizadas a mediados del siglo XX: para
1964 la cantidad de 14 C se había incrementado, de manera artificial, a casi el doble. En la actualidad, las emisiones
de CO2 han disminuido en cierta medida y las aguas de los océanos han absorbido paulatinamente el exceso de
carbono radiactivo. Estas modificaciones constantes de la atmósfera debidas por una parte a los cambios en el
campo magnético y a la actividad solar, así como a la intervención humana, hicieron necesaria la creación de una
medida internacional de desintegración de referencia de la atmósfera, siendo ésta de 13.56 dpmg (de carbono).
Así, para determinar la edad de objetos tales como madera, carbón, huesos, tejidos y semillas, entre otros, se
mide su contenido actual de 14 C, midiendo las desintegraciones por minuto por gramo de carbono que presenta
la muestra, y se le compara con aquél que debió tener cuando tenía vida (para esto se considera la desintegración
de referencia de 13.56 dpmg.) 3
Este método se ha usado para determinar la antigüedad de múltiples hallazgos arqueológicos. A continuación
veremos un ejemplo relacionado con una antigua ciudad de Mesopotamia.
Ejemplo 2.6. La antigua ciudad de Mesopotamia, Nippur (actualmente conocida como Niffer y localizada a 160
km de Bagdad) fue descubierta en 1849. En 1948, el Instituto Oriental de Chicago hizo excavaciones en dicha
ciudad y, en 1950, al medir el carbón proveniente de una viga de un techo, se obtuvieron 8.3 dpmg (desintegraciones
por minuto por gramo). La desintegración de referencia en la atmósfera es de 13.56 dpmg de carbono. Encontremos
con estos datos la fecha aproximada de los restos arqueológicos.
Fijemos como condición inicial t0 = 0 el momento cuando el árbol del cual se elaboró la viga fue cortado, y
sea T el tiempo que ha transcurrido hasta el momento del hallazgo. Sea N (t) el número de desintegraciones por
minuto por gramo en el instante t. Sabemos que N (0) = 13.56 dpmg 4 de carbono y N (T ) = 8.3 dpmg de carbono.
Además, la ecuación diferencial ẋ = x que describe la desintegración de carbono 14 tiene como solución
t
x(t) = x0 e , t0 = 0 ,
Como Ṅ (t) = ˜ x(t) y N (0) = ˜ x0 ,
N (t) = N (0)e t .
Observamos que esta expresión nos dice, derivando con respecto a la variable t, que N (t) satisface la ecuación
diferencial Ṅ (t) = N (t). Podemos asimismo, encontrar el valor explícito del tiempo t = T sustituyendo los
valores de N (T ), N (0) y ; a saber, T = 1 ln 13.56
8.3
.
Ejercicio 2.7.
(1) En cierta población, el número de afectados por el cólera es N0 . La enfermedad presenta un crecimiento
proporcional al número de pobladores afectados por la enfermedad. Sea k la constante de proporciona-
lidad. En caso de que la cantidad de enfermos se sextuplicara podría perderse el control de la epidemia.
Calcula el tiempo en el que podría perderse el control de la epidemia de seguir las mismas tendencias
de crecimiento.
3Si bien la vida media del carbono 14 es de 5730 aproximadamente, existe una convención internacional para utilizar el valor
de 5568 años que obtuvo W.F. Libby en 1951. Esta convención ha permitido tener resultados comparables, si bien después, según
el análisis que se haga, se le aplican distintos factores de corrección. Una explicación interesante y detallada sobre la historia y
el método de datación con 14 C puede encontrarse en la página del Centre de Datation par le Radiocarbone, de la Universidad de
Lyon, Francia.
4Ver www.iop.org/journals/physed An illustrated guide to measuring radiocarbon from archaeological samples Alex Bayliss1,
Gerry McCormac2 and Hans van der Plicht3.
26 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
(2) Supongamos que los desechos de una fábrica contaminan un lago y que, a causa de ello, una población
de peces disminuye vertiginosamente. Los científicos han logrado detectar que la población disminuye
en proporción al número de peces con una constante de proporcionalidad igual a 0.2:
dN
= 0.2N,
dt
donde N (t) es el número de peces en el tiempo t. Se sabe que si la población se reduce a una décima
parte de la población actual, no será posible salvar la especie. ¿De cuánto tiempo se dispone para tomar
medidas que reviertan el problema?
(3) Las cuevas de Lascaux en Francia fueron descubiertas en 1940 por el francés Henri Breuil. En la sala
principal de una de las cuevas, se hallan pinturas rupestres con figuras de toros, ciervos, bisontes y
la imagen de un cazador. Breuil supuso que estas pinturas correspondían al auriñaciense final (33,000
a.C.); sin embargo, al hacer un análisis en 1950 de una muestra de carbón encontrado en la cueva,
se obtuvieron 1.97 desintegraciones por minuto por gramo. Si la desintegración de referencia en la
atmósfera es de 13.56 dpmg de carbono, calcula la posible fecha de la realización de las pinturas y, si te
es posible, averigua cuál es el periodo al que corresponden.
(4) Supongamos que se usa pentobarbitol sódico para anestesiar a un animal de 6 kgs. El animal queda
anestesiado cuando la concentración de anestésico es de 45 miligramos por kilogramo de peso. Se
sabe que el anestésico se elimina de la sangre a una velocidad proporcional a la cantidad de anestésico
presente, da
dt
= µa, donde µ es la constante de proporcionalidad, µ > 0. Además, se sabe que en 5
horas el organismo alcanza a eliminar la mitad del anestésico administrado. ¿Qué dosis deberá serle
administrada al animal para que permanezca anestesiado durante una hora?
(5) En 2005 se halló en Saqqara, Egipto, una momia. Por su belleza los arqueólogos la denominaron “La
momia más bella jamás encontrada”. Se considera que la momia debe tener unos 2600 años de antigüedad
ya que hay indicios de que ésta perteneció a la XXVI dinastía egipcia. En caso de que se haya realizado
la datación por 14 C, ¿cuál debería ser la cantidad de desintegraciones por minuto por gramo de carbono
que permitiría corroborar las suposiciones sobre su antigüedad?
(6) En 1964 en el sitio arqueológico de Teotihuacán, México, se realizaron excavaciones en varios basamentos
situados a lo largo de la Avenida de los Muertos. Se encontraron restos carbonizados de vigas que
pertenecieron a techos y jambas. Una de las vigas pertenecientes al palacio del Quetzalpapálotl dio
10.86 desintegraciones por minuto por gramo de carbono. Calcula la edad en que fue utilizada esta viga
si consideramos que la desintegración de referencia de la atmósfera es de 13.56 dpmg.
(7) En la Gruta de Chauvet-Pont-d’Arc, Francia, fueron halladas unas impresionantes pinturas rupestres
en las que se encuentran representados rinocerontes, mamuts, bisontes, felinos, osos y un caballo. En
1995 fueron tomadas muestras de dos rinocerontes y un bisonte trazados con carbón en las paredes
de la cueva. La desintegración radiactiva encontrada fue de .0346 dpmg. Calcula la posible fecha de
ocupación de la gruta considerando que la desintegración de referencia de la atmósfera es de 13.56 dpmg.
Compara esta fecha con las de las Cuevas de Lascaux (ver ejercicio 3) y determina el periodo al que
corresponden las pinturas de la Gruta de Chauvet.
(8) En el año 2003 fueron realizadas excavaciones en la Pirámide III (palacio del gobernante Cucuma) de
Pachacamac en Perú. Se analizaron muestras de semillas, carbón, madera y otros objetos. En las
muestras de carbón analizadas se registraron 11.46 desintegraciones por minuto por gramo de carbono.
Considerando que la desintegración de referencia de la atmósfera es de 13.56 dpmg, calcula la fecha en
la que estuvo habitado este sitio arqueológico.
(9) En 1982 una bomba de cobalto, usada para realizar tratamientos radiológicos, fue extraída indebida-
mente de un centro médico privado en Ciudad Juárez, Chihuahua, y acabó usándose como chatarra
para elaborar varillas de metal para la construcción, así como soportes de mesa. Antes de percatarse
de la contaminación radiactiva que esto produjo, se construyeron con esas varillas casas y edificios en
distintas localidades. En una revisión de una porción del lote de varillas, se detectó la presencia de
altos niveles de radiactividad: 70% por arriba del nivel aceptable, y se tuvo que hacer un seguimiento
cuidadoso del origen y destino del resto del lote. Calcula el tiempo que hubo que dejar pasar para poder
usar las edificaciones sin que ello representase un peligro para las personas que las usasen, sabiendo que
la vida media del isótopo radiactivo del cobalto es de 5.27 años.
(10) En 1991, en la región de los Alpes de Ötztal, a 3210 metros sobre el nivel del mar (cerca de la frontera
entre Austria e Italia), dos alpinistas, Erika y Helmut Simon, hallaron a un hombre momificado. El des-
cubrimiento de Ötzi desató una gran cantidad de investigaciones sobre su origen, genética y costumbres
alimenticias. Entre otras cosas, ahora se sabe que Ötzi fue asesinado por una flecha que se le clavó a
la altura del omóplato. Para conocer la edad aproximada de Ötzi (así llamado desde su hallazgo), éste
fue sometido a pruebas de 14 C. En dichas pruebas se obtuvieron alrededor de 7.14 desintegraciones por
minuto por gramo (dpmg).
Sabiendo que la vida media del 14 C es de 5730 años, y que la desintegración de referencia en la
atmósfera es de 13.56 dpmg, calcula la edad aproximada de Ötzi.
2.3. APLICACIONES. 27
Observación 2.8. La constante a es proporcional a la superficie del cuerpo y depende del poder emisor de éste.
Esta ley es válida sólo en el caso de diferencias pequeñas de temperatura.
Para resolver la ecuación (2.22), seguiremos un procedimiento análogo al usado para resolver la ecuación
lineal homogénea. Primero observamos que multiplicando la expresión (2.22) por (y k) 1 se tiene,
1 dy
= a.
y k dt
Integrando ahora de t0 a t,
Z t Z t
1 dy
d⌧ = ad⌧ ;
t0 y k d⌧ t0
equivalentemente,
Z y(t) Z t
1
dỹ = a d⌧ .
y(t0 ) ỹ k t0
Haciendo las integrales obtenemos,
ln |y(t) k| ln |y(t0 ) k| = a(t t0 ) .
Aplicando la exponencial en ambos miembros de la igualdad y usando las propiedades del logaritmo se obtiene
y(t) k
ln y(t ) k a(t t0 )
e 0 =e .
Así,
a(t t0 )
(2.23) y(t) = k + (y(t0 ) k)e .
Es común, en época de invierno, observar que la comida se enfríe con rapidez. Veamos un ejemplo que nos
permita entender lo rápido que sucede dicho enfriamiento.
Ejemplo 2.9. Supongamos que tenemos una taza con café que hemos calentado a 100 . Supongamos también,
que la temperatura ambiente de nuestra casa es, por ser época de invierno, de 8 . En 5 minutos el café tiene una
temperatura de 55 grados.
a): Calcula la constante a de enfriamiento (ver (2.22)).
b): Calcula la temperatura que tendrá el café después de 15 minutos.
Solución: a) Sea t0 = 0. En t = 0 la temperatura del café es y(0) = 100. De la expresión (2.23) encontramos
fácilmente una expresión para a: ✓ ◆
1 y(t) k
a = ln ;
t y(0) k
28 2. ECUACIONES LINEALES AUTÓNOMAS HOMOGÉNEAS EN R Y SUS APLICACIONES
Ejercicio 2.10.
(1) Realiza un experimento de enfriamento en casa haciendo uso de una taza con chocolate, atole o leche,
siguiendo la pauta de lo que se explicó en esta sección.
CAPÍTULO 3
En este capítulo, haciendo uso adecuado de la ecuación en una variable, llegaremos a una expresión sencilla
de un comportamiento que, en primera instancia, aparenta ser más complicado. Es esta contraposición entre lo
sencillo y lo complejo (lo complejo que podemos entender y expresar de una forma simple) lo que hace que las
matemáticas tengan no sólo un gran alcance, sino también una componente estética cautivadora.
Con el fin de lograr una exposición clara, iniciamos introduciendo algunas nociones básicas de álgebra lineal.
Cabe resaltar que nos interesa hacer uso del álgebra lineal porque su lenguaje permite comprender de una manera
sencilla el comportamiento geométrico de las ecuaciones diferenciales lineales autónomas homogéneas en varias
variables.
q
||x|| = x21 + x22 .
El realizar la representación gráfica de las operaciones puede ser un buen ejercicio para que el lector se familiarice
de una manera distinta con estas operaciones.
El conjunto R2 tiene, como consecuencia de (3.1) y (3.2), una estructura de espacio vectorial real. En efecto,
como el lector puede demostrar fácilmente, en R2 , se satisfacen las siguientes operaciones:
donde cada aij es un número real, i, j 2 {1, 2}. La matriz A induce una transformación de R2 en sí mismo: si x
es un elemento de R2 , el punto Ax se define como
a11 a12 x1 a11 x1 + a12 x2
Ax = = .
a21 a22 x2 a21 x1 + a22 x2
Así, el punto x = (x1 , x2 ) 2 R2 es transformado por A en el punto (a11 x1 + a12 x2 , a21 x1 + a22 x2 ).
Entendamos geométricamente lo que está sucediendo:
Consideremos los vectores e1 = (1, 0) y e2 = (0, 1), conocidos comúnmente como vectores canónicos de R2 , y
consideremos también a la matriz A definida en (3.3). Los vectores e1 , e2 nos dan lo que se denomina una base
de R2 ; es decir, cualquier elemento x de R2 puede ser escrito como una combinación lineal con coeficientes reales
de los vectores e1 , e2 :
x = x1 e1 + x2 e2 , xi 2 R, i = 1, 2 ,
y, además, el conjunto formado por los vectores e1 , e2 es un conjunto linealmente independiente; es decir, si se
tiene una combinación lineal de los vectores e1 , e2 igualada a cero, 0 = x1 e1 + x2 e2 , entonces x1 = x2 = 0. En
este caso (en dimensión dos) la independencia lineal entre e1 y e2 equivale a decir que el vector e1 no es múltiplo
real de e2 : e1 6= ae2 para toda a 2 R (ver figura 3.1).
Figura 3.1.
Figura 3.2.
Así, los vectores canónicos, e1 y e2 se transforman bajo la acción de la matriz A en otros dos vectores
(a11 , a21 ), (a12 , a22 ) cuya naturaleza depende tan sólo de la definición misma de A.
Por ejemplo, si la matriz A tiene la forma
2 0
A= ,
1 3
los vectores e1 , e2 se transforman, respectivamente, en los vectores Ae1 = (2, 1), Ae2 = (0, 3) (ver figura 3.3),
que también son linealmente independientes dado que no son colineales.
Sin embargo, si la matriz A está definida como
3 6
(3.4) A= ,
2 4
tenemos que los vectores Ae1 = ( 3, 2) y Ae2 = (6, 4) son múltiplos el uno del otro y, por consiguiente, no son
linealmente independientes (ver figura 3.4).
Habiendo entendido cómo se comporta una matriz al aplicarla a los vectores canónicos, podemos pasar ahora
a ver lo que sucede al aplicarla a un vector arbitrario x 2 R2 .
Consideremos un elemento x 2 R2 y sea A la matriz definida en (3.3).
3.1. MATRICES Y TRANSFORMACIONES LINEALES INDUCIDAS: UN GUIÑO DE GEOMETRÍA. 31
Figura 3.3.
Figura 3.4.
Como vimos antes, x puede ser escrito como una combinación lineal de e1 , e2 : x = x1 e1 + x2 e2 . Por
consiguiente, el significado de aplicar la matriz A al vector x es fácil de comprender geométricamente si escribimos
x = x1 (1, 0) + x2 (0, 1):
✓ ◆
a11 a12 1 0
Ax = x1 + x2
a21 a22 0 1
a11 a12
(3.5) = x1 + x2 .
a21 a22
La igualdad (3.5) nos dice que Ax no es más que el vector que resulta de la combinación lineal de los vectores
Ae1 y Ae2 con coeficientes x1y x2 respectivamente.
2 0
Así, si x = 12 , 13 y A = , podemos escribir al vector x como x = 12 (1, 0) + 13 (0, 1) y Ax como
1 3
1 1 1 1
Ax = Ae1 + Ae2 = (1, 2) + (0, 3)
2 3 2 3
(ver figura 3.5).
Figura 3.5.
Ejercicio 3.1.
32 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
(1) Transforma las figuras ABCD y EF G que están en el plano (ver figura 3.6) haciendo uso de la trans-
formación A según se indica en cada uno de los siguientes incisos.
D C
2
1
A B
F E
0 1 2
−1
G
Figura 3.6.
1 4 6 2
a) A = , b) A = ,
1/2 6 1 4
0 2 2 0
c) A = , d) A = .
0 0 0 2
Observemos que la transformación definida por la matriz A puede hacer que todo el plano R2 sea llevado a
una recta, como en el caso (3.4). También puede suceder que toda una recta sea llevada a un punto, como es el
caso de la matriz A del ejercicio (c) (todo el eje x es llevado al 0 2 R2 ). El caso extremo es cuando todo el plano
es llevado al origen, es decir, cuando la matriz A tiene todas las entradas nulas.
Matriz diagonal. Un caso muy sencillo de analizar, lo constituye el conjunto formado por las matrices en forma
diagonal; es decir, aquellas que tienen todas sus entradas iguales a cero salvo en la diagonal:
1 0
A= , 1, 2 2 R .
0 2
En este caso, el vector e1 es transformado por la matriz A en el vector 1 e1 , y, a su vez, el vector e2 es transformado
en el vector 2 e2 .
La interpretación geométrica de Ae1 es, en este caso, sumamente sencilla, ya que la dirección dada por el
vector e1 es conservada y sólo se modifica la magnitud y el sentido dependiendo de la naturaleza de 1 . Lo mismo
sucede con Ae2 . Por ejemplo, si la matriz es
4 0
,
0 5
entonces Ae1 = ( 4, 0) = 4 e1 , y Ae2 = (0, 5) = 5 e2 . Como puede verse, la dirección definida por e1 y aquélla
definida por e2 son conservadas por A (ver figura 3.7); se dice, en este caso, que las direcciones e1 y e2 son las
direcciones invariantes de A.
Figura 3.7.
Más adelante habremos de hablar con mayor detenimiento sobre las direcciones invariantes bajo la acción de
una matriz.
El análisis que hemos hecho hasta ahora en R2 puede ser llevado a R3 (o a Rn ) sin ninguna modificación
sustancial que no sea la de considerar tres (n en caso de Rn ) vectores canónicos e1 = (1, 0, 0), e2 = (0, 1, 0),
3.1. MATRICES Y TRANSFORMACIONES LINEALES INDUCIDAS: UN GUIÑO DE GEOMETRÍA. 33
e3 = (0, 0, 1), en lugar de los dos utilizados para el caso del plano. En este caso, cualquier punto x 2 R3 puede
ser expresado como combinación lineal con coeficientes reales de los vectores e1 , e2 y e3 : x = x1 e1 + x2 e2 + x3 e3 ,
xi 2 R, i = 1, 2, 3. Además, e1 , e2 y e3 son linealmente independientes; es decir, si se tiene una combinación lineal
con coeficientes reales de los vectores e1 , e2 y e3 : 0 = x1 e1 + x2 e2 + x3 e3 , entonces los coeficientes satisfacen
x1 = x2 = x3 = 0. En otras palabras, ninguno de los vectores e1 , e2 , e3 puede ser expresado como combinación
lineal de los dos restantes.
Se invita al lector a hacer ejemplos varios, análogos a los que hicimos en R2 , con matrices de distintos tipos
en R3 .
Determinantes: una forma simple de expresar áreas y volúmenes con orientación.
a11 a12
Regresemos a los vectores canónicos e1 y e2 de R2 y a la acción de la matriz A = sobre ellos.
a21 a22
Consideremos el cuadrado que tiene por lado a los vectores e1 y e2 , y consideremos también el paralelogramo
formado por los vectores Ae1 = (a11 , a21 ) y Ae2 = (a12 , a22 ) (ver figura 3.2). El área del cuadrado formado por
e1 y e2 es igual a uno, ya que todos sus lados tienen longitud igual a uno. Podemos preguntarnos ahora cómo
fue modificada el área del cuadrado bajo la acción de la matriz A; es decir, deseamos saber cuál es el área del
paralelogramo formado por los vectores Ae1 y Ae2 . Para ello consideremos los vectores (a11 , a21 ) y (a12 , a22 )
como en la figura 3.8.
Figura 3.8.
Denotemos por ✓ el ángulo formado por los vectores (a11 , a21 ), (a12 , a22 ). La altura h del paralelogramo con
base en el vector (a11 , a21 ) se calcula fácilmente como
h = sen ✓ k(a12 , a22 )k
o, equivalentemente,
h = cos (⇡/2 ✓) k(a12 , a22 )k .
Puesto que la norma del vector ( a21 , a11 ) es la misma que la del vector (a11 , a21 ), podemos escribir la longitud
de la base del paralelogramo como k( a21 , a11 )k. Así, el área del paralelogramo generado por los vectores Ae1 y
Ae2 está dada por ⇣⇡ ⌘
Área [Ae1 , Ae2 ] = k( a21 , a11 )k k(a12 , a22 )k cos ✓ .
2
Por lo que vimos en el ejemplo 1.16 de la Introducción, la expresión, de la derecha no es sino el producto escalar
de los vectores ( a21 , a11 ), (a12 , a22 ). Así, el área buscada tiene una expresión sumamente sencilla en términos
de los coeficientes de la matriz A. A saber,
Área [Ae1 , Ae2 ] = ( a21 , a11 ) · (a12 , a22 ) = a11 a22 a21 a12 .
a11 a12
Definición 3.2. Dada la matriz A = definimos el determinante como el área orientada del para-
a21 a22
lelogramo formado por los vectores Ae1 , Ae2 , donde e1 , e2 son los vectores canónicos de R2 . Es decir,
det A = a11 a22 a12 a21 .
Observación 3.3. 1. Decimos que Ae1 , Ae2 tienen orientación positiva si el ángulo de Ae1 a Ae2 (recorriendo
en sentido contrario al de las manecillas del reloj) es menor que ⇡ (es decir, tienen la misma orientación que la
pareja ordenada {e1 , e2 }). Decimos que Ae1 , Ae2 tienen orientación negativa si el ángulo medido del vector Ae1
al vector Ae2 es mayor que ⇡ (es decir, tienen la misma orientación que la pareja ordenada {e2 , e1 }).
2. La definición del determinante tiene la siguiente implicación geométrica: Cuando el determinante de una
matriz se anula, los dos vectores canónicos son transformados por la matriz en vectores colineales (el área del
paralelogramo formado por los vectores imagen es cero).
34 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
Figura 3.9.
0 1
Ejemplo 3.4. La matriz A = manda al cuadrado generado por los vectores e1 , e2 en sí mismo pero
1 0
con la orientación invertida: det A = 1.
Para el caso de dimensión 3, R3 , se puede observar que dados tres vectores v1 = (a11 , a21 , a31 ), v2 =
(a12 , a22 , a32 ), v3 = (a13 , a23 , a33 ), el volumen del paralelepípedo P cuyos lados son estos tres vectores está
dado por la expresión
Figura 3.10.
Observación 3.6. Un análisis geométrico más cuidadoso muestra que cuando el vector
N = (det A1 , det A2 , det A3 )
no es cero, es un vector ortogonal al plano generado por los vectores v1 , v2 . Además, N se encuentra en aquella
componente, de las dos en que este plano divide al espacio R3 , a la que apunta la parte positiva del eje de giro
considerado para medir el ángulo menor que ⇡ de v1 a v2 . En lenguaje coloquial, si se coloca la mano derecha en el
origen y los dedos distintos del pulgar se apuñan girando de v1 a v2 , el pulgar apunta hacia la misma componente
en que se encuentra el vector N (la regla de la mano derecha, ver figura 3.10).
La norma del vector N es el área del paralelogramo cuyos dos lados concurrentes son v1 , v2 . Utilizando
este hecho y la fórmula del producto escalar de dos vectores para el caso de los vectores N y v3 se obtiene el
volumen orientado del paralelepípedo P , N · v3 = det A (el signo depende de si el vector v3 está o no en la misma
componente en la que se encuentra el vector N).
Propiedades básicas de la función determinante. Las siguientes son propiedades básicas del determinante
de cualquier matriz de n ⇥ n.
3.2. UNA LLUVIA DE IMÁGENES: SOLUCIONES DE LAS ECUACIONES DIFERENCIALES 35
Ejercicio 3.7.
Da una razón geométrica
por la cual, dada una constante real c no nula, se satisface la igualdad
a11 a12 a11 a12 + ca11
det A = det = det .
a21 a22 a21 a22 + ca21
ẋ1 = 1 x1
(3.6) ,
ẋ2 = 2 x2
con 1, 2 R, x = (x1 , x2 ) 2 R2 . La ecuación (3.6) puede ser escrita en forma matricial como la ecuación
2
1 0
ẋ = ⇤x, donde ⇤ = :
0 2
ẋ1 1 0 x1
(3.7) = .
ẋ2 0 2 x2
Observamos nuevamente que la ecuación (3.7) indica que el cambio instantáneo en la posición que tiene
x = x(t), es igual a la definida por el vector que resulta de aplicar la matriz ⇤ al vector x.
En los ejemplos 1.10, 1.11, 1.12, 1.13 y 1.14 de la introducción a este libro vimos la forma que toman los
campos vectoriales que tienen la forma (3.6). Ahora, vamos a calcular las soluciones explícitas de éstos, haciendo
uso de los resultados que vimos en el caso de una sola variable.
La ecuación (3.6) es de variables separables; es decir, el comportamiento de la variable x1 no depende de la
variable x2 y viceversa. Por esta razón, podemos resolver la ecuación (3.6) resolviendo cada una de las ecuaciones
por separado tal como se hizo para el caso de una variable.
Así,
1 (t t0 )
x1 (t) = x10 e
2 (t t0 )
x2 (t) = x20 e ,
donde x10 y x20 son las condiciones iniciales al tiempo t = t0 . La solución x(t) = (x1 (t), x2 (t)) es, por tanto,
⇣ ⌘
(3.8) x(t) = x10 e 1 (t t0 ) , x20 e 2 (t t0 ) .
Escribiendo el resultado en forma matricial se tiene
x1 (t) e 1 (t t0 )
0 x10
x(t) = = 2 (t t0 )
.
x2 (t) 0 e x20
Ejemplos. Los siguientes ejemplos nos muestran explícitamente cómo son algunas de las soluciones de las ecua-
ciones vistas en la introducción a este libro.
(1) Consideremos la ecuación en el plano
ẋ1 = 2x1
ẋ2 = 2x2 , (x1 , x2 ) 2 R2 .
Este sistema, escrito en forma matricial, toma la forma
ẋ1 2 0 x1
= .
ẋ2 0 2 x2
Si integramos por separado cada una de las variables, obtenemos
x1 (t) = x10 e2(t t0 )
2(t t0 )
(3.9) x2 (t) = x20 e .
Para graficar el comportamiento de las soluciones en el plano (x1 , x2 ) observamos que x1 (t) y x2 (t)
satisfacen la relación
(3.10) x2 = cx1 ,
36 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
donde c = xx2010
, para x10 6= 0. Es decir, en el plano se tiene una familia de rectas de pendiente c
(la pendiente varía según se vayan moviendo las condiciones iniciales). Hacemos notar que, para una
pendiente fija, la relación (3.10) se satisface para toda t (ver figura 3.11).
Figura 3.11.
Las rectas solución de la ecuación se alejan exponencialmente del origen como puede verse de la
forma explícita de las soluciones en (3.9).
(2) Consideremos ahora la ecuación diferencial
ẋ1 = 2x1
ẋ2 = 4x2 , (x1 , x2 ) 2 R2 .
La ecuación en forma matricial es
ẋ1 2 0 x1
= , (x1 , x2 ) 2 R2 .
ẋ2 0 4 x2
Dado que la matriz que define la ecuación es diagonal, sabemos que las soluciones se expresan como
⇣ ⌘
x(t) = (x1 (t), x2 (t)) = x10 e2(t t0 ) , x20 e4(t t0 ) ,
donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 .
Con el fin de graficar las soluciones en el plano (x1 , x2 ) observemos la relación que guardan x1 (t) y
x2 (t):
(3.11) x2 = cx21 ,
x20
donde c = ,
para x10 6= 0. Para c fija se tiene que la expresión (3.11) se satisface para toda t. La
(x10 )2
solución cuya condición inicial (x10 , x20 ) satisface la relación c = (xx10
20
)2
es una parábola parametrizada
por la relación (3.11). Por lo tanto, al mover la constante c se obtiene una familia de parábolas que se
alejan del origen conforme t ! 1, como puede verse en la figura 3.12.
Figura 3.12.
donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 . La relación que guarda la variable
x2 con respecto a la variable x1 es
1
(3.13) x2 (t) = c(x1 (t)) .
Para c fija, la ecuación obtenida muestra que la curva x(t) está sobre una hipérbola.
Observemos que cualquier solución con condición inicial x0 fuera de los ejes coordenados x1 = 0
y x2 = 0 tiene la propiedad de que si t tiende a infinito, la solución tiende al eje x2 . En efecto, de la
expresión (3.11) puede verse que la primera coordenada de x(t), x1 (t), tiende a cero conforme t tiende
a infinito y, al mismo tiempo, la segunda coordenada, x2 (t), en valor absoluto, tiende a infinito. Por
consiguiente, al mover las condiciones iniciales obtenemos una familia de hipérbolas parametrizadas por
la constante c (ver figura 3.13).
Figura 3.13.
Observamos que, en los ejemplos anteriores, el paso de expresar a la variable x2 en función de la variable x1
lleva intrínseco un cambio de variable. A saber, si las soluciones de la ecuación del ejemplo 2 son de la forma
⇣ ⌘
x(t) = (x1 (t), x2 (t)) = x10 e2(t t0 ) , x20 e4(t t0 ) , x10 6= 0 ,
donde x0 = (x10 , x20 ) representa la condición inicial al tiempo t = t0 , entonces, despejando t t0 en función de
(t) 1
valor x1 (t), se tiene t t0 = ln( xx110 ) 2 . Sustituyendo esta expresión en la segunda coordenada, se tiene
x (t) 1
4ln( x1 )2
x2 (t) = x20 e4(t t0 )
= x20 e 10 .
Simplificando esta última expresión (haciendo uso de las propiedades del logaritmo), se obtiene la relación x2 =
cx1 2 con c = (xx10
20
)2
.
Observación 3.9. Es importante hacer notar que el hecho de que hayamos podido poner a la variable t t0 en
función de x1 , t t0 = (t t0 )(x1 ) se debe a que el cociente xx110
(t)
= e2(t t0 ) nunca se anula. Esto nos ha permitido
establecer una relación uno a uno entre las variables t y x1 . Dicho en términos de las derivadas de las funciones,
hemos resuelto la ecuación dx 2
dx1
= dx 2 dt
dt dx1
= 4x 2
2x1
. Hacemos notar que lo que hemos hecho para las dos variables
es válido en el caso de tres o más variables.
Las ecuaciones diferenciales que están definidas por una matriz en forma diagonal resultan ser siempre muy
sencillas de comprender.
Veamos un ejemplo en R3 . Para ello, consideremos la ecuación diferencial
ẋ1 = 2x1
ẋ2 = 2x2
ẋ3 = 2x3 , (x1 , x2 , x3 ) 2 R3 ,
que, en forma matricial, se expresa como
2 3 2 32 3
ẋ1 2 0 0 x1
4 ẋ2 5 = 4 0 2 0 5 4 x2 5 , (x1 , x2 , x3 ) 2 R3 .
ẋ3 0 0 2 x3
38 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
La solución x(t) con condición inicial x0 = (x01 , x02 , x03 ) se obtiene en forma análoga al caso de una variable
pues la ecuación diferencial es de variables separables. Así,
x(t) = (x1 (t), x2 (t), x3 (t)) = x01 e2t , x02 e2t , x03 e 2t
.
En el plano x1 x2 (i.e., x3 = 0) el comportamiento que se tiene es el analizado en el ejemplo 1 de esta sección,
es decir, rectas se alejan del origen conforme t tiende a infinito (positivamente). Por otra parte, en el plano x1 x3
(i.e., x2 = 0) se tiene un comportamiento análogo al del ejemplo 3 de esta sección, es decir, se tiene una familia
de hipérbolas que tienden al eje x1 conforme t tiende a infinito positivamente. En el plano x2 x3 se tiene también
una familia de hipérbolas; éstas tienden al eje x2 conforme t tiende a infinito. Finalmente, un punto que no se
encuentre en ninguno de los planos coordenados tiende al plano x1 x2 conforme t tiende a infinito (ver figura 3.14).
Figura 3.14.
Algo semejante sucede cuando se tiene un punto x en el espacio R3 . Usualmente hacemos referencia a los
vectores canónicos e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1). De esta forma, el punto x puede escribirse como
x = x1 e1 + x2 e2 + x3 e3 ,
es decir,
x = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1)
= (x1 , x2 , x3 ) .
Los valores reales x1 , x2 , x3 son las coordenadas de x con respecto a los vectores canónicos. Estamos tan acos-
tumbrados a esta manera de escribir las cosas que no se nos ocurre pensar que podemos elegir otros vectores en
R3 , f1 , f2 , f3 , y con ellos expresar también a x:
x = y1 f 1 + y2 f 2 + y 3 f 3 .
Surge de inmediato una pregunta: ¿Cómo deben de ser f1 , f2 , f3 para que todo punto x pueda ser expresado
como una combinación lineal de f1 , f2 y f3 ?
Por ejemplo, si f2 = f1 , f3 = 2f1 , claramente los tres vectores están alineados y, a lo más, podríamos
escribir como combinación lineal de f1 , f2 , f3 a los puntos que están en la recta generada por f1 : {af1 , a 2 R}
(ver figura 3.15).
Figura 3.15.
Así, f1 , f2 y f3 deberán ser vectores no colineales. Veamos ahora qué sucede si consideramos f1 y f2 no
colineales; las combinaciones lineales de f1 y f2 nos describen a los puntos que están en un plano
p = a1 f 1 + a2 f 2 , a1 , a2 2 R .
(ver figura 3.16).
Figura 3.16.
Claramente, si el vector f3 se puede escribir como combinación lineal de f1 y f2 , entonces f3 estará contenido
en el plano generado por f1 y f2 y, por consiguiente, no podremos expresar a todo punto de R3 como combinación
lineal de f1 , f2 y f3 .
Pongamos todas estas consideraciones en un lenguaje más formal.
Definición 3.11. Sea B = {f1 , f2 , f3 } un conjunto de vectores en R3 . Decimos que el conjunto B genera a R3
si todo punto x 2 R3 puede ser escrito como combinación lineal de los vectores f1 , f2 , f3 ; es decir, si para todo
x 2 R3 existen escalares ↵1 , ↵2 , ↵3 2 R tales que
x = ↵1 f1 + ↵2 f2 + ↵3 f3 .
40 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
Decimos que el conjunto B es linealmente independiente sobre R si ninguno de los fj puede ser escrito como
combinación lineal con coeficientes reales de los restantes; equivalentemente, si dada una combinación lineal de
los vectores f1 , f2 , f3 , igualada a cero (0 2 R3 ), ↵1 f1 + ↵2 f2 + ↵3 f3 = 0, se tiene que los coeficientes satisfacen
↵1 = ↵2 = ↵3 = 0. Una base de R3 es un conjunto de vectores que tienen la propiedad de ser linealmente
independientes sobre R y generar a todo R3 . Este concepto se extiende de manera análoga para cualquier
dimensión a otros espacios vectoriales.
Ejercicio 3.12.
a) ¿Es posible encontrar un conjunto de vectores en R3 que generen R3 pero que no sean linealmente
independientes?
b) ¿Es posible encontrar un conjunto de vectores en R3 que sean linealmente independientes en R3 pero
no generen todo R3 ?
Antes de seguir adelante hagamos un ejemplo sencillo: Consideremos la base de R3 formada por los vectores
canónicos, B1 = {e1 , e2 , e3 }, y consideremos la base B2 = {f1 , f2 , f3 } donde f1 = (1, 1, 1), f2 = ( 1, 1, 0) y
f3 = (0, 0, 2). Consideremos ahora un punto p 2 R3 cuya expresión en las coordenadas canónicas es
p = (5, 3, 9) ;
es decir,
p = 5e1 + ( 3)e2 + 9e3 .
Para encontrar la expresión del mismo punto en la base B2 tenemos que resolver la siguiente igualdad:
(5, 3, 9) = a(1, 1, 1) + b( 1, 1, 0) + c(0, 0, 2) :
es decir, tenemos que resolver el sistema
5= a b
3= a+b
9 = a + 2c .
Sumando las primeras dos ecuaciones se tiene 2 = 2a, de donde obtenemos que a = 1. Los valores de b y c se
obtienen ahora sustituyendo el valor de a obtenido: b = 4, c = 4.
Así, el punto p en la base definida por los vectores f1 , f2 , f3 se expresa como
p = 1f1 + ( 4)f2 + 4f3 .
Es decir, p = (1, 4, 4) en la base B2 .
Ejercicio 3.13. Localiza gráficamente los vectores f1 , f2 , f3 en R3 y encuentra el punto p en función de estos
vectores (i.e., p = 1f1 4f2 + 4f3 ). Haz lo mismo con los vectores e1 , e2 , e3 .
Af1 = 1 f1 ,
(3.16) Af2 = 2 f2 ,
Af2 = 3 f3 .
A los vectores fj , j = 1, 2, 3, que marcan las direcciones invariantes por la acción de la matriz A se les
conoce como vectores propios (o eigenvectores) de A . A los escalares j , j = 1, 2, 3, se les conoce como
valores propios (o eigenvalores) de A. Los vectores fj y ej , j = 1, 2, 3, se relacionan entre sí mediante una
expresión sumamente sencilla. En efecto, consideremos la matriz que se forma transponiendo los vectores fj ; es
decir,2cada vector
3 fj = (fj1 , fj2 , fj3 ), j = 1, 2, 3, lo trasponemos (o “paramos”) para formar un vector columna1
fj1
fj = 4 fj2 5 , j = 1, 2, 3. Así, la matriz resultante es
fj3
2 3
f11 f21 f31
[f1 , f2 , f3 ] = 4 f12 f22 f32 5 .
f13 f23 f33
Denominemos a esta matriz P (la “P ” nos recuerda que estamos “parando” a los vectores); es decir,
(3.17) P = [f1 , f2 , f3 ] .
Observemos que al aplicar el vector e1 a la matriz P obtenemos el vector f1 :
2 32 3 2 3
f11 f21 f31 1 f11
Pe1 = 4 f12 f22 f32 5 4 0 5 = 4 f12 5 = f1 .
f13 f23 f33 0 f13
Análogamente, se observa que Pe2 = f2 y Pe3 = f3 . Así, P es la matriz que cambia la base formada por los
vectores {e1 , e2 , e3 } en la base formada por los vectores {f1 , f2 , f3 } (cabe resaltar que dado que los valores propios
1 , 2 , 3 son reales y distintos, se demuestra fácilmente que los vectores propios correspondientes f1 , f2 , f3 forman
una base de R3 ).
Observación 3.14. En general, en nuestro caso Rn o Cn , en todos los casos en los que se tienen valores propios
distintos dos a dos, la matriz P construida por los vectores propios de la transformación lineal correspondiente
es invertible –se deja al lector dar una demostración de ello–, es decir, existe una matriz que denotamos por P 1
tal que P P 1 = P 1 P = Id. Así, P 1 fj = P 1 Pej = ej , para j = 1, 2, . . . , n.
Veamos entonces qué sucede si consideramos la matriz A definida en (3.15) y le anteponemos la matriz P.
Al aplicar la matriz AP a los vectores ej observamos lo siguiente:
APej = Afj , j = 1, 2, 3 .
Por (3.16), Afj = j fj , de modo que APej = j fj , para j = 1, 2, 3. Es decir, si formamos la matriz con los
vectores e1 , e2 , e3 (colocados en forma de columna) y la matriz con los vectores f1 , f2 , f3 (colocados también en
forma de columna), obtenemos
AP [e1 , e2 , e3 ] = [ 1 f1 , 2 f2 , 3 f3 ] .
Si ahora deseamos regresar la expresión obtenida a una expresión dada en función de los vectores canónicos
e1 , e2 , e3 , basta observar que
P 1 fj = ej .
Así,
P 1 AP [e1 , e2 , e3 ] = P 1 [ 1 f1 , 2 f2 , 3 f3 ]
= [ 1 e1 , 2 e2 , 3 e3 ] .
La expresión [ 1 e1 , 2 e2 , 3 e3 ] no es otra cosa que la matriz
2 3
1 0 0
(3.18) 4 0 2 0 5
0 0 3
La relación (3.19) nos dice que la matriz A puede ser transformada en una matriz diagonal. Nos preguntamos
ahora, ¿qué puede hacerse para que la ecuación ẋ = Ax pueda ser vista como una ecuación definida por una
matriz diagonal?
Pues bien, dada la ecuación (3.14), lo que necesitamos buscar es un cambio lineal de marco de referencia; es
decir, buscamos expresar cualquier punto x 2 R3 de una manera distinta haciendo uso de cambios lineales.
Supongamos entonces que x = x(t) satisface la ecuación diferencial (3.14) y sea Q una matriz de 3 ⇥ 3 con
coeficientes reales, invertible (Q Q 1 = Q 1 Q = Id). Consideremos la transformación lineal
(3.20) y = Qx , x 2 R3 .
Como x depende de t y Q representa una matriz con coeficientes constantes, podemos derivar y con respecto a t
coordenada a coordenada y obtenemos la expresión
(3.21) ẏ = Qẋ .
Como ẋ satisface la ecuación ẋ = Ax, entonces la igualdad (3.21) puede reescribirse como
ẏ = QAx .
Esta última expresión está en función de las variables x y y. De modo que, si queremos expresarla exclusivamente
en función de la variable y, basta con aplicar la matriz Q 1 en la relación (3.20). Así, x = Q 1 y, por tanto,
1
ẏ = QAx = QAQ y.
Como dijimos anteriormente, nuestro objetivo es encontrar una matriz Q tal que QAQ 1 sea la matriz
diagonal ⇤. De la igualdad (3.19) se sigue que, definiendo Q = (P) 1 , obtenemos el resultado deseado: ẏ = ⇤y.
El siguiente teorema resume todo lo que hemos visto hasta ahora.
b): Si f1 , f2 , f3 son los vectores propios de A (Afj = j fj , j = 1, 2, 3), la matriz Q está definida por Q = (P) 1
,
donde P es la matriz dada por la transposición de los vectores propios fj de A:
P = [f1 , f2 , f3 ] .
En este caso, los valores y vectores propios pueden ser calculados fácilmente (el procedimiento para calcularlos
se expone en el punto 3.5) y son 1 = 1, 2 = 2, 3 = 3; f1 = (0, 0, 1), f2 = (0, 1, 0), f3 = (2, 0, 1),
respectivamente.
La matriz P fue definida en (3.17) como la matriz que se obtiene transponiendo los vectores propios f1 , f2 , f3 .
Por lo tanto,
2 3
0 0 2
P=4 0 1 0 5.
1 0 1
Sabemos que P 1
A P = ⇤, donde
2 3
1 0 0
⇤=4 0 2 0 5.
0 0 3
Así, si y = P 1
x, tenemos que la ecuación ẋ = Ax puede verse en las coordenadas y como
ẏ = ⇤y ;
3.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 43
es decir, 2 3 2 32 3
ẏ1 1 0 0 y1
4 ẏ2 5 = 4 0 2 0 5 4 y2 5 .
ẏ3 0 0 3 y3
Las soluciones de esta ecuación se calculan coordenada a coordenada tal como lo hicimos en la sección 3.2.
Por lo tanto,
y1 (t) = y10 e t
2t
y2 (t) = y20 e
3t
y3 (t) = y30 e
donde y10 , y20 , y30 son las condiciones iniciales. El retrato de las fases dado por las soluciones de este sistema se
comportan en las coordenadas (y1 , y2 , y3 ) como se indica en la figura 3.17.
Figura 3.17.
Nos interesa, sin embargo, comprender el comportamiento de las soluciones en las coordenadas originales
(x1 , x2 , x3 ). Para ello, recordamos que x y y están relacionadas mediante la matriz P: x = Py. Por consiguiente,
2 3 2 32 3
x1 (t) 0 0 2 y1 (t)
4 x2 (t) 5 = 4 0 1 0 5 4 y2 (t) 5 ;
x3 (t) 1 0 1 y3 (t)
es decir,
3t
x1 (t) = 2y3 (t) = 2y30 e
2t
x2 (t) = y2 (t) = y20 e
t 3t
x3 (t) = y1 (t) + y3 (t) = y10 e + y30 e .
Se deja al lector obtener el retrato de las fases.
Como pudimos constatar en el ejemplo, el saber los valores y vectores propios de la matriz que describe la
ecuación ẋ = Ax nos permite construir la matriz P que traduce las soluciones obtenidas en la base propia en
las soluciones expresadas en la base canónica. Observamos que no es necesario calcular explícitamente la inversa
P 1 . Resta entonces entender cómo podemos calcular los valores y vectores propios de una matriz.
En otras palabras, el núcleo de A consta de todos aquellos vectores f de R3 que son enviados al vector cero
bajo A.
Como estamos buscando los posibles valores propios de la matriz A, nos interesa saber si existen 2 R y
f 2 R3 tales que
(3.23) Af = f .
2 3
1 0 0
Sea Id la matriz identidad en R3 , Id = 4 0 1 0 5. La multiplicación del vector f por el escalar puede
0 0 1
ser escrita entonces como f = Id(f ). La igualdad (3.23) puede ser reescrita entonces como
Af Id(f ) = 0 2 R3 .
Por linealidad, esta última igualdad se escribe como
(A Id) f = 0 2 R3 ;
es decir, buscamos el núcleo de la transformación A Id.
Como 2 3
a11 a12 a13
A Id = 4 a21 a22 a23 5
a31 a32 a33
y f = (f11 , f12 , f13 ), entonces encontrar el núcleo de A Id es lo mismo que resolver el sistema de ecuaciones
simultáneas
(a11 )f11 + a12 f12 + a13 f13 = 0
(3.24) a21 f11 + (a22 )f12 + a23 f13 = 0
a31 f11 + a32 f12 + (a33 )f13 = 0.
Claramente, f = 0 2 R satisface el sistema. La existencia de soluciones de (3.24) distintas de la trivial depende
3
del determinante de la matriz A Id. En efecto, si el determinante de dicha matriz es distinto de cero, entonces
f = 0 2 R3 es la única solución posible. Sin embargo, si el determinante de A Id se anula, podemos encontrar
soluciones no triviales de la ecuación (los vectores propios, como veremos más adelante).
Por otra parte, de la igualdad
(3.25) det(A Id) = 0
podemos encontrar los valores explícitos de :
2 3
a11 a12 a13
det(A Id) = det 4 a21 a22 a23 5 = 0.
a31 a32 a33
El cálculo directo del determinante nos muestra que satisface un polinomio de tercer grado p( ) = a 3 +
b + c + d = 0 donde a, b, c, d son constantes que dependen de los valores aij de la matriz A. Por consiguiente,
2
puede tener, a lo más, tres valores distintos 1 , 2 , 3 , correspondientes a las raíces del polinomio p( ). Estas
raíces j pueden ser reales o complejas. Nosotros nos ocupamos por el momento sólo del caso en el que todas las
raíces son reales.
2Fórmulas que llevan el nombre del matemático francés François Viète, 1540-1603, a quien se le considera como uno de
precursores del uso del álgebra en criptografía.
3.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 45
Buscamos los valores de tales que A1 f = f para alguna f 2 R2 . Es decir, buscamos resolver la ecuación
(A1 Id) = 0 2 R2 .
Podemos encontrar soluciones no triviales de esta última ecuación si det(A1 Id) = 0:
6 4
det = 0.
5 3
El polinomio característico es, en este caso,
p( ) = (6 )( 3 ) + 20 = ( 2)( 1) = 0;
por consiguiente, 1 = 1, 2 = 2 son los valores propios de A1 .
0 2
Ejemplo 3.20. Consideremos ahora la matriz A2 = .
2 0
En este caso,
2 2
det(A2 Id) = det = 4 = 0.
2
Las raíces del polinomio son 1 = 2, 2 = 2.
Supongamos ahora que ya han sido hallados los valores propios 1 , 2 , 3 de la matriz A y que éstos son
reales y distintos dos a dos. Nos interesa entonces hallar los vectores propios f1 , f2 , f3 asociados a 1 , 2 , 3
respectivamente. Las igualdades (A 1 Id)f1 = 0, (A 2 Id)f2 = 0 y (A 3 Id)f3 = 0 nos permiten calcular
los vectores deseados.
6 4
Ejemplo 3.21. Retomemos el caso de la matriz A1 = , cuyos valores propios son 1 =1y 2 = 2.
5 3
Para encontrar el vector propio f1 asociado a 1 consideramos la igualdad
6 1 4 f11 0
(3.26) (A1 1 I)f1 = = .
5 3 1 f12 0
Esta igualdad es equivalente al sistema
5f11 + 4f12 = 0
5f11 4f12 = 0.
Como puede verse, ambas ecuaciones tienen el mismo conjunto de soluciones (ya que una es llevada a la otra
mediante la multiplicación por 1). Por consiguiente, si elegimos f11 = 4, f12 = 5, habremos encontrado una
solución a (3.26). Cualquier múltiplo escalar del vector f1 = (4, 5) es también solución de (3.26). El vector
propio asociado a 2 = 2 se obtiene de forma análoga resolviendo la igualdad
6 2 4 f21 0
(A1 2 I)f2 = = ;
5 3 2 f22 0
es decir,
4f21 + 4f22 = 0
5f21 5f22 = 0.
Claramente, el vector f2 puede ser elegido como f2 = (1, 1).
Los vectores f1 , f2 hallados forman una nueva base para R2 . La matriz
4 1
P =
5 1
es la matriz que transforma la base canónica {e1 , e2 } en la base {f1 , f2 } y, en esta base, la transformación A1
tiene la forma
1 0
.
0 2
Observación 3.22. Sea A una matriz de n ⇥ n con coeficientes constantes y sea Q una matriz de n ⇥ n invertible.
Por las reglas básicas de la función determinante (ver punto 3.1) se tiene que si B = QAQ 1 , entonces
1
det(B Id) = det(QAQ Id)
1 1
= det(QAQ QIdQ )
1
= det(Q(A Id)Q )
1
= det Q det(A Id) det Q
= det(A Id) .
46 3. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ DIAGONALIZABLE
diferencial diagonal:
ẏ1 2 0 y1
= .
ẏ2 0 3 y2
Las soluciones de la ecuación diferencial diagonal son (y1 (t), y2 (t)) = (c1 e 2t , c2 e3t ) y, por consiguiente, el
comportamiento de las soluciones en estas coordenadas queda descrito por la figura 3.18
Figura 3.18.
Como nos interesan las soluciones de la ecuación diferencial original, hacemos uso del cambio de coordenadas
x = Py. Así,
(x1 (t), x2 (t)) = c1 e 2t f1 + c2 e3t f2 = (c1 11e 2t + c2 e3t , c1 6e 2t + c2 e3t ).
Para entender el comportamiento de las soluciones en estas coordenadas, basta observar que, puesto que f1 es
el vector propio correspondiente al valor propio 2, la dinámica de contracción se da en esta dirección; mientras
que la dinámica de expansión se observa a lo largo de la recta generada por el vector f2 (que corresponde al valor
propio 2 = 3). El comportamiento de las soluciones se ilustra en la figura 3.19.
Los siguientes ejercicios buscan dar al lector una cantidad suficiente de ejemplos para ensayar las técnicas
aprendidas.
Figura 3.19.
1 0 0
donde A = 1 −2 0 .
1 4 −1
a) Calcula los valores propios de A.
b) Calcula los vectores propios f1 , f2 , f3 de A.
c) Encuentra la matriz P que transforma la base canónica en la base propia.
d) Escribe la ecuación en forma diagonal (es decir, en las coordenadas de la base propia) y calcula sus
soluciones.
e) Haz el retrato de las fases correspondiente a las soluciones obtenidas en el inciso anterior.
f) Encuentra las soluciones de (3.27) y haz el retrato de las fases correspondiente.
Ejercicio 3.25. Resuelve los problemas a)-f) planteados en el ejercicio anterior para cada una de las matrices
que se indican a� continuación:
� � �
4 2 1 1
1. A = 2. A =
3 3 4 1
� � � �
−10 −18 6 −3
3. A = 4. A =
6 11 2 1
� � � �
−12 −7 1 −3
5. A = 6. A =
14 9 −2 2
� � � �
16 −36 −3 1
7. A = 8. A =
6 −14 2 −2
1 −1 4
9. A = 3 2 −1
2 1 −1
Ejercicio 3.26. Construye una ecuación diferencial dada por una matriz A de coeficientes constantes, no diagonal,
de 2 × 2, que tenga valores propios λ1 = −5 y λ2 = −3, y tal que la matriz P que transforma a la matriz A en
una matriz diagonal Λ tenga entradas en Z.
Lo que hemos visto hasta ahora puede ser resumido en el siguiente enunciado. Enunciamos el resultado en
Rn , si bien para nuestros propósitos n es 2 ó 3.
CAPÍTULO 4
La voie la plus courte et la meilleure entre deux vérités du monde réel passe souvent par le
domaine de l’imaginaire.
Jacques Hadamard
Essai sur la psychologie de l’invention
dans le domaine mathématique [Ha]
En esta sección veremos reiteradamente cómo los números complejos tienen el encanto de dar una repre-
sentación simple y profundamente estética a aquello que, a primera vista, se nos presenta como algo intrincado.
Saquemos entonces de nuestra mente el prejucio que nos hace pensar que los números complejos son complicados
y estemos listos a abrirnos a la geometría que su estructura ofrece.
Primeramente daremos una muy breve introducción histórica sobre el origen de los números complejos y
hablaremos un poco sobre sus propiedades básicas. Más adelante, concentraremos nuestra atención en aquellos
campos vectoriales lineales que tienen la propiedad de que las raíces del polinomio característico asociado a la
matriz que define a cada uno de ellos, son complejas. En el plano real, las soluciones de las ecuaciones definidas
por campos vectoriales de este tipo tienen (en coordenadas adecuadas) forma de elipses, círculos concéntricos
o de espirales (ver Introducción, ejemplos 1.16 y 1.17). Este movimiento en espiral, de por sí caprichoso, tiene
una expresión matemática que reúne a la función exponencial, a la variable compleja y al tiempo real en una
asombrosa fórmula que es profundamente estética por su significado y sencillez.
51
52 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Cuatro siglos tuvieron que pasar, para que un nuevo rastro de la presencia de números imaginarios se hiciera
presente (no hay que olvidar que diversos sucesos lamentables en distintas regiones de Europa y Asia provocaron
la quema de tratados muy valiosos en los que se perdió, para siempre, un cúmulo de reflexiones y pensamientos).
Es así, que una de las primeras menciones sobre los números imaginarios como raíces cuadradas de números
negativos se vuelven a encontrar en el Ars Magna (1545) de Gerolamo Cardano (1501-1576), quien escribe:
Olvidad las torturas mentales que esto os producirá e introducid estas cantidades (las raíces
negativas) en la ecuación.
Sin embargo, es el matemático italiano Rafael Bombelli (1526-1572) quien usa las raíces negativas estableciendo
operaciones con ellas para la solución de ecuaciones de tercer grado. Posteriormente, el matemático francés Albert
Girard (1595-1632) en su Invention nouvelle en algèbre razona sobre la necesidad de admitir las raíces negativas
en ecuaciones de grado cuatro y se le considera por algunos autores como un precursor del teorema fundamental
del álgebra. El matemático francés René Descartes (1596-1650) les da a las raíces cuadradas de números negativos
el apelativo de imaginarias y él particularmente no les da un uso especial.
Sin embargo, hasta mediados del siglo XVIII los números imaginarios aparecen sólo de manera accidental en
los trabajos de científicos tales como Nicolaus Bernoulli (1695-1726), Gottfried Leibniz (1646-1716), Issac Newton
(1642-1727) y Alexis Clairaut (1713-1765).
El matemático suizo, Leonard Euler (1707-1783) considera a los números complejos como "números imposi-
bles" pero útiles. En su Vollständige Anleitung zur Algebra 46 (1770), (traducción al francés en [E]) señala:
Ahora, dado que todos los números que es posible imaginar son mayores o menores que 0,
o son incluso 0, está claro que ni siquiera se puede contar la raíz cuadrada de un número
negativo entre los números posibles, por lo que hay que decir que es una cantidad imposible.
Así es como llegamos a la idea de números que por su naturaleza son imposibles. Se les
denomina usualmente a esos números cantidades imaginarias, porque ellas existen solamente
en la imaginación. ([E] nota 143, p.104 )
Finalmente, nos queda despejar la duda que se pueda tener sobre la utilidad de los números que
acabamos de hablar; pues, de hecho, al ser estos números imposibles, no sería sorprendente
que se pensara que son completamente inútiles y que sólo son objeto de una vana especulación.
Sin embargo, uno estaría equivocado, el cálculo de los imaginarios es de la mayor importancia;
a menudo surgen preguntas de las que no es posible decir de una vez si contienen algo real
y posible o no. Pero cuando la solución de tal pregunta nos lleva a números imaginarios,
estamos seguros de que lo que estamos preguntando es imposible. ([E] nota 151, p.109)
Con este criterio de utilidad de uso de los números complejos, Euler es considerado como uno de los principales
impulsores de la teoría de la variable
√ compleja. En Introductio in analysin infinitorum (1748), Euler introduce el
símbolo “i” de imaginario: i = −1 ó i2 = −1 y deduce la fórmula
Figura 4.1.
Con esta representación, las parejas de la forma (a, 0) denotan a los números reales y las parejas de la
forma (0, b) denotan a los números imaginarios (puros). En particular, hacemos notar que al 1 ∈ C lo estamos
4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 53
identificando con el vector canónico (1, 0) de R2 , y a i ∈ C lo identificamos con el segundo vector canónico (0, 1)
de R2 . Por otra parte, si z = a + ib denotamos por Rez, Im z a las partes real e imaginaria de z respectivamente:
Re(z) = a, Im(z) = b .
Definición 4.1. El conjunto de números complejos, denotado por C, es el conjunto R 2 junto con las reglas usuales
de adición vectorial y multiplicación escalar por números reales:
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
α(x, y) = (αx, αy), α ∈ R,
Ejercicio 4.2. ¿Es o no, la operación de multiplicación compleja, conmutativa, asociativa y distributiva?
Para comprender el sentido de la multiplicación compleja vamos a introducir un poco de trigonometría básica.
El punto z = (a, b) o z = a + ib se representa en el plano como un vector que parte del origen, o, y termina en el
punto (a, b). Los segmentos [oz], [oa] y [az] forman un triángulo rectángulo.√ Denotemos por θ al ángulo opuesto
al segmento [az], y denotemos por ρ a la magnitud del segmento [oz], ρ = a2 + b2 . Así, a = ρ cos θ, b = ρ sen θ
(ver figura 4.2).
Figura 4.2.
De esta forma, el número complejo z puede ser representado haciendo uso de las funciones trigonométricas
seno y coseno como
z = a + ib = ρ(cos θ + i sen θ) .
La interpretación geométrica de la multiplicación de dos números complejos
se sigue que el resultado de la multiplicación z1 z2 es un número complejo cuya magnitud es igual al producto de
las magnitudes de z1 y z2 , y cuyo argumento es igual a la suma de los argumentos de dichos números (ver figura
4.3). En otras palabras, el resultado de multiplicar al complejo z 1 por el complejo z2 puede ser interpretado como
la aplicación de una rotación por un ángulo θ2 al complejo z1 , seguida de aplicar una homotecia (contracción o
expansión por un factor ρ2 ).
54 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Figura 4.3.
4.1.1. R-linealidad y C-linealidad. Cabe hacer notar que la multiplicación compleja sólo agrega una
propiedad nueva a R2 . Así, los conceptos usuales de límite y continuidad en R2 se mantienen sin ningún cambio al
interpretar a R2 como C. Sin embargo, la estructura que la multiplicación induce en R 2 se refleja en su totalidad
en el proceso de diferenciación. La clave para comprender esta nueva estructura está en hacer una diferencia clara
entre lo que significa el que una transformación de C en C sea R-lineal o C-lineal.
Por esta razón, y por todo lo que haremos en este capítulo, es importante detenernos a analizar los conceptos
de R-linealidad y C-linealidad.
Definición 4.3. Decimos que una función ψ : C → C es R-lineal si para para toda z, w ∈ C se satisface
a) ψ(z + w) = ψ(z) + ψ(w)
b) ψ(λz) = λψ(z), para todo λ ∈ R.
Si además se satisface
c) ψ(λz) = λψ(z), para todo λ ∈ C,
entonces decimos que ψ es C − lineal.
Observamos que el conjunto de las funciones C − lineales es un subconjunto de las funciones R − lineales.
Vamos a dar una expresión, en términos de z y z̄, para las funciones R − lineales. Para ello, consideremos
una función ψ : C → C, tal que ψ es R − lineal. Entonces, si escribimos z = x + iy, se tiene
ψ(z) = ψ(x + iy) = ψ(x) + ψ(iy) ,
y como ψ es R − lineal,
(4.1) ψ(z) = xψ(1) + yψ(i) .
Denotemos α := ψ(1), β := ψ(i), y escribamos a x y a y en términos de z y de z̄,
z + z̄ z − z̄
(4.2) x= , y= .
2 2i
Con esta notación se tiene el siguiente teorema.
Demostración. Por (4.1) sabemos que ψ(z) = xψ(1) + yψ(i). Sustituyendo ahora las expresiones de x y y
obtenidas en (4.2) se tiene que
z + z̄ z − z̄
ψ(z) = α+ β.
2 2i
Reagrupando se tiene que
� � � �
α β α β
ψ(z) = + z+ − z̄
2 2i 2 2i
� � � �
α − iβ α + iβ
= z+ z̄
2 2
= az + bz̄.
�
4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 55
Haciendo uso del teorema anterior, y de las expresiones obtenidas para ψ y a en él, es ahora simple observar
que ψ es una transformación C-lineal si y sólo si
ψ(i · 1) = iψ(1) = iα;
en cuyo caso,
(4.4) ψ(z) = xψ(1) + iyψ(1) = ψ(1)(x + iy) = αz.
En otras palabras, si ψ es C-lineal entonces en la expresión (4.3) se tiene necesariamente que b = 0 y a = α.
Retomemos lo que hemos hecho hasta ahora desde el punto de vista de R2 . A saber, si ψ es una transformación
R-lineal, ψ : C → C, entonces podemos escribirla, por el teorema anterior, como
ψ(z) = az + bz̄.
Si recordamos que a 1 ∈ C lo identificamos con el vector canónico (1, 0) de R 2 , y a i ∈ C lo identificamos con
el segundo vector canónico (0, 1) de R2 , entonces la transformación lineal ψ aplicada en el complejo 1 podemos
leerla como la transformación R-lineal ψ aplicada al vector (1, 0) definida por,
� � � �� � � �
1 a11 a12 1 a11
�→ = .
0 a21 a22 0 a21
Asimismo, la transformación R-lineal ψ en el complejo i podemos leerla como la transformación R-lineal ψ sobre
el vector (0, 1) definida como,
� � � �� � � �
0 a11 a12 0 a12
�→ = .
1 a21 a22 1 a22
Si ahora pedimos que ψ sea no sólo R-lineal sino también C-lineal, entonces ψ(z) = az y deberá satisfacerse que
se tiene que la matriz (4.5) puede ser vista como la rotación por el ángulo θ (representada por la matriz de coseno
y seno) seguida del cambio de magnitud (representado por la multiplicación por ρ).
Ejercicio 4.5.
� �
0 −1
(1) Considera la matriz M = .
1 0
(a) ¿A qué número complejo corresponde?
(b) Analiza el comportamiento geométrico de la transformación z �→ M z, donde z = (x, y).
x2 x3 x4
ex = 1 + x +
+ + + ... .
2! 3! 4!
Cuando x es un número imaginario, x = ib, b ∈ R, definimos e como
ib
2Una serie convergente representa al límite cuando n tiende a infinito de la sucesión formada por las sumas parciales de sus
n primeros términos.
4.3. UN CONCIERTO DE CÍRCULOS Y ESPIRALES. 57
Figura 4.4.
En el caso en que a �= 0, los círculos eibt se ven afectados por el factor eat . Si a < 0 la distancia al origen se
va reduciendo mientras que el efecto de eibt hace girar las soluciones. El resultado de estos dos comportamientos
son espirales que convergen al origen (ver figura 4.5, donde a < 0, b > 0).
Las soluciones en este caso se escriben como
x(t) + iy(t) = (k1 + ik2 )eat (cos bt + i sen bt)
= eat (k1 cos bt − k2 sen bt) + ieat (k2 cos bt + k1 sen bt)
58 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Figura 4.5.
Ejercicio 4.7. Haciendo uso de coordenadas polares demuestra que la ecuación ż = µz tiene, en efecto, la
solución dada por z(t) = keµt , t ∈ R y k ∈ C.
Ejercicio 4.8. Considera la ecuación (4.8). Resuélvela y representa gráficamente el comportamiento de las
soluciones en los casos
a): a > 0, b > 0
b): a > 0, b < 0
c): a < 0, b < 0.
Figura 4.6.
Figura 4.7.
En el caso a < 0, b > 0, λ < 0, la dinámica nos recuerda a lo que sucede con el agua del lavabo al salir por
la coladera (ver figura 4.8).
Ejercicio 4.9. Considera la ecuación (4.12) y encuentra el comportamiento de las soluciones en los casos
a): a < 0, b < 0, λ < 0,
b): a < 0, b < 0, λ > 0,
c): a > 0, b < 0, λ > 0,
d): a > 0, b < 0, λ < 0,
e): a = 0, b < 0, λ < 0.
Figura 4.8.
consiguiente, consideraremos lo que se conoce como complejificación de la ecuación. En C 2 daremos una respuesta
a la ecuación complejificada y después veremos cómo, de lo hecho en los complejos, logramos dar una respuesta
para el problema original.
Así, en lugar de considerar
A : R2 −→ R2 ,
consideramos
AC : C2 −→ C2 ,
� �
a11 a12
donde AC = , aij ∈ R.
a21 a22
Observación 4.10. Como matrices AC y A son iguales, lo que cambia es el dominio de definición de A. Éste lo
extendemos de R2 a C2 y, para recordarlo, lo denotamos por AC .
AC |R2 = A : R2 −→ R2 ,
A este proceso se le llama complejificación de la matriz A.
� �
λ 0
P−1
C A C P C = ΛC = .
0 λ
Así, si consideramos el cambio de coordenadas yC := P−1
C xC se tiene, como vimos antes, que
� �
λ 0
(4.16) ẏC = ΛC yC , donde ΛC = .
0 λ
Observación 4.11. Esta ecuación no es el resultado de la complejificación de una ecuación en R 2 pues sus
coeficientes no son reales.
Observación 4.12. La expresión (4.17) representa a todas las soluciones de la ecuación ẋ C = AC xC y éstas
son únicas una vez dada la condición inicial. Para probar la unicidad, tenemos que demostrar primero que las
soluciones de la ecuación (4.16) son únicas una vez fija la condición inicial. Este hecho se puede demostrar
fácilmente coordenada a coordenada pues las variables en esta ecuación están desacopladas. Así, para probar
que la ecuación ẏjC = λj yjC tiene como única solución a yjC (t) = cj eλj t (que satisface yjC (0) = cj ) suponemos
que existe otra y la denotamos por ϕj (t), ϕj (0) = cj . Como eλj t �= 0 para todo t ∈ R, podemos escribir
ϕj (t) = gj (t)eλj t para alguna función diferenciable gj . Por ser ϕj solución ẏjC = λj yjC se tiene que
ϕ̇jC = λj ϕjC ;
es decir,
ġj eλj t + gj λj eλj t = λj gj eλj t .
Así, ġj = 0 y, por consiguiente gj (t) = kj , kj constante. Por lo tanto, ϕj (t) = kj eλj t . Como ϕj (0) = cj , entonces
kj = cj . Esto nos da, coordenada a coordenada, la unicidad de y C (t). Para obtener la unicidad de las soluciones
xC (t) = PC yC (t) de la ecuación ẋC = AC xC , basta ahora con observar que la invertibilidad de la matriz P C implica
inmediatamente el resultado.
Si ahora nos preguntamos por aquellas soluciones de la ecuación (4.15) que están contenidas en R 2 para todo
tiempo t ∈ R, bastará con buscar aquellas soluciones xC que satisfacen la condición
xC (t) = xC (t) para todo t ∈ R.
Así,
xC (t) = c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f = xC (t) ;
es decir,
c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f .
Igualando a cero:
(c1 − c2 )eλt f + (c2 − c1 )eλt f = 0.
Observamos que haciendo t = 0 obtenemos
(c1 − c2 )f + (c2 − c1 )f = 0.
Como los vectores f y f son linealmente independientes se sigue que
(c1 − c2 ) = 0 = (c2 − c1 );
Es decir c2 = c1 . Sustituyendo este valor de c2 en (4.17) se tiene que
xC (t) = c1 eλt f + c1 eλt f .
Por lo tanto,
(4.18) xC (t) = 2Re(c1 eλt f ).
Como xC (t) = 2Re(c1 e f ) ∈ R para todo t, y xC satisface la ecuación ẋC = AC xC , entonces todas las soluciones
λt 2
x(t) = xC (t) definidas como en (4.18) son soluciones para el problema inicial ẋ = Ax. Cabe ahora preguntarse
si éstas son todas. Para responder a esta pregunta observemos que hemos resuelto la ecuación x˙C = AC xC y
expresado de manera explícita en (4.17) sus soluciones; asimismo, hemos caracterizado a aquellas que pertenecen
62 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
a R2 para todo tiempo t (ver (4.18)). Cabe preguntarse ahora, si es posible o no que una solución que tiene
condición inicial en C2 \ R2 interseque al plano R2 en algún momento para algún valor t0 ∈ R .
Figura 4.9.
Para responder a esta pregunta, supongamos que ϕ(t, p) es solución, ϕ(0, p) = p ∈ C2 \ R2 , tal que para algún
valor t = t0 se tiene que ϕ(t0 , p) = x0 ∈ R2 (ver figura 11.2). Entonces
dϕ
= AC ϕ,
dt
y, conjugando esta ecuación, se tiene
dϕ
= AC ϕ .
dt
Es decir, ϕ también es solución, ϕ(0, p) = p y ϕ(t0 , p) = x0 = x0 ∈ R2 . Por consiguiente, si ϕ no es solución en
R2 para toda t, entonces ϕ �= ϕ y ϕ(t0 , p) = x0 = ϕ(t0 , p), lo que contradice la unicidad de las soluciones. Por
consiguiente, si ϕ(t, p) es solución de xC = AC xC , y ϕ(τ, p) ∈ R2 para algún τ ∈ R, entonces ϕ(t, p) ∈ R2 para
todo t ∈ R; por lo tanto, ϕ(t, p) es solución de ẋ = Ax. En otras palabras, la expresión (4.18) representa a todas
las soluciones de la ecuación original (4.14).
Regresemos ahora a la expresión obtenida en (4.18) para encontrar una interpretación geométrica de lo que
hemos realizado. Lo primero que se observa, es que x(t) depende únicamente de f y no de f¯. Escribimos a f
como u + iv, donde u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 ; además, siendo c1 = α + iβ y λ = a + ib, se tiene
f = u − iv = (1 − ik)u.
Lo que implica que f = 1−ik
1+ik
f y ello contradice que f y f sean C-linealmente independientes en C2 .
ξ˙ = P−1 ẋ
= P−1 Ax
= P−1 APξ
� �
a −b
= ξ.
b a
En resumen, hemos probado el siguiente teorema.
64 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a
en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).
Figura 4.10.
� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.
A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.
Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3
p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
64 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a
en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).
Figura 4.10.
� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.
A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.
Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3
p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 65
(2) Complejificación de la ecuación. Al ser las raíces del polinomio característico complejas (no reales),
necesitamos considerar la extensión del dominio de definición de la matriz A a C 2 ; consideremos, a su
vez, la extensión del dominio de la ecuación (es decir, su complejificación), ẋ C = AC xC ,
� � � �� �
ẋ1C −3 10 x 1C
= , con (x1C , x2C ) ∈ C2 .
ẋ2C −1 3 x 2C
En la complejificación tiene sentido calcular los vectores propios de A C :
� �� � � �
i + 3 −10 f11 0
= ,
1 i−3 f12 0
que implica la relación
f11 + (i − 3)f12 = 0.
Si f12 = 1, entonces f11 = 3 − i. Por consiguiente, f = (3 − i, 1) = (3, 1) + i(−1, 0) = u + iv es un vector
propio asociado al valor propio i; además f es también vector propio (correspondiente�a λ). �
3−i 3+i
(3) La ecuación diferencial diagonalizada y sus soluciones. Consideremos la matriz P C =
1 1
y el cambio de coordenadas yC = P−1 C xC . Así,
ẏC = P−1 −1 −1
C ẋC = PC AC xC = PC AC PC yC = ΛC yC ,
con � � � �
λ 0 i 0
ΛC = = .
0 λ 0 −i
Las soluciones de esta ecuación son:
yC (t) = (eλt c1 , eλt c2 ) = (eit c1 , e−it c2 ).
(4) Soluciones de la ecuación original complejificada. Usando el cambio de coordenadas x C = PC yC encon-
tramos las soluciones de la ecuación ẋC = AC xC del punto 2.
� �
� � � � eλt c1
x C = f f yC = f f = eλt c1 f + eλt c2 f .
eλt c2
(5) Obtención de las soluciones de la ecuación original: las soluciones reales satisfacen x C (t) = xC (t) y por
lo tanto son soluciones de ẋ = Ax. Estas soluciones se obtienen al desarrollar x C (t) = xC (t):
eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ (c1 − c2 )eλt f + (c2 − c1 )eλt f = 0
Si t=0, entonces
(c1 − c2 )f + (c2 − c1 )f = 0
Por lo tanto,
c1 = c2 y c2 = c 1 .
De aquí,
x(t) = 2Re(c1 eλt f )
= 2Re(c1 eit f )
� �� �� �
−1 3 cos t − sen t −2β
=
0 1 sen t cos t 2α
con c1 = α + iβ.
(6) Retrato de las fases de la ecuación original. La expresión de x(t) encontrada en el punto 5 nos indica
que hay
� una matriz �
−1 3
P = y un cambio de coordenadas ξ = P−1 x tal que en las coordenadas ξ la ecuación
0 1
� �
0 −1
ẋ = Ax tiene la forma ξ˙ = ξ (equivalentemente, ξ˙ = iξ. Esta ecuación tiene como soluciones
1 0
� � � �� �
ξ1 (t) cos t − sen t k1
a = que es una familia de círculos concéntricos (parametrizados
ξ2 (t) sen t cos t k2
por t, y que dependen de la condición inicial k = (k1 , k2 )).
Así, como x = Pξ, se tiene que las soluciones de la ecuación original son la imagen, bajo la
transformación P, de la familia de círculos concéntricos que está definida por las soluciones de la
ecuación ξ˙ = iξ. Esta imagen está dada por elipses, como se muestra en la figura 4.11.
Además, observamos que como det P < 0, entonces se invierte la orientación con respecto a la
ecuación en las coordenadas (ξ1 , ξ2 ).
66 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Figura 4.11.
� �
−3 −4
Ejemplo 4.18. Sea ẋ = Ax definida por A = . Repetimos nuevamente varias etapas para resolver
10 9
la ecuación.
(1) Obtención del polinomio característico y sus raíces.
� �
−3 − λ −4
p(λ) = det(A − λId) = det =0
10 9−λ
= (λ + 3)(λ − 9) + 40 = 0
= λ2 − 6λ − 27 + 40 = λ2 − 6λ + 13 = 0 ,
y finalmente
√
36 − 52
6± 6 ± 4i
λ= = = 3 ± 2i .
2 2
(2) Complejificación de la ecuación y obtención de los vectores propios de ẋ C = AC x.
� � � �� �
ẋ1C −3 −4 x 1C
= , (x1C , x2C ) ∈ C2 .
ẋ2C 10 9 x 2C
Podemos calcular los vectores propios a la matriz AC , que define a la ecuación anterior, como sigue:
� �� � � �
−6 − 2i −4 f11 0
= ;
10 6 − 2i f12 0
es decir,
(−6 − 2i)f11 − 4f12 = 0 .
Si f11 = −2, entonces f12 = 3 + i. Así f = (−2, 3 + i) = (−2, 3) + i(0, 1) y f = (−2, 3 − 1) =
(−2, 3) + i(0, −i).
(3) Ecuación diagonalizada
� ẏC = ΛC y�C y sus soluciones.
� Consideramos
� el cambio de coordenadas yC =
−1 −2 −2 λ 0
PC xC , con PC = . Así, ẏC = yC , y sus soluciones son:
3+i 3−i 0 λ
� � � � � �
y1C (t) c1 eλt c1 e(3+2i)t
= = , c1 , c2 ∈ C.
y2C (t) c2 eλt c2 e(3−2i)t
Figura 4.12.
(7) Las soluciones de ẋ = Ax son, por consiguiente, x(t) = Pξ(t), y en consecuencia, también son espirales
(ver figura 4.13). Observamos que det P = 2 > 0, por lo que P es una transformación R-lineal que
deforma el plano sin cambiar la orientación.
Figura 4.13.
Ejercicio 4.19. Encontrar las soluciones y el retrato de fases de ẋ = Ax, x ∈ R 2 , en los siguientes casos. Hacemos
notar que en cada caso se indican, a un lado de la matriz A correspondiente, las raíces del polinomio característico
asociado; en el inciso c) se indica también el vector propio correspondiente a la complejificación A C de A:
� �
−2 1
(a) A= ❀ λ = −4 ± i .
−5 −6
� �
1 1
(b) A= ❀ λ = 2 ± i.
−2 3
� �
2 −5
(c) A= ❀ λ = ±i ❀ f = (5, 2 − i) = (5, 2) + i(0, −1) .
1 −2
� �
−8 −3
(d) A= ❀ λ = −2 ± 3i .
15 4
68 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Ejercicio 4.20. Construye un ejemplo de una ecuación diferencial ẋ = Ax, x ∈ R 2 , tal que su retrato de las
fases tenga una elipse cuyo eje mayor esté dado por el vector (5, 2), y tal que la curva que define a dicha elipse
pase por el punto (3, 1) del plano.
Para λ1 = −1:
3 −2 2 f11 0
6 1 4 f12 = 0 ,
−3 2 −2 f13 0
es decir,
3f11 − 2f12 + 2f13 =0
6f11 + f12 + 4f13 =0
−3f11 + 2f12 − 2f13 =0
Si f12 = 0, entonces 3f11 + 2f13 = 0. Y si f11 = −2, entonces f13 = 3. Esta elección anula a las tres
ecuaciones. Por lo tanto,
f1 = (−2, 0, 3).
Para λ2 = 2i:
2 − 2i −2 2 f21 0
6 −2i 4 f22 = 0 .
−3 2 −3 − 2i f23 0
Equivalentemente,
(2 − 2i)f21 − 2f22 + 2f23 =0
6f21 − 2if22 + 4f23 =0
−3f21 + 2f22 − (3 + 2i)f23 = 0 .
Sumando la primera y la tercera ecuación se tiene (−1 − 2i)f21 − (1 − 2i)f23 = 0. Por lo tanto,
f21 + f23 = 0.
Si f21 = 1, entonces f23 = −1. Ahora, sustituyendo en la segunda ecuación, se tiene 6 − 2if22 − 4 = 0, que a su
vez implica que
f22 = −i.
Por lo tanto,
f2 = (1, −i, −1) = (1, 0, −1) + i(0, −1, 0)
Para λ3 = −2i:
f3 = f 2 = (1, i, −1) = (1, 0, −1) + i(0, 1, 0).
� � −2 1 1
Consideramos xC = PC yC con PC = f1 f2 f 2 = 0 −i i . Este cambio de coordenadas lleva a
3 −1 −1
ẋC = AC xC en la ecuación ẏC = ΛC yC con
−1 0 0
ΛC = 0 2i 0 .
0 0 −2i
y1C (t) c1 e−t
La solución de esta ecuación es y2C (t) = c2 e 2it
.
y3C (t) c3 e−2it
Ahora, para recuperar las soluciones de la ecuación ẋC = AC xC basta con multiplicar esta última expresión
por la matriz PC . A saber,
� � c1 e−t
xC (t) = PC yC (t) = f1 f2 f 2 c2 e2it = c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 .
c3 e−2it
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 69
� �
Observación 4.22. La matriz P = f1 v u sirve para definir un cambio de coordenadas x = Pξ de R3 en
R3 . Este cambio de coordenadas nos permite conocer el comportamiento geométrico de las soluciones (ver figura
4.14).
3Hacemos notar que al estar los vectores en el espacio complejo, pudimos haber tomado al primer vector con entradas complejas;
sin embargo, dicho vector sería un múltiplo complejo del vector f1 y nuestros razonamientos seguirían las mismas líneas. Por lo
tanto, siempre que el valor propio sea un número real podemos considerar al vector propio correspondiente como un vector propio
con entradas reales, o bien, un vector propio con entradas complejas.
70 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Observamos que para el caso de una ecuación ẋ = Ax, con x ∈ Rn para n arbitrario, se procede de manera
análoga. Por consiguiente, para el caso de raíces distintas del polinomio característico (asociada a la matriz A
que define la ecuación) se tiene el teorema siguiente.
Teorema 4.23. Sea A ∈ Mn×n (R), tal que el polinomio característico p(λ) = det(A−λId), tiene raíces λ1 , . . . , λn
distintas dos a dos; entonces toda solución de la ecuación ẋ = Ax se escribe como
n−r
r
� �
2
λk t
x(t) = ak e fk + c k e λ k t f k + f k e λk t f k
k=1 k=r+1
n−r
r
� �
2
= a k e λk t f k + 2Re(ck eλk t fk ),
k=1 k=r+1
donde ak ∈ R, ck ∈ C, las raíces λ1 , . . . , λr están en R, y las raíces λr+1 , . . . , λ n−r están en C � R, considerando
2
los vectores
fk ∈ R2 tal que Afk = λk fk , para k = 1, . . . , r ,
fk ∈ C2 tal que A C f k = λk f k , para k = r + 1, . . . , n−r
2
.
Después de lo que hemos visto hasta ahora, el lector debe de ser capaz de escribir la demostración de este
teorema. La demostración, por lo tanto, se deja como ejercicio.
Observación 4.24. Hemos usado, a lo largo de los capítulos 3 y 4, el que los vectores propios asociados a valores
propios distintos (dos a dos) son linealmente independientes. Este hecho bien conocido de álgebra lineal, nos ha
servido para encontrar los cambios de coordenadas que simplifican a las ecuaciones; es por lo tanto pertinente
hacer un paréntesis para demostrar esta afirmación. En la demostración se procede por inducción. A saber, sea A
una matriz que define una transformación lineal de Rn en sí mismo (o de Cn en sí mismo), tal que todos sus valores
propios, λ1 , . . . , λn , son distintos dos a dos. Consideremos dos vectores propios f1 y f2 de ésta, correspondientes
a dos valores propios distintos λ1 y λ2 , λ1 �= λ2 , entonces afirmamos que f1 y f2 son linealmente independientes.
Si suponemos lo contrario, es decir, que existe una constante c tal que f 2 = cf1 , entonces, aplicando A de
ambos lados de la igualdad, se tiene que A(f2 ) = A(cf1 ) = cA(f1 ), de donde se sigue que λ2 f2 = cλ1 f1 .
Reagrupando se tiene que λ2 f2 = λ1 cf1 = λ1 f2 , lo que nos llevaría a que λ2 = λ1 , que es una contradicción.
Supongamos la afirmación válida para j vectores propios, f 1 , . . . , fj , j ≤ n, y sus valores propios correspondientes,
λ1 , . . . , λj . Sea λj+1 un valor propio distinto de los primeros j valores propios anteriores, y supongamos que el
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 71
vector propio correspondiente, fj+1 , puede ser expresado como combinación lineal de los primeros j vectores
propios, fj+1 = c1 f1 + · · · + cj fj ; entonces, aplicando la matriz A de ambos lados de la igualdad, se tiene
A(fj+1 ) = A(c1 f1 + · · · + cj fj ); por linealidad de A, obtenemos que λj+1 fj+1 = λ1 c1 f1 + · · · + λj fj . De aquí,
escribiendo a fj+1 como combinación lineal de f1 , . . . , fj , se tiene λj+1 (c1 f1 + · · · + cj fj ) = λ1 c1 f1 + · · · + λj cj fj .
Así, se llega a la igualdad, (λ1 − λj+1 )c1 f1 + · · · + (λj − λj+1 )cj fj = 0. Como, por hipótesis de inducción, los
vectores f1 , . . . , fj son linealmente independientes, y sabemos que los valores propios son distintos dos a dos,
entonces c1 = · · · = cj = 0. Eso significa que el vector propio fj+1 es el vector cero, lo que es una contradicción.
Así, la colección f1 , . . . , fj+1 es linealmente independiente. Como j ≤ n, entonces la afirmación es válida para
f1 , . . . , fn .
Es importante notar que en la demostración usamos fuertemente el que los valores propios λ 1 , . . . , λn fuesen
distintos dos a dos. Como veremos en la siguiente sección, tener valores propios repetidos nos llevará a proceder
de una manera diferente, ya que, por cada valor propio repetido, perdemos por lo menos un vector propio para
formar la matriz P (PC ) de cambio de coordenadas.
Para mirar más lejos: Razonamiento heurístico sobre el operador la exponencial de una matriz
para raíces simples del polinomio característico. Haremos una breve disgresión en la que veremos, dando
un razonamiento heurístico, la pertinencia de definir la transformación exponencial de una matriz para expresar
las soluciones de las ecuaciones ẋ = Ax. Más adelante, cuando definamos la norma de una matriz, haremos una
exposición formal y detallada de estas ideas (ver 4.7).
Afirmación: Las soluciones de ẋ = Ax, x ∈ Rn , se ven como x(t) = PeΛt P−1 c donde o bien
λ1 0
..
Λ= . ,
0 λn
con λj ∈ R, o bien
λ1 0
..
.
λs
Λ=
,
A1
..
.
0 Am
� �
aj −bj
con λ1 , . . . , λs reales y distintas y Aj = , j = 1, ..., m, correspondientes a las raíces complejas
bj aj
(también distintas dos a dos). En ambos casos las soluciones son explícitas y únicas, una vez dada la condición
inicial.
Para argumentar el porqué de esta afirmación consideremos primero el caso Λ diagonal, es decir, λ 1 , . . . , λn
reales y distintas. Observemos que si definimos eΛt como sigue
λ1 t
e 0
..
eΛt := . ,
λn t
0 e
entonces, por la convergencia de la exponencial en cada variable se tiene,
� (λ1 t)k
∞
k=0 k!
0 ∞
.. � (Λt)j
eΛt = .
=
.
�∞ (λn t)k j=0
j!
0 k=0 k!
La convergencia en R de cada una de las funciones eλj t nos permite definir perfectamente a la matriz eΛt .
Retomemos el problema: queremos encontrar la solución de la ecuación ẋ = Ax que pasa, en t = 0, por el
punto q. Para ello,
� consideremos � los vectores propios f1 , . . . , fn asociados a los valores propios λ1 , . . . , λn de A.
La matriz P = f1 · · · fn define un cambio de coordenadas y = P−1 x. En las coordenadas y la ecuación
ẋ = Ax se escribe como ẏ = Λy. Las soluciones de esta ecuación están dadas por y(t) = eΛt c, con
λ1 0
..
Λ= .
0 λn
y c = (c1 , . . . , cn ). Observamos también que, en las coordenadas y, el punto q se escribe como P−1 q. Así, la
solución de ẋ = Ax que pasa por q se escribe como
x(t) = PeΛt P−1 q .
72 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
La segunda igualdad (marcada con asterisco) en la expresión (4.20) se obtiene por la convergencia uniforme de
cada una de las funciones eλj t . Así, la expresión x(t) = PeΛt P−1 a la que hemos dado por ahora sólo el nombre
x(t) := eAt q es la solución con condición inicial x(0) = q.
Cabe destacar nuevamente que más adelante (ver 4.7) definiremos la norma de una transformación lineal
definida por una matriz y demostraremos, en general, la pertinencia de la expresión
�∞
(At)j
x(t) = eAt q = q, q ∈ Rn .
j=0
j!
Figura 4.15.
� �
En el caso de raíces complejas el razonamiento es semejante: para dimensión dos la matriz P = v u ,
con f = u + iv vector propio asociado a λ = a + ib, define un cambio de coordenadas que lleva a A en
� �
a −b
Λ= .
b a
4
Por lo tanto, si observamos que la expresión formal
∞
� (Λt)k
eΛt c = c,
k!
k=0
−1
Como PΛP = A, entonces podemos definir
−1
(4.21) eAt q := ePΛP t
q = PeΛt P−1 q .
La igualdad (4.21) es nuevamente la expresión de lo que se denomina una equivalencia lineal entre las soluciones
de dos ecuaciones lineales ẋ = Ax y ẏ = Λy. Puede verse en (4.21), que la solución φA (t, q) = eAt q de la ecuación
ẋ = Ax, con condición inicial q, es transformada bajo P en la solución φ Λ (t, P−1 q) = eΛt P−1 q de la ecuación
ẏ = Λy, con condición inicial P−1 q (ver figura 4.15).
Así, en general, para una matriz A con raíces del polinomio característico distintas, podemos escribir
x(t, c) = eAt c
�∞
(Λt)k
c
k=0
k!
para poder introducir en cada sumando el vector c y así demostrar que Λk c es equivalente a la multiplicación compleja λk (c1 + ic2 )
donde λ = a + ib. Esto lo veremos más adelante (ver sección 4.7) al hablar de la convergencia de la serie
�∞
At (At)k
e := .
k=0
k!
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 73
Ejercicio 4.25.
Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).
Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:
Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .
4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no
74 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).
Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:
Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .
4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no
4.5. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ QUE TIENE UNA ÚNICA DIRECCIÓN INVARIANTE REAL O COMPLEJA
75
homogénea (i.e. es de la forma ξ˙ = µξ + b(t)). Para encontrar una solución que no esté en el espacio de soluciones
generado por eµt , proponemos una solución de la forma
(4.22) x1 (t) = f (t) · eµt .
Derivando ésta se obtiene
(4.23) ẋ1 (t) = f˙(t)eµt + f (t)µeµt .
Como x1 debe satisfacer
(4.24) ẋ1 = µx1 + eµt c,
entonces, sustituyendo (4.22) y (4.23) en la expresión (4.24), se tiene
f˙(t)eµt + f (t)µeµt = µf (t)eµt + eµt c.
Así,
f˙(t) = c ,
y por lo tanto
f (t) = ct + k .
La solución x(t) se escribe entonces como
� � � �
x1 (t) (ct + k)eµt
= .
x2 (t) ceµt
Es decir,
� � � �� �
x1 (t) eµt teµt k
=
x2 (t) 0 eµt c
(ver figura 4.16, para µ >0; obsérvese que el campo vectorial se vuelve vertical a lo largo de la recta x 2 = −µx1 ).
Figura 4.16.
La forma en la que procedimos para encontrar las soluciones de la ecuación (4.24) no homogénea en la variable
x1 , definiendo x1 (t) = f (t) · eµt y encontrando la función f (t) adecuada, se conoce como método de variación
de constantes o variación de parámetros. Tal como su nombre lo indica, estamos multiplicando una solución de
la ecuación homogénea por una función en t y no por una constante para poder salir del espacio vectorial de
las soluciones de la ecuación homogénea, y de esta manera, encontrar una solución de la ecuación no homogénea
correspondiente.
Para resolver el caso general con un solo valor repetido requerimos recordar un teorema de álgebra lineal:
76 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Teorema 4.29 (Cayley-Hamilton [S-R], [Z]). Sea ρ(λ) = det(A − λId) el polinomio característico asociado a la
matriz A ∈ Mn×n (R) (o bien A ∈ Mn×n (C)). Entonces
ρ(A) = 0 .
Hagamos uso de este teorema en el caso de una matriz de 2 × 2. Supongamos que la matriz A es diferente a
µId, pero tiene a µ como un valor propio de multiplicidad dos, es decir, ρ(λ) = (λ − µ) 2 ; consideremos f �= 0 un
vector propio asociado al valor propio µ, es decir, (A − λId)f = 0.
Sea v un vector linealmente independiente a f . Ya que hemos supuesto que A �= µId, se tiene que Av �= µv
o, equivalentemente, (A − λId)v �= 0. Sin embargo, por el teorema de Cayley-Hamilton, ρ(A) = 0. Es decir,
ρ(A) = (A − µId)2 = 0 y, por lo tanto,
(A − µId)2 v = 0 .
Como (A − µId)2 v = (A − µId)((A − µId)v) = 0, entonces (A − µId)v = kf para alguna k ∈ R (es decir,
(A − µId)v está en el subespacio generado por f ). Al vector v se le conoce como vector propio generalizado (ver
figura 4.17).
Figura 4.17. El vector propio generalizado v es transformado bajo A − µId a un múltiplo del
vector propio f , de modo que al aplicar nuevamente la matriz A − µId, éste se va a cero.
Consideremos la igualdad (A − µId)v = kf . De aquí, obtenemos la imagen del vector v bajo la matriz A
como Av = µv + kf . � �
Consideremos la matriz P = f, v . Deseamos conocer cuál es la matriz definida por la conjugación
P−1 AP; para ello, evaluemos a P−1 AP en los vectores canónicos. A saber,
� �
µ
P−1 APe1 = P−1 Af = P−1 µf = µP−1 f = µe1 = ,
0
P−1 APe2 = P−1 Av = P−1 (µv + kf ) = µP−1 v + kP−1 f
� �
k
= µe2 + ke1 = .
µ
Por lo tanto,
� �
µ k
Λ := P−1 AP = .
0 µ
Si k = 1, entonces la matriz obtenida es la correspondiente al caso que ya resolvimos. Observamos que siempre
podemos tomar v tal que (A − µId)v = f .
� �
1 1
Por lo que hemos visto anteriormente, el cambio de cordenadas y = P−1 x, con P = , transforma a
1 2
la ecuación ẋ = Ax en la ecuación
� � � � � �� �
ẏ1 y1 −4 1 y1
= P−1 AP = .
ẏ2 y2 0 −4 y2
Sabemos que sus soluciones son
� � � �� �
y1 (t) e−4t te−4t c1
= .
y2 (t) 0 e−4t c2
y2 (t)
Para conocer el comportamiento asintótico de las soluciones consideremos el cociente y1 (t)
y calculemos el límite
−4t
cuando la variable t tiende a infinito, lim y2 (t) = e c2
lim −4t (c +tc = c2
lim (c1 +tc = 0 (lo mismo para
t→+∞ y1 (t) t→+∞ e 1 2) t→+∞ 2)
Figura 4.18.
Figura 4.19.
Observación 4.31. Para realizar el retrato de las fases correctamente nos auxiliamos de la expresión del campo
vectorial Ax y buscamos aquellos subconjuntos de R2 para los cuales el campo vectorial es vertical u horizontal.
En efecto, no es difícil ver que a lo largo de la recta x2 = 5x1 , el campo se vuelve vertical y en x2 = − 13 x1 se
vuelve horizontal.
78 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Hacemos notar que cuando la matriz A que define a la ecuación ẋ = Ax, x ∈ R n , tiene un único valor propio
λ (Af = λf ), y la matriz A − λId tiene núcleo de dimensión 1 (i.e., {v ∈ Rn | Av = 0} es un subespacio de
dimensión 1), entonces se tendrán que encontrar n − 1 vectores propios generalizados. La forma de recuperar esos
vectores es considerar n − 1 vectores linealmente independientes, vj , que satisfagan respectivamente la condición
(A − λId)j vj = f , para j = 1, . . . , n − 1. Lo anterior puede lograrse, por ejemplo, haciendo recursivamente
(A − λId)vk+1 = vk , para k = 1, . . . , n − 2.
Ejercicio 4.33. Encontrar las soluciones y los retratos de las fases correspondientes a la ecuación ẋ = Ax,
x ∈ R2 , en los siguientes casos:
� �
2 1
(a) A = .
−1 4
� �
0 1
(b) A = .
−1 −2
� �
1 −1
(c) A = .
1 3
� �
1 −1
(d) A = .
4 5
4.5. ECUACIONES DIFERENCIALES DEFINIDAS POR UNA MATRIZ QUE TIENE UNA ÚNICA DIRECCIÓN INVARIANTE REAL O COMPLEJA
79
Ejercicio 4.34. Encontrar las soluciones correspondientes a la ecuación diferencial ẋ = Ax, x ∈ R 4 , donde
1 −2 1 0
0 1 2 1
A= 4
,
0 −3 −2
−8 −4 12 5
y una raíz del polinomio característico es µ = 1+2i. Se sugiere usar un vector propio sencillo de la complejificación
AC de A; a saber, f = (i, 1, 0, 2i).
Para resolver el problema de un valor propio múltiple en dimensiones mayores es útil hacer uso del siguiente
resultado. Si bien en la sección 4.7 hablaremos de la exponencial de una matriz de una forma rigurosa, cuando se
tienen de raíces del polinomio característico de multiplicidad mayor que uno, se tiene una propiedad de nilpotencia
que hace que el problema de convergencia para definir el operador exponencial de una matriz se reduzca, en este
caso, a una suma finita. Ello evita para este tipo de ejemplos la necesidad de introducir criterios de convergencia.
El siguiente teorema recoge esta peculiaridad.
Teorema 4.35. Sea A : Rn −→ Rn una transformación lineal y supongamos que la matriz A que la representa
tiene un único valor propio µ de multiplicidad n. Entonces A = S + N (o bien A C = SC + NC en el caso en el
que A tenga raíz compleja múltiple), donde S = µId, Nn = 0 y SN = NS.
Así,
eµt 0
.. 1 1
etA = .
2
· (Id + Nt + (Nt) + . . . + (Nt)n−1 + 0).
2! (n − 1)!
0 eµt
Observemos que lo anterior nos permite encontrar, para el caso de un solo valor propio real de multiplicidad n,
las soluciones de la ecuación ẋ = Ax como x(t, c) = eAt c sin tener que hablar especialmente del problema de la
convergencia.
� �
1 −1
Ejemplo 4.36. Sea la ecuación ẋ = x, cuyo polinomio característico es ρ(λ) = (λ − 1)(λ − 3) + 1 =
1 3
λ − 4λ + 4 = (λ − 2) . Lo cual implica que tiene sólo un valor propio repetido, λ = 2, de multiplicidad dos.
2 2
� �
−1 −1
N = (A − 2Id) = .
1 1
Entonces, � �� � � �
−1 −1 −1 −1 0 0
N2 = = .
1 1 1 1 0 0
Así,
2
0
t
x(t) = At
e c=e 20 · eNt c
�� � �k
2 0
�∞ t
0 2
= · (Id + Nt)c
k!
k=0
� 2t � �� � � � �� �
e 0 1 0 −1 −1 c1
= + t
0 e2t 0 1 1 1 c2
� �� �
2t 1−t −t c1
= e .
t 1+t c2
Nota: Observa que el resultado tiene que ser el mismo resultado que el obtenido en el ejercicio (c) de la última
sección de ejercicios. Se sugiere analizar con detalle.
Teorema 4.37. El espacio vectorial χ formado por el conjunto de soluciones de la ecuación diferencial ẋ = Ax,
x ∈ Rn (ẋC = AC xC , x ∈ Cn ) es isomorfo al espacio de las fases de la ecuación.
(a) B0 es suprayectiva pues para cada c ∈ Rn , basta considerar la solución ϕ(t, c) con condición inicial c.
(b) B0 es inyectiva pues si B0 (ϕ(t, x0 )) = 0, entonces
B0 (ϕ(t, x0 )) = ϕ(τ, x0 )τ =0 = 0 .
Por el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales (ver teorema 9.10), la
solución ϕ(t, 0) tiene que ser la constante cero, ϕ(t, x0 ) ≡ 0.
Así, B0 (χ) = Rn y por lo tanto dim(χ) = n. �
Figura 4.20.
Sabiendo ahora que el espacio de soluciones de una ecuación lineal en R n tiene dimensión n, podemos
preguntarnos si dadas n soluciones de una ecuación diferencial lineal éstas generan o no al resto de las soluciones.
Veamos por ejemplo el caso en dimensión dos. Nos preguntamos si dadas dos soluciones ϕ 1 y ϕ2 de la ecuación
ẋ = Ax, x ∈ R2 , cualquier otra solución x(t) de ẋ = Ax puede ser escrita o no como combinación lineal de ϕ 1 y
ϕ2 , i. e., x(t) = c1 ϕ1 + c2 ϕ2 .
En otra palabras, nos preguntamos si existen constantes c1 , c2 ∈ R tales que
� � � �
x1 (t) � � c1
= ϕ1 (t) ϕ2 (t) ∀t ∈ R.
x2 (t) c2
4.6. TEOREMA DE LIOUVILLE 81
La respuesta está entonces centrada en ver si la matriz definida por las soluciones ϕ 1 y ϕ2 es o no invertible; es
decir, siempre podemos encontrar c1 y c2 si
� �
det ϕ1 (t) ϕ2 (t) �= 0 para todo t ∈ R.
Esto nos conduce a la siguiente definición (válida en Rn ).
Figura 4.21.
No. Por ejemplo: f1 (t) = (t, t2 ) y f2 (t) = (t, t + t2 ) son tales que W (0) = 0 pero f1 y f2 son
linealmente independientes sobre R.
b) ¿Será cierto entonces que si W (t) = 0 para todo t ∈ R, entonces f2 (t) = cf1 (t), para alguna c ∈ R?
¿En qué consiste entonces el papel del wronskiano? La respuesta a esta pregunta está en el siguiente teorema de
Joseph Liouville (1809-1882, Francia). Enunciamos por el momento una versión sencilla del teorema, por lo que
lo llamaremos «chico». Más adelante daremos otras dos versiones más generales.
Teorema 4.39 (de Liouville -chico-). El wronskiano W (t) de las soluciones de la ecuación ẋ = Ax satisface la
ecuación diferencial
(4.25) Ẇ = trA · W .
En otras palabras W (t) = etrAt c, con c = W (0).
Demostración. Analicemos el caso n = 2. Denotemos por ΦA (t, C) a la matriz formada por las soluciones
ϕ1 (t, c1 ), ϕ2 (t, c2 ) de la ecuación ẋ = Ax,
Nota: Observa que el resultado tiene que ser el mismo resultado que el obtenido en el ejercicio (c) de la última
sección de ejercicios. Se sugiere analizar con detalle.
Teorema 4.37. El espacio vectorial χ formado por el conjunto de soluciones de la ecuación diferencial ẋ = Ax,
x ∈ Rn (ẋC = AC xC , x ∈ Cn ) es isomorfo al espacio de las fases de la ecuación.
(a) B0 es suprayectiva pues para cada c ∈ Rn , basta considerar la solución ϕ(t, c) con condición inicial c.
(b) B0 es inyectiva pues si B0 (ϕ(t, x0 )) = 0, entonces
B0 (ϕ(t, x0 )) = ϕ(τ, x0 )τ =0 = 0 .
Por el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales (ver teorema 9.10), la
solución ϕ(t, 0) tiene que ser la constante cero, ϕ(t, x0 ) ≡ 0.
Así, B0 (χ) = Rn y por lo tanto dim(χ) = n. �
Figura 4.20.
Sabiendo ahora que el espacio de soluciones de una ecuación lineal en R n tiene dimensión n, podemos
preguntarnos si dadas n soluciones de una ecuación diferencial lineal éstas generan o no al resto de las soluciones.
Veamos por ejemplo el caso en dimensión dos. Nos preguntamos si dadas dos soluciones ϕ 1 y ϕ2 de la ecuación
ẋ = Ax, x ∈ R2 , cualquier otra solución x(t) de ẋ = Ax puede ser escrita o no como combinación lineal de ϕ 1 y
ϕ2 , i. e., x(t) = c1 ϕ1 + c2 ϕ2 .
En otra palabras, nos preguntamos si existen constantes c1 , c2 ∈ R tales que
� � � �
x1 (t) � � c1
= ϕ1 (t) ϕ2 (t) ∀t ∈ R.
x2 (t) c2
4.6. TEOREMA DE LIOUVILLE 81
La respuesta está entonces centrada en ver si la matriz definida por las soluciones ϕ 1 y ϕ2 es o no invertible; es
decir, siempre podemos encontrar c1 y c2 si
� �
det ϕ1 (t) ϕ2 (t) �= 0 para todo t ∈ R.
Esto nos conduce a la siguiente definición (válida en Rn ).
Figura 4.21.
No. Por ejemplo: f1 (t) = (t, t2 ) y f2 (t) = (t, t + t2 ) son tales que W (0) = 0 pero f1 y f2 son
linealmente independientes sobre R.
b) ¿Será cierto entonces que si W (t) = 0 para todo t ∈ R, entonces f2 (t) = cf1 (t), para alguna c ∈ R?
¿En qué consiste entonces el papel del wronskiano? La respuesta a esta pregunta está en el siguiente teorema de
Joseph Liouville (1809-1882, Francia). Enunciamos por el momento una versión sencilla del teorema, por lo que
lo llamaremos «chico». Más adelante daremos otras dos versiones más generales.
Teorema 4.39 (de Liouville -chico-). El wronskiano W (t) de las soluciones de la ecuación ẋ = Ax satisface la
ecuación diferencial
(4.25) Ẇ = trA · W .
En otras palabras W (t) = etrAt c, con c = W (0).
Demostración. Analicemos el caso n = 2. Denotemos por ΦA (t, C) a la matriz formada por las soluciones
ϕ1 (t, c1 ), ϕ2 (t, c2 ) de la ecuación ẋ = Ax,
(4.29) W (t) = det ΦA (t, C) = det P det ΦΛ (t) det P−1 det C.
Finalmente,
(4.30) W (t) = det ΦA (t, C) = det ΦΛ (t) det C.
En otras palabras, el wronskiano de ΦA (t, C) depende del wronskiano de la matriz dada por las soluciones ΦΛ (t)
de la ecuación en su forma normal y el determinante de la matriz de condiciones iniciales det C. Tenemos tres
casos a analizar según sean las raíces del polinomio característico de A (que son las del polinomio característico
de Λ):
� �
λ1 0
(1) Si Λ = , entonces y(t) = eΛt p, con p = (p1 , p2 ), y la matriz ΦΛ (t) está dada por
0 λ2
� λ1 t �
e 0
ΦΛ (t) = λ2 t .
0 e
Así, � λ1 t �
e 0
W (t) = det ΦΛ (t) det C = det λ2 t W (0).
0 e
6
Por lo tanto, W (t) = det ΦΛ (t) det C = etrΛt det C = etrAt det C . Claramente, si t = 0, entonces
W (0) = det C. Así,
W (t) = det ΦA (t, C) = det ΦΛ (t) det W (0) = etrAt det W (0).
� � � �� �
a −b cos bt − sen bt p1
(2) Si Λ = , entonces y(t) = eat . Por consiguiente, la matriz ΦΛ (t)
b a sen bt cos bt p2
es igual a
� �
cos bt − sen bt
ΦΛ (t) = eat .
sen bt cos bt
Por lo tanto, el wronskiano es en este caso
W (t) = e2at (cos2 bt + sen2 bt) det C = e2at det C = etrAt W (0).
� �
µ 1
(3) Si Λ = , entonces
0 µ
� µt �
e teµt
W (t) = det eΛt det C = det det C = e2µt det C = etrΛ det C = etrA W (0).
0 eµt
Para el caso general, sólo resta ver que la matriz Λ está descompuesta en tres bloques diferenciados que
nos permiten expresar tanto al espacio vectorial de condiciones iniciales como al de soluciones en suma directa.
Distinguimos una submatriz diagonal correspondiente a las raíces reales simples del polinomio característico , una
submatriz por bloques correspondientes a la expresión matricial de números complejos simples (como en el inciso
(2)), y una submatriz dada por bloques triangulares de distintas dimensiones según sean las multiplicidades de
las distintas raíces del polinomio característico. En cada uno de estos bloques ya preparados se hace el análisis
correspondiente, tal como se hizo en el caso de dimensión dos. Con esto finalizamos la demostración. �
Observación 4.40. El teorema de Liouville nos dice que, en el caso de soluciones ϕ 1 y ϕ2 de una ecuación
diferencial lineal, el wronskiano W (t) = W [ϕ1 (t), ϕ2 (t)] tiene la propiedad de que W (τ ) = 0, para alguna
t = τ ∈ R, si y sólo si W (t) = 0, para toda t ∈ R.
En efecto, si W (τ ) = e(trA)τ W (0) = 0, entonces
W (t) = e(trA)(t+τ −τ ) W (0) = etrA(t−τ ) · etrAτ W (0) = 0 , para todo t ∈ R .
� �
Por lo tanto, si dos soluciones ϕ1 y ϕ2 son tales que det ϕ1 ϕ2 = 0, para alguna τ ∈ R, entonces W (t) = 0
para toda t ∈ R. La generalización de esta observación para más variables es inmediata.
Observación 4.41. El teorema de Liouville nos permite determinar entonces cuándo soluciones de una ecuación
diferencial lineal son linealmente independientes. En efecto, bastará con evaluar su wronskiano en un valor de t
específico,–por simplicidad, algunas veces es conveniente tomarlo en el valor de t de la condición inicial–. Esta
noción de independencia lineal de soluciones de una ecuación diferencial nos permite centrar nuestra atención en
soluciones que sean generadoras del resto de las soluciones. Esto lo asentamos en la siguiente definición de matriz
fundamental de soluciones.
A continuación enunciamos dos teoremas de Liouville. En realidad lo que llamamos teorema “chico” y “medi-
ano” son casos particulares del teorema de Liouville (para distinguirlos los hemos llamado “chico” y "mediano").
Teorema 4.43 (de Liouville -mediano-). El wronskiano W (t) de las soluciones de la ecuación ẋ = A(t)x satisface
la ecuación
Ẇ = trA(t)W
donde A(t) es una matriz que depende de t.
Teorema 4.44 (de Liouville). Sea D ∈ Rn un conjunto contenido en el dominio de definición de v(x), ẋ = v(x).
Denotamos por D(t) a la imagen de D bajo la acción del flujo de la ecuación: D(t) = {ϕ(t, x)|x ∈ D}, y sea V (t)
el volumen de la región D(t). Entonces
�
dV
= div (v(x)) dx.
dt D(t)
Un campo vectorial v(x) diferenciable (de clase C1 (U )) definido en un abierto U de R2 , se denomina hamilto-
niano si existe una función H , H : U −→ R , H ∈ C2 (U ) tal que v(x) = (Hy , −Hx ). En este caso, la ecuación que
dicho campo vectorial define es de la forma ẋ = Hy y ẏ = −Hx . Este tipo de ecuaciones tiene una gran cantidad
de propiedades, mismas que habremos de explorar en el capítulo 8.
CAPÍTULO 5
(5.2) ẋ = Ax + B(t),
donde B(t) = [b1 (t), ..., bn (t)] es un vector en Rn cuyas entradas son funciones diferenciables. La técnica para
resolver este tipo de ecuaciones se llama variación de parámetros o variación de constantes 1. Lo primero que
haremos será dar una caracterización del conjunto de soluciones de la ecuación (5.2).
Para entender la esencia del problema, consideremos primero el caso n = 2, es decir, cuando tenemos una
ecuación de la forma
� � � �� � � �
ẋ a b x b1 (t)
(5.3) = + , (x, y) ∈ R2 ,
ẏ c d y b2 (t)
Notemos que si ϕ y ξ son soluciones de la ecuación ẋ = Ax, entonces cualquier combinación lineal de éstas
también será una solución. En efecto, si k1 , k2 ∈ R, entonces
d(k1 ϕ + k2 ξ) d(k1 ϕ) d(k2 ξ)
= + = k1 A(ϕ) + k2 A(ξ) = A(k1 ϕ + k2 ξ).
dt dt dt
Recordemos ahora que una matriz fundamental de soluciones de la ecuación
� � � �� �
ẋ a b x
(5.4) =
ẏ c d y
es una matriz invertible de la forma
ϕ1 (t) ξ1 (t)
Φ(t) = ,
ϕ2 (t) ξ2 (t)
aϕ1 + bϕ2 aξ1 + bξ2
= = [Aϕ Aξ].
cϕ1 + dϕ2 cξ1 + dξ2
Las columnas ϕ, ξ de Φ son soluciones linealmente independientes de la ecuación (5.4), y por lo tanto generan al
conjunto de soluciones de la ecuación ẋ = Ax. Si ahora consideramos un vector k = (k 1 , k2 ) entonces Φk también
es una solución de (5.4) puesto que es una combinación lineal de ϕ y ξ
ϕ1 ξ 1 k1 ϕ 1 k1 + ξ 1 k 2 ϕ1 ξ1
Φk = = = k1 + k2
ϕ2 ξ 2 k2 ϕ 2 k1 + ξ 2 k 2 ϕ2 ξ2
= k1 ϕ + k2 ξ.
1Este método se encuentra presente en los textos de Leonhard Euler (1707–1783), así como en los de Joseph-Louis Lagrange
(1736–1813).
99
100 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
Una vez hechas estas observaciones, supongamos que φ es una solución de la ecuación (5.3). Por consiguiente
se satisface la igualdad φ̇ = Aφ + B(t). Veamos ahora que Φk + φ también es una solución de (5.3)
d(Φk + φ) d(Φk) dφ d(k1 ϕ + k2 ξ) dφ dϕ dξ dφ
= + = + = k1 + k2 +
dt dt dt dt dt dt dt dt
= k1 Aϕ + k2 Aξ + Aφ + B(t)
� �
= A (k1 ϕ + k2 ξ ) + φ + B(t).
Finalmente,
d(Φk + φ)
= A(Φk + φ) + B(t).
dt
Recíprocamente, si ψ es una solución de la ecuación ẋ = Ax + B entonces existe (α1 , α2 ) ∈ R2 tal que
ψ = Φα + φ. Para demostrar esta última afirmación, consideremos la resta ψ − φ y derivemos
d(ψ − φ)
= ψ̇ − φ̇ = (Aψ + B) − (Aφ + B) = Aψ − Aφ = A(ψ − φ).
dt
Esta igualdad significa que ψ − φ es una solución de la ecuación ẋ = Ax. Como ϕ y ξ generan al espacio de
soluciones de dicha ecuación, existen α1 , α2 ∈ R tales que ψ − φ = α1 ϕ + α2 ξ = Φα, por lo tanto ψ = Φα + φ.
Observación: Es inmediato ver que el análisis que hicimos de las soluciones de (5.3) se traslada análogamente
al caso en que A ∈ Mn×n (R) y x, B ∈ Rn . Queda al lector convencerse de lo anterior.
2Recordemos que esto quiere decir que las columnas de Φ son soluciones linealmente independientes y además Φ(0) = Id.
5.1. VARIACIÓN DE PARÁMETROS 101
Y por lo tanto,
� t
F (t) = F (0) + Φ−1 (τ )B(τ ) dτ.
0
Ahora sustituimos esta expresión de F en Ψ para obtener que
� � t �
Ψ(t) = Φ(t) F (0) + Φ−1 (τ )B(τ ) dτ
0
� t
= Φ(t)F (0) + Φ(t) Φ−1 (τ )B(τ ) dτ.
0
Nos queda averiguar el término F (0). Para ello, consideremos la solución Ψ en el tiempo t = 0
� 0
Ψ(0) = Φ(0)F (0) + Φ(0) Φ−1 (τ )B(τ ) dτ = Id F (0) = F (0).
0
Esto nos dice que F (0) es nuestra condición inicial, que variamos en Rn . Ahora si ya tenemos completamente
determinada a nuestra solución Ψ, a saber
� t
(5.11) Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn .
0
Aunque por construcción sabemos que hemos obtenido con este procedimiento la solución general de la ecuación
original (5.6), observemos qué pasa al derivar el segundo sumando de la expresión de Ψ
� � t � � t
d
Φ(t) Φ−1 (τ )B(τ ) dτ = Φ̇(t) Φ−1 (τ )B(τ ) dτ + Φ(t)Φ−1 (t)B(t)
dt 0 0
� � t �
= A Φ(t) Φ−1 (τ )B(τ ) dτ + B(t).
0
�t −1
Esto significa que Φ(t) 0 Φ (τ )B(τ ) dτ es una solución particular de ẋ = Ax + B, así que por la caracterización
que hicimos antes de las soluciones de esta ecuación, podemos concluir que el espacio de soluciones es el conjunto
� � t �
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ | K ∈ Rn .
0
�t −4t
πe3t 2e3t 0
e−4τ dτ πe3t 2e3t (1−e4 )
El alcance que tiene este método es muy amplio y suele encontrarse en diversos contextos. Veremos ahora
cómo éste nos permite resolver ecuaciones diferenciales que involucran derivadas de orden superior. En particular,
nos concentramos en las ecuaciones de segundo orden de la forma aẍ + bẋ + cx = f (t) pues nos permiten entender
fenómenos físicos que pueden ser estudiados por las ecuaciones de Newton.
Ejemplo 5.2. Resuelve la ecuación ẍ + 16x = 5 cos 2t usando el método de variación de parámetros.
Solución. Definiendo y = ẋ tenemos que ẏ = ẍ = 5 cos 2t − 16x, y entonces la ecuación de primer orden
equivalente en R2 es
� � � �� � � �
ẋ 0 1 x 0
(5.13) = + .
ẏ −16 0 y 5 cos 2t
El polinomio característico de la matriz que define la ecuación (5.14) es p(λ) = λ 2 + 16 y sus raíces son λ1 = 4i y
λ2 = −4i. Busquemos un vector propio f = (f1 , f2 ) asociado a λ1 ; para ello, debemos resolver el siguiente sistema
� �� � � �
−4i 1 f1 0
= .
−16 −4i f2 0
Por consiguiente, −4i f1 +f2 = 0. Tomando f1 = 1 tenemos que f2 = 4i, y por lo tanto f = (1, 4i) = (1, 0)+i(0, 4).
Así, las soluciones de (5.14) están dadas por
� � � �� �� �
x(t) 0 1 cos 4t −sen4t k1
= .
y(t) 4 0 sen4t cos 4t k2
� �
0 1
Para obtener una matriz fundamental canónica de soluciones notemos que la inversa de P = es
4 0
� �
0 14
P−1 = ; así, la matriz fundamental canónica correspondiente es
1 0
� �
cos 4t −sen4t
Φ(t) = P P−1
sen4t cos 4t
� �� �� �
0 1 cos 4t −sen4t 0 14
=
4 0 sen4t cos 4t 1 0
� �� �
sen4t cos 4t 0 14
=
4 cos 4t −4sen4t 1 0
� �
cos 4t 1
4
sen4t
= .
−4sen4t cos 4t
Ahora calculemos su inversa. Para ello, notemos que el determinante de Φ es 1, y por lo tanto
� �
cos 4t − 14 sen4t
Φ−1 = .
4sen4t cos 4t
� � � � � t � �
x(t) c1 0
Ψ(t) = = Φ(t) + Φ(t) Φ−1 (τ ) dτ.
y(t) c2 0 5 cos 2τ
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 103
Es decir,
� �� �
cos 4t 1
4
sen4t c1
=
−4sen4t cos 4t c2
� �� t � �� �
cos 4t 1
4
sen4t cos 4τ − 14 sen4τ 0
+ dτ,
−4sen4t cos 4t 0 4sen4τ cos 4τ 5 cos 2τ
y por lo tanto,
c2
c1 cos 4t + 4
sen4t
Ψ(t) =
−c1 4sen4t + c2 cos 4t
�t
cos 4t 1
4
sen4t − 0 54 cos 2τ.sen4τ dτ
+
�t
.
−4sen4t cos 4t 0
5 cos 2τ. cos 4τ dτ
5.2.1. Ecuaciones diferenciales lineales de segundo orden con coeficientes constantes. Una ecuación
de segundo orden con coeficientes constantes es una ecuación de la forma
donde a, b y c son constantes y f es una función diferenciable (basta pedir que la función f sea continua). Una
manera de proceder para hallar las soluciones es llevar la ecuación (5.15) a una de primer orden en R 2 definiendo
una nueva variable y = ẋ. Entonces, despejando a ẋ de la ecuación obtenemos que ẏ = ẍ = f (t)a
− ab ẋ − ac x =
f (t)
a
− a y − a x, y la ecuación de primer orden asociada es
b c
ẋ 0 1 x 0
(5.16) = + .
c b f (t)
ẏ − a
− a
y a
La ecuación (5.16), por todo lo que hemos visto en los capítulos previos, ya la sabemos resolver por variación de
parámetros (ver (5.11)). A saber,
� t
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn ,
0
donde Φ(t) es la matriz fundamental canónica de la ecuación diferencial homogénea y B(t) es el vector que define
el término no homogéneo de la ecuación,
104 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
0
B(t) = .
f (t)
a
Cabe hacer notar que las soluciones obtenidas de esta manera tienen, por construcción, a las soluciones de la
ecuación (5.15) representadas por el primer renglón de la matriz, y a su derivada en el segundo renglón. Es claro
de la expresión obtenida para Ψ, que toda ecuación de la forma (5.15) con f continua, tiene una solución explícita
dada por (5.11). El problema estará entonces en resolver la integral correspondiente, lo que algunas veces puede
resultar complicado, cuando no imposible. Notamos también que el espacio de soluciones es de dimensión dos en
las variables x y y, lo que significa que se requieren dar dos condiciones iniciales x(0) = k1 y y(0) = k2 . Esto,
dado que por definición y = ẋ, significa que en las condiciones iniciales de la ecuación estamos fijando la posición
inicial del objeto y su velocidad.
Ejemplo 5.3. Resolvamos la ecuación diferencial de segundo orden no homogénea definida por
(5.17) x�� + 9x = e−5t x(0) = 7, x� (0) = 5.
La ecuación equivalente en R2 haciendo y = x� es:
� � � �� � � �
ẋ 0 1 x 0
(5.18) = + −5t .
ẏ −9 0 y e
� �
0 1
Observación 5.4. Hacemos notar que Φ(0) = , es decir, Φ es matriz fundamental pero no canónica.
3 0
� �
7
Por consiguiente, para obtener los valores de k1 y k2 observamos que Ψ(0) = , pues x(0) = 7, x� (0) = 5
5
son las condiciones iniciales dadas. Entonces,
� � � � � �� �
7 k1 0 1 k1
= Ψ(0) = Φ(0)g(t0 ) = Φ(0) =
5 k2 3 0 k2
así, k2 = 7 y 3k1 = 5.
Finalmente, � � �� 5 � � � � �
t
sen3t cos 3t 0
Ψ(t) = 3 + Φ−1 (τ ) dτ .
3 cos 3t −3 sin 3t 7 0 e−5τ
.
Ejercicio 5.5. (1) Haz el retrato de las fases en R2 de la ecuación homogénea (5.3) asociada a la ecuación
no homogénea (5.18).
(2) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación homogénea.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 105
(3) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación no homogénea (5.18). Ob-
serva que, en este ejemplo, el comportamiento que de la solución particular lo puedes deducir fácilmente,
¿por qué?
Como hicimos mención al inicio de este apartado, existe otro método para encontrar las soluciones de (5.15)
que podría parecer menos natural que el método de variación de parámetros, pero que es útil para fines prácticos.
Para explicar cómo se procede introducimos el operador
(5.19) L[x] = aẍ + bẋ + cx.
El operador L[x] es lineal por estar definido sólo en términos de adiciones y derivación. Las soluciones de
L[x] = f (t) forman un espacio afín; a saber, serán la suma de las soluciones de la ecuación homogénea L[x] = 0
más una solución particular de la ecuación no homogénea L[x] = f (t). Nos ocuparemos primero de resolver la
ecuación homogénea L[x] = 0.
Resolución de la ecuación homogénea L[x] = 0. Para resolver la ecuación homogénea, consideremos
primero el polinomio característico de la matriz
� �
0 1
A= c b .
−a −a
Dicho polinomio es p(λ) = λ2 + ab λ + ac . Recordemos que los valores propios de A son los ceros de p(λ):
b c
p(λ) = λ2 + λ+ =0
a a
Equivalentemente, son los ceros del polinomio
aλ2 + bλ + c = 0.
√
−b± b2 −4ac
Por lo tanto, λ = 2a
y entonces tenemos tres casos que dependen del valor de b2 − 4ac.
linealmente independientes.
Es decir,
� �� �
cos 4t 1
4
sen4t c1
=
−4sen4t cos 4t c2
� �� t � �� �
cos 4t 1
4
sen4t cos 4τ − 14 sen4τ 0
+ dτ,
−4sen4t cos 4t 0 4sen4τ cos 4τ 5 cos 2τ
y por lo tanto,
c2
c1 cos 4t + 4
sen4t
Ψ(t) =
−c1 4sen4t + c2 cos 4t
�t
cos 4t 1
4
sen4t − 0 54 cos 2τ.sen4τ dτ
+
�t
.
−4sen4t cos 4t 0
5 cos 2τ. cos 4τ dτ
5.2.1. Ecuaciones diferenciales lineales de segundo orden con coeficientes constantes. Una ecuación
de segundo orden con coeficientes constantes es una ecuación de la forma
donde a, b y c son constantes y f es una función diferenciable (basta pedir que la función f sea continua). Una
manera de proceder para hallar las soluciones es llevar la ecuación (5.15) a una de primer orden en R 2 definiendo
una nueva variable y = ẋ. Entonces, despejando a ẋ de la ecuación obtenemos que ẏ = ẍ = f (t)a
− ab ẋ − ac x =
f (t)
a
− a y − a x, y la ecuación de primer orden asociada es
b c
ẋ 0 1 x 0
(5.16) = + .
c b f (t)
ẏ − a
− a
y a
La ecuación (5.16), por todo lo que hemos visto en los capítulos previos, ya la sabemos resolver por variación de
parámetros (ver (5.11)). A saber,
� t
Ψ(t) = Φ(t)K + Φ(t) Φ−1 (τ )B(τ ) dτ, con K ∈ Rn ,
0
donde Φ(t) es la matriz fundamental canónica de la ecuación diferencial homogénea y B(t) es el vector que define
el término no homogéneo de la ecuación,
104 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
0
B(t) = .
f (t)
a
Cabe hacer notar que las soluciones obtenidas de esta manera tienen, por construcción, a las soluciones de la
ecuación (5.15) representadas por el primer renglón de la matriz, y a su derivada en el segundo renglón. Es claro
de la expresión obtenida para Ψ, que toda ecuación de la forma (5.15) con f continua, tiene una solución explícita
dada por (5.11). El problema estará entonces en resolver la integral correspondiente, lo que algunas veces puede
resultar complicado, cuando no imposible. Notamos también que el espacio de soluciones es de dimensión dos en
las variables x y y, lo que significa que se requieren dar dos condiciones iniciales x(0) = k1 y y(0) = k2 . Esto,
dado que por definición y = ẋ, significa que en las condiciones iniciales de la ecuación estamos fijando la posición
inicial del objeto y su velocidad.
Ejemplo 5.3. Resolvamos la ecuación diferencial de segundo orden no homogénea definida por
(5.17) x�� + 9x = e−5t x(0) = 7, x� (0) = 5.
�
La ecuación equivalente en R haciendo y = x es:
2
� � � �� � � �
ẋ 0 1 x 0
(5.18) = + −5t .
ẏ −9 0 y e
� �
0 1
Observación 5.4. Hacemos notar que Φ(0) = , es decir, Φ es matriz fundamental pero no canónica.
3 0
� �
7
Por consiguiente, para obtener los valores de k1 y k2 observamos que Ψ(0) = , pues x(0) = 7, x� (0) = 5
5
son las condiciones iniciales dadas. Entonces,
� � � � � �� �
7 k1 0 1 k1
= Ψ(0) = Φ(0)g(t0 ) = Φ(0) =
5 k2 3 0 k2
así, k2 = 7 y 3k1 = 5.
Finalmente, � � �� 5 � � � � �
t
sen3t cos 3t 0
Ψ(t) = 3 + Φ−1 (τ ) −5τ dτ .
3 cos 3t −3 sin 3t 7 0 e
.
Ejercicio 5.5. Resuelve las siguientes preguntas relacionadas con la ecuación (5.3).
a) Haz el retrato de las fases en R2 de la ecuación homogénea asociada a la ecuación no homogénea (5.3).
b) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación homogénea.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 105
c) Haz la gráfica de x con respecto a t de la solución x(t), x(0) = 7 de la ecuación no homogénea (5.3). Ob-
serva que, en este ejemplo, el comportamiento que de la solución particular lo puedes deducir fácilmente,
¿por qué?
Ejercicio 5.6. Encuentra por variación de parámetros las soluciones de las ecuaciones.
Como hicimos mención al inicio de este apartado, existe otro método para encontrar las soluciones de (5.15)
que podría parecer menos natural que el método de variación de parámetros, pero que es útil para fines prácticos.
Para explicar cómo se procede introducimos el operador
El operador L[x] es lineal por estar definido sólo en términos de adiciones y derivación. Las soluciones de
L[x] = f (t) forman un espacio afín; a saber, serán la suma de las soluciones de la ecuación homogénea L[x] = 0
más una solución particular de la ecuación no homogénea L[x] = f (t). Nos ocuparemos primero de resolver la
ecuación homogénea L[x] = 0.
Dicho polinomio es p(λ) = λ2 + ab λ + ac . Recordemos que los valores propios de A son los ceros de p(λ):
b c
p(λ) = λ2 + λ+ =0
a a
Equivalentemente, son los ceros del polinomio
aλ2 + bλ + c = 0.
√
−b± b2 −4ac
Por lo tanto, λ = 2a
y entonces tenemos tres casos que dependen del valor de b2 − 4ac.
Por lo tanto L[φ] = 0, lo cual quiere decir que φ es solución de la ecuación homogénea. De este modo obtuvimos
dos soluciones linealmente independientes de L[x] = 0, a saber
donde φ1 (t, q1 ) = e q1 cos βt − eαt q2 senβt y φ2 (t, q2 ) = eαt q1 senβt + eαt q2 cos βt son dos soluciones L[x] = 0
αt
linealmente independientes.
Observamos que aλ2 + bλ + c = 0 porque λ es raíz del polinomio característico, y en este caso tenemos que
b
λ = − 2a , y por lo tanto también 2aλ + b = 0. Así, L[φ2 ] = 0, lo cual muestra que φ2 también es solución de
la ecuación homogénea y es linealmente independiente de φ1 (t, α) = αeλt . Hacemos notar que φ2 (t, β) pudimos
haberla obtenido utilizando directamente variación de parámetros: φ 2 (t, β) = g(t)φ1 (t, α), y encontrando la ex-
presión precisa de g.
En la siguiente tabla resumimos las soluciones de la ecuación homogénea L[x] = 0 dependiendo del valor del
discriminante b2 − 4ac. Observamos que, en cada caso, la solución general de la ecuación homogénea estará escrita
por combinaciones lineales de las soluciones φ1 y φ2 correspondientes.
Discriminante Raíces Soluciones
φ2 (t, β) = βeλ2 t , β ∈ R
φ2 (t, β) = βteλt , β ∈ R
Ejercicio 5.7. Resuelve la ecuación de segundo orden siguiente sin convertirla a una ecuación lineal de dos
variables equivalente.
ẍ + 5ẋ + 6x = 0 , x(0) = 1, x� (0) = 2.
Grafica con respecto a t la solución x(t) obtenida.
Ejercicio 5.8. Nuevamente, resuelve la ecuación de segundo orden siguiente sin convertirla a una ecuación lineal
de dos variables equivalente.
ẍ − 6ẋ + 9x = 0 , x(0) = −1, x� (0) = 3.
Grafica con respecto a t la solución x(t) obtenida.
Resolución de la ecuación no homogénea L[x] = f (t). Definamos como antes L[x] := ax �� + bx� + cx.
La ecuación homogénea es:
L[x] = 0.
5.2. ECUACIONES DIFERENCIALES LINEALES DE SEGUNDO ORDEN 107
Como queremos que ψ sea solución, deberá cumplirse que L[ψ] = q(t), es decir
(2b2 + 2b1 − 8bo ) + (6b3 + 4b2 − 8b1 )t + (6b3 − 8b2 )t2 − 8b3 t3 , = 6 + t + 4t3 ,
lo cual sucede si y sólo si
(2b2 + 2b1 − 8bo ) = 6 ...(1)
(6b3 + 4b2 − 8b1 ) = 1 ...(2)
(6b3 − 8b2 ) = 0 ...(3)
−8b3 = 4. ...(4)
De (4) tenemos que b3 = − 12 .
Sustituyendo b3 en (3) obtenemos que b2 = 38 .
Luego sustituimos b3 y b2 en (2) y obtenemos que b1 = − 16 5
.
Finalmente, sustituimos b3 , b2 y b1 en (1) y obtenemos que bo = − 47 64
.
Por lo tanto, la solución particular de la ecuación no homogénea L[x] = f (t) es
ψ(t) = − 47
64
5
− 16 t + 38 t2 − 12 t3 .
Finalmente, la solución general de la ecuación ẍ + 2ẋ − 8x = 6 + t + 4t3 es
� �
47 5 3 1
Φ(t) = (k1 e2t + k2 e−4t ) + − − t + t2 − t3 , con (k1 , k2 ) ∈ R2 .
64 16 8 2
Cabe observar que g(t) pudo ser obtenida directamente por variación de parámetros.
El polinomio característico de la matriz que define esta ecuación es p(λ) = λ 2 + 25, y sus raíces son λ1 = 5i y
λ2 = −5i. Hallemos un vector propio f = (f1 , f2 ) asociado al valor propio λ1 . Para ello, resolvemos la siguiente
ecuación
� �� � � �
−5i 1 f1 0
= .
−25 −5i f2 0
De la igualdad anterior se tiene que
−5if1 + f2 = 0
−25f1 − 5if2 = 0.
Si tomamos f1 = 1, entonces f2 = 5i. Así, f = (1, 5i) = (1, 0) + i(0, 5). Luego, las soluciones a la ecuación
diferencial (5.23) son
� � � �� �� �
x(t) 0 1 cos 5t −sen5t k1
=
y(t) 5 0 sen5t cos 5t k2
� �� �
sen5t cos 5t k1
= ,
5 cos 5t −5sen5t k2
y el conjunto de soluciones de la ecuación (5.22) es
φ(t) = k1 sen5t + k2 cos 5t, (k1 , k2 ) ∈ R2 .
Para hallar una solución particular de la ecuación no homogénea
L[x] = ẍ + 25ẋ = et + e3t
resolvamos primero las ecuaciones L1 [x] = et y L2 [x] = e3t . Notemos que estas ecuaciones son del mismo tipo que
analizamos en el caso 2.1, pues ni 1 ni 3 son raíces del polinomio característico; así, ψ 1 (t) = β1 et y ψ2 (t) = β2 e3t
son soluciones de L1 y L2 respectivamente, donde
1 1 1 1
β1 = = y β2 = = .
1(1)2 + 0(1) + 25 26 1(3)2 + 0(3) + 25 34
et e3t
Por consiguiente, ψ1 (t) = 26
y ψ2 (t) = 34
.
Caso (3) L[x] = q(t) eαt . Resolvemos primero la ecuación homogénea L[x] = 0, y para la ecuación no
homogénea proponemos ψ = u(t)eαt . Por lo tanto, como queremos que ψ resuelva L[ψ] = q(t)eαt entonces
calculamos:
ψ(t) = u · eαt
ψ̇(t) = αueαt + u̇eαt
ψ̈(t) = α2 ueαt + 2αu̇eαt + üeαt .
Así,
� �
L[ψ] = eαt a(α2 + 2αu̇ + ü) + b(αu + u̇) + cu
� �
= eαt aü + (2αa + b)u̇ + (aα2 + bα + c)u
= q(t)eαt .
Por lo tanto, tenemos que resolver ahora la ecuación:
aü + (2αa + b)u̇ + (aα2 + bα + c)u = q(t),
que es como el caso (1). En efecto, haciendo A = a, B = 2aα+b y C = aα2 +bα+c. Se tiene, Aü+B u̇+C u = q(t),
que es del tipo de ecuación analizada en el caso (1). En consecuencia, podemos resolver la ecuación para u y
después sustituir el resultado en nuestra propuesta de ψ.
Para encontrar una solución particular de la ecuación L[x] = (3t + 2t 2 ) e2t proponemos a ψ(t) = u(t) e2t . Al
sustituir esta propuesta en L[x] obtenemos que
L[ψ] = ψ̈ − 6ψ̇ + 9ψ
� �
= ü e2t + 4 u̇ e2t + 4 u e2t − 6 u̇ e2t − 12 u e2t + 9 u e2t
= e2t (ü − 2 u̇ + u) = (3t + 2t2 ) e2t
Caso (4) L[x] = k cos µt ó L[x] = k sen µt. Para resolver cualquiera de estos dos casos consideramos la
complejificación del problema. A saber, después de resolver la ecuación homogénea L[x] = 0 consideramos la
ecuación L[x] = eiµt . Para resolver esta ecuación procedemos como en el caso (2). Encontraremos por tanto una
solución compleja ψ(t) = ψ1 (t) + iψ2 (t) que satisface
L[ψ] = L[ψ1 + iψ2 (t)] = eiµt = cos t + isent.
Por linealidad,
L[ψ1 + iψ2 (t)] = L[ψ1 ] + iL[ψ2 (t)].
Por lo tanto,
L[ψ] = L[ψ1 ] + iL[ψ2 (t)] = cos µt + isenµt.
De aquí, L[ψ1 ] = cos µt y por lo tanto ψ1 resuelve el problema. Análogamente para ψ2 se tiene, L[ψ2 ] = senµt.
Nuevamente hay que poner atención a las soluciones de la ecuación homogénea, por lo que habrán de consi-
derarse, como lo hicimos anteriormente, varias posibilidades que a continuación analizamos.
a) Consideremos la ecuación L[x] = aẍ + bẋ + cx = k eiµt y supongamos que iµ no es raíz del polinomio
p(λ) = aλ2 + bλ + c y proponemos a ψ(t) = α eiµt , con α = α1 + iα2 ∈ C. Al sustituir nuestra propuesta
en el operador L[x] obtenemos que
L[ψ] = aψ̈ + bψ̇ + cψ
= −aα µ2 eiµt + bα i µ eiµt + cα eiµt
= α eiµt (c − b iµ − a µ2 ).
Luego, L[ψ] = k eiµt si y sólo si αeiµt (c − b iµ − a µ2 ) = k eiµt , de donde obtenemos que
k
α = α1 + iα2 = ∈ C.
(c − aµ2 ) + i(bµ)
Por lo tanto, podemos expresar a la solución que propusimos de la siguiente manera
ψ(t) = (α1 + iα2 ) eiµt
= (α1 + iα2 ) (cos µt + isenµt)
= (α1 cos µt − α2 senµt) + i(α1 senµt + α2 cos µt)
= ψ1 (t) + i ψ2 (t) ,
donde ψ1 (t) = α1 cos µt − α2 senµt y ψ2 (t) = α1 senµt + α2 cos µt. Ahora observemos que, por un lado
L[ψ] = L[ψ1 + iψ2 ] = L[ψ1 ] + iL[ψ2 ],
y por otro lado
L[ψ] = k eiµt = k cos µt + i ksenµt .
Entonces, se debe cumplir que L[ψ1 ] = k cos µt y L[ψ2 ] = ksenµt; por lo tanto, ψ1 es solución particu-
lar de la ecuación aẍ+bẋ+cx = k cos µt y ψ2 es solución particular de la ecuación aẍ+bẋ+cx = ksenµt.
b) Ahora supongamos que iµ es raíz simple del polinomio aλ2 + bλ + c. Proponemos como solución a
ψ(t) = h(t) eiµt y vamos a buscar la función h con el método de variación de parámetros. Para ello
primero sustituimos ψ en el operador.
L[ψ] = a(ḧ eiµt + 2ḣ iµ eiµt − h µ2 eiµt ) + b(ḣ eiµt + h iµ eiµt ) + c h eiµt
� �
= eiµt a ḧ + ḣ(2aiµ + b) + h(c + biµ − aµ2 )
� �
= eiµt a ḧ + ḣ(2aiµ + b) .
Por lo tanto, A1 = k
2aiµ+b
y así,
� �
kt
ψ(t) = Ao + eiµt .
2aiµ + b
Es claro que Ao eiµt es solución de la ecuación homogénea, por lo que nuestra atención habrá de centrarse
en encontrar las soluciones ψ1 y ψ2 de la expresión
kt
ψ = ψ1 + iψ2 = eiµt .
2aiµ + b
Si escribimos β = β1 + iβ2 = k
2aiµ+b
, entonces
Para hallar una solución particular de la ecuación no homogénea resolvamos primero la ecuación complejificada
L[x] = ẍ + 2ẋ − 24x = 2 ei2t . Notemos que 2i no es raíz del polinomio característico, así que proponemos como
solución a ψ(t) = k ei2t . Al sustituir esta propuesta de solución en el operador L[x] obtenemos lo siguiente
L[ψ] = −24(k ei2t ) + 4i k ei2t ) − 4 k ei2t
= k ei2t (−28 + 4i) .
Dado que la ecuación a resolver es L[x] = 2 ei2t , entonces se tiene k ei2t (−28 + 4i) = 2 ei2t y por lo tanto,
� �
1 1 i
k= =− + .
−14 + 2i 50 100
Ahora sustituimos el valor de k en ψ y desarrollamos para obtener su parte real e imaginaria
� �
1 i
ψ(t) = ψ1 + i ψ2 = − + e2it
50 100
� �
1 i
=− + (cos 2t + isen2t)
50 100
� � � �
− cos 2t sen2t −sen2t cos 2t
= + +i − .
50 100 50 100
� − cos 2t � � �
Por consiguiente, ψ1 = 50
+ sen
100
2t
y ψ2 = −sen50
2t
− cos
100
2t
. Ahora recordemos que por un lado
Así, la solución particular de la ecuación no homogénea que queremos resolver es ψ 2 y la solución general queda
expresada como
� �
� � sen2t cos 2t
Φ(t) = k1 e4t + k2 e−6t − + , (k1 , k2 ) ∈ R2 .
50 100
Caso 5). Los casos L[x] = q(t) cos µt y L[x] = q(t) sen µt son combinación del caso (3) y del caso (4) que
acabamos de analizar.
Movimiento vibratorio sin amortiguamiento y sin fuerza externa. Supongamos ahora que tenemos
un objeto de masa m colgado de un resorte. Decimos que el objeto está en posición de equilibrio si éste se
encuentra en reposo y no hay fuerzas actuando sobre él. Denotamos por cero a la posición de equilibrio de la
masa en el resorte. Supongamos, además, que a la masa se le ha dado un desplazamiento inicial x 0 y una velocidad
inicial v0 (ver figura 5.1).
Figura 5.1
114 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
Nos interesa describir el movimiento de la masa para todo t. Para ello, hacemos dos suposiciones:
La primera es que la masa se mueve a lo largo de una recta vertical que pasa por el centro de gravedad del
objeto (lo que equivale a pensar que se considera una masa puntual). La segunda es que la fuerza ejercida por el
resorte sobre la masa es, en todo tiempo, proporcional a la diferencia de la longitud λ(t) del resorte y su longitud
de equilibrio λ0 . A la constante k de proporcionalidad se le conoce como constante del resorte. Por lo tanto,
F = −k(λ(t) − λ0 ) = −kx(t) .
(a este principio se le conoce como ley de Hooke). Retomando la ecuación que describe la segunda ley de
Movimiento de Newton se tiene
k
(5.27) ẍ = − x
m
Observación 5.14. Si x(t) denota el desplazamiento del resorte desde el punto de equilibrio y consideramos este
desplazamiento como positivo cuando el resorte se está estirando, el signo negativo en la ecuación se debe a que
la fuerza siempre actúa hacia la posición de equilibrio y, por tanto, apunta en sentido contrario al sentido de x.
Por otra parte, la ecuación (5.26) representa también la llamada ecuación del péndulo cuando es sometido a
pequeñas oscilaciones (ver las figura 5.2.)
Figura 5.2.
Para resolver la ecuación (5.26) vamos a descomponerla en un sistema de ecuaciones introduciendo la variable
y = ẋ .
Derivando, ẏ = ẍ = k
−m x.
Así,
ẋ = y
k
ẏ = − x,
m
o, equivalentemente,
� � � �� �
ẋ 0 1 x
(5.28) = k .
ẏ −m 0 y
�
Las raíces del polinomio característico de esta ecuación son ±iw, donde w : = k
m
.
Si consideramos la complejificación de la matriz
� �
0 1
2 ,
−w 0
es decir, si la consideramos como una matriz de C2 en sí mismo, calcular el vector propio fC de la complejificación
asociado a iw se reduce a encontrar el vector fC = (f11 , f12 ) ∈ C2 tal que
� �� � � �
0 1 f11 f11
2 = iw .
−w 0 f12 f12
Equivalentemente,
� �� �
−iw 1 f11
= 0.
−w2 −iw f12
De aquí, fC = (f11 , f12 ) = (1, iw) es un vector propio. Separando este vector en su parte real e imaginaria se tiene
fC = (1, 0) + i(0, w) .
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 115
Definimos u : = (1, 0) y v : = (0, w). Claramente {v, u} forman una base de R2 y la matriz
� �
0 1
P=
w 0
transforma los vectores canónicos de R2 , e1 = (1, 0), e2 = (0, 1) en los vectores v, u. Como vimos en la sección 4.4
la ecuación (5.28) en la base {v, u} se escribe como
� � � �� �
ż1 0 −w z1
= ,
ż2 w 0 z2
y su solución está dada por
� � � �� �
z1 (t) cos wt − sen wt c1
= ,
z2 (t) sen wt cos wt c2
donde c1 , c2 son constantes reales. Por consiguiente, la solución en las coordenadas (x, y) está dada por
� � � �� �� �
x(t) 0 1 cos wt − sen wt c1
= .
y(t) w 0 sen wt cos wt c2
Es decir,
� � � �� �
x(t) senωt cos ωt c1
=
y(t) ω cos ωt −ωsenωt c2
� �
c1 senωt + c2 cos ωt
= .
c1 ω cos ωt − c2 ωsenωt
Figura 5.3.
Finalmente,
x(t) = c1 sen(wt) + c2 cos(wt)
y(t) = w(c1 cos(wt) − c2 sen(wt)) ,
�
con x(0) = c2 , y(0) = x (0) = ωc1 . Haciendo uso de las condiciones iniciales x(0) = x0 y y(0) = v0 y del hecho
de que y(t) representa la velocidad de x(t) al tiempo t, (y(t) = ẋ(t)), encontramos que
v0
c 2 = x 0 , c1 = .
w
Por lo tanto,
�v �
0
x(t) = x0 cos wt + sen wt .
w
Ver figura 5.3
Para hacer el retrato de las fases en las coordenadas (x, y) recordamos que det P < 0. Así, no es difícil con-
vencerse de que las imágenes en la figura 5.4, representan, respectivamente, los comportamientos de las soluciones
en el retrato de las fases y el retrato de las fases extendido.
Para comprender mejor el comportamiento de x(t) consideraremos su gráfica � con respecto a t. Para ello,
� �2
denotamos por r 2 = c21 + c22 , donde − c1 = rsenφ, c2 = r cos φ; es decir, r = x20 + vw0 y tan φ = −xv00 w (ver
figura 5.5).
x(t) = c1 senωt + c2 cos ωt
(5.29)
= −rsenφ · senωt + r cos φ · cos ωt
116 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
Figura 5.4.
Figura 5.5
Movimiento vibratorio amortiguado y sin fuerza externa. Vamos a considerar ahora el mismo fenó-
meno de antes, pero supongamos ahora que se tiene una fuerza de amortiguamiento que el medio circundante
ejerce sobre la masa (esta fuerza es la acción de resistencia al movimiento que oponen medios como el agua, el
aire o el aceite). Esta acción actúa en sentido opuesto al movimiento y puede ser considerada como proporcional
a la velocidad dxdt
(por ejemplo, mientras más lento es un movimiento la resistencia del aire es menor). Así, si
denotamos por b a dicha constante de proporcionalidad, la fuerza de amortiguamiento es − b dx dt
.
La ecuación del movimiento vibratorio amortiguado es, por consiguiente,
d2 x dx
m = −b − kx .
dt dt
Haciendo, como antes, y = dx
dt
, se tiene la ecuación diferencial
� � � �� �
ẋ 0 1 x
= k b .
ẏ −m −m y
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 117
Figura 5.6
Figura 5.7. Comportamiento de la curva x(t) = reµt cos(νt + φ). Esta curva oscila y se
encuentra delimitada entre las curvas reµt y −reµt , donde µ = − 2m
b
.
√
−b± b2 −4ac
En resumen: si la ecuación es de la forma ax�� + bx� + c = 0, con a, b, c > 0, entonces λ = 2a
y
siempre se tiene que Re(λ) < 0 . Por esta razón x(t) → 0.
a) Si Im(λ) = 0, entonces x(t) → 0 sin oscilar.
b) Si Im(λ) �= 0, entonces x(t) → 0 oscilando.
Ver la figura 5.8.
Figura 5.8.
Ejercicios 5.15. Resuelve, grafica y compara las ecuaciones de los incisos a) y b).
a): La ecuación del péndulo (con pequeñas oscilaciones)
ẍ = −kx , k > 0,
donde ẍ es el ángulo bajo el cual el péndulo se desvía de la vertical (ver figura 5.9). Cabe subrayar
nuevamente que este modelo es válido sólo para el caso de pequeñas oscilaciones.
Figura 5.9
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 119
b): La ecuación del péndulo invertido (con pequeñas oscilaciones). Nuevamente, el valor de x representa el ángulo
bajo el cual el péndulo se desvía de la vertical (ver figura 5.10).
ẍ = x .
Figura 5.10
Por lo tanto, haciendo uso de las identidades en (5.29) y (5.30), la solución general está dada por
1
x(t) = r cos(θ + ωt) + ω2 −α 2 cos αt.
Si |ω 2 −α2 | � 1 (i.e. si α2 y ω 2 son muy cercanos) se forman pulsos (ver figura 5.11). Esto se debe a
que se están sumando dos movimientos oscilatorios con frecuencias muy cercanas, uno representado por
la solución de la ecuación homogénea y el otro por la solución particular de la ecuación no homogénea.
Las crestas y valles de cada una de las curvas que los representan se suman durante un largo tiempo
y se van desfasando muy poco a poco, mientras que una vez estando desfasados, las ondas formadas
por las crestas de una y los valles de la otra (y viceversa) logran casi cancelarse unos a otros también
durante largo tiempo; esto se va repitiendo formando el fenómeno conocido como pulsos.
Figura 5.11. Fenómeno de pulsos formado por la suma de una solución de la ecuación ho-
mogénea con la solución particular de la ecuación no homogénea en el caso en el que ω 2 y α2
son muy cercanos.
120 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
Figura 5.12. Posible gráfica de la suma de una solución de la ecuación homogénea con la
solución de la ecuación no homogénea, cuando α2 y ω 2 no son cercanos.
ψ(t) = u · eiωt
ψ̇(t) = iωueiωt + u̇eiωt
ψ̈(t) = ueiωt · (−ω 2 ) + 2u̇iωeiωt + üeiωt .
Así, deberá satisfacerse
� �
L[ψ] = eiωt −ω 2 u + 2iω u̇ + ü + ω 2 u
= eiωt (ü + 2iω u̇)
= eiωt .
Por lo tanto, ü + 2iω u̇ = 1. Proponemos u(t) = kt + c, por lo que u̇ = k, ü = 0. Así, 2iω · k = 1 y
−i
despejando el valor de k se tiene, k = . Por consiguiente,
2ω
�
−it iωt � −it t
ψ(t) = e = cos ωt + senωt
2ω 2ω 2ω
.
Como queremos resolver ẍ + ω 2 x = cos ωt consideramos la parte real de la solución:
t
ψ1 (t) = Re ψ(t) = senωt
2ω
.
Hacemos notar que las ondas crecen con t. Esto lleva a un comportamiento de la solución ψ 1 como se
muestra en la figura 5.13.
Figura 5.13.
5.3. EJEMPLOS SENCILLOS DE VIBRACIONES MECÁNICAS. 121
Movimiento oscilatorio amortiguado y con fuerza externa. Este último caso es sencillo de resolver si
se toma en cuenta lo que hemos estado analizando en los casos previos. Por ejemplo, consideremos la ecuación
√
−b ± b2 − 4c
(5.31) x�� + bx� + cx = 3senωt, b, c > 0, λ= , λ = −α + iβ α �= 0.
2
Lo primero a observar es que la solución ϕ de la ecuación homogénea es una solución que se amortigua cuando
t tiende a infinito pues Re(λ) < 0. A ésta se le suma una solución particular ψ de la ecuación no homogénea, que
es oscilante, periódica (ver figura 5.14). Si t → ∞, entonces |ϕ(t)| → 0, por lo que z(t) = ϕ(t) + ψ(t) tiene, al
Figura 5.14.
Figura 5.15.
122 5. ECUACIONES DIFERENCIALES LINEALES DE PRIMER ORDEN NO HOMOGÉNEAS
(2) Encuentra, por variación de parámetros, las soluciones de las ecuaciones siguientes:
(3) Sin usar variación de parámetros encuentra la solución general de las siguientes ecuaciones:
a3 x��� + a2 x�� + a1 x� + ao x = 0, a3 �= 0.
(5) ¿Bajo qué condición sobre los coeficientes de la ecuación del ejercicio anterior se puede afirmar que el
flujo de la ecuación conserva el volumen? Justifica bien tu respuesta.
(6) Responde a la misma pregunta para una ecuación diferencial lineal homogénea de orden n?
Ecuaciones integrables
Tal vez una de las cosas que más sorprenden al iniciar el estudio de las ecuaciones diferenciales es encontrarse
con que sólo ecuaciones pertenecientes a un subconjunto relativamente pequeño de éstas pueden ser resueltas
explícitamente. Ante tal perspectiva, uno quisiera tener otras formas de analizar a las ecuaciones diferenciales;
a saber, no sólo desde el punto de la existencia local de sus soluciones, problema que es resuelto por el teorema
de existencia y unicidad, sino de una forma global como en el caso de las ecuaciones diferenciales lineales, o
por lo menos semi-global. Esta posibilidad de ir un poco más allá nos la dan las ecuaciones conocidas como
ecuaciones integrables y, en particular, las ecuaciones hamiltonianas. Sin embargo, si bien se habrá de tener
en muchos casos una información global del retrato de las fases de este tipo de ecuaciones, habremos de perder
generalmente la posibilidad de encontrar parametrizaciones explícitas. Las ecuaciones diferenciales hamiltonianas
(W.R. Hamilton1, 1833) tienen su origen en la física (ver [Ar.3]) y se relacionan, al igual que las de I. Newton
(1686), con las ecuaciones de movimiento de partículas que son sometidas a fuerzas diversas. En particular, una
función proveniente de una ecuación hamiltoniana se caracterizará por ser constante a lo largo de las soluciones;
en física, esta propiedad significa que a lo largo de las soluciones el nivel de energía de un fenómeno se mantiene
constante.
El hecho de que las ecuaciones hamiltonianas sean en cierto sentido más sencillas de entender que otras que
no lo son, hace que sean consideradas muchas veces como un punto de partida para la teoría de bifurcaciones. Si
se tiene una ecuación hamiltoniana es muy sencillo considerar una ligera perturbación de sus coeficientes y obtener
como resultado una ecuación no hamiltoniana cercana. El analizar qué características se conservan y cuáles son
modificadas sustancialmente después de la perturbación y cómo, son preguntas que pueden ser muy complejas y
que aún siguen siendo activamente exploradas desde perspectivas distintas.
1William R. Hamilton (Dublín, 1805-1865) fue un matemático, físico, y astrónomo irlandés, que dominaba entre otros idiomas,
el árabe, el persa, hindustaní, malayo y sánscrito. Se le conoce, entre otras cosas, por sus contribuciones en mecánica (conocida
como mecánica hamiltoniana) y por la noción y desarrollo de los números cuaterniones.
167
168 8. ECUACIONES INTEGRABLES
Figura 8.1.
Es inmediato observar, por lo que acabamos de ver, que toda función H dos veces continuamente diferenciable
en un abierto cualquiera de R2 induce una ecuación hamiltoniana. Es natural entonces retomar la pregunta sobre
la existencia de algún criterio que nos permita caracterizar a una ecuación hamlltoniana.
Observación 8.2. Observemos que una condición necesaria para que un campo vectorial sea hamiltoniano es que
Ax = −By (pues al ser el campo vectorial (8.3) continuamente diferenciable debe satisfacerse que H xy = Hyx ).
Ejemplo 8.3.
ẋ(t) = y = Hy
(8.4)
ẏ(t) = x = −Hx
Observemos que Hyx = Hxy = 0. Las expresiones Hy = y y −Hx = x nos permiten, integrando, recuperar a la
función H. En efecto, si integramos Hy = y con respecto a la variable y se tiene
�
y2
H(x, y) = y dy + h(x) = + h(x),
2
donde h(x) es una función de x que no recuperamos mediante la integración por y pero que podría estar presente
en la expresión de H. Para determinar quién es esa posible función integramos ahora la expresión H x = −x
�
x2
H(x, y) = −x dx + k(y) = − + k(y),
2
donde k(y) es ahora la función de y que no podemos recuperar bajo la integración por x que hemos realizado.
2 2
Así, de ambas expresiones de H obtenidas se tiene que h(x) = − x2 y k(y) = y2 . Por lo tanto,
x2 y2
H(x, y) = − +
2 2
es la función buscada. 2
2
Para recuperar el retrato de las fases podemos considerar las curvas de nivel de H, H(x, y) = − x2 + y2 = c.
Las hipérbolas de esta familia están parametrizadas por las curvas de fase de la ecuación diferencial. En efecto,
si analizamos el campo vectorial que define a la ecuación (8.4) podemos observar que la matriz asociada tiene
polinomio característico p(λ) = λ2 − 1. Por consiguiente, los valores propios son λ1 = 1 y λ2 = −1. Dos vectores
propios correspondientes a λ1 = 1 y λ2 = −1 son f1 = (1, 1) y f2 = (−1, 1). El retrato de las fases corresponde al
de un punto singular de tipo silla en el plano y el retrato de las fases es el dado por las hipérbolas cuyas direcciones
asintóticas coinciden con las direcciones marcadas por los vectores propios f 1 = (1, 1) y f2 = (−1, 1) (ver figura
8.1. ECUACIONES HAMILTONIANAS 169
8.2). Las direcciones de recorrido de las curvas en la figura 8.2 indican cómo están parametrizadas las curvas de
nivel de H, y se obtienen directamente del campo vectorial.
2 y2
Figura 8.2. Curvas de nivel de la función H(x, y) = − x2 + 2
= c que son parametrizadas
por las soluciones de la ecuación (8.4).
En la observación 8.2 hicimos notar que la condición Ax = −By es necesaria para que una ecuación del tipo
(8.2) sea hamiltoniana. Cabe entonces preguntarse si dicha condición es también suficiente para la existencia de
una función dos veces continuamente diferenciable H tal que H(ϕ(t)) = H(x(t), y(t)) = c, donde ϕ(t) es solución
de la ecuación (8.2). El siguiente teorema nos da la respuesta a esta pregunta.
Observación 8.5. Supongamos que la ecuación diferencial (8.5) definida en el abierto U ⊆ R 2 es hamiltoniana.
Sea H : U → R la función de clase C2 (U ) que satisface A = Hy , B = −Hx .
Consideremos una curva γ = (γ1 , γ2 ) definida en el intervalo [a, b] ⊆ R, con imagen en U de clase C1 en el
intervalo abierto (a, b). Entonces, como consecuencia del teorema fundamental del cálculo tenemos:
� b
d (H ◦ γ)
H(γ(b)) − H(γ(a)) = (s) d s
a ds
� b
� �
= Hx |γ(s) γ1� (s) + Hy |γ(s) γ2� (s) d s
a
� b� �
= −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s .
a
� b� �
En particular, si γ es un lazo (i.e., γ(a) = γ(b)) entonces la integral a −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s es
igual a cero. Es decir, H(γ(b)) − H(γ(a)) = 0.
Consideremos ahora el caso particular en el que la curva γ parametriza una parte del rectángulo determinado
por sus extremos γ(a) = (x0 , y0 ) y γ(b) = (x, y), siendo éstos vértices opuestos (ver la figura 8.3). Concretamente,
supongamos que existe c ∈ [a, b], de tal modo que en [a, c] la curva γ recorre el segmento que une (x 0 , y0 ) con
170 8. ECUACIONES INTEGRABLES
(x, y0 ) (i.e., γ2 (r) = y0 si r ∈ [a, c]), y en [c, d] recorre el segmento que une (x, y0 ) con (x, y) (i.e., γ1 (r) = x si
r ∈ [c, b]). Dicha parametrización se ilustra en la figura 8.3.
Por lo tanto,
� c � b
(8.7) H(γ(b)) − H(γ(a)) = −B(γ(s)) γ1� (s) d s + A(γ(s)) γ2� (s) d s .
a c
Figura 8.3.
Observación 8.6. Aquí consideramos a la ecuación definida en una región rectangular U . En realidad no es
necesario que la región sea de este tipo, sino que lo importante es que sea una región simplemente conexa 2.
Justo en esa propiedad radica que la integral no dependa de la trayectoria elegida al momento de hacer la
integración. Así, si se tiene una ecuación como en (8.5) y se sabe que está definida en una región simplemente
conexa U donde Ax = −By , entonces existe una función H ∈ C2 (U ) tal que Hy = A y −Hx = B, como veremos
enseguida.
Consideramos (x0 , y0 ) un punto en U . Dado un punto (x, y), existe una curva γ = (γ1 , γ2 ) : [a, b] → U de
clase C1 (a, b), que comienza en (x0 , y0 ) y termina en (x, y), γ(a) = (x0 , y0 ), γ(b) = (x, y). Entonces, motivados
por la observación 8.5, definimos
� b
� �
H(x, y) := −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s .
a
Pero, ¿por qué H está bien definida?, ¿por qué el valor H(x, y) no depende de la curva elegida γ? Esto se
debe a que, al ser U una región simplemente conexa, cualquier lazo τ = (τ1 , τ2 ) : [α, β] → R en (x0 , y0 ) (i.e.,
τ (α) = τ (β) = (x0 , y0 )) se puede deformar continuamente al punto (x0 , y0 ). En consecuencia, la integral definida
en los lazos es igual a cero:
� β
� �
−B(τ (s)) τ1� (s) + A(τ (s)) τ2� (s) d s = 0 .
α
Así, si se tiene una ecuación como en (8.5) y se sabe que ésta está definida en una región simplemente
conexa y satisface que Ax = −By , entonces existe una función H ∈ C2 (U ) tal que Hy = A y −Hx = B. Para
encontrar explícitamente cómo es la función H bastará con integrar H x y Hy con respecto a las variables x y y
respectivamente: � �
H(x, y) = Hy dy + h(x) = A dy + h(x)
� �
H(x, y) = Hx dx + k(y) = −B dx + k(y).
Esto nos da dos expresiones de H de las cuales podemos recuperar los valores específicos de las funciones h(x) y
k(y).
Ejemplo 8.7. Consideremos la ecuación definida por el campo vectorial v(x, y) = (A(x, y), B(x, y))
ẋ = A(x, y) = x sen y
,
ẏ = B(x, y) = cos y
con (x, y) ∈ R2 . Si calculamos las parciales Ax y By se tiene, Ax = sen y = −By . Así, existe una función
H ∈ C2 (U ) tal que Hy = A y −Hx = B. Para encontrar explícitamente cómo es la función H bastará con integrar
Hx y Hy con respecto a las variables x y y respectivamente:
� �
H(x, y) = Hy dy + h(x) = x sen y dy + h(x) = −x cos y + h(x)
2Un espacio topológico X es simplemente conexo cuando es conexo por caminos y su grupo fundamental es el grupo trivial.
De forma equivalente, un espacio topológico X es simplemente conexo si es conexo por caminos y todo lazo γ en X puede ser
deformado continuamente en X a un punto.
8.1. ECUACIONES HAMILTONIANAS 171
� �
H(x, y) = Hx dx + k(y) = − cos y dx + k(y) = −x cos y + k(y).
Esto nos da dos expresiones de H de las cuales podemos recuperar los valores específicos de las funciones h(x)
y k(y). En este caso, h(x) = k(y) = 0. Por consiguiente, H(x, y) = −x cos y. Las curvas de nivel de la función
H nos permiten recuperar el retrato de las fases de la ecuación. Observemos primero que los puntos singulares
de la ecuación diferencial se encuentran contenidos en el eje y como (0, kπ + π2 ). Para éstos calculamos la matriz
derivada del campo vectorial. Esta es:
a) Para k entero par.
� � � �
sen y x cos y 1 0
D(0,kπ+π/2) v = = .
0 − sen y (0,kπ+π/2) 0 −1
b) Para k entero impar.
� � � �
sen y x cos y −1 0
D(0,kπ+π/2) v = = .
0 − sen y (0,kπ+π/2)
0 1
En ambos casos se tienen puntos silla de la ecuación definida por la parte lineal del campo vectorial en los
puntos singulares. Por el teorema de Grobman-Hartman la ecuación original tiene también, en esos puntos,
singularidades de tipo silla. Si hacemos uso de esta información sobre los puntos singulares y de la expresión
explícita que obtuvimos de la función H, podemos recuperar el retrato de las fases de la ecuación. Éste está dado
como se indica en la figura 8.4.
Figura 8.4. Retrato de las fases de la ecuación (8.7) que se corresponde con las curvas de nivel
de la función H(x, y) = −xcosy.
Se invita al lector a construir la superficie cuyas curvas de nivel son las indicadas por el retrato de las fases
en la figura 8.4 y comparar con la figura 8.5.
Figura 8.5. Superficie asociada a la función H(x, y) = −xcosy. Los cortes a alturas fijas
z = cte se corresponden, en el plano (x, y), con las curvas de nivel de H y forman el retrato de
las fases de la ecuación (8.7) que se representó en la figura 8.4.
Observación 8.8. Si aplicamos el teorema 10.30 de Liouville a este ejemplo, podemos observar cómo es que el
área se conserva. En efecto, en la figura 8.6 se representa lo que sucedería con el área de una pequeña bola que
172 8. ECUACIONES INTEGRABLES
se deja fluir a lo largo de las soluciones. Ésta se abre en una especie de "bigote" que se irá estirando conforme el
tiempo t transcurra positivamente, pero siempre conservando el área de la bola.
Figura 8.6. Al ser una ecuación hamiltoniana, el área de la figura sombreada circular se
conserva al transcurrir el tiempo y ser deformada con el flujo formando en este caso la figura
sombreada de "bigote".
Ejemplo 8.9. Consideremos la ecuación definida por el campo vectorial v(x, y) = (A(x, y), B(x, y))
x
ẋ = A(x, y) = x2 +y 2
y
ẏ = B(x, y) = x2 +y 2
,
En particular, consideremos el lazo γ(s) = (r cos s, r sen s), s ∈ [0, 2πn], con n ∈ N \ {0} (o bien, s ∈ [2πn, 0],
si −n ∈ N \ {0}). El lazo γ parametriza a la circunferencia de radio r centrada en el origen y la recorre n veces en
sentido positivo (o −n veces en sentido negativo, si n < 0). Así, se tiene γ � (s) = (−r sen s, r cos s). Por lo tanto,
r sen s
B(γ(s)) γ1� (s) = (−r sen s) = −(sen s)2 ,
(r cos s)2 + (r sen s)2
r cos s
A(γ(s)) γ2� (s) = (r cos s) = (cos s)2 ;
(r cos s)2 + (r sen s)2
en consecuencia, si n ∈ N � {0}
� 2πn � �
0= −B(γ(s)) γ1� (s) + A(γ(s)) γ2� (s) d s
0
� 2πn � 2πn
� �
= (sen s)2 + (cos s)2 d s = 1ds
0 0
= 2πn ,
Esto nos lleva a una contradicción (observe que si n < 0, obtenemos exactamente el mismo resultado en la integral).
Por lo tanto, la ecuación no es hamiltoniana. De aquí que sea un hecho sustancial el que en la demostración del
teorema 8.4 se haya considerado una región simplemente conexa (ver disgresión en el apartado 8.2).
� �
∂ −x1 −2x1 x2
= .
∂x2 x21 + x22 (x21 + x22 )2
Por lo tanto,
div v = 0 .
Sin embargo, el campo no tiene integral primera ya que no está bien definido en (0, 0); es decir, la integral
� �
x1 x2
dx 1 + dx2
x21 + x22 x21 + x22
sí depende de la trayectoria. Sucede aquí algo interesante pues si bien la ecuación satisface que la divergencia del
campo vectorial que la define es cero, hay una obstrucción para definir una integral primera en toda región que
contenga al punto (0, 0). De algún modo que aquí sólo decimos de manera heurística, el proceso de integración
detecta que hay un hueco en la región. Este es el punto medular de la cohomología de De Rham (se recomienda
ver el capítulo 6 del libro [Ar.3], así como [T], [Spi-1], [N]}).
8.1. ECUACIONES HAMILTONIANAS 177
Ejemplo 8.14.
ẋ(t) = y = A(x, y)
(8.11)
ẏ(t) = − sen x = B(x, y)
Observemos que Ax = −By = 0. Ahora integramos
�
y2
H(x, y) = y dy + h(x) = + h(x)
2
�
H(x, y) = sen x dx + k(y) = − cos(x) + k(y)
y2
Así, h(x) = − cos x y k(y) = 2
. Por lo tanto,
y2
− cos x.
H(x, y) =
2
Encuentra el retrato de las fases de esta ecuación analizando las curvas de nivel de la superficie definida por
la función H.
8.1. ECUACIONES HAMILTONIANAS 181
Lema 8.16. En ecuaciones hamiltonianas no existe un subconjunto abierto de soluciones que se acumulen a un
punto singular o a una órbita periódica.
Demostración. Sea
ẋ = Hy (x, y)
(8.13)
ẏ = −Hx (x, y) ,
una ecuación hamiltoniana. Supongamos que existe un subconjunto abierto U ∈ R 2 y un subconjunto S : =
{ϕ(t, p), p ∈ U, t ∈ [0, ∞)} de soluciones de la ecuación (8.13) que tienen la propiedad de que se acumulan a un
punto ξ del plano, ξ �∈ U ; es decir,
lim ϕ(t, p) = ξ ,
t→∞
para todo p ∈ U . Si aplicamos H a ambos lados de esta igualdad, se tiene
lim H(ϕ(t, p)) = H(ξ) ,
t→∞
para todo p ∈ U . Si H(ξ) = c = cte, por continuidad, toda solución en S deberá satisfacer que H(ϕ(t, p)) = c
para toda t ∈ [0, ∞)}; en particular, para el conjunto U se satisface también que H(U ) = c. Así,la ecuación
diferencial (8.13), restringida a U es la ecuación idénticamente cero; es decir, la ecuación (8.13) tiene a todos los
puntos del subconjunto U como puntos singulares. Esto contradice el que las soluciones con condición inicial en
U tiendan al punto ξ si t tiende a infinito. La demostración en el caso de una órbita periódica es análoga. �
192 8. ECUACIONES INTEGRABLES
Si la ecuación
�
ẋ = A(x, y)
(8.19) v(x, y), (x, y) ∈ R2 .
ẏ = B(x, y)
no es hamiltoniana, buscamos una función µ = µ(x, y) ∈ C1 que no se anule en el dominio de definición de la
ecuación (o lo haga sólo en los puntos singulares de v) tal que
ẋ = µ · A(x, y)
(8.20)
ẏ = µ · B(x, y)
sí sea hamiltoniana.
Observación 8.28. Hacemos notar que lo que estamos cambiando es la velocidad y/o el sentido, pero no la
dirección. Por consiguiente, las dos ecuaciones tienen que tener el mismo retrato de las fases.
Ejemplo 8.29.
ẋ = x
(8.21)
ẏ = x2 + y .
Esta ecuación no es hamiltoniana pues Ax �= −By . Por lo tanto, buscamos una función µ tal que al multiplicarla
por el campo vectorial que define a la ecuación (8.21) sí se tenga una ecuación hamiltoniana cuyo retrato de las
fases coincida con el de la ecuación original.
x·µ = Hy
(x2 + y) · µ = −Hx .
Si dicha µ existe, deberá satisfacer
(µx x + µ) = −µy (x2 + y) + µ.
µx
Supongamos que µy = 0, entonces µx x − µ = −µ y 2µ = −µx x. Así, µ
= − x2 . Integrando ln µ = −2 ln x y
µ(x) = x−2 .
Por lo tanto, la ecuación obtenida es
1
ẋ = = Ã
(8.22) x
ẏ = 1 + xy2 = B̃
y ésta cumple Ãx = −B̃y .
Así, si omitimos el eje {x = 0}, la ecuación es hamiltoniana en el semiplano izquierdo y en el semiplano
derecho, y por lo tanto, existe H1 : R+ × R −→ R tal que H1 es constante a lo largo de las soluciones de (8.22)
para (x, y) ∈ R+ × R. �
1 y
H1 (x, y) = dy = + k(x)
x x
�
y y
H1 (x, y) = (1 + 2 ) dx = −x + + h(y).
x x
8.1. ECUACIONES HAMILTONIANAS 193
Por consiguiente,
y
H1 (x, y) = −x + .
x
Las curvas de nivel son H1 (x, y) = c. Así, para c = 0 se tiene
x2 − y = 0 , es decir, y = x2 .
Y para c �= 0 se tiene
x2 − y = cx , es decir, y = x(x − c).
Para el semiplano izquierdo el análisis es el mismo y obtenemos una función H2 : R− × R −→ R que se define
como H1 pero cuyo dominio es R− .
Para recuperar el retrato de las fases observamos que las curvas de nivel son parábolas y pasan siempre por
el punto x = 0 y por el punto x = c. Como el valor de c va cambiando, la parábola correspondiente se ve como
una parábola anclada en x = 0 y con un extremo que cambia según sea el valor de c. Para guiarnos en el bosquejo
del retrato de las fases observamos, haciendo uso de la información del campo vectorial (8.21), que en a lo largo
de la curva auxiliar y = −x2 el campo vectorial (8.21) es horizontal; por lo tanto se tiene el retrato de las fases
que se observa en la figura 8.24.
Sabemos que un nodo repulsor no puede existir en una ecuación hamiltoniana y pareciera, al ver el retrato
de las fases obtenido, que hemos llegado a un sinsentido. Hacemos notar, sin embargo, que no hay contradicción
alguna pues justamente los puntos del eje y no podían ser considerados, ya que a lo largo de éstos la función
y = x−2 no está definida. Así, la información de lo que sucede en el eje y se obtiene la directamente del campo
vectorial original. Con esto finalizamos el análisis y queda justificado el retrato de las fases obtenido.
Ejercicio 8.30. Encuentra el retrato de las fases de la siguiente ecuación haciendo uso de lo que hemos visto a
lo largo de este capítulo.
ẋ = −3x2 − y 2
ẏ = 2xy .
El siguiente ejemplo tiene su origen en el análisis que el matemático italiano, Vito Volterra (1860 − 1940) y,
de manera independiente, el matemático norteamericano Alfred J. Lotka (1880 − 1949) realizaron en relación al
comportamiento de dos especies que coexisten en un mismo ambiente. Antes de ver el ejemplo, hagamos un alto
para saber un poco sobre sus biografías.
En los años posteriores a la Primera Guerra Mundial, Vito Volterra establece un modelo matemático después
de observar el comportamiento que tenían un par de especies –sardinas y tiburones– en el mar Adriático.
Como resultado de sus estudios sobre este fenómeno, Vito Volterra fue invitado por Emile Borel (1871-1956),
en el semestre de 1928-1929, a dictar un curso en el Instituto Henri Poincaré de París. Este curso sobre la
lucha por la supervivencia dio origen a la publicación Leçons sur la théorie mathématique de la lutte pour la
vie, compilada por Gaston Julia y editada por Gauthier-Villars en 1931. El curso fue de los primeros cursos de
matemática aplicada al estudio de la biología, temática que posteriormente se denominaría biomatemática. Las
ideas de Volterra encontraron tal resonancia en el medio académico, que se documentan alrededor de 400 cartas
de científicos en el mundo, mismas que se conservan hasta nuestros días en la Accademia del Lincei en Roma. En
particular, destaca el intercambio epistolar de 68 cartas entre Volterra y el científico ruso Vladimir A. Kostitzin
(ver [I-M]).
194 8. ECUACIONES INTEGRABLES
Asimismo, cabe destacar que en noviembre de 1931, Volterra fue uno de los doce académicos, entre alrededor
de mil doscientos cincuenta académicos universitarios italianos, que se negó a firmar una carta de lealtad a
Mussolini. Como resultado, Volterra fue suspendido de su cargo en la Universidad de Roma y tuvo que partir al
extranjero 3.
Por otra parte, y desde una perspectiva distinta, el matemático y estadístico austro-húngaro Alfred J. Lotka
(1880-1949) se interesa también por la dinámica de las poblaciones. Lotka realiza sus estudios en la Universidad
de Cornell (Estados Unidos) y en la Universidad de Birmingham (Reino Unido). En 1925 publica lo que algunos
consideran como una de las primeras obras de matemáticas aplicadas a biología, Elements of physical biology, en
el que generaliza los trabajos de Pierre-François Verhulst sobre dinámica de poblaciones.
Pasemos ahora al modelo depredador-presa definido por la ecuación de Lotka-Volterra para un caso -hipotético
para los datos del problema pero real como fenómeno- en la zona lacustre en Xochimilco. Quien esté interesado
en saber más sobre este tema puede consultar, entre otras fuentes, el breve documental de UNAM Global, relativo
al rescate de los ajolotes y el ecosistema chinampero de la Ciudad de México 4.
Ejemplo 8.31 (Ecuación de Lotka-Volterra o depredador-presa.). Vamos a analizar un modelo en el que dos
poblaciones coexisten en cierto medio. Para fijar ideas suponemos que se trata de un caso, no necesariamente
cierto, de ajolotes y carpas en el lago de Xochimilco. Suponemos que una de las especies, x -ajolotes-, en ausencia
de cualquier otra especie, crece a una velocidad proporcional al número de pobladores presentes: ẋ = αx. Sin
embargo, en el medio habita otra especie, y –carpas–, que tiene como único alimento a la especie x. La velocidad
con que la especie y se come a la especie x es proporcional al número de encuentros entre las dos especies. Así,
la velocidad de crecimiento de x, está determinada por la ecuación
ẋ = αx − βxy , α > 0, β > 0 .
Por otra parte, se sabe que la especie y tiene como único alimento a la especie x (esto no sucede necesariamente
en el caso de las carpas pero vamos a suponerlo para este modelo). Así, la especie y muere, en ausencia de la
especie x, a una velocidad proporcional a la cantidad de pobladores: ẏ = −γy. Sin embargo, en presencia de la
especie x, la especie y crece a una tasa de proporcional a la cantidad de pobladores x que logra comerse: δxy.
Así, la velocidad de crecimiento de y está dada por la ecuación
ẏ = −γy + δxy , γ > 0, δ > 0 .
A la especie y la denominamos depredador y a la especie x, presa. De tal modo, hemos llegado al modelo
más simple de depredador-presa, conocido como modelo de Lotka-Volterra:
�
ẋ = αx − βxy
(8.23) v α, β, γ, δ > 0.
ẏ = −γy + δxy
Por tratarse de un modelo de población, éste tiene sentido sólo para los valores de x y y en el primer
cuadrante del plano: x ≥ 0, y ≥ 0. Lo primero que observamos es que no es hamiltoniana pues A x �= By . Los
puntos singulares de la ecuación son p = (0, 0), q = (γ/δ, α/β). El primer punto corresponde al momento en que
hay ausencia total de pobladores, y el segundo punto corresponde a un equilibrio entre las tasas de crecimiento
de las dos poblaciones.
Encuentra el retrato de las fases de la ecuación.
3ver CNRS Images des Mathématiques, Y yo, ¿habría firmado?, Michèle Audin, traducción al español, Andrés Navas,
http://images.math.cnrs.fr/Y-yo-habria-firmado.html?lang=fr
4el enlace a este reportaje y documental es https://unamglobal.unam.mx/la-unam-acude-al-rescate-del-ajolote-en-xochimilco/