Está en la página 1de 225

Ecuaciones Diferenciales

Por:
Andrés Mauricio Rivera

Ponticia Univesidad Javeriana


Cali
Índice general

1. Introducción a las Ecuaciones Diferenciales 1


1.1. Campos de Direcciones e interpretación geométrica de las ecuaciones diferenciales
x0 = f (t, x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2. Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.3. Crecimiento Poblacional y Aplicación en Medicina . . . . . . . . . . . . . . . . . 16

1.3.1. Dosicación de Medicamentos . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.3.2. Nivel de Acumulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2. Métodos de integración básicos 25


2.1. Ecuaciones Separables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.2. Ecuaciones Homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.4. Ecuaciones Diferenciales Exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5. Factores Integrantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.6. Ejecicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3. Cambio de coordenadas y cambio de variables 51


3.1. Cambio de Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3.2. Cambio de Variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

4. Ecuación Lineal homogénea de primer orden 65

5. Algunas aplicaciones de las ecuaciones lineales de primer orden 73


5.1. En Medicina (Absorción de medicamentos) . . . . . . . . . . . . . . . . . . . . . . 73

5.2. En Física (Problema de un cuerpo de masa variable) . . . . . . . . . . . . . . . . 75

5.3. En el Mundo del Deporte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

5.4. En economía (Walrasian Tâtonnement Process) . . . . . . . . . . . . . . . . . . . 77

5.5. En mecánica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

i
ÍNDICE GENERAL

5.6. En ingeniería eléctrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.7. En química . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

5.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

6. Sistemas de Ecuaciones Diferenciales Ordinarias 91


6.1. Ecuación Diferencial Lineal con Coecientes constantes . . . . . . . . . . . . . . . 102

7. Cálculo de la matriz etA para sistemas de ecuaciones diferenciales con coe-


cientes constantes 107
7.1. Cálculo de la Matriz etA por Diagonalización . . . . . . . . . . . . . . . . . . . . 108

7.2. Diagramas de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

8. Ejercicios sobre los Sistemas de Ecuaciones Diferenciales Ordinarias 129

9. Ecuaciones Diferenciales de Orden Superior 133


9.1. Reducción de Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

9.2. Ecuaciones Lineales de Orden Superior . . . . . . . . . . . . . . . . . . . . . . . . 145

9.3. Ecuaciones Diferenciales Lineales de Orden 3 . . . . . . . . . . . . . . . . . . . . 147

10.Transformada de Laplace 151


10.1. Transformadas de Laplace y derivadas . . . . . . . . . . . . . . . . . . . . . . . . 156

10.2. Teoremas de Traslación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

10.2.1. Función Escalón Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

10.2.2. Aplicación de este Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . 165

10.3. Convolución entre Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

10.3.1. Propiedades de la Convolución . . . . . . . . . . . . . . . . . . . . . . . . 166

10.4. Derivadas de Transformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

11.Resolución de Ecuaciones por Series de Potencias, Puntos Ordinarios y Sin-


gularidades 177
11.1. Repaso de Series de Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

11.2. Series de Potencias y Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . 181

11.3. Singularidades de la Ecuación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 185

11.3.1. Singularidades de la Ecuación de Euler . . . . . . . . . . . . . . . . . . . . 186

11.3.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

11.3.3. Puntos Regulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

11.3.4. Puntos Regulares - Singulares . . . . . . . . . . . . . . . . . . . . . . . . . 195

11.4. Desarrollos en Innito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

ii
ÍNDICE GENERAL

12.Sistemas No Lineales 199


12.1. Estabilidad de los Equilibrios Vía el Método de Linealización . . . . . . . . . . . 204

12.2. Método de linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

12.3. Análisis Cualitativo de Sistemas no Lineales . . . . . . . . . . . . . . . . . . . . . 219

iii
ÍNDICE GENERAL

iv
Capítulo 1

Introducción a las Ecuaciones


Diferenciales
Llegados a este curso de ecuaciones diferenciales ordinarias, las ecuaciones que han estudiado en
cursos previos tenían por solución un conjunto de números (reales o complejos); un vector, etc.
Considere por ejemplo las siguientes ecuaciones

3x − 7 = 0 ; x ∈ R.

x7 + 2 = 0 x ∈ C.
;
   
2 1 −1
Ax − b = 0; A = b= ; A ∈ M2×2 (R); x ∈ R2 , b ∈ R2 .
−1 3 5

En este curso vamos a considerar ecuaciones cuyas incógnitas son funciones (Ecuaciones Fun-
cionales) y en las que aparecen la función desconocida y alguna de sus derivadas (Ecuaciones
Diferenciales); en particular este curso se enfoca en ecuaciones diferenciales ordinarias. De forma
más precisa tenemos la siguiente denición

Denición 1.0.1 Una Ecuación Diferencial Ordinaria en una variable es una ecuación que
relaciona una función desconocida de una variable con una o más funciones de sus derivadas.

En general las ecuaciones diferenciales son expresiones del tipo:

F (t, x(t), x0 (t), ... , x(n) (t)) = 0, (1.1)

en donde:

t : Tiempo o variable independiente, t ∈ I =]α, β[⊂ R.

x : Variable dependiente, x = x(t): función que satisface la ecuación (1.1).

F = F (t, x(t), x0 (t), ..., x(n) (t)), F : I × Rn+1 −→ R, (t, x, ..., x(n) ) → F (t, x(t)...x(n) (t)).

1
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

n Determina el orden de la ecuación diferencial. Esto se determina mirando la derivada de


orden más alto que aparece en la ecuación.

dx(t) dn x(t)
x0 (t) = , ..., x(n) (t) = .
dt dtn

Ejemplos 1.0.2

1. x2 (t) + [x0 ]2 (t) = 1. En este caso la función F está dada por

F : I × R2 −→ R
(t, x, x0 ) −→ F (t, x, x0 ) = x2 + x02 − 1.

La ecuación es de orden n = 1.

2. x00 (t) + sen x(t) = 0. En este caso la función F está dada por

F : I × R3 −→ R
(t, x, x0 , x00 ) −→ F (t, x, x0 , x00 ) = x00 (t) + sen x(t).

La ecuación es de orden n = 2.
5x00 (t)
3. x000 (t) + − (3t2 + 1)x0 (t) − 2x(t) = 5t2 . En este caso la función F está dada por
t2
F : I × R4 −→ R
(t, x, x0 , x00 , x000 ) −→ F (t, x, x0 , x00 , x000 ),

5x00 (t)
donde la ecuación F (t, x, x0 , x00 , x000 ) = x000 (t) + − (3t2 + 1)x0 (t) − 2x(t) − 5t2 , es de
t2
orden n = 3.

Vamos a utilizar a lo largo de este curso las siguientes notaciones:

x = x(t),

x: Variable dependiente, t: Variable independiente.

O bien
y = y(x),

y: Variable dependiente, x: Variable independiente.

La primera notación se utiliza mucho en problemas dinámicos (posición, velocidad de un cuerpo;


x, x0 , x00 , ... en función del tiempo t). La segunda notación es más común en problemas de estática
y problemas geométricos.

Uno de los conceptos fundamentales en todo este curso de ecuaciones diferenciales es el Concepto
de Solución de una ecuación diferencial. A continuación vamos a presentar una denición no
rigurosa de este concepto.

2
Denición 1.0.3 La solución de una ecuación diferencial (1.1) es una función

x : I −→ R
t −→ x = x(t),

denida en un intervalo abierto I =]α, β[⊂ R que satisface la ecuación (1.1).

Ejemplos 1.0.4
1. F (t, x, x0 ) = x2 + [x0 ]2 − 1 depende de tres variables y la función x(t) = cos t es solución
0
de F (t, x, x ) = 0, en efecto:

F (t, cos t, − sen t) = cos2 t + sen2 t − 1 = 0.

2. F (t, x, x0 , x00 ) = x00 −x−e2t depende de cuatro variables y la función x(t) = 13 e2t es solución
0 00
de F (t, x, x , x ) = 0, en efecto:
 
1 2t 2 2t 4 2t 4 1
F t, e , e , e = e2t − e2t − e2t = 0.
3 3 3 3 3

Diremos que una ecuación diferencial ordinaria (1.1) está en forma normal si está escrita en la
siguiente forma:

x(n) = f (t, x, x0 , ..., x(n−1) ), donde f : I × Rn → R,

es decir, la derivada de orden más alto aparece despejada en la ecuación.

Ejemplos 1.0.5
1. Sea x00 = x + e2t . En este caso la función f está dada por

f : I × R2 −→ R
(t, x, x0 ) −→ f (t, x, x0 ) = x + e2t .

2. Sea x00 = − sen x. En este caso la función f está dada por

f : I × R2 −→ R
(t, x, x0 ) −→ f (t, x, x0 ) = −senx.

5 00
3. Sea x000 = − x + (3t2 + 1)x0 + 2x + 5t2 . En este caso la función f está dada por
t2
f : I × R3 −→ R
(t, x, x0 , x00 ) −→ f (t, x, x0 , x00 ),
5 00
donde f (t, x, x0 , x00 ) = − x + (3t2 + 1)x0 + 2x + 5t2 .
t2

3
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES


4. Sea x0 = 1 − x2 . En este caso la función f está dada por

f : I × R −→ R √
(t, x) −→ f (t, x) = 1 − x2 .

Vamos a estudiar ahora quizás la ecuación diferencial ordinaria en forma normal de orden 1 más
sencilla, pero a la vez muy importante, dada por:

x0 = ax , a ∈ R. (1.2)

La ecuación (1.2) nos pide encontrar una función cuyo crecimiento en cada instante de tiempo, sea
proporcional al valor de la función en ese mismo instante. Tal proporción se mide con el coeciente
x0
de proporcionalidad = a. De forma más precisa tenemos no una ecuación sino una familia
x √ √
uniparamétrica de ecuaciones (si a = 1, x0 = x; si a = 2, x0 = 2x; si a = − 10, x0 = − 10x;
...).

El caso más simple se presenta cuando el parámetro a = 0. Entonces:

x0 = 0 (funciones con derivada cero siempre).

Las soluciones de este caso serían

x(t) = c, t ∈ R, c-constante arbitraria,

como lo muestra la siguiente gura

5 c 5

2 c 2

−3 c −3

Ahora bien, si a 6= 0 entonces x(t) = eat es solución de (1.2), en efecto:

x0 (t) = aeat ,
x0 (t) = ax(t).
Pero también son soluciones (vericar)

x(t) = 2eat y x(t) = 5eat .

El siguiente lema prueba que todas las soluciones de (1.2) son de la forma x(t) = ceat con c
constante arbitraria.

4
Lema 1.1 Sea x = x(t) una solución de (1.2) denida en I = R. Entonces x(t) = ceat con
c ∈ R, una constante arbitraria.

Sea x(t) una solución de (1.2), entonces:

d −at
(e x(t)) = −ae−at x(t) + e−at x0 (t),
dt
= e−at (−ax(t) + x0 (t)),
= e−at (−ax(t) + ax(t)),
= 0.

Así que para todo t ∈ R, e−at x(t) = c, c-constante.


Luego:
x(t) = ceat .
 Note que si tenemos un crecimiento lineal del tiempo t0 = 0; t1 = 1; t2 = 2; ...tn = n
entonces la variable x = x(t) tiene un crecimiento geométrico con razón r = ea .

x0 = x(t0 )= c,
x1 = x(t1 )= cea ,
.
.
.
xn = x(tn )= c(ea )n .

En este punto vale la pena preguntarse por lo cambios cualitativos que presentan las soluciones
de (1.2). Es de esperar que estos cambios tengan una directa relación con el signo del parámetro
a, lo que es crucial para el estudio del comportamiento asintótico de las soluciones. Veamos esto
con más detalle:

Si a>0 
at +∞ si c > 0,
lı́m x(t) = lı́m ce =
t→∞ t→∞ −∞ si c < 0.

Si a=0 entonces lı́m x(t) = lı́m c = c.


t→∞ t→∞

Si a<0 entonces lı́m x(t) = lı́m ceat = 0.


t→∞ t→∞

Las grácas de la gura 1.1 ilustran el comportamiento cualitativo de las soluciones de (1.2) en
cada caso.

Note que si consideramos un nuevo parámetro b tal que 0 < |b − a| < |a| entonces b tiene el
mismo signo de a y por lo tanto el comportamiento cualitativo de las soluciones de

x0 = bx,

coinciden con el comportamiento cualitativo de las soluciones de (1.2). Algo muy distinto sucede
si a = 0, en donde un pequeño cambio en a lleva a comportamientos cualitativos muy distintos.

5
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

x x x

t t t

a> 0 a 0 a<0

Figura 1.1: Comportatmiento cualitativo de las soluciones de (1.2)

Por esta razón al parámetro a=0 es el punto de bifurcación de la familia de ecuaciones uno-
paramétricas (1.2).

De otro lado, las ecuaciones diferenciales del tipo (1.2) tienen una importante aplicación en el
modelamiento del crecimiento de poblaciones. Fue el economista británico Tomas Malthus (1766-
1834) quien observó que muchas poblaciones crecen a una razón proporcional a la población
(x
0 = ax) por lo que se piensa x(t) como la cantidad de población en el instante t (número de
bacterias, cantidad de material radiactivo, cantidad de personas en una determinada región, etc).

Así por ejemplo, si pensamos en el modelamiento del crecimiento de bacterias según el modelo
de Malthus, tendríamos el esquema de la gura 1.2

a>0 crecimiento de la especie

a 0 longevidad de la especie

a<0 extincion de la especie

Figura 1.2: Modelo de Malthus del crecimiento de las especies.

Vemos que la Extinción de una especie se modelada según el modelo de Malthus al considerar una
constante de proporcionalidad a < 0. Retomamos ahora las ecuaciones diferenciales ordinarias

de orden 1 y de forma normal,


x0 = f (t, x), (1.3)

y vamos a dar deniciones más precisas sobre ellas. La función f en (1.3) estará denida en un

subconjunto de R2 , D ⊂ R2 que llamaremos Dominio de la ecuación.

6
El dominio será abierto y arco-conexo, esencialmente puede imaginarse a D como un charco de
agua sin fronteras ni agujeros.

x x
1111111111
0000000000 1111111
0000000
0000000
1111111
0000000000
1111111111
0000000000
1111111111 x 0000000
1111111
0000000000
1111111111 0000000
1111111
0000000
1111111
0000000000
1111111111
0000000000
1111111111 0000000
1111111 D
0000000000
1111111111 0000000
1111111
0000000
1111111
0000000000
1111111111
D
0000000000
1111111111
D
t
0000000000
1111111111
0000000000
1111111111 1111111
0000000
0000000000
1111111111 0000000
1111111
t 0000000
1111111
0000000
1111111
t 0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
D−dominio abierto y arco−conexo D−conjunto no abierto 0000000
1111111
D−dominio no arco−conexo

La función f : D ⊂ R2 −→ R, (t, x) −→ f (t, x) se supondrá siempre continua.


Denición 1.0.6 Una solución de (1.3) es una función x : I =]α, β[⊂ R −→ R, x = x(t)
denida en un intervalo abierto I que cumple:

1. x = x(t) ∈ C 1 (I) (funciones continuas y derivables con derivada continua en I ).

2. (t, x(t)) ∈ D, ∀t ∈ I , I : intervalo de denición de la solución x = x(t).

3. x0 = f (t, x(t)), ∀t ∈ I. (Funciones derivables en I con derivada continua en I ).

Observación. Es importante que el lector no olvide que la variable x es una función de la


variable temporal t, es decir, x = x(t), en cuyo caso la ecuación (1.3) en forma explícita dice que

x0 (t) = f (t, x(t)) ∀t ∈ I.

Más aún, la función f no reconoce a la variable x como función de t.

Ejemplos 1.0.7
1
1. Considere x0 = x.
t
Note que x(t) = t cumple con la fórmula, pues

1 1
x0 = 1 y x(t) = t = 1.
t t
Pero una solución no es una función que cumpla con una fórmula, es mucho más que
eso. Hay que especicar dónde es válida. Para este caso, hay dos dominios posibles; nos
2
quedamos con uno de ellos. D = {(t, x) ∈ R : t > 0}

2. Considere x0 = 1 + t2 − x2 .
Note que de nuevo, x(t) = t cumple con la fórmula, pero no es solución. Tenemos en este
caso de nuevo dos alternativas para D. 2
Elegimos una, D = {(t, x) ∈ R : |x| < −t}

x(t) = t viaja por la frontera de D. Falla la condición 2, (t, t) ∈


/ D.

7
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

x
x(t)=t

Figura 1.3: Gráca del dominio D en el ejemplo 1.


3. Considere x0 = 2t + x2 − t4 .
2
Note que x(t) = t cumple con la fórmula, pero es necesario denir con claridad nuestro
dominio D . Por lo tanto, se debe cumplir:

x2 − t4 ≥ 0 ⇔ (x − t2 )(x + t2 ) ≥ 0.
Resolviendo lo la anterior desigualdad se obtienen dos dominios posibles:

D+ = {(t, x) ∈ R2 : x > t2 },
D− = {(t, x) ∈ R2 : x < −t2 }.
Elegimos una, D = D+ . Tenemos entonces que x(t) = t2 viaja por la frontera de D. Falla
la condición
2 / D.
2, (t, t ) ∈

x(t)=t

Figura 1.4: Gráca del dominio D en el ejemplo 3.

1.1. Campos de Direcciones e interpretación geométrica de las


ecuaciones diferenciales x0 = f (t, x)
Considere una ecuación diferencial de primer orden dada por

x0 = f (t, x),
con f : D ⊂ R2 −→ R continua. Geométricamente esta ecuación se lee en dos partes.

8
1.1. CAMPOS DE DIRECCIONES E INTERPRETACIÓN GEOMÉTRICA DE LAS
ECUACIONES DIFERENCIALES x0 = f (t, x)

1. x0 (t): geométricamente representa la pendiente de la recta L que es tangente de la curva


solución (t, x(t)) en cada instante t. La ecuación de la recta tangente está dada por

x = x0 + x0 (t0 )(t − t0 ). (1.4)

2. f (t, x) determina la pendiente de la recta tangente a la curva (t, x(t)) en el punto (t, x) en
cada instante de tiempo t. Por lo tanto, la ecuación (1.4) queda de la forma

φ = φ(t) = x0 + f (t0 , x0 )(t − t0 ).

Recta tangente L en el punto (t* , x* )

x*
t* t

Vamos ahora a asociar a f una regla que asigna a cada punto D ⊂ R2 una única recta que pasa
por dicho punto. Imagínese el esquema de la gura 1.5.

x x
Γ

P P

R R
Q Q
t t

S S

Figura 1.5: Imagen de la regla Γ que a cada punto le asigna una única recta

Denimos la aplicación

Γ : D ⊂ R2 −→R2
(t, x) ⊂ D−→Γ(t, x) :≡ Recta que pasa por el punto (t, x)
con pendiente f (t, x).

9
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

A esta aplicación Γ : D ⊂ R2 −→ R2 la llamamos Campo de Direcciones asociada a f. Es


claro que esta aplicación está bien denida y más aún, es continua e inyectiva.

Ejemplo 1.1.1 Considere la ecuación

3t − 2x
x0 = .
2

En este caso
3t − 2x
f (t, x) = ,
2
así D = R2 y por lo tanto para los puntos P (−1, 1); Q(2, 1) y R(1, 3/2) tenemos:

f (P ) ≡ f (−1, 1) = −5/2,
f (Q) ≡ f (2, 1) = 2,
f (R) ≡f (1, 3/2)= 0.

Por lo tanto,

Γ(P ) :≡ x = 1 − 52 (t + 1) ⇒ x = − 52 t − 32 ,
Γ(Q) :≡ x = 1 + 2(t − 2) ⇒ x = 2t − 3,
Γ(R) :≡ x = 32 .

3t − 2x
Figura 1.6: Campo de direcciones de la función f (t, x) =
2

10
1.1. CAMPOS DE DIRECCIONES E INTERPRETACIÓN GEOMÉTRICA DE LAS
ECUACIONES DIFERENCIALES x0 = f (t, x)

Ejemplo 1.1.2 Considere la ecuación

3−x
x0 =
2
En este caso,
3−x
f (t, x) = .
2
Observemos que:

Si x>3 entonces f (t, x) < 0 para todo t ∈ R.

Si x=3 entonces f (t, x) = 0 para todo t ∈ R.

Si x<3 entonces f (t, x) > 0 para todo t ∈ R.

Más aún, si x→∞ entonces f (t, x) → −∞ (las pendientes de las rectas tangentes son cada vez
más negativas) por lo tanto las rectas tangentes son cada vez más verticales pero con pendiente
negativa muy grande.

De igual forma, si x → −∞ entonces f (t, x) → +∞, de nuevo las rectas tangentes son cada vez
más verticales pero con pendiente positiva.

En cambio, si x = 3, la recta tangente es horizontal (pendiente cero) para todo t ∈ R.


x

Pendiente negativa
más grande

Pendiente cero

t Pendiente positiva
más grande

3−x
Figura 1.7: Campo de direcciones de la función f (t, x) =
2

De especial interés en el estudio geométrico de las ecuaciones diferenciales escalares son las líneas
isoclinas dadas por

f (t, x) = c, c ∈ R.

El conocimiento de las isoclinas permite deducir un retrato able de las soluciones. Hay una
isoclina de especial importancia y es la isoclina nula asociada con c = 0, ya que sobre ella se
producen los cambios en la monotonía de las soluciones x(t).

11
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

x
4

-2 -1 1 2 t

-1

Figura 1.8: Campo de direcciones asociado a la ecuación x0 = x−t2 . para (t, x) ∈ ]−2, 2[×]−1, 4[,
junto a las soluciones asociadas a las condiciones iniciales x(0) = 0 (azul), x(0) = 1/2 (verde),
x(0) = 1 (amarillo). En negro se muestra la isoclina nula x = t2 .
.

Ejemplo 1.1.3 Considere la ecuación

x0 = x − t 2 .

En este caso

f (t, x) = x − t2 .

En la gura 1.8 se muestra el campo de direcciones correspodiente y algunas isoclinas asociadas


con esta ecuación. En este caso las isoclinas son parábolas simétricas respecto al eje t = 0. Por
t 2
ejemplo la solución x(t) = 2 − e + 2t + t pasa por el punto (0, 1) (color amarillo). La solución
x(t) = t2 es la isoclina nula. (color negro)

12
1.2. EXISTENCIA Y UNICIDAD DE SOLUCIONES

1.2. Existencia y unicidad de soluciones


Dejamos aquí lo correspondiente a la interpretación geométrica de la ecuaciones diferenciales
escalares de orden 1 y recordamos por un momento de nuevo la ecuación (1.2); x0 = ax. Hemos
hecho ya un análisis de esta ecuación y se demostró que toda solución de (1.2) es de la forma
x(t) = ceat , con c una constante. En realidad hemos encontrado una familia soluciones para (1.2)
(una solución por cada constante).

Pero si nuestro interés es tomar una en particular esto nos lleva a elegir de todas las posibles
constantes c, una en especial. Para ello, vamos a añadir a la ecuación una condición inicial,
x(t0 ) = x0 , así tendremos:
 0
 x = ax,
(P.V.I.)
x(t0 ) = x0 .

(P.V.I.) son las siglas de lo que llamaremos Problema de Valor Inicial. En el caso de (1.2)
tendríamos:
x(t) = ceat ; x(t0 ) = x0 , entonces:
x(t0 ) = ceat0 = x0 , así que c = x0 e−at0 (ajustamos la constante).
Por lo tanto:
x(t) = x0 e−at0 eat = x0 ea(t−t0 ) .
Hemos encontrado de entre toda una familia de soluciones aquella que queremos (justo la que
cumple con (P.V.I.)).

x(t)=e at
x

a>0
x0

t0 t

Figura 1.9: Ilustración de la solución x(t) = x0 ea(t−t0 ) cuando a > 0.

Vamos a generalizar lo anterior.

Consideremos una ecuación diferencial de primer orden

x0 = f (t, x), f : D ⊂ R2 → R,

a la cual le añadimos una condición inicial x(t0 ) = x0 . Se tiene entonces un problema de valor
inicial (P.V.I.), dado por:
 0
 x = f (t, x),
(P.C.)
x(t0 ) = x0 .

donde (t0 , x0 ) ∈ D.

13
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

Este problema de valor inicial es conocido también como Problema de Cauchy (P.C.), el cual
bajo ciertas condiciones sobre la función f tiene una única solución.

Damos paso así a una simple versión de lo que se conoce como el Teorema de Existencia y
Unicidad de soluciones para una ecuación diferencial ordinaria.

Teorema 1.1 (Teorema de Existencia y unicidad) Sea D = {(t, x) ∈ R2 : |t − t0 | <


∂f
τ, |x − x0 | < b}. Suponga que tanto f (t, x)
(t, x) son continuas en D. Entonces existe algún
y
∂x
intervalo abierto J = {t ∈ R : |t − t0 | < τ∗ } con τ∗ < τ en el que existe una única solución
x = φ(t) de (P.C.) para todo t ∈ J .

J( )1 J( 2 )
1
x0 b

x0
2

x0- b

t0 - t0 - t0 t0 t0 t
* *

Figura 1.10: ILustración del teorema de existencia y unicidad.

Lo que nos dice el Teorema de Existencia y Unicidad es que siempre podemos encontrar bajo las
∂f
condiciones pedidas (t, x) el intervalo J =]t0 −τ∗ , t0 +τ∗ [ en donde se tendrá existencia
f (t, x) y
∂x
y unicidad de soluciones. Nótese bien que el intervalo J depende de la solución φ considerada,
de manera que no debemos olvidar que J = J(φ).

De otro lado, si tengo dos soluciones de la ecuación diferencial en (P.C.), digamos φ1 (t) y φ2 (t)
entonces en el rectángulo sombreado,(ver gura 1.4) ambas soluciones coinciden, es decir φ1 (t) =
φ2 (t) para todo t ∈ J(φ1 ) ∩ J(φ2 ) lo que da paso a la unicidad.

Veamos algunos ejemplos importantes:

Ejemplo 1.2.1 Considere la ecuación

x0 = −x2 . (1.5)

En este caso f (t, x) = −x2 , la cual es una función denida en todo R×R y además es continua

14
1.2. EXISTENCIA Y UNICIDAD DE SOLUCIONES

∂f
al igual que (t, x), (1.5) admite dos soluciones:
∂x
1
ϕ1 (t) = ; t ∈ I1 =]0, +∞[ (A),
t

(1 − t)n , t ∈ I2 =]1, 2[
P
ϕ2 (t) = (B).
n=0

1
Note que la serie en (B) corresponde al desarrollo en series de potencias de que es válida sólo
t
para |1 − t| < 1.
Se tiene entonces que ϕ1 (t) = ϕ2 (t) en I = I1 ∩ I2 , pero son soluciones distintas.

Ejemplo 1.2.2 Considere la siguiente ecuación

x
x0 = +t x(0) = x0 (1.6)
t

Esta ecuación tiene innitas soluciones en x0 = 0 y se puede observar que no cumple con los
requisitos del Teorema de Existencia y Unicidad debido a que t=0 no hace parte del dominio de
la función.

Si consideramos que x(t0 ) = x0 y t0 6= 0 entonces el P.V.I

x
x0 = +t
t
x(t0 ) = x0
tiene única solución x(t) = t2 + ct en

D+ = {(t, x) : t > 0} o en D− = {(t, x) : t < 0}

De manera que el teorema de existencia y unicidad puede aplicarse en dos dominios abiertos,
arco-conexos y disjuntos.

Ejemplo 1.2.3 En el teorema de existencia y unicidad es fundamental el explicitar el punto


(t0 , x0 ). En efecto, considere el problema de valor inicial

x0 = x1/3 , x(0) = 0. (1.7)

En este caso f (t, x) = x1/3 . Esta función está bien denida en R2 . Se puede comprobar que

h2 i3/2
xc (t) = (t − c) ,
3
satisface la ecuación en (1.7) para cada constante c.
Pero para cada constante c>0 observe que
 h
 2 i3/2
(t − c) t>c
φc (t) =
 3 0 t ≤ c,

15
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

satisface el P.V.I. (1.7). Pero además, existe una solución trivial ψ(t) = 0 de (1.7) que no está
en la familia de soluciones φc (t). Así que tenemos por lo menos dos soluciones distintas.
∂f
La unicidad se pierde, pues la función (t, x) no es continua en (0,0). Luego la unicidad
∂x
∂f
dependerá de la existencia y continuidad de (t, x) en el punto (t0 , x0 ).
∂x

o1 o2

c1 c2 t

Figura 1.11: Gráca de dos soluciones distintas φc1 φc2 de (1.7) con c1 < c2 .

Para nalizar este capítulo vamos a presentar una de la aplicaciones más tempranas de las
ecuaciones diferenciales ordinarias de primer orden. Esta aplicación se enmarca en los modelos
de crecimiento poblacional que como bien lo hemos dicho antes inicia sus pasos con el Modelo de
Malthus. Mostramos brevemente un modelo de dosicación de medicamentos, tema de estudio
de los estudiantes de farmacología y farmacocinética.

1.3. Crecimiento Poblacional y Aplicación en Medicina


La manera como el tamaño de una población varía en el tiempo es un asunto de interés en
muchos contextos. Suponga que P (t) es el número de individuos en una región dada en el
instante t. En el tiempo t+h el número de individuos es P (t + h), así que P (t + h) − P (t)
representa el número de individuos que han sido añadidos (o bien eliminados) de la población
durante el periodo de tiempo h = t + h − t.
Entre más grande sea el intervalo de tiempo, más individuos añadidos se esperan, así como
entre más pequeño sea el intervalo de tiempo, menos individuos añadidos se esperan. Escribimos
entonces,

P (t + h) − P (t) = N · h,

o bien:
P (t + h) − P (t)
=N.
h
Si hacemos h→0 (muestras de tiempo muy pequeñas, imagina: minutos, segundos...), tenemos:

dP (t)
=N.
dt

16
1.3. CRECIMIENTO POBLACIONAL Y APLICACIÓN EN MEDICINA

Vamos a suponer que la función N depende tanto del instante de tiempo t, como del número de
individuos de la población en ese mismo instante. Es decir, N = N (t, P (t)). Así:

dP (t)
= N (t, P (t)). (1.8)
dt

En ocasiones, la cantidad
1 dP
· ,
P dt
se conoce como tasa de crecimiento especíco. Así que para (1.8), la tasa de crecimiento especíco
está dada por
1
· N (t, P ).
P
Algunas formas de la función N (t, P (t)) que podemos suponer, son las siguientes:

a) N (t, P (t)) = n0 P (t) , n0 ≡ constante. Tasa de crecimiento especíco constante.

Por lo tanto:
dP
= n0 P (Modelo de Malthus).
dt
En consecuencia,
P (t) = P (0)en0 t ; t ∈ [0, +∞[ ; t ∈ R.

b) N (t, P (t)) = (n0 − d0 )P (t) + I(t) − E(t).


En este caso, −d0 P representa el número de individuos muertos proporcional a la población;
I(t), individuos que entran a la población (inmigrantes); E(t), individuos que salen de la
población (emigrantes). Así:

dP
= (n0 − d0 )P (t) + I(t) − E(t) (Ecuación lineal de primer orden).
dt

c) N (t, P (t)) = (n0 − d0 )P (t) + g(P (t)) donde g es no lineal.

En este caso, se tiene dependencia de la población de forma no lineal. Por ejemplo, si


g(P ) = −αP 2 entonces

N (t, P (t)) = (n0 − d0 )P (t) − αP 2 (t).

Por lo tanto:
dP (t)
= (n0 − d0 )P (t) − αP 2 (t) ,
dt
o bien:
dP
= (λ − αP )P ; λ = n0 − d0 ,
dt  α
=λ 1− P (Ecuación logística Modelo de Verhulst).
λ
En cualquier caso, si queremos predecir el tamaño de la población en un tiempo dado,
encontrar la solución de una ecuación diferencial es absolutamente necesario.

17
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

1.3.1. Dosicación de Medicamentos


Cuando se ingiere un medicamento, éste forma una concentración en el uido corporal. Esta
concentración disminuye en el tiempo por eliminación, destrucción o inactivación. La tasa de
reducción de la concentración se encuentra, en la mayoría de los casos, proporcional a la concen-
tración. De manera que, si C(t) es la concentración del medicamento en el instante t, entonces

dC(t) 1
= − C(t)
dt α
donde α es una constante positiva que mide la velocidad a la cual la concentración cae. Tenemos
un modelo de Malthus el cual tiene como función solución

1
C(t) = C0 e− α · t ; C0 = C(0). (1.9)

Note que si t = α, entonces


C0
C(α) = c0 e−1 = < 0,
e
C0
la concentración cae al valor . Así que, entre más grande es α, más lentamente la dosis de
e
medicamento desaparece.

1.3.2. Nivel de Acumulación


Note que, de acuerdo con la ecuación (1.9), el medicamento nunca desaparece completamente
del cuerpo excepto en un tiempo innito ¾Pero qué sucede en repetidas dosis?

Suponga que en el tiempo t=0 se administra una dosis C0 . En el tiempo t0 > 0, el residuo r1
justo antes de la segunda dosis es
t0
r1 = C0 e− α
El residuo r2 antes de la tercera dosis ( con t ∈ [t0 , 2t0 ]) es

t0
r2 = C1 e− α ,
t0 t0
 
r2 = C0 e− α 1 + e− α .

Después de una tercera dosis, la concentración C2 es

C2 = C0 + r2 ,
t0 2t0
 
= C0 1 + e− α + e− α .

Siguiendo este mismo proceso, si consideramos en el tiempo t = (n − 1)t0 , n ∈ Z+ , nos da:

t0 2t0 (n−1)t0
 
Cn−1 = C0 1 + e− α + e− α + . . . + e− α ,
nt0 !
1 − e− α
= C0 · t0 .
1 − e− α

18
1.3. CRECIMIENTO POBLACIONAL Y APLICACIÓN EN MEDICINA

Concentración

C2
C1
C0 Crecimiento Oscilatorio

1 2 3 Número de dosis

Figura 1.12: Ilustración del comportamiento de las concentraciones Cn .

De igual forma, el residuo rn en t = nt0 está dado por

nt0 !
t
− α0 − α0
t 1 − e− α
rn = Cn−1 e = C0 e · t0 .
1 − e− α

Note que
C0
lı́m Cn−1 = CM = t0 .
n→∞
1 − e− α
De manera que CM es un buen estimativo de la concentración del medicamento inmediatamente
nt0
después de una dosis cuando es muy grande, matemáticamente esto de expresa en la forma
α
nt0 nt0
>> 1. En efecto, si > 5, Cn−1 diere de CM en menos del 1 %, en efecto:
α α
" nt0 #
1 − e− α 1 − e−5 C0 (1 − e−5 )
t0 > t0 ⇔ Cn−1 > t0 ,
1 − e− α 1 − e− α 1 − e− α

C0 (1 − e−5 ) C0 C0 (1 − e−5 ) C0 C0 e−5


1 − (1 − e−5 ) =

CM − t0 = t0 − t0 = t0 t0 .
1 − e− α 1 − e− α 1 − e− α 1 − e− α 1 − e− α

C0 (1 − e−5 )
Por lo tanto, la diferencia entre CM y t0 es menor que el 1 % de CM debido a que
1 − e− α
e5 > 100.

t0
Así que, a menos que
α sea muy pequeño, el nivel de concentración no estará muy lejos de CM ,
es un número pequeño de dosis. Dicho de otra forma:

Si queremos alcanzar la máxima concentración en 5 dosis debemos hacer el intervalo entre las
dosis, mayor que α.
En efecto,

nt0 > 5 sii t0 > .
n

19
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

Si n=5 entonces,
t0 > α.
t0
Naturalmente, entre más grande sea , más cercano es CM a C0 , (la concentración máxima en
α
una sola dosis).

De igual forma, justo antes de una dosis, el residuo se aproxima al valor r cuando n aumenta,
siendo r dado por
t0 C0
r = CM e− α = t0 (1.10)
e α −1
Note que,
C0 C0
M= t = C0 + t0 = C0 + r .
− α0
1−e e α −1
Más aún, (1.10) implica que r se hace cada vez más pequeño a medida que t0 /α se hace cada
t0
vez más grande. Cuanto mayor sea , el nivel de concentración varía más entre las dosis. Por lo
α
tanto, existe un equilibrio entre mantener el residuo por encima de cierto nivel y alcanzar CM
en pocas dosis.

Cuando muchas dosis han sido ingeridas, la concentración se comporta como en la siguiente
gura.

Concentración

CM

C0

1 2 3 15 Número de dosis

Figura 1.13: Comportamiento asintótico de la concentración Cn que oscila entre CM y r.

La concentración oscila entre CM y r, nunca excediendo CM ni por debajo de r.


El comportamiento oscilante que se muestra en la anterior gura puede ser no deseable. Mu-
chos antibióticos pueden tener efectos nocivos hasta que su concentración ha superado un cierto
umbral, dado que ciertas concentraciones sub-óptimas pueden inducir a la resistencia del medi-
camento por los microorganismos presentes. El crecimiento oscilatorio de la concentración puede
evitarse al tomar ventaja del comportamiento de la gura 1.6. Una dosis inicial de C0 + r o CM
es dada y después una dosis de concentración C0 son suministradas en intervalos de tiempo t0 .
La primera dosis alcanza la concentración CM y desde ese instante, el nivel sigue la curva de la
gura anterior. Mientras que r esté por encima de cualquier valor umbral impuesto, la dicultad
antes mencionada ha sido superada.

20
1.4. EJERCICIOS

1.4. Ejercicios
1. Compruebe que la función
x :]0, ∞[−→R,
1
t−→x = x(t) = ,
t
es solución de la ecuación diferencial

tx0 + x = 0.

2. Determine si la función
Z x
2 2 2
y(x) = e−x et dt + ce−x , c-cte
0

es solución de la ecuación diferencial

y 0 = 1 − 2xy ,

en ] − ∞, ∞[.
3. Estudiar los dominios o regiones de R2 en los cuales la ecuación diferencial

1
(x − 2) 3
x0 = √ ,
t2 − 1
tiene solución única.

4. Considere la ecuación diferencial


y0 =
p
x(y − 1)

¾Es la función y(x) = 1 solución de la ecuación?

Determine en que regiones del plano xy esta ecuación diferencial tiene una única
solución, cuya gráca cruce el punto (x0 , y0 ) dentro de la región.

5. Considere el siguiente problema de valor inicial

dy
= xy 1/2 , y(0) = y0 .
dx
Determine si para este problema existe una única solución en los casos y0 = 0, y0 = 1.
6. Determine el valor de r para los que la ecuación diferencial

x2 y 00 + 4xy 0 + 2y = 0,

tiene soluciones de la forma y = xr , para x > 0.


7. Muestre que el problema de valor inicial

1
y0 = ; y(0) = 1,
1 + y2
tiene solución única denida sobre todo el eje real.

21
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

8. Muestre que la ecuación x02 + x2 + 3 = 0 no tiene solución con valores reales.

9. Considere ecuaciones diferenciales de la forma

y 0 = f (x), y 00 = g(x).

Describa e ilustre con ejemplos (o planteé una forma analítica) como resolver estas ecua-
ciones.

t
10. Muestre que t2 + x2 = 25 es solución (implícita) de la ecuación diferencial x0 = − en el
x
intervalo ] − 5, 5[.

3x2
11. Mostrar que la relación y 2 −x3 +8 = 0 dene de manera implícita una solución de y 0 =
2y
en el intervalo ]2, ∞[.

12. Dibuje el campo de direcciones para las siguientes ecuaciones diferenciales:

a) x0 = 2t
b) y 0 = 4y(1 − y)
c) x0 = 2xt
d) y 0 = 2x2 − 3x − 2

13. El crecimiento poblacional de una especie de bacterias, llamadas las satitinane sigue un
modelo de Malthus. Se sabe que dada una población inicial P0 , la tasa de crecimiento en
un cultivo inicial es k1 , y que después de τ horas las satitinane se colocan en un cultivo
diferente y ahora crecen a una tasa constante k2 .

a ) ¾Cuál es la población de bacterias en el tiempo t?

b ) ¾El modelo que usted encuentra para este problema satisface las condiciones del Teo-
rema de Existencia y Unicidad?

14. ¾Cuánto tiempo se necesita para que una población se duplique, si se supone que la tasa
de crecimiento es proporcional a la cantidad de individuos de la población?

15. A todo material radioactivo se le asocia un número conocido como Vida Media que es el
tiempo requerido de una cantidad de este material en decrecer a la mitad de su cantidad
inicial. Muestre que para cualquier material radioactivo que decrece de acuerdo a la ecuación
de Malthus Q0 = −r Q, (r es una constante positiva y Q = Q(t) es la cantidad de material
radiactivo en el instante t) la vida media τm satisface la ecuación rτm = ln 2.

16. Considere la ecuación diferencial

P 0 = αP, (∗)

con α constante. Puestos en el lenguaje bancario P (t) representa la cantidad de dinero


que hay en un fondo en el tiempo t. La cantidad P (0) se llama principal y el crecimiento
exponencial dado por (∗) se conoce como interés compuesto continuo. Por otro lado, el

22
1.4. EJERCICIOS

rendimiento (tasa de interés efectiva) se dene como el interés real ganado durante un año
dividido entre el principal
P (1) − P (0)
R= .
P (0)
a ) Suponga que el bando AB Pillas tiene una tasa de interés del 5% al año, compuesto
continuamente. ¾Cuál será el rendimiento R?
b ) La tasa de interés del banco Country Bank es 3% anual, mientras que el rendimiento
en el banco Davitienda es 3 % anual. Ambos ofrecen interés compuesto. Encuentre los
tiempos de cada banco para que un capital se duplique.

17. Usted tiene $10,000 e intenta invertirlos durante 5 años en un banco que ofrece interés
continuo. Si desea tener $15,000 en su cuenta al nal de estos 5 años. ¾Qué tasa de interés
debe obtener?

18. El economista francés Leon Walras (1834-1910) considerado como el creador de la economía
matemática visualizó el equilibrio de un mercado (compra y venta de bienes y servicios)
como el resultado de un proceso de tanteo: Un moderador anuncia un producto con precio
p y los compradores y vendedores hacen su oferta. Walras propuso el siguiente modelo

p0 = k(D(p) − S(p)), (∗∗)


dp(t)
donde p0 = , D(p) es la función de demanda del producto, S(p) es la función de oferta
dt
del producto y k es una constante positiva que reeja la velocidad de ajuste del mercado.
El caso más simple en el modelo de Walras es cuando

D(p) = α p,
S(p) = β p,
con α y β constantes positivas. Muestre que p(t) = 0 es solución de (∗∗) y determine bajo
que condiciones los precios del mercado se acercan y/o se alejan de esta solución. ¾Qué
interpretación puede deducir de los resultados?.

c
19. Comprobar que y(x) = , c-cte, satisface la ecuación diferencial ydx + x ln xdy = 0
ln x
(Sugerencia : Convierta esta ecuación diferencial a la forma normal).

1
20. Muestre que y2 + x − 3 = 0 es solución implícita de y0 = − en el intervalo ] − ∞, 3[.
2y
21. Considere el problema de valor inicial

x00 (t) + F 0 (y) = 0, x(t0 ) = x0 , x0 (t0 ) = ν0


Si F ∈ C 2 (R), cuidadosamente explique por medio del teorema de existencia y unicidad
que este problema tiene una única solución para todo punto (t0 , x0 ) ∈ R2 .
22. (El problema del quitanieves). Un día comenzó a nevar de manera abundante y regular.
Una maquina quitanieves se puso a funcionar a mediodía limpiando una carretera a ritmo
constante, en términos de cantidad de nieve retirada cada hora. Durante la primera hora
limpió dos kilómetros de carretera y durante la segunda uno más. ¾A que hora empezó a
nevar?

23
CAPÍTULO 1. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES

23. (El sudario de Turín) Para datar un objeto fabricado con sustancias orgánicas se usa la
técnica del Carbono C14 , la cual consiste en medir en la cantidad de Carbono-14 que queda
en la actualidad en dicho objeto y utilizar la forma de las soluciones de la ecuación de
decaimiento radiactivo (Modelo de malthus en el caso de la extinción) para calcular el
tiempo que ha pasado. Esta técnica se utilizó en el año 1988 para estimar la edad del
Sudario de Turín, tela de lino hallada en 1356 que muestra la imagen de un hombre que
presenta marcas y traumas físicos, y de la que se pensaba que podría ser la tela que cubría
a Jesús de Nazaret en el sepulcro, llamada tambíen la Síndone.

Se observó que las bras del tejido contenían entre 92 % y un 93 % del nivel inicial de C14 .
1
Si se sabe que la constante de desitengración del C14 es ln 2 ≈ 0,000121 determine un
5730
intervalo de tiempo para la fecha de fabricación del Sudario de Turín. ¾Que concluye de
sus cálculos.?

24. Para las siguientes ecuaciones diferenciales dibuje las isoclinas indicadas. También deter-
mine la isoclina cero.

a) x0 = −2 + t + x, c = 1, c = 2.
b) y 0 = e−x + y , c = −1
c) x0 = t + 2x, c = −1, c = 3.
−(2t + x)
d) x0 = , c = 1
2x

24
Capítulo 2

Métodos de integración básicos


En esta parte del curso vamos a estudiar diversas técnicas de integración (métodos de solución)
para cierto tipo de ecuaciones diferenciales ordinarias.
Iniciamos con una ecuación diferencial ordinaria de primer orden general:

x0 = f (t, x), (2.1)

con f : D ⊂ R × R −→ R, continua, D: Dominio en el plano. Vamos a considerar las ecuaciones


tipo (2.1) más sencillas, las cuales corresponden al caso f (t, x) = g(t), es decir; f no depende de
la variable x. Así:

Caso 1. x0 = g(t), (2.2)

con g : I ⊂ R −→ R continua, I: abierto en R. Supongamos que g es integrable en I, entonces la


ecuación (2.2) se resuelve por simple integración (Teorema Fundamental del Cálculo)

Z
x(t) = c + g(t) dt , c-cte .

Ahora bien, si se considera el PV I (Problema de valor inicial)

 0
 x = g(t),
(2.3)
x(t0 ) = x0 .

Entonces la solución de (2.3) está dada por

Z t
x(t) = x0 + g(s) ds .
t0

En efecto, consideramos la ecuación (2.2) e integramos a ambos lados (respecto a la variable t),
entre [t0 , t].
Z t Z t Z t Z t
dx 0
(s) ds = g(s) ds ⇔ x (s) ds = g(s) ds . (2.4)
t0 ds t0 t0 t0

25
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Mirando la integral del lado izquierdo en (2.4) se dene (cambio de variable) u = x(s),
dx
du = ds.
ds
Así:
Z t Z x(t)
x(t)
dx
(s) ds = du = u (Regla de Barrow)
t0 ds x(t0 ) x(t0 )
= x(t) − x(t0 )

En consecuencia, (2.4) equivale a:


Z t
x(t) − x(t0 ) = g(s) ds .
t0

Dado que x(t0 ) = x0 (condición inicial) tenemos:


Z t
x(t) = xo + g(s) ds .
t0

Caso 2. f (t, x) = h(x).


En este caso f no depende de la variable t. Tenemos entonces

x0 = h(x). (2.5)

A las ecuaciones del tipo (2.5) se les conoce como Ecuaciones Autónomas . En este caso h:W ⊂
R −→ R, W abierto de R, es continua y una solución de (2.5) será una función diferenciable
x : I ⊂ R −→ W denida en algún intervalo abierto I .
x
y(x)-x0= h(x0)(x-x 0)
x(t)
x0

t0 t

Figura 2.1: La pendiente de la recta tangente y(x) a la curva x = x(t) en el instante t0 es h(x0 ).

Vamos a suponer que h ∈ C 1 (W ) de manera que podamos garantizar el teorema de existencia y


unicidad de soluciones. Ahora bien, un punto xe ∈ W se llama Punto de Equilibrio de (2.5) si
h(xe ) = 0. Claramente, la función constante

x(t) = xe , t ∈ I,

26
es una solución de (2.5). Por unicidad de las soluciones ninguna otra curva solución de (2.5)
puede pasar por xe . Así pues los puntos de equilibrio (los ceros de la función h) generan un
nuevo grupo de soluciones que llamaremos Soluciones de Equilibrio (o soluciones triviales).

En conclusión si xe es un punto de equilibrio, entonces x(t) = xe para todo t ∈ R, esta es la


razón por la cual xe se le llama también punto estacionario pues en este caso (2.5) modela solo
el estado xe , siempre ha sido, es y será xe (pasado, presente y futuro).

Ahora bien, vamos a considerar puntos x ∈ W para los cuales h(x) 6= 0. Por continuidad existe
un abierto V en el cual h(x) 6= 0 ∀x ∈ V . Entonces; este caso nos permite:
1 dx
= 1 ∀x ∈ V. (2.6)
h(x) dt
Buscamos soluciones de (2.6) denidas en I0 ⊂ R tal que

x : I 0 −→ V
t −→ x = x(t).

Así que debemos integrar sobre I0 en (2.6) y obtener:


Z Z
1 dx
dt = dt . (2.7)
h(x(t)) dt
dx
Sea u = x(t), du = dt. Por lo tanto:
dt
Z Z
1 dx 1
dt = du = G(u).
h(x(t)) dt h(u)
En consecuencia: Z
G(u) = dt = t + c , c-cte.

Si podemos tener una fórmula explícita de G(u) entonces

u = G−1 (t + c); G−1 : Inversa de G.

Así que:
x(t) = G−1 (t + c) solución implícita de ( ??).
En muchas ocasiones este procedimiento anterior no contiene las soluciones del equilibrio (no hay
valor de la constante c que las genere). Por lo tanto se debe considerar la unión de las soluciones
de equilibrio y las que no lo son para tener todas las soluciones posibles de ( ??). Veamos algunos
ejemplos.

Ejemplo 2.0.1 Resolver


x0 = x(1 − x) ,
en este caso tenemos que

h : R −→ R
x −→ h(x) = x(1 − x),

27
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

donde h ∈ C 1 (R). Buscamos primero las soluciones de equilibrio . Para ello resolvemos h(x) =
0 ⇔ x(1 − x) = 0. En consecuencia:

x1e (t) = 0, x2e (t) = 1 (dos equilibrios).

Buscamos ahora las demás soluciones (soluciones no triviales)

1 dx
=1,
x(1 − x) dt

con u = x(t) tenemos: Z Z


1
du = dt .
u(1 − u)
Z
1
La integral du se resuelve usando el método de fracciones parciales y obtenemos:
u(1 − u)
Z
1 u
du = ln
+ c1 , c1 -cte.
u(1 − u) u − 1
Así: Z Z
1 u
du = ln
+ c1 = dt = t + c2 .
u(1 − u) u − 1
Por lo tanto:
u
ln
=t+c c = c2 − c1 -cte.
u − 1
Regresamos a la variable x = x(t) y tenemos:

x(t)
ln
= t + c.
x(t) − 1
Lo anterior equivale a decir que:

x(t) c+t
x(t) − 1 = e
= ec · et ,

lo que implica:
x(t)
= ±ec · et .
x(t) − 1
Sea k = ±ec (constante positiva o negativa) entonces:

x(t)
= ket .
x(t) − 1

Despejamos x(t) y obtenemos:


ket
x(t) = . (2.8)
ket − 1
Note que si k=0 (lo cual no es posible) se encontraría de (2.8) la solución de equilibrio x0e = 0.
ket
Por otro lado no existe constante k alguna tal que = 1, ∀t ∈ R.
ket − 1

28
2.1. ECUACIONES SEPARABLES

Así que el conjunto de soluciones no triviales de la ecuación x0 = x(1 − x) es dado por:

ket
x(t) = , k 6= 0 , k -cte
ket − 1
y las soluciones de equilibrio
x1e (t) = 0,
x2e (t) = 1.

2.1. Ecuaciones Separables


Consideramos ahora, ecuaciones x0 = f (t, x) donde f (t, x) es de la forma:

f (t, x) = h(x) · g(t) ,


donde h : W ⊂ R −→ R, h ∈ C 1 (W ); g : I ⊂ R −→ R g ∈ C 1 (I).
En este caso tenemos ecuaciones de la forma

x0 = h(x) · g(t). (2.9)

A las ecuaciones tipo (2.9) se les conoce como Ecuaciones Separables. En este caso D = W ×I ⊂
R × R.

Ejemplos 2.1.1
x0 = 5x2 et , h(x) = 5x2 , g(t) = et .
x0 = ln(xt ), h(x) = ln(x), g(t) = t.
x0 = λx, λ : cte , h(x) = λx, g(t) = 1.
x0 = t + x (Esta ecuación no es una ecuación diferencial separable).

El método de solución de este tipo de ecuaciones es el mismo. Buscamos primero las soluciones
de equilibrio (h(x)
= 0). Encontradas estas soluciones, luego buscamos las soluciones no triviales.
De nuevo suponemos h(x) 6= 0 y separamos las variables

1 dx
= g(t) .
h(x) dt
Integramos respecto a t: Z Z
1 dx
dt = g(t) dt. (2.10)
h(x) dt
Resueltas las integrales entonces se llega a una ecuación de la forma:

H(x) = G(t) + c, con c-cte.


Si es posible despejar x, se encuentra:

x = x(t) = H −1 (G(t) + c) .
Veamos los siguientes ejemplos:

29
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Ejemplo 2.1.2
x0 = tx2 .
En este caso, f (t, x) = tx2 , h(x) = x2 , h(x) = x2 , g(t) = t y D = R × R.

1. Primero las soluciones de equilibrio: h(x) = x2 .


De aquí tenemos una solución de equilibrio:

x1e (t) = 0, ∀t ∈ R .

2. Ahora las soluciones no constantes:

x0 = tx2 ,
1 dx
= t,
Z x2 dt Z
1 dx
dt = t dt .
x2 dt

Así tenemos:
1 t2
− = + c, c-cte.
x 2
Despejamos la variable x = x(t) y obtenemos:

1
x(t) = − t2
.
c+ 2

Ejemplo 2.1.3 Considere el problema de valor inicial:

x0 = et x3 − tet x3 , x(0) = −1.

Observe que:
et x3 − tet x3 = et x3 (1 − t).
Por lo tanto, con h(x) = x3 , g(t) = et (1 − t), tenemos que:

x0 = h(x) · g(t),

por lo que tenemos una ecuación diferencial separable.

Buscamos entonces las soluciones triviales (de equilibrio):

h(x) = 0 ⇔ x3 = 0, x1e (t) = 0.

Note que dada la condición inicial considerada, la solución de equilibrio x1e (t) = 0 no nos sir-
ve. Buscamos entonces en las soluciones no triviales. Tenemos entonces según el procedimiento
descrito que: Z Z
1 dx
dt = et (1 − t)dt
x3 dt

30
2.1. ECUACIONES SEPARABLES

1
− x−2 = (2 − t)et + c, c : cte.
2
Ajustamos la constante c. Sabemos que x0 = −1, por lo tanto:
1
− = (2 − 0)e0 + c.
2
De manera que c = − 25 . En consecuencia:

1
x(t) = ± p .
5 − 2(2 − t)et
Elegimos el signo de manera que tengamos consistencia con la condición inicial, así que:
−1
x(t) = p .
5 − 2(2 − t)et

Figura 2.2: Comportamiento asintótico de la concentración Cn que oscila entre CM y r.

Ejemplo 2.1.4
x0 = ax, a-cte.
En este caso: h(x) = x, g(t) = a. Tenemos una ecuación separable. Ahora bien:
Z Z
1 dx
dt = a dt ,
x dt
ln |x| = at + c .
Entonces:

eln |x| = eat+c ,


|x| = ec eat .
Sea k = ±ec , tenemos así: |x| = ec eat , entonces x(t) = keat .
Note que k 6= 0, entonces las soluciones no triviales son x(t) = keat y la solución trivial xe (t) = 0.
Podemos unirlas y obtener todas en una misma fórmula:

x(t) = keat , k ∈ R.

31
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

2.2. Ecuaciones Homogéneas


Las ecuaciones homogéneas son ecuaciones de la forma
   
0 x 0 t
x =F x =G ,
t x

F : I ⊂ R −→ R, G : I˜ ⊂ R −→ R,
en donde son funciones de clase C 1. Si I =]a, b[ entonces
x
a < < b. Tenemos así:
t
D+ = {(t, x) : t > 0, at < x < bt}, 0<a<b
D− = {(t, x) : t < 0, at < x < bt}.

x
bt

at
t

Figura 2.3: Graca de los dominios D+ y D− en el caso 0 < a < b.

Ejemplo 2.2.1 Considere la siguiente ecuación diferencial

x2 + 2tx
x0 = .
t2
Note que
 2
x2 + 2tx
 
x x
f (t, x) = 2
, f (t, x) = +2 .
t t t
 
x
Sea F (u) = u2 + 2u, entonces F = f (t, x) esto equivale a decir:
t
 
0 x
x =F .
t
Esta forma especial de las ecuaciones homogéneas sugiere el cambio de variable.

x
u= , esto equivale a x(t) = u(t) · t = g(t, u(t)).
t

32
2.2. ECUACIONES HOMOGÉNEAS

En consecuencia:

d d
x0 = (g(t, u(t))) = (u(t)t),
dt  dt
x
= F = F (u) = u0 (t)t + u(t).
t
Tenemos entonces: F (u) = u0 t + u.
De aquí se deduce una nueva ecuación en las variables t, u dada por:

F (u) − u
u0 = . (2.11)
t
La ecuación (2.11) tiene una gran ventaja pues es una ecuación en variables separables con:

1
h(u) = F (u) − u, g(t) = .
t
Entonces aplicamos toda la teoría que hemos visto para las ecuaciones separables para así resolver
(2.11). Buscamos las soluciones triviales: F (u) − u = 0, y luego las soluciones no triviales:

Z t Z t
1 1 1 du 1
u0 = ⇔ ds = ds.
F (u) − u t F (u(s)) − u(s) ds s
Si sabemos resolver las integrales, llegamos a una ecuación de la forma

G(u) = ln |t| + c.

Así:
u(t) = G−1 (ln |t| + c).
Por lo tanto:
x(t) = G−1 (ln |t| + c)t; t ∈]a, b[.

Ejemplo 2.2.2 Considere la ecuación diferencial

x2 + 2tx
x0 = .
t2
Hemos visto que:  
x
x0 = F con F (u) = u2 + 2u ,
t
la ecuación (2.11) queda en este caso:

u2 + 2u − u
u0 = ,
t
u2 + u
u0 = . (2.12)
t
Buscamos ahora las soluciones de (2.12). Primero las soluciones triviales. Éstas se obtienen de
la ecuación F (u) − u = 0 que en este caso es:

u2 + u = 0, u(u + 1) = 0 .

33
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Tenemos así:
u1e (t) = 0 , u2e (t) = −1 .
Ahora las soluciones no triviales:

1 du 1
= ,
F (u) − u dt t
1 du 1
2
= ,
Z u + u dt Zt
1 du 1
dt = dt ,
u2 + u dt t

u(t)
ln
= ln |t| + c .
u(t) + 1

Podemos considerar c = ln |d|, d-cte y obtener:



u(t)
ln
= ln |dt|, d ∈ R.
u(t) + 1

Dado que debemos elegir un dominio D+ o D− entonces, si elegimos D+ se tendría:



u(t)
ln = ln |dt|.
u(t) + 1

De aquí que:
u(t)
= ±dt .
u(t) + 1
Sea k = ±d, así:
u(t)
= kt .
u(t) + 1
Despejamos la variable u = u(t) y obtenemos:

kt
u(t) = .
1 − kt
En consecuencia:
kt2
x(t) = u(t)t, x(t) = , k∈R.
1 − kt
Las soluciones entonces son:

kt2
x1e (t) = 0, x2e (t) = −t, x(t) = , k ∈ R, t > 0 .
1 − kt

Ejemplo 2.2.3 Resolver el problema de Cauchy:

xt2 + x3
x0 = , x(−1) = 1.
t3
En este caso se toma D− = {(t, x) ∈ R2 : t < 0}.

34
2.2. ECUACIONES HOMOGÉNEAS

Por otro lado:

xt2 x3
x0 = + 3 ,
t3 t
 3
xt2 x
x0 = 3
+ .
t t
Por lo tanto:  
3 0 x
F (u) = u + u , x =F .
t
x
Sea u= , x(t) = u(t)t. Llegamos a la ecuación
t
u3
u0 = .
t
Buscamos las soluciones de esta ecuación.

Soluciones triviales:
1
u0 = h(u)g(t) con h(u) = u3 , g(t) = .
t
Así, h(u) = 0 si y sólo si u3 = 0. Tenemos una solución trivial dada por:

u1e (t) = 0.

Esta solución genera x1e (t) = 0. Pero dada la condición inicial no es considerada esta solución.
Ahora las soluciones no triviales:

1 du
= g(t) ,
h(u) dt
Z Z
1 du 1
dt = dt ,
u3 dt t
1
− 2 = ln(−t) + c , c-cte
2u  
1 −1
= ln +c .
2u2 t
Por lo tanto:
1
u2 =   , k -cte, t ∈ ] − ∞, 0[,
−1
k + 2 ln
t
así: v
u 1
u = ±u   ,
u
−1
k + 2 ln
t
t
en consecuencia: v
u 1
x(t) = ±tu   .
u
−1
k + 2 ln
t
t

35
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Ajustamos el valor de la constante k y el signo de la raíz. Entonces x(−1) = 1, así:

v
u 1
1 = ±(−1)u   ,
u
−1
k + 2 ln
t
−1
r
1
1 = ±
k
Entonces la raíz es k = 1. En consecuencia

1 √
x(t) = s   , t∈ ]− e, 0[.
−1
1 + 2 ln
t

Ahora vamos a presentar una denición más precisa de las ecuaciones homogéneas y entender el
por qué de este nombre.

Denición 2.2.4 Una función

f : D ⊂ R × R −→ R
(t, x) −→ f (t, x),

se dice que es homogénea de grado α si:

f (λt, λx) = λα f (t, x),

∀(t, x) ∈ D, λ > 0, α ∈ R.

Ejemplos 2.2.5

1. Sea
f (t, x) = t3 + 5x3 .
Esta función es homogénea de grado α = 3. En efecto:

f (λt, λx) = (λt)3 + 5(λx)3 ,


= λ3 t3 + 5λ3 x3 ,
= λ3 (t3 + 5x3 ),
= λ3 f (t, x).

2. Sea
g(t, x) = t2 + tx.
Esta función es homogénea de grado α = 2.

36
2.2. ECUACIONES HOMOGÉNEAS

3. Sea
h(t, x) = t2 x + x3 + t3 − 1.
Esta función no es homogénea. En efecto:

h(λt, λx) = λ3 t2 x + λ3 x3 + λ3 t3 − 1,
= λ3 (t2 x + x3 + t3 ) − 1,
6= λ3 h(t, x).
Denición 2.2.6 Ecuación Diferencial Homogénea
Una ecuación diferencial de primer orden

x0 = f (t, x),
es una ecuación diferencial homogénea si

P (t, x)
f (t, x) = , Q(t, x) 6= 0,
Q(t, x)
en donde P, Q son funciones homogéneas del mismo grado. Es decir:

P (λt, λx) = λα P (t, x) y Q(λt, λx) = λα Q(t, x),


para algún α ∈ R.

La ecuación
P (t, x)
x0 = . (2.13)
Q(t, x)
Se escribe en diversas formas. En muchos libros se presenta así:

dx P (t, x)
= ⇔ Q(t, x)dx = P (t, x)dt ⇔ P (t, x)dt − Q(t, x)dx = 0 . (2.14)
dt Q(t, x)

La ecuación (2.14) es la que usualmente se encuentra en los textos. Así que, si vamos a buscar
en un libro qué es una ecuación diferencial homogénea, tendríamos algo como:

Denición 2.2.7 Una ecuación diferencial de primer orden

P (t, x)dt + Q(t, x)dx = 0


es homogénea, si las funciones P y Q son funciones homogéneas del mismo grado.

Queda entonces como ejercicio, demostrar que toda ecuación diferencial homogénea de la forma

P (t, x)dx + Q(t, x)dt = 0,


con P y Q funciones homogéneas de grado α, se puede escribir en forma equivalente como:
   
x t
x0 = F ó x0 = G .
t x

Observación. Pruebe que si P (t, x) es homogénea de grado α, entonces


 
x
P (t, x) = tα P 1, .
t

37
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Ejemplo 2.2.8 Considere la famosa función de producción Cobb- Douglas y = Lα K 1−α , en


donde L ≡ representa el trabajo, K ≡ Representa el capital. Esta función de producción es
homogénea de grado 1, en efecto:

f (tL, tK) = (tL)α (tK)1−α = tα Lα t1−α K 1−α


= tLα K 1−α = tf (L, K)

El signicado económico de este resultado es que la producción f (L, K) es afectada exáctamente


en la misma proporción, t, como lo están los insumos.

Existen muchas propiedades interesantes de las funciones homogéneas. Vamos a presentar dos
que consideramos vitales en conocer.

Proposición 2.2.1 Si f (t, x) es una función homogénea de grado α entonces las derivadas pa-
∂f (t,x) ∂f (t,x)
raciales ∂t , ∂x son funciones homogéneas de grado α − 1.

Demostración En efecto, sea f (t, x) una función homogénea de grado α y λ > 0 donde λ ∈ R
entonces
∂ ∂ ∂f (t, x)
(f (λt, λx)) = (λα f (t, x)) = λα ,
∂t ∂t ∂t
mientras que
∂ ∂f (λt, λx)
(f (λt, λx)) = λ,
∂t ∂t
por lo tanto
∂f (λt, λx) ∂f (t, x)
= λα−1 .
∂t ∂t

La propiedad de homogeneidad genera una característica importante sobre las curvas de nivel
a lo largo de cualquier rayo que parta del origen, y es que las pendientes de las curvas de nivel
son las misma a lo largo del rayo. En efecto, la pendiente de la curva de nivel f (t, x) = c, c una
constante en el plano t, x es
dx ∂f /∂t
=− ,
dt ∂f /∂x
pero
∂f (λt, λx) ∂f (t, x) ∂f (t, x)
λα−1
∂t = ∂t = ∂t
∂f (λt, λx) ∂f (t, x) ∂f (t, x)
λα−1
∂x ∂x ∂x
Así:
dx(λt, λx) dx(t, x)
= .
dt dt
En consecuencia, la pendiente de cualquier curva de nivel evaluada en el rayo r(t, x) = (t, x) es
la misma.

El segundo resultado fundamental sobre las funciones homogéneas es el conocido Teorema de


Euler

38
2.2. ECUACIONES HOMOGÉNEAS

X
xt=2

xt=3

xt=1
f(t,x)=xt=c
x(t)=c/t
2
dx(t)/dt=-c/t

( 3, 3)

( 2, 2) dx( 2 )/dt=-1

dx(1)/dt=-1 (1,1) (2 3 , 3 /2)

(2,1/2)

dx(2)/dt=-1/4

Figura 2.4: curvas de nivel de la función f (t, x) = tx para x > 0.

Teorema 2.2.9 (Teorema de Euler) Suponga que f (t, x) es una función homogénea de grado
α. Entonces:

∂f (t, x) ∂f (t, x)
t+ x = αf (t, x)
∂t ∂x

Ejemplo 2.2.10 Sea f (t, x) = tα1 xα2 . Entonces

f (λt, λx) = λα1 α2 f (t, x);

por lo que f es homogénea de grado α1 α2 . De otro lado:

∂f (t, x) ∂f (t, x)
= α1 tα1 −1 xα2 ; = α2 tα1 xα2 −1
∂t ∂x

En consecuencia:

∂f (t, x) ∂f (t, x)
t+ x = (α1 + α2 )tα1 xα2
∂t ∂x
= (α1 + α2 )f (t, x),

que corresponde a la conclusión del teorema de Euler.

39
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

2.3. Ejercicios
1. Resolver las siguientes ecuaciones por el método de variables separables

t2 x2
a) x0 = b) y 0 =
x y(1 + x3 )
t − e−t x2
c) x0 = d) y 0 =
x + ex 1 + y2

2. Demuestre que cada una de las siguientes ecuaciones son ecuaciones homogéneas y encuen-
tre sus soluciones.

x+t 4x − 3t
a) x0 = b) x0 =
t 2t − x
c) (t + 3tx + x2 )dt − t2 dx = 0
2
d) 2ydx − xdy = 0
x + 3y x2 + xy + y 2
e) y 0 = f ) y0 =
x−y x2

3. Resuelva la siguiente ecuación usando el método de separación de variables.

2
a) x0 = (t − 3)(x + 1) 3
b ) Muestre que x(t) = −1 satisface la ecuación.

c ) Muestre que no hay una elección de la constante de integración c de modo que la


solución de la parte (a) produzca la solución x(t) = −1. Explique por qué se pierde
esta solución.


4. Dada la ecuación x0 = t + x, ¾Considera usted que se puede resolver por separación de
variables? Proponga una solución conveniente que convierta esta ecuación en una ecuación
de variables separables y resuélvala.

5. La siguiente ecuación se conoce como la Ecuación Logística

 
dP P
= KP 1 − ,
dt N

con K, N : constantes. Utilice el método de separación de variables para resolver esta ecua-
ción y dibuje el campo de direcciones asociado.

6. Considere la siguiente ecuación diferencial

r
0 1 − x2
x =
1 − t2

denida en una región cuadrada del plano D+ = {(t, x) : |t| < 1, |x| < 1} o bien en la región
D− = {(t, x) : |t| > 1, |x| > 1}. Resuelva esta ecuación en la región D+ y D− . A continua-
ción determine una solución implícita y una solución explícita de la ecuación diferencial
sujeta a la condición inicial x(2) = 2.

40
2.4. ECUACIONES DIFERENCIALES EXACTAS

7. Un modelo de crecimiento poblacional es la ecuación de Gompertz


1 dada por

x0 = rx ln(K/x)

en donde r y K son constantes positivas.

Graque la función f (x) = rx ln(K/x).


Resuelva la ecuación de Gompertz sujeta a la condición inicial x(0) = x0 . (Clave:
Dena u = ln(x/K))

8. Resuelva la siguiente ecuación diferencial con a y s constantes entre 0 y 1

x0 = −(1 − s)x(1 − a) (2.15)

2.4. Ecuaciones Diferenciales Exactas


Vamos en este punto del curso a considerar ecuaciones diferenciales de primer orden en una forma
distinta a la usual dada por x0 = f (t, x). Consideraremos ecuaciones en la forma:

P (t, x) + Q(t, x)x0 = 0, (2.16)

donde vamos a suponer lo siguiente:

1. P, Q son funciones continuas en un dominio D ⊂ R2 .


∂P ∂Q
2.
∂x , ∂t son funciones continuas en D.
∂P ∂Q
3.
∂x = ∂t en el dominio D (Condición de exactitud).

Adicionalmente se pide que Q(t, x) 6= 0 para todo (t, x) ∈ D. Más aún, bajo este supuesto

P (t, x)
P (t, x) + Q(t, x)x0 = 0 ⇔ x0 = − .
Q(t, x)

P (t, x)
Por lo que si f (t, x) = − llegamos a la forma normal.
Q(t, x)
Si se cumplen 1, 2 y 3, se dice que (2.16) es una Ecuación Diferencial Exacta de primer orden.

Veamos un ejemplo.

Ejemplo 2.4.1 La ecuación

(x cos t + 2tex ) + (sen t + t2 ex − 1)x0 = 0

satisface las condiciones 1, 2 y 3 en D = R × R.


1
Esta ecuación se utilizó por primera vez por el actuario ingles Benjamin Gompertz (1779-1865) para diseñar
tablas de mortalidad para compañias de seguro.

41
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

En efecto,
P (t, x) = x cos t + 2tex ,
Q(t, x) = sen t + t2 ex − 1.
∂P ∂Q
Claramente, P , Q, ∂x , ∂t son continuas en R × R. Más aún, tenemos

∂P ∂Q
= cos t + 2tex = .
∂x ∂t
Ahora vamos a presentar un resultado importante, para el caso de ecuaciones diferenciales tipo
(2.16).

Teorema 2.1 Sean P, Q ∈ C 1 (R2 ). Las siguientes armaciones son equivalentes:

∂V ∂V
Existe V ∈ C 2 (R2 ) tal que ∂t = P, ∂x =Q en R2 .
∂P ∂Q
∂x = ∂t en R2 .

En el teorema anterior vemos dos elementos importantes. El primero es la existencia de una


función V ∈ C 2 (R2 ), que se conoce como Potencial tal que:

dV ∂V ∂V dx
(t, x) = (t, x) + (t, x) , (2.17)
dt ∂t ∂x dt
= P (t, x) + Q(t, x)x0 = 0.

Por lo tanto, en cada punto (t, x) que satisface la ecuación (2.16) se tiene que V (t, x) = c con
c-cte. Esto equivale a decir que si x = x(t) es una solución de (2.16) denida en I ⊂ R, dicha
solución vive sobre la curva de nivel V (t, x) = c.

Otro elemento importante, es que se dene todo el teorema en R2 ; pero esto no es restrictivo.
Podemos obtener el mismo teorema sobre un subconjunto D ⊂ R2 el cual sea Simplemente
Conexo. Un conjunto simplemente conexo se puede interpretar como dominio sin agujeros.

El anterior teorema no es cierto en Coronas. Por ejemplo

D = (t, x) : 1 < (t − 1)2 + (x − 5)2 < 4



o bien D = {(t, x) : t 6= 1, x 6= 0}

x x

2
Coronas t R-(1,0) t
Observe que la condición de exactitud sólo implica la existencia local (en el dominio D) de
una función potencial. Por lo que en adelante, vamos a considerar que nuestro dominio D es
Simplemente Conexo. Veamos ahora el método de solución de las ecuaciones diferenciales exactas.

42
2.4. ECUACIONES DIFERENCIALES EXACTAS

Suponemos entonces:

∂P ∂Q
P, Q ∈ C 1 (D), = , Q(t0 , x0 ) 6= 0 .
∂x ∂t
En donde (t0 , x0 ) ∈ D, x(t0 ) = x0 (Condición inicial). La idea es buscar el potencial (o la función
potencial).

De (2.17) tenemos:
∂V
(t, x) = P (t, x), x = x(t) .
∂t
Integramos respecto a t: Z Z
∂V
(t, x(t)) dt = P (t, x(t)) dt ,
∂t
así: Z
V (t, x) = P (t, x) dt + h(x) , h ∈ C 2 (D). (2.18)

Note que h sólo depende de x.


Por otro lado:
∂V
(t, x) = Q(t, x) .
∂x
Entonces, derivando en (2.18) respecto a x se tiene:
Z
∂V ∂
(t, x) = P (t, x) dt + h0 (x) .
∂x ∂x
En este punto se aplica el resultado de la teoría de las integrales dependientes de parámetros y
se obtiene:
Z
∂V ∂P
(t, x) = (t, x) dt + h0 (x) ,
∂x ∂x
= Q(t, x) ,
así obtenemos: Z
0 ∂P
h (x) = Q(t, x) − (t, x) dt . (2.19)
∂x
Es esencial que en (2.19) la parte izquierda sólo dependa de x; de manera que:
Z  Z 
∂P
h(x) = Q(t, x) − (t, x) dt dx . (2.20)
∂x
Reemplazando (2.20) en la expresión (2.18), tenemos:
Z Z  Z 
∂P
V (t, x) = P (t, x) dt + Q(t, x) − (t, x) dt dx . (2.21)
∂x
La solución es entonces dada implícitamente por la ecuación:

V (t, x(t)) = c , c-cte.


Ahora bien, la condición inicial x(t0 ) = x0 determina la curva de nivel

V (t, x(t)) = V (t0 , x0 ) = c0 .

43
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Ejemplo 2.4.2 Considere la ecuación

t
x0 = − ,
x
denida en D = {(t, x) ∈ R2 : x > 0}.
Note que esta ecuación se puede escribir así:

t + xx0 = 0 .
Sean P (t, x) = t, Q(t, x) = x. Veamos que:

P, Q satisfacen las condiciones 1 y 2, es más

∂P ∂Q
(t, x) = 0 = (t, x) (Condición de exactitud).
∂x ∂t
Por lo que tenemos una ecuación diferencial exacta.

Ahora, sabemos que existe una función potencial V de clase C2 tal que:

∂V
(t, x) = P (t, x) .
∂t
Entonces:
Z
V (t, x) = P (t, x) dt + h(x) ,
Z
= t dt + h(x) ,

t2
= + h(x) .
2
Ahora
∂V x2
(t, x) = h0 (x) = Q(t, x) = x, h(x) = .
∂x 2
Tenemos entonces
t 2 x2
V (t, x) = + = c, c-cte.
2 2
Las soluciones están dadas implícitamente por la ecuación

t2 (x(t))2
V (t, x(t)) = + = c.
2 2
El siguiente es un buen ejemplo de una ecuación que no es una ecuación diferencial exacta.
Ejemplo 2.4.3 Sea
t3
   2 
x
x− dt + + x − t dx = 0 .
3 2
En este caso:
t3 x2
P (t, x) = x − , Q(t, x) = + x − t.
3 2
Por lo tanto:
∂P ∂Q
(t, x) = 1 6= −1 = (t, x) .
∂x ∂t

44
2.5. FACTORES INTEGRANTES

2.5. Factores Integrantes


Aunque en muchas ocasiones, ecuaciones de la forma

P (t, x) + Q(t, x)x0 = 0 ,

no son una ecuación diferencial exacta, es posible multiplicar esta ecuación por una función
(Función Integrante ) que la convierta a una ecuación diferencial exacta.

Por ejemplo:
t
− x0 = 0,
x
no es una ecuación diferencial exacta (vericar), pero si se multiplica por la función ψ(x) = x,
entonces tenemos:
t − xx0 = 0 .
Y esta nueva ecuación sí es una ecuación diferencial exacta (vericar).

Veamos la siguiente denición:

Denición 2.5.1 Una función µ = µ(t, x) ∈ C 1 (D) es un factor integrante de la ecuación

P (t, x) + Q(t, x)x0 = 0 ,

si cumple:

a) µ(t, x) 6= 0, ∀(t, x) ∈ D .

b) La ecuación µ(t, x)P (t, x) + µ(t, x)Q(t, x)x0 = 0, es una ecuación diferencial exacta.

Ejemplo 2.5.2 La ecuación


x + x0 = 0 ,
no es exacta, en efecto: P (t, x) = x; Q(t, x) = 1 y así:

∂P ∂Q
(t, x) = 1 6= 0 = (t, x) ,
∂x ∂t
no cumple la condición de exactitud. Pero µ(t, x) = et es un factor integrante, en efecto:

et x + et x0 = 0,

es una ecuación exacta (vericar).

¾Cómo encontrar µ = µ(t, x)?

De la condición b ) tenemos:

µ(t, x)P (t, x) + µ(t, x)Q(t, x)x0 = 0 .

Es una ecuación diferencial exacta, así que cumple la condición de exactitud para

P (t, x) = µ(t, x)P (t, x) ; Q(t, x) = µ(t, x)Q(t, x) .

45
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

Así:
∂P ∂Q
(t, x) = (t, x) .
∂x ∂t
Por lo tanto:

∂µ ∂P ∂µ ∂Q
(t, x)P (x, t) + µ(t, x) (t, x) = (t, x)Q(x, t) + µ(t, x) (t, x) .
∂x ∂x ∂t ∂t

En consecuencia la ecuación que satisface todo factor integrante µ(t, x) está dada por:
 
∂µ ∂µ ∂Q ∂P
(t, x)P (t, x) − (t, x)Q(t, x) = (t, x) − (t, x) µ(t, x) .
∂x ∂t ∂t ∂x

Si es posible resolver para µ la ecuación anterior logramos nuestro objetivo. Es posible buscar
(intentar) casos especiales como: µ = µ(t), µ = µ(x), µ = µ(t ± x), µ = µ(t.x), ...

Si bien µ = µ(t), entonces:

∂P ∂Q
µ0 (t) ∂x − ∂t
= , (Q(t, x) 6= 0) .
µ(t) Q
si se logra obtener:
∂P
∂x (t, x) − ∂Q∂t (t, x)
= ϕ(t) ,
Q(t, x)
entonces:
µ0 (t) = ϕ(t)µ (Ecuación Separable),

de donde: R
ϕ(t)dt
µ(t) = e .

Si bien µ = µ(x), entonces:

∂Q ∂P
µ0 (x) ∂t − ∂x
= , (P (t, x) 6= 0) .
µ(x) P
si se logra obtener:
∂Q
∂t (t, x) − ∂P∂x (t, x)
= ϕ(x) ,
P (t, x)
entonces:
µ0 (x) = ϕ(x)µ (Ecuación Separable),

de donde: R
ϕ(x)dx
µ(x) = e .

Ejemplo 2.5.3 Considere la ecuación:

(3t2 x + 2tx + x3 )dt + (t2 + x2 )dx = 0 .

En este caso:
P (t, x) = 3t2 x + 2tx + x3 , Q(t, x) = t2 + x2 .

46
2.5. FACTORES INTEGRANTES

En este caso se cumplen las condiciones 1, 2 y 3 en R2 . Ahora bien:

∂P
(t, x) = 3t2 + 2t + 3x2 ,
∂x
∂Q
(t, x) = 2t .
∂t
∂P ∂Q
Claramente ∂x (t, x) 6= ∂t (t, x), en consecuencia la ecuación no es una ecuación diferencial
exacta.
Veamos que existe un factor integrante. Para ello veamos:

µ0 (t) ∂P
∂x − ∂Q∂t
= ,
µ(t) Q
3t2 + 2t + 3x2 − 2t
= ,
t 2 + x2
3(t2 + x2 )
= = 3.
t 2 + x2
de aquí: R
3dt
µ(t) = e = e3t .
Multiplicamos la ecuación por e3t y obtenemos:

e3t (3t2 x + 2tx + x3 ) + e3t (t2 + x2 ) = 0 .

Tenemos nuevas funciones Pe(t, x), Q(t,


e x):

Pe(t, x) = e3t (3t2 x + 2tx + x3 ) ,


e x) = e3t (t2 + x2 ) .
Q(t,

Y así:

∂ Pe
(t, x) = 3(t2 + x2 )e3t + 2te3t ,
∂x
∂Q e
(t, x) = 3e3t (t2 + x2 ) + 2te3t .
∂t
∂ Pe ∂Q
Dado que ∂x = ∂t , nuestra nueva ecuación sí es exacta. Por lo tanto, buscamos la función
e

potencial V , de manera que:

∂V
4 (t, x) = Pe(t, x) ,
∂t
Z
V (t, x) = e3t (3t2 x + 2tx + x3 )dt + h(x) .

Sabemos que:
e3t t2 2 3t 1 3t
Z
t2 e3t dt = − te + e + c1 ,
3 9 9

47
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

suponemos que c1 = 0 y además:

e3t t 1 3t
Z
te3t dt = − e + c2 ,
3 9
suponemos que c2 = 0, nalmente; suponiendo constantes nulas tenemos:
Z
2 1 2 2 1
e3t (3t2 x + 2tx + x3 ) dt = xe3t t2 − xte3t + xe3t + xte3t − xe3t + x3 e3t ,
3 3 3 9 3
1
= xt2 e3t + x3 e3t .
3
En consecuencia:
1
V (t, x) = xt2 e3t + x3 e3t + h(x) .
3
Luego:

∂V
(t, x) = t2 e3t + x2 e3t + h0 (x) ,
∂x
= Q(t,
e x) ,
= e3t (t2 + x2 ) + h0 (x) ,
= e3t (t2 + x2 ) .

Así que: h0 (x) = 0, entonces h(x) = c3 , c3 -cte. De nuevo podemos suponer c3 = 0.


Las soluciones de la ecuación están dadas implícitamente por la ecuación:

1
V (t, x(t)) = xt2 e3t + [x(t)]3 e3t = c, c-cte.
3

2.6. Ejecicios
1. Justique la veracidad o falsedad de la siguiente armación: Toda ecuación separable de
primer orden
x0 = h(x)g(t) ,
es exacta.

2. La ecuación diferencial
y 0 = p(x) + q(x)y + r(x)y 2 , (∗)
es llamada la Ecuación de Ricatti, un ejemplo de este tipo de ecuación es:

4 1
y0 = − 2
− y + y2 . (∗∗)
x x
Mediante el conocimiento de una solución y1 (x) de la ecuación (∗) y el cambio de variable

y(x) = z(x) + y1 (x) ,


2
demuestre que se obtiene una Ecuación de Bernoulli en las variables (x, z). Si y1 (x) = x es
solución de (∗∗) encuentre la ecuación de Bernoulli correspondiente y resuelvala.

48
2.6. EJECICIOS

3. En las siguientes ecuaciones determine si es una ecuación diferencial exacta. Si lo es resuél-


vala.

a) (2x − 1)dx + (3y + 7) = 0.


b) (sen x − x sen t)dt + (cos t + t cos x − x)dx = 0.
 
c) (y ln y − e−xy )dx + y1 + x ln y dy = 0.

d) t dx t 2
dt = 2te − x + 6t .
e) (tan t − sen t sen x)dt + (cos t cos x)dx = 0.

4. Encuentre un factor integrante que convierta las siguientes ecuaciones en ecuaciones dife-
renciales exactas y resuélvalas.

a) (2y 2 + 3x)dx + 2xy dy = 0


b) 6tx dt + (4x + 9t2 )dx = 0.

5. Determine el valor de la constante k que permite que las siguientes ecuaciones sean exactas

(x3 + kxt4 − 2t)dt + (3tx2 + 20t2 x3 )dx = 0,


(6tx3 + cos x)dt + (2kt2 x2 − sen x)dx = 0.

6. Resuelva la ecuación diferencial

t2 x3 + t(1 + x2 )x0 = 0,
(3tx + x2 ) + (t2 + tx)x0 = 0.

considerando los siguientes factores integrantes µ(t, x) = 1/tx3 y µ(t, x) = [tx(2t + x)]−1
respectivamente.

49
CAPÍTULO 2. MÉTODOS DE INTEGRACIÓN BÁSICOS

50
Capítulo 3

Cambio de coordenadas y cambio de


variables
El camino que conduce a la solución de un problema matemático en general no es único. Se
pueden encontrar diversas formas para demostrar un mismo resultado, técnicas más sosticadas
que con el paso del tiempo han surgido hacen sencillos de resolver problemas matemáticos que
fueron en su momento un gran reto del pensamiento. Por ejemplo, hoy día se cuenta con al menos
diez formas distintas de demostrar el Teorema Fundamental del Álgebra. Quizás la diversidad de
los métodos para encontrar las soluciones de un mismo problema matemático sea resultado de
los diversos contextos en los cuales se postula el problema. Frecuentemente, replantear la mirada
desde la cual se observa el problema, puede reducir signicativamente la dicultad de encontrar
su solución. En la teoría de las ecuaciones diferenciales, las variables pertenecen a un dominio de
D ⊂ Rm y es aquí donde tiene signicado a lo que nos referimos con observar", pues el problema
se plantea en un marco de referencia, o equivalentemente en un sistema de coordenadas jo.

3.1. Cambio de Coordenadas


Dados D y D0 , dos dominios en Rm , un cambio de coordenadas es un homeomorsmo
g: D0 → D con g y g −1 de clase C q , con q ≥ 0.
Supongamos que tenemos una ecuación diferencial de primer orden

x0 = f (t, x), (∗)

con f ∈ C 1 (D), y D ⊂R×R un dominio que contiene las variables (t, x).
Si consideramos un cambio de coordenadas que convierta un dominio D0 subconjunto de R×R
el cual contiene las nuevas coordenadas (s, u), en el dominio D mediante un homeomorsmo g,
la ecuación (∗) cambiará en otra ecuación diferencial de la forma

u0 = h(s, u). (∗∗)

Lo anterior es posible por dos elementos claves: la relación x = x(t) y la regla de la cadena. En
efecto, sea g : D0 → D tal que (s, u) 7→ g(s, u) = (g1 (s, u), g2 (s, u)) una función de clase C 1 .

51
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

De aquí se deduce que


t = g1 (s, u), x = g2 (s, u).
Por lo tanto

∂g1 ∂g1
dt = ds + du,
∂s ∂u (3.1)
∂g2 ∂g2
dx = ds + du.
∂s ∂u

La función g será un cambio de coordenadas en D0 si el sistema (3.1) tiene una única solución en
D0 , equivalente a que el siguiente determinante conocido como Jacobiano de la transformación
g(s, u), dado por

∂g1 /∂s ∂g1 /∂u
Jg (s, u) =
, (s, u) ∈ D,
∂g2 /∂s ∂g2 /∂s
es no nulo para todo (s, u) ∈ D.
Ahora bien, respecto a la ecuación diferencial (∗) tenemos a partir de (3.1) y del supuesto u = u(s)
  
dx ∂g2 ∂g2 du ∂g1 ∂g1 du
= + +
dt ∂s ∂u ds ∂s ∂u ds (3.2)

= f (g1 (s, u), g2 (s, u)),

De aquí se obtiene, despejando u0 la ecuación de la forma (∗∗). Si suponemos que podemos resolver
la ecuación (∗∗) en las variables (s, u), recuperamos la solución original de (∗) invirtiendo el
cambio de coordenadas.

Uno de los cambios de coordenadas más frecuentes es el cambio a coordenadas polares. Sean
D0 = (θ, r) : θ ∈ ]0, 2π[ ; r ∈ ]0, ∞[ ,


D = R2 \ (t, x) : x = 0 ; t ≥ 0 .


Figura 3.1: Dominios D0 y D en los planos coordenados R2(θ,r) y R2(t,x) respectivamente

Se considera la aplicación
g : D0 −→ D

52
3.1. CAMBIO DE COORDENADAS

(θ, r) −→ g(θ, r) = (t, x) = (r cos θ, r sen θ),

g es un homeomorsmo entre D0 y D; más aún:


−r sen θ cos θ
Jg (θ, r) =
,
r cos θ sen θ
= −r 6= 0

α β θ

Supuesto que r = r(θ), tenemos el siguiente esquema.

θ ← r r → θ
- %
x −→ t
. &
θ θ

De manera que; al reemplazar en la fórmula (3.2) se tiene:

dr
dx r cos θ + sen θ ·
= dθ ,
dt dr
−r sen θ + cos θ ·

y la ecuación x0 = f (t, x), con f denida en D ⊂R×R se convierte en:

dr
sen θ · + r cos θ
dθ = f (r cos θ, r sen θ) (3.3)
dr
cos θ · − r sen θ

o equivalentemente:
dr
= h(θ, r),

para cierta función h denida en D0 ⊆ ]0, 2π[×]0, ∞[.

Ejemplos 3.1.1 El problema de los tres Escarabajos

53
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

Una aplicación agradable del método de cambio de coordenadas es la resolución del problema
de los escarabajos, el cual no es sencillo de resolver de manera directa usando las coordenadas
cartesianas. Dicho problema es el siguiente:

Tres escarabajos se ubican en las esquinas de una mesa triangular con lados de longitud A.
Al mismo tiempo, comienzan a caminar con la misma velocidad, de tal modo que cada uno de
ellos se desplaza constantemente hacia el que se encuentra situado a su izquierda. ¾Cuál es la
trayectoria que sigue cada escarabajo en su recorrido al centro de la mesa? ¾Cuál es la distancia
total recorrida por cada escarabajo antes de juntarse en el centro de la mesa?

Figura 3.2: Problema de los tres escarabajos, sobre una mesa triangular equilátera.

Por la simetría que presenta el problema solo es necesario determinar la ecuación de la trayectoria

de uno de los escarabajos y obtener por rotación positiva de 3 la de los demás; es decir, si
r1 (t) = (x1 (t), y1 (t)) es la curva que determina el escarabajo 1; que inicia en el vértice (a, 0)
entonces
r2 (t) = R 2π r1 (t) ; r3 (t) = R22π r2 (t),
3 3


son las curvas de los escarabajos 2, 3; con R 2π la matriz 2×2 de rotación positiva de ángulo 3
3
dada por:
√ !
cos 2π − sen 2π 1
− 23
 
3 3 −
√2
R 2π = = .
3 sen 2π
3 cos 2π
3
3
− 12
2
Así:  √   √ 
1 −x
√ 1 (t) − 3 y1 (t) 1 −x
√ 1 (t) + 3 y 1 (t)
r2 (t) = , r3 (t) = .
2 3 x1 (t) − y1 (t) 2 3 x1 (t) − y1 (t)

Supongamos un sistema de coordenadas cartesianas con el eje x sobre una mediana del triángulo
y el origen en el centroide del triángulo. Ver gura 3.2.

Si P (x, y) es un punto de la trayectoria del escarabajo 1 que ha partido desde el punto (a, 0),
teniendo en cuenta que siempre se desplaza en dirección del escarabajo 2, resulta fácil comprobar
que el ángulo que forma el vector OP con la recta tangente a la trayectoria del escarabajo 1 en

el punto P es α = 6 , y coincide con el ángulo formado por el lado AB del triángulo y el eje x.

54
3.1. CAMBIO DE COORDENADAS

De otro lado, la recta tangente a la trayectoria en el punto P tendrá una pendiente igual a
tan(α + θ), donde θ es el ángulo formado por el vector OP y el eje x. Así que:
 
dy 5π
= tan(α + θ) = tan +θ .
dx 6

Aparece el ángulo θ en esta ecuación diferencial, así que parece conveniente considerar un cambio
de coordenadas polares que involucren dicho ángulo. Retomando la ecuación (3.3) se tiene:

dr
· sen θ + r cos θ
dθ = tan(α + θ),
dr
· cos θ − r sen θ

pero

sen(α + θ) sen α cos θ + sen θ cos α


tan(α + θ) = =
cos(α + θ) cos α cos θ − sen α sen θ

1 3
2√cos θ − 2 sen θ
=
− 23 cos θ − 21 sen θ

3 sen θ − cos θ
= √ .
sen θ + 3 cos θ

En consecuencia:

dr √ 1
· sen θ + r cos θ sen θ − √ cos θ
dθ 3 sen θ − cos θ 3
= √ =
dr sen θ + 3 cos θ 1
· cos θ − r sen θ cos θ + √ sen θ
dθ 3

La última igualdad debe ser válida para todo θ ∈ R+ , deducimos entonces que:

1 1 dr √
dr
· r = − √ ←→ = − 3r (Ecuación tipo Malthus)
dθ 3 dθ

Hemos llegado a una ecuación separable que sabemos tiene la siguiente solución

r(θ) = r(0)e−γθ , γ = 3 , θ ∈ R+ .

Dado que r(0) = a, se cumple:


r(θ) = ae−γθ .
A
Se puede comprobar que a= √ , así que
3
A
r(θ) = √ e−γθ . (3.4)
3

La ecuación (3.4) es la ecuación paramétrica de una curva logarítmica que determina la trayec-
toria de cada escarabajo en la mesa triangular equilátera.

55
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

Retomamos las variables originales x(θ) e y(θ) al deshacer el cambio de coordenadas; por lo
tanto:

x1 (θ) = r(θ) cos



θ, y1 (θ) = r(θ) sen

θ,
A − 3 θ cos θ, A − 3 θ sen θ.
= √3 e = √3 e

Estas son las ecuaciones paramétricas de una espiral logaritmica

A √ A √
r1 (θ) = ( √ e− 3 θ cos θ, √ e− 3 θ sen θ).
3 3

Las demás trayectorias son:

−A −√3 θ √ −A −√3 θ √
 
r2 (θ) = √ e (cos θ + 3 sen θ), √ e (sen θ − 3 cos θ) ,
3 3
A √ √ −A √ √
 
r3 (θ) = √ e− 3 θ ( 3 sen θ − cos θ), √ e− 3 θ ( 3 cos θ − sen θ) .
3 3

Por último, la distancia recorrida por cada escarabajo se calcula fácilmente:

r Z ∞r
Z ∞
dx 2 dy 2 dr
L= ( ) + ( ) dθ = ( )2 + r2 dθ,
0 dθ dθ 0 dθ
Z ∞ r 2 2 −2γθ 2 −2γθ
γ A e A e
= + dθ,
0 3 3
Z ∞ r
A2 2 2A ∞ −γθ
Z
−γθ 2
= (γ + 1)e dθ = √ e dθ = A.
0 3 3 0 3

El anterior problema puede extenderse a caso más generales, por ejemplo para el caso de
N −escarabajos ubicados en los vértices en una mesa N −gonal. Ver ejercicio 7 de la lista de
problemas al nal del capítulo.

56
3.2. CAMBIO DE VARIABLE

N=2 N=3 N=4

Figura 3.3: Diagrama esquemático de los triángulos logarítmicos del problema de los N-
escarabajos para los casos N = 2, 3, 4.

3.2. Cambio de Variable


Cuando solo se produzca un cambio en la variable dependiente hablaremos de un cambio de
variable, en este caso; con s = t:
t = g1 (t, u) , x = g2 (t, u),

así tenemos:
g : D00 → D ; (t, u) → g(t, u) = (t, g2 (t, u)).

En este caso, la condición sobre el Jacobiano de g quedaría en la forma



1 0 ∂g (t, u)
2
Jg (t, u) = ∂g2 ∂g2 = 6 0.
=

∂u
∂t ∂u

La ecuación (3.2) queda entonces así:

∂g2 (t, u) ∂g2 (t, u) 0


x0 = + · u = f (t, g2 (t, u)).
∂t ∂u

∂g2 (t, u)
Dado que 6= 0 en D00 (condición necesaria para aplicar el Teorema de la Función
∂u
Implicita para u = u(t)) tenemos:

∂g2 (t, u)
f (t, g2 (t, u)) −
u0 = ∂t .
∂g2 (t, u)
∂u
Sea
∂g2 (t, u)
f (t, g2 (t, u)) −
F (t, u) = ∂t ,
∂g2 (t, u)
∂u

57
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

encontramos una nueva ecuación diferencial de primer orden en las variables t y u dada por:

u0 = F (t, u) ,

con F : D00 ⊂ R × R −→ R, F ∈ C 1 (D00 ).


Los dominios D, D0 y D00 se suponen abiertos y arco-conexos. Veamos con unos ejemplos cómo
y dónde se aplica esta técnica.

Ejemplo 3.2.1 La ecuación de Bernoulli

x0 + q(t)x = p(t)xn , n ∈ R − {1}; (3.5)

Esta ecuación surge de modelos matemáticos para el movimiento bidimensional de un proyectil


bajo la inuencia de la gravedad y de la resistencia del aire, así como en el modelo de crecimiento
de Solow cuando se considera una función de producción tipo Cobb-Douglas.

En este caso:
f (t, x) = p(t)xn − q(t)x con p, q ∈ C 1 (I).

Aplicamos el siguiente cambio de variable (sustitución),

1
x = g(t, u) = u 1−n , u = u(t).

Así:
1 1
∂t g(t, u) = 0, ∂u g(t, u) = u 1−n −1 .
1−n
Tenemos:
1 n
∂t g(t, u) = 0, ∂u g(t, u) = u 1−n .
1−n
En consecuencia:

f (t, g(t, u)) − ∂t g(t, u)


F (t, u) = ,
∂u g(t, u)
n 1
p(t)u 1−n − q(t)u 1−n − 0
= n ,
1
1−n u
1−n

= (1 − n)[p(t) − q(t)u] .

Nuestra nueva ecuación diferencial está dada por:

u0 = (1 − n)[p(t) − q(t)u] .

La escribimos de la forma:
u0 + (1 − n)q(t)u = (1 − n)p(t) ,
m

u0 + r(t)u = m(t) , (3.6)

donde:
r(t) = (1 − n)q(t), m(t) = (1 − n)p(t).

58
3.2. CAMBIO DE VARIABLE

La ecuación (3.6) aún no sabemos resolverla, la dejamos pendiente y daremos su solución en el


siguiente tema sobre las ecuaciones lineales de primer orden. Pero vamos a emplear otra estrategia
para resolver la ecuación de Bernoulli sin pasar por la ecuación (3.6). Dicha estrategia consiste
en convertir (3.5) en una ecuación diferencial exacta. Para ello considere el factor integrante

1
µ(t, x) = R .
xn e(n−1) q(t) dt

La ecuación de Bernoulli (3.6) multiplicada por este factor integrante µ(t, x) se puede escribir
en la forma
P (t, x)
x0 = − , Q(t, x) 6= 0.
Q(t, x)
con

P (t, x) = (q(t)x − p(t)xn )µ(t, x),


Q(t, x) = µ(t, x).

Es sencillo demostrar (se deja como ejercicio), lo siguiente:

∂P ∂Q
= = −(n − 1)q(t)µ(t, x).
∂x ∂t

Ejemplo 3.2.2 Obtener la solución general de la ecuación

t2 x0 + 2tx − x3 = 0 , t > 0.
Es necesario cambiar la expresión para que se parezca a la ecuación (3.5). Esto se logra al
multiplicar por t
−2
0 −1 −2 3
x + 2t x−t x = 0. (3.7)

Al identicar q(t) = 2t−1 y p(t) = t−2 se encuentra el factor integrandte µ(t, x)


1
µ(t, x) = ,
x3 t 4
que al multiplicar con (3.7) se obtiene

µx0 + µ(q(t)x − p(t)x3 ) = 0.


Si
2 1
P (t, x) = − ,
x2 t5 t6
1
Q(t, x) = 3 4 ,
x t
entonces 0 = P (t, x) + Q(t, x)x0 es una ecuación exacta. Por lo tanto existe un V ∈ C 2 (R2 )
dV
tal que (t, x) = P (t, x) + Q(t, x)x0 y V (t, x) se puede encontrar de la siguiente manera (ver
dt
ecuación (2.21)):
Z   Z  
−4
Z
2 1 1
V (t, x) = − dt + − dt dx,
x2 t5 t6 x3 t 4 x3 t5
−1 1
= 2 5 + 5 =c c = cte.
2x t 5t

59
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

Al despejar x encontramos que esta puede ser de dos maneras



5t
x1 = √ ,
ct5
+2

5t
x2 = − √ .
5
ct + 2

3.3. Ejercicios
1. Encuentre una sustitución adecuada para resolver los siguientes problemas.

a) x0 = (t + x + 1)2
b) y 0 = 1 + ey−x+5
c) y 0 = (y − 2x)2 − 7, y(0) = 0

2. Considere la ecuación  
dy a1 x + b1 y + c1
=G .
dx a2 x + b2 y + c2
Demuestre que esta ecuación se puede llevar a una ecuación homogénea si a1 b2 − a2 b1 6= 0.
Sugerencia: considere el cambio de variable

y = s + k,
x = u + h,

donde k, h constantes.

3. Use una sustitución adecuada para convertir la ecuación diferencial de la forma

y 0 = G(ax + by) ,

en una ecuación separable.

4. La ecuación diferencial
y 0 = p(x) + q(x)y + r(x)y 2 , (∗)
es llamada la Ecuación de Ricatti, un ejemplo de este tipo de ecuación es:

4 1
y0 = − − y + y2 . (∗∗)
x2 x
Mediante el conocimiento de una solución y1 (x) de la ecuación (∗) y el cambio de variable

y(x) = z(x) + y1 (x) ,


2
demuestre que se obtiene una Ecuación de Bernoulli en las variables (x, z). Si y1 (x) = x es
solución de (∗∗) encuentre la ecuación de Bernoulli correspondiente y resuélvala.

60
3.3. EJERCICIOS

5. Demuestre que la siguiente ecuación

dx
= (1 − x)[y(t) + bx],
dt
con x(t) una función continua y b una constante, es una ecuación de Riccati. Resuelva esta
ecuación en el caso x(t) = at con a una constante. De su respuesta en forma integral.
6. Usar un cambio de coordenadas polares para transformar la ecuación

x3 + xt2 − x − t
x0 =
t3 + tx2 + x − t
en
dr
= r(1 − r2 ).

Deducir de este hecho que la familia de curvas

ceθ ceθ
t= √ cos θ ; x= √ sen θ
1 + c2 e2θ 1 + c2 e2θ
son soluciones de la ecuación dada.

7. El problema de los n-escarabajos. Supongamos que n escarabajos se posan en las esquinas


de una tabla n-gonal regular de lado L. Comienzan a caminar al mismo tiempo y con la
misma velocidad, de tal modo que cada uno de ellos se desplaza constantemente hacia el
que se encuentra situado a su izquierda. Determinar la trayectoria y la distancia que ha
recorrido cada uno de los escarabajos, antes de juntarse todos en el centro de la tabla.

8. Las ecuaciones de Euler son ecuaciones de segundo orden de la forma

t2 x00 + αtx0 + βx = 0, (3.8)

denidas para todo t ∈ ]0, ∞[ , con α; β constantes reales.


Sea t = es ; bajo este cambio de variable demuestre que toda ecuación de Euler se escribe
en la forma
d2 w dw
2
+ (α − 1) + βw = 0 (3.9)
ds ds
con w = w(t(s)). Note que la ecuación (3.9) tiene coecientes constantes. Aplicar lo anterior
a la ecuación
t2 x00 − tx0 + 5x = 0
Suponga que (3.9) admite soluciones de la forma w(s) = eλs . Determine condiciones sobre
el parámetro λ para que efectivamente w(s) sea solución de (3.9).

9. Considere una ecuación diferencial de segundo orden

x00 + p(t)x0 + q(t)x = 0. (3.10)

Con p, q funciones continuas en I ⊂ R. Sea t = g(s) ; g ∈ C 1 ⊂ R ; bajo este cambio de


variable muestre que (3.10) se convierte a una ecuación diferencial de la forma:

2
d2 x d2 s
  
ds ds dx
· 2 + 2
+ p(t) + q(t)x = 0. (3.11)
dt ds dt dt dt

61
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

Suponga que q(t) > 0 y que además

Z
s = g −1 (t) = [q(t)]1/2 dt,

ds 2

esto quiere decir que
dt ∝ q(t) con constante de proporcionalidad 1. Bajo esta elección
de s muestre que
d2 ρ ds
2
+ p(t) := cte,
dt dt
para todo t, siempre que
q 0 (t) + 2p(t)q(t)
= cte,
2[q(t)]3/2
con c una constante. De esta manera la ecuación (3.11) tendrá coecientes constantes bajo
las condiciones impuestas. ¾Qué sucede si q(t) < 0?

10. Un tópico fundamental en Mecánica Celeste es el estudio de los movimientos de las partí-
culas de masa no cero (suponga masa 1) bajo un campo de fuerzas centrales, de acuerdo a
la segunda Ley de Newton. Este estudio tiene como principal objeto de estudio la ecuación
diferencial de segundo orden

x dx
ẍ = f (kxk) , x ∈ R2 \{0} , ẋ = , (3.12)
kxk dt

con f : ]0, ∞[ −→ R continua. Aquí x = x(t) = (x1 (t), x2 (t)) es el vector posición de una
partícula moviendose en el plano x1 , x2 con movimiento angular c no cero.

c = x(t) ∧ ẋ(t).

x(t) ∧ ẋ(t) := Producto vectorial entre x e ẋ.

Si x(t) es una solución de (3.12), y la expresamos en coordenadas polares

x(t) = (r(t) cos θ(t), r(t) sen θ(t)) t ∈ I ⊂ R

Muestre que las funciones θ(t) ; r(t) satisfacen las ecuaciones

r̈ − rθ2 = f (r) ; 2ṙθ̇ + rθ̈ = 0.

Multiplique la segunda ecuación por r y pruebe que

r2 θ̇ = kck.

De lo anterior se deduce que las soluciones x(t) = r(t)(cos θ(t), sen θ(t)) de (3.12) con
kck = α 6= 0 pueden obtenerse como las soluciones del sistema de ecuaciones

α2 α
r̈ − = f (r) ; θ̇ = 2 . (3.13)
r3 r
x(t) ∧ ẋ(t) = (x1 (t)x˙2 (t) − x˙1 (t)x2 (t))k k = (0, 0, 1).

62
3.3. EJERCICIOS

Para resolver la primera ecuación en (3.13) se propone el siguiente cambio de variable


(debido a Clairaut), válido para α 6= 0.

 Variable Independiente : θ
Variable Independiente : t

−→ 1
Incógnita : r = r(t) Incógnita : ρ(θ) =
r(t)

La justicación de esto se debe a que θ̇ > 0 luego θ es un difeomorsmo (función


invertible y derivable con función inversa derivable también) entre su dominio y su
imagen J = θ(I). Así, se tiene el esquema

ρ: J −→ I −→ ]0, +∞[ −→ ]0, +∞[


1
θ 7−→ t −
7 → r(t) 7−→ r(t) =: ρ(θ)

Así tenemos
1
r(t) = , t ∈ I.
ρ(θ(t))
Demuestre que bajo este cambio de coordenadas se obtiene la ecuación

d2 ρ
 
−1 1
2
+ ρ = 2 2f (3.14)
dθ α ρ ρ

a partir de la primera ecuación en (3.13).

Casos Notables:
µ
Si f (r) = − µ>0 entonces (3.14) es de la forma
r2
d2 ρ µ
+ρ= 2 (Ecuación de un Oscilador Forzado)
dθ2 α
Si f (r) = − rµ3 ; µ>0 entonces (3.14) es de la forma

 2
d ρ
= 0 si α2 = µ


dθ2 2


2

d ρ µ 
d ρ µ
2
+(1− 2 )ρ = 0 −→ + w2 ρ = 0 ; w2 = 1 − 2 ; w ∈]0, 1[ si α2 > µ
dθ α  dθ 2 α
 d2 ρ

µ
− w2 ρ = 0 ; w2 = 2 − 1 ; w ∈]0, +∞[ si µ > α2



dθ2 α

63
CAPÍTULO 3. CAMBIO DE COORDENADAS Y CAMBIO DE VARIABLES

64
Capítulo 4

Ecuación Lineal homogénea de primer


orden
En el capítulo anterior, hemos visto la ecuación de Bernoulli

dx
+ q(t)x = p(t)xn , n ∈ R − {1},
dt
1
con p, q ∈ C 1 (I). Con la sustitución x = u 1−n , u = u(t) la ecuación de Bernoulli queda en la
variable u así:
u0 + r(t)u = m(t) , (4.1)

con r(t) = (1 − n)q(t), m(t) = (1 − n)p(t).


Hemos dejado como tarea pendiente la resolución de la ecuación (4.1), esta tarea la resolveremos
bajo el estudio que emprenderemos a continuación sobre las ecuaciones lineales de primer orden.

Denición 4.0.1 (Ecuación lineal de primer orden) Considere una ecuación diferencial de pri-
mer orden
x0 = f (t, x) , (4.2)

con f : D ⊂ R × R −→ R, f ∈ C 1 (D). Diremos que (4.2) es una Ecuación lineal de primer orden
si f es de la forma;
f (t, x) = a(t)x + b(t).

Es decir, tenemos
x0 = a(t)x + b(t) , (4.3)

donde a, b : I ⊂ R −→ R las suponemos continuas (o bien y mejor aún C 0 (I)), I ≡ intervalo


abierto.

Veamos algunos ejemplos:

Ejemplos 4.0.2

1. x0 = 3t2 x + sen t, a(t) = 3t2 ; b(t) = sen t.

65
CAPÍTULO 4. ECUACIÓN LINEAL HOMOGÉNEA DE PRIMER ORDEN

2. x0 + 1t x = 5t2 , a(t) = − 1t ; b(t) = 5t2 .

3. x0 − 2tx = et , a(t) = 2t; b(t) = et .

4. Claramente la ecuación (4.1) es una ecuación lineal de primer orden


0u + r(t)u = m(t), a(t) = −r(t); b(t) = m(t).

5. x0 = t ln(x) + sen t. Esta ecuación no es linea por la presencia de ln(x).

6. x0 = (2tx + t2 )x + e−t . Esta ecuación no es lineal debido a que al aplicar la propiedad


distributiva se tiene una potencia de dos de x.

7. x0 = 35 t3 x + sen(x + t). Esta ecuación no es lineal debido a la presencia de sen(x + t).

Ahora veamos que, en el caso que b(t) = 0, la ecuación (4.3) queda así:

x0 = a(t)x . (4.4)

Este caso se conoce como el caso homogéneo o bien la ecuación lineal homogénea. Es conocida
ya la solución de (4.4) (pues es una ecuación separable) la cual está dada por;

Z
A(t)
x(t) = Ce , donde A(t) = a(t)dt, c-cte.

Ejemplo 4.0.3
−2x
x0 = , D = R − {−1, 1} × R.
(t + 1)(t − 1)
En este caso
−2 1 1
a(t) = = − ,
(t + 1)(t − 1) t+1 t−1
en consecuencia Z
t + 1
A(t) = a(t)dt = ln
.
t − 1
Suponemos t ∈ ]1, ∞[ por lo tanto

t+1
x(t) = CeA(t) = Celn( t−1 ) ,
t+1
x(t) = C , C ∈ R.
t−1

Nota: Hacer los casos t ∈ ] − 1, 1[ , t ∈ ] − ∞, −1[ .

Ahora bien, si consideramos la ecuación lineal de primer orden no homogénea (b(t) = 0), busca-
mos soluciones que tengan la forma: x(t) = A(t)f (t), donde f : R −→ R es una función derivable.

66
Este método de solución es llamado Variación de Constantes (o bien Variación de Parámetros)
quizás porque en el caso b(t) = 0, la función f es constante.

x(t) = CeA(t) −→ x(t) = f (t)eA(t)


caso b(t) = 0 caso b(t) 6= 0 .

Tenemos así:

x(t) = f (t)eA(t) ,
x0 (t) = f 0 (t)eA(t) + f (t)eA(t) A0 (t) ,
= f 0 (t)eA(t) + f (t)eA(t) a(t) ,
= a(t)x + b(t) ,
= a(t)f (t)eA(t) + b(t).

En consecuencia:

f 0 (t)eA(t) = b(t) ,
f 0 (t) = e−A(t) b(t).

Y así: Z
f (t) = e−A(t) b(t) dt + k, k -cte ∈ R.

Por tanto, concluimos que:


Z
x(t) = ke A(t)
+e A(t)
e−A(t) b(t) dt. (4.5)

Ahora veamos que toda solución de (4.3) es de la forma (4.5). En efecto, sea y(t) otra solución
de (4.3) entonces

x0 (t) − y 0 (t) = a(t)x(t) + b(t) − (a(t)x(t) + b(t)) ,


x0 (t) − y 0 (t) = a(t)(x(t) − y(t)) . (4.6)

Sabemos del capítulo 1 que todas las soluciones de (4.6) son de la forma k0 eA(t) , k0 -cte, así:

y(t) = x(t) − k0 eA(t) ,


Z
= (k − k0 )e A(t)
+e A(t)
e−A(t) b(t) dt ,
Z
= CeA(t) + eA(t) e−A(t) b(t) dt , C -cte.

Esto prueba que todas las soluciones de (4.3) son de esta forma.

Observación 4.0.1 Una observación importante que hacemos de la forma de la solución de


(4.3) es la siguiente:

67
CAPÍTULO 4. ECUACIÓN LINEAL HOMOGÉNEA DE PRIMER ORDEN

1. Sea
xh (t) = keA(t) , k -cte.
xh (t) es la solución del problema x0 = a(t)x. Es decir, es la solución que corresponde al
caso homogéneo; de aquí que llamaremos a xh (t) la componente-solución homogénea de
(4.3).

2. Sea Z
xp (t) = e A(t)
e−A(t) b(t) dt .

Note que:
Z
x0p (t) = A0 (t)eA(t) e−A(t) b(t) dt ,

x0p (t) = A0 (t)xp (t) + b(t) ,


x0p (t) = a(t)xp (t) + b(t) ,
es decir, xp (t) es solución de (4.3), la cual llamaremos la solución particular de (4.3).

3. En consecuencia, toda solución de (4.3) es de la forma:

x(t) = xh (t) + xp (t) .

(Solución homogénea + solución particular)

Ejemplo 4.0.4 Resolver el siguiente problema de Cauchy.

1
x0 + 2x = e−t , x(0) = .
4
a(t) = −2, b(t) = e−t , A(t) =
R
En este caso: a(t) dt = −2t.
Por tanto:
Z
x(t) = c e A(t)
+e A(t)
e−A(t) b(t) dt ,
Z
−2t −2t
= ce +e e−2t e−t dt ,
Z
−2t −2t
= ce +e e−3t dt ,
1
= c e−2t + e−2t e−3t ,
3
−2t 1 −5t
= ce + e .
3
Reemplazando la condición inicial:

1 1 1 1 7
x(t) = c − = ; c= + = .
3 4 4 3 12
En conclusión:
7 −2t 1
x(t) = e + (− )e−5t .
|12{z } | 3{z }
Sol. homogénea Sol. particular

68


Ejemplo 4.0.5 Resolver:


1
x0 + x = sen t, t > 0.
t
1
En este caso, a(t) = t , A(t) = ln t , b(t) = sen t. Así:

Z
x(t) = c e A(t)
+e A(t)
e−A(t) b(t) dt ,
Z
x(t) = c eln t + eln t e− ln t b(t) dt ,
Z
sen t
x(t) = c t + t dt ,
t
Z
sen t
La integral dt dene una función analítica dada por:
t
Z X (−1)n t2n ∞
sin t
g(t) = dt =
t (2n + 1)!
n=0

1.5

1.0

0.5

t
-30 -20 -10 10 20 30

-0.5

-1.0

-1.5

Z
sin t
Figura 4.1: Gráca de la gráca de la función analítica g(t) = dt
t

Como se puede ver, una ecuación lineal sencilla puede dar soluciones complicadas.

Con el siguiente ejemplo mostramos una nemotecnia para que recuerdes y apliques en la solución
de problemas relacionados con las ecuaciones lineales ordinarias.

Ejemplo 4.0.6 Resolver:


3
x0 − x = t5 , t > 0.
t

69
CAPÍTULO 4. ECUACIÓN LINEAL HOMOGÉNEA DE PRIMER ORDEN

1. Identico
3
q(t) = − , p(t) = t5 .
t
3
x0 − x = t5 ⇐⇒ x0 + q(t)x = p(t) .
t
2. Factor integrante,
− 3t dt
R R
e = t−3 ⇐⇒ e q(t) dt
.

3. Multiplico la ecuación por el factor integrante,

3 R R
t−3 (x0 − x) = t−3 t5 ⇐⇒ e q(t)dt
(x0 + q(t)x) = e q(t) dt
p(t) .
t

4. Siempre se obtiene,

d −3 d R q(t) dt R
(t x) = t2 ⇐⇒ (e x) = e q(t) dt p(t) .
dt dt

5. Integramos a ambos lados,


Z Z
−3 1 R R
t x= t dt = t3 + c
2
⇐⇒ e q(t) dt
x= e q(t) dt
p(t) dt + c .
3

6. Despejamos x = x(t) ,
Z
1 −
R

R R
x(t) = t6 + c t3 ⇐⇒ x(t) = c e q(t) dt
+e q(t) dt
e q(t) dt
p(t) dt .
3

Observación 4.0.2 Note que llegamos a la fórmula

R R Z R
− q(t)dt − q(t)dt q(t)dt
x(t) = c e +e e p(t) dt ,

es la misma fórmula que se obtiene con el método de variación de parámetros, exceptuando los
signos (pues a(t) = −q(t)).

Ya estamos listos para resolver las ecuaciones de Bernoulli (3.5). Sabemos que bajo el cambio de
1
variable x = u 1−n , (n 6= 1), la ecuación de Bernoulli en la variable u = u(t) queda de la forma:

u0 + r(t)u = m(t), (4.7)

con r(t) = (1 − n)q(t); m(t) = (1 − n)p(t).


La ecuación (4.7) ya la sabemos resolver, pues es una ecuación lineal cuya solución es

R R R Z  
(n−1) q(t)dt (n−1) q(t)dt
u(t) = c e +e e(1−n) q(t)dt (1 − n)p(t) dt,
R R Z  R 
(n−1) q(t)dt (n−1) q(t)dt
= ce + (1 − n)e e(1−n) q(t)dt p(t) dt.

70
Finalmente las soluciones de la ecuación de Bernoulli son de la forma:

 1
Z   
p(t) dt 1 − n .
R R R
x(t) = c e(n−1) q(t)dt
+ (1 − n)e(n−1) q(t)dt
e(1−n) q(t)dt

Veamos un ejemplo:

Ejemplo 4.0.7
2 1
x0 + x = 2 x3 , t ∈ ]0, ∞[ .
t t
2 1
En este caso: n = 3, q(t) = , p(t) = 2 .
t t
1
−1
Haciendo el cambio de variable x = u 1−n ; x = u 2 , se llega a la ecuación:

u0 + r(t)u = m(t) ,

con r(t) = 4q(t) ; m(t) = 4p(t). Es decir:

8 4
u0 + u = 2 . (4.8)
t t
La función u = u(t), que cumple (4.8), está dada por:
Z
u(t) = c e A(t)
+eA(t)
e−A(t) b(t) dt ,
Z
8 4
con A(t) = − dt = −8 ln(t), t ∈ ]0, ∞[ , b(t) = 2 .
t t
Así que:
Z
c 1 8 4
u(t) = 8
+ 8 eln(t ) 2 dt ,
t t t
Z
c 4
= + t6 dt ,
t8 t8
c 4
= 8
+ t , c-cte.
t 7
En consecuencia:
p
4
x(t) = u(t) ,
r
4 c 4
= 8
+ t, c-cte, t ∈]0, +∞].
t 7

71
CAPÍTULO 4. ECUACIÓN LINEAL HOMOGÉNEA DE PRIMER ORDEN

72
Capítulo 5

Algunas aplicaciones de las ecuaciones


lineales de primer orden
A continuación vamos a presentar una serie de aplicaciones de la ecuación lineal en diferentes
ramas de la ciencia.

5.1. En Medicina (Absorción de medicamentos)


Un medicamento suministrado por vía oral al tracto intestinal del paciente y de ahí al torrente
sanguineo, surte su efecto es elminado posteriormente. Tal medicamento puede ser un antihista-
mínico, cuyo efecto en el paciente se puede modelar mediante ecuaciones diferenciales lineales.

Denotamos por x(t) la cantidad de antihistamínico en el tracto intestinal en el instante t, cuyo


valor vamos a suponer que es x0 inicialmente. Hay una ley que se ajusta bien a este tipo de
problemas, la denominada Ley de Equilibrio

Tasa de cambio neta = Tasa de entrada − Tasa de salida.

Vamos a tener en cuenta que el medicamento pasa del tracto intestinal al torrente sanguíneo en
una tasa proporcional a la cantidad presente en el tracto intestinal, llegamos a la ecuación

dx
= −k1 x,
dt
con k1 > 0 (x(t) disminuye con el tiempo). Como sabemos x(0) = x0 así que x(t) = x0 e−k1 t .
Sea y(t) la cantidad de antihistamínico en la sangre. Esta cantidad se acumula desde un nivel
cero, pero disminuye a medida que los riñones y el hígado van eliminando las sustancias extrañas
de la sangre a una tasa proporcional a la cantidad existente con constante k2 . Aplicando la ley
de equilibrio para y(t) tenemos:

dy
= k1 x − k2 y , y(0) = 0.
dt
donde k1 x es lo que entra del tracto intestinal y k2 y es la eliminación de antihitamínico por la
sangre.

73
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

Tenemos así un sistema


dx
= −k1 x,
dt
(5.1)
dy
= k1 x − k2 y,
dt
pero x(t) = x0 e−k1 t ; sustituyendo en (5.1) tenemos:

dy
= k1 x0 e−k1 t − k2 y,
dt
esta última ecuación es lineal en y(t) cuya solución está dada por

−k1 x0 −k1 t
y(t) = e + ce−k2 t k1 6= k2 ,
k1 − k2

con c una constante. Dado que y(0) = 0, encontramos la constante c correspondiente y obtenemos:

k 1 x0
y(t) = (e−k2 t − e−k1 t ).
k1 − k2

Tracto Intestinal Sangre


x(t) k1y y(t) k 2y
x(0)=x 0 y(0)=0

Figura 5.1: Diagrama compartimental que muestra el ujo del medicamento

Figura 5.2: y(t) representa la cantidad de antihistamínico en la sangre y x(t) representa la


cantidad de antihistamínico en el tracto intestinal. Para estas dos funciones se tomó x0 = 1,
k1 = 1 y k2 = 0, 05.

74
5.2. EN FÍSICA (PROBLEMA DE UN CUERPO DE MASA VARIABLE)

5.2. En Física (Problema de un cuerpo de masa variable)


Una gota de agua que inicialmente tiene una masa de M gramos se va evaporando a una tasa
constante de m [ gs ] mientras cae libremente en el aire. Si la resistencia del aire es proporcional a
la velocidad de la gota, determinar la velocidad de caída.

Teniendo en cuenta que la gota de agua pierde masa a una velocidad constante de m [ gs ], la masa
de la gota en el instante t será M − mt.
Si suponemos que el movimiento de la gota de agua es perpendicular a la supercie de la tierra
con la dirección positiva hacia abajo, la fuerza del peso en P = (M − mt)g con g la fuerza
gravitacional y la fuerza del aire, que se opone al movimiento, será R = −kv con k una constante
positiva. Por la segunda ley de Newton para masas variables tenemos:

d 
(M − mt)v = P + R,
dt
= (M − mt)g − kv.

Que equivale a:
dv
(M − mt) = (M − mt)g + (m − k)v,
dt
dv (k − m)
+ v = g.
dt M − mt
Esta última es una ecuación lineal de primer orden. La ecuación homogénea asociada es

dv (k − m)
+ v = 0.
dt M − mt

Cuya solución viene dada por

A
vh (t) = k . A = cte.
(M − mt)1− m

Finalmente, la solución del problema homogéneo será

g k
 (M − mt) + c(M − mt) m −1 , k 6= 2m,
vp (t) = k − 2m
 −g (M − mt) log(M − mt) + c(M − mt), k = 2m.
m
Dado que v(0) = 0, la constante c queda denida y así obtenemos:

   k !
 g mt (m−2)
(M − mt) 1 − 1 − , k 6= 2m,


k − 2m

vp (t) = M
 
 g M
(M − mt) log , k = 2m.


M − mt

m

Es interesante observar que en el instante en el que la masa de la gota de agua desaparece,


corresponde a t = M/m, velocidad es nula si k>m y es innita si k < m.

75
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

5.3. En el Mundo del Deporte


En las carreras de atletismo hay un único objetio: Correr en el menor tiempo posible una distancia
prejada A. Si se supone que un atleta en cada instante de la carrera tiene una velocidad v(t),
entonces: Z tmin
A= v(t)dt,
0
tmin : Tiempo mínimo en recorrer la distancia A
Vamos a imaginar que estamos modelando una carrera de alta velocidad (por ejemplo la carrera
de 100m), aquí solo prevalece correr lo más rápido posible, y no tanto las tácticas de una carrera
larga (por ejemplo la carrera de 10000m). Se puede deducir la velocidad del atleta teniendo en
cuenta la ecuación diferencial que describe su movimiento. Consideremos que un atleta de masa
m consigue (por reacción a la fuerza de rozamiento de la pista con sus pies) una fuerza externa de
propulsión F (t), y que experimenta una fuerza de resistencia del aire R(t), ambas consideradas
por unidad de masa, por la segunda ley de Newton tendremos

dv
m = mF (t) − mR(t).
dt
La fuerza de resistencia R(t) suele considerarse proporcional a una potencia de la velocidad, es
decir R(t) = kv α con 1 ≤ α ≤ 2, (k y α se determinan experimentalmente).
En los casos aerodinámicos es usual tomar R(t) = kv 2 , k perqueño.

Vamos a tomar R(t) = kv (α = 1) por simplicidad en los cáculos y el modelo. Así tendremos

dv
+ kv = F (t).
dt
Vamos a hacer ciertos supuestos sobre la fuerza de la propulsión F (t).
Las limitaciones físicas de cada atleta determinarán un valor máximo para F (t), que denotaremos
por F ∗, asíF (t) ≤ F ∗ ∀t. Para carreras cortas podemos suponer que la fuerza de propulsión es
constante

y así F (t) = F por lo tanto:

dv
+ kv = F ∗ , v(0) = 0.
dt
La condición v(0) = 0, indica que el deportista parte del reposo. Llegamos a que:

F∗
v(t) = (1 − e−kt ).
k
De esta forma:
tmin
F∗
Z
A= (1 − e−kt )dt,
0 k
así que
F ∗ −kt
A= (e − 1 + tmin k),
k2
esta última expresión relaciona la distancia recorrida en una carrera rápida y el tiempo empleado
en ella, bajo el supuesto de que el atleta se emplea a fondo durante todo el tiempo que dura la
prueba.

76
5.4. EN ECONOMÍA (WALRASIAN TÂTONNEMENT PROCESS)

En carreras de larga distancia, podemos suponer que la velocidad del correrdor es constante a lo
dv(t)
largo de toda la prueba, es decir: v(t) = v y = 0. Así F (t) = kv .
dt
De otro lado, la capacidad de locomoción del ser humano depende del hecho de que la sangre
puede absorver el aire inspirado y puede transportarlo hasta los músculos encargados del mo-
vimiento. El punto hasta el cual este sistema de transporte de oxígeno está desarrollado varía
de un deportista a otro. Si E(t) es la cantidad de oxigeno/unidad de masa, disponible en los
músculos para realizar el movimiento, podemos tener la ecuación

dE
= S − F (t)v(t).
dt
Donde S es la cantidad de oxigeno almacenado mientras el atleta no está corriendo y F (t)v(t) la
cantidad de oxígeno consumido en el desarrollo de la fuerza de propulsión. En el caso de velocidad
constante y suponiendo que la cantidad de oxígeno inicial es E0 tendremos:

dE
= S − kv 2 ,
dt

E(0) = E0 .

De donde deducimos que

E(t) = E0 (S − kv 2 ).

Si al nal de la carrera, suponemos que el atleta ha agotado todo el oxígeno, es decir E(tmin ) = 0,
entonces

0 = E0 + tmin (S − kv 2 ).

Así que:
s  
1 E0
v= S+ ,
k tmin
pero
Z tmin
S E0
A= v(t)dt ⇒ A2 = t2min + tmin ,
0 k k
es la relación entre la distancia de la carrera y el tiempo empleado en ella.

5.4. En economía (Walrasian Tâtonnement Process)


La palabra Tâtonnement proveniente del francés signica tanteo o ir en prueba y error. El
proceso de tanteo de Walras introducido por el economista y matemático Léon Walras es un tipo
de proceso de compra y venta de bienes y servicios.
Walras visualizó el equilibrio del mercado como un resultado del proceso de tanteo. Un moderador
anuncia un producto con precio p, y los compradores y vendedores hacen su oferta.
Si esta oferta resulta es un exceso de demanda E(p) ≥ 0 el precio se elevará hasta el equilibrio,
en el que la oferta iguala a la demanda. (E(p) = 0) Este proceso se invierte cuando hay un
exceso de oferta p0 = k E(p) donde k es una constante positiva que reeja la velocidad de ajuste

77
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

y E(p) ≡ D(p) − S(p) es el exceso de demanda.


Como un caso sencillo de este proceso, se considera el caso inicial donde

D(p) = α + βp ≡ demanda del producto.

S(p) = γ + δp ≡ oferta del producto.

Entonces; según la ley de Walras:

p0 = k E(p) = k [D(p) − S(p)] .


Así que:

p0 = k (α + βp − γ − δp) ,
p0 = k (β − δ)p + k (α − γ) . (5.2)

Esta es una ecuación lineal en p = p(t) cuya solución es:


 
γ−α γ − α k (β−δ)t
p(t) = + p0 − e con β 6= δ,
β−δ β−δ
donde p0 = p(0).

Observación 5.4.1 . Demostrar qué es la solución de (5.2).

Note que, si β−δ <0 entonces:

γ−α
lı́m p(t) = Caso estable.
t→∞ β−δ
Note además que β ≡ es la pendiente de la curva demanda y δ ≡ es la pendiente de la curva
de oferta y cuando β − δ < 1 (lo cual siempre se cumple cuando la demanda tiene pendiente
negativa y la oferta pendiente positiva) el mercado es estable; es decir: El exceso de demanda es
reducido y eventualmente eliminado por precios corrientes.
Si β−δ > 0 entonces estamos en el caso inestable: Una continua e indenida inación se abre
paso.

Otro modelo en economía (más en detalle, en Macroeconomía) es el modelo Keynesiano sobre


la renta nacional de un pais. Dicho modelo conlleva a una ecuación lineal de primer orden en la
variable Y ≡ Renta nacional.

5.5. En mecánica clásica


Entre las más bonitas y prácticas aplicaciones de las ecuaciones lineales de primer orden (en una
variable dependiente) esta el describir las trayectorias de los movimientos de un cuerpo rígido
(cuerpo rígido ≡ partícula radialmente simétrica con distribución de densidad uniforme, por
ejemplo, piense en una bola de billar muy muy pequeña).

Suponga que un cuerpo rígido de masa m es atraído por el campo gravitacional de la tierra y se
encuentra a una distancia x del nivel del mar. De la ley de Newton para atracción de cuerpos se
tiene:
mgR2
mx00 (t) = , g ≡ constante gravitacional, (5.3)
(T + x)2
donde:

78
5.5. EN MECÁNICA CLÁSICA

x = x(t) ≡ posición del cuerpo en el tiempo t.


x0 = x0 (t) ≡ velocidad del cuerpo en el tiempo t.
x00 = x00 (t) ≡ aceleración del cuerpo en el tiempo t.

Sabemos que, si v es la velocidad del cuerpo, entonces:

dv dx dv
v 0 (t) = · =v· . (5.4)
dx dt dx
Reemplazando en (5.3) tenemos:
dv gR2
v· =− . (5.5)
dx (R + x)2
La ecuación (5.5) es una ecuación en variables separables v = v(x). Resolvemos (5.5) y obtenemos:
v2 gR2
= + c, c-cte.
2 (R + x)
Las condiciones físicas del problema son:

x(0) = xo = 0, v(0) = vo > 0 .

Así tenemos
v = v(x(t)), vo = v(x(0)) = v(0) > 0 .
En consecuencia s
2gR2
v(x(t)) = ± vo2 − 2gR + .
R + x(t)
Si el cuerpo está ascendiendo se toma el signo positivo (+), y si el cuerpo está descendiendo se
toma el signo negativo (−).
vo2 R
La altura máxima de ascenso será cuando v = 0; luego, ξ ≡ altura máxima, v(ξ) = 0, ξ = 2gR−vo2
.
Así que, la velocidad inicial necesaria para llegar a la altura ξ es
s
ξ
vo = 2gR .
R+ξ

La velocidad de escape ve sera cuando ξ −→ ∞, así que


s
ξ p
ve = lı́m 2gR = 2gR ≈ 11,1km/s.
ξ−→∞ R+ξ

Este número es sólo una aproximación; en la vida real se encuentran condiciones como la resis-
tencia del aire, la humedad, entre otras; que incrementan la velocidad de escape.

Observación 5.5.1 Sabemos que la fuerza que ejerce la tierra sobre un cuerpo es su peso. En-
tonces el peso w(x) está dado por

mgR2
w(x) = − .
(R + x)2

79
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

Si consideramos la primera aproximación (la parte lineal del desarrollo de Taylor para w = w(x))
en x=0 (cerca al nivel del mar) tenemos

w(x) = w(0) + w0 (0)x + O(x) ,


w(x) ≈ w(0) + w0 (0)x ,
2x
w(x) ≈ −mg(1 − ), para x pequeño.
R
Así que:
w(x) = −mg .
Ahora veamos que si en la ecuación (5.3) consideramos x = 0 (nivel del mar) y v(t) = x0 (t),
v 0 (t) = x00 (t), entonces
v 0 = −g . (5.6)

A la ecuación (5.6) le añadimos una fuerza de fricción fR (v) dad por fR (v) = − αv
m y tenemos

αv αv
v 0 = −g − ⇔ v0 + = −g , (5.7)
m m
la ecuación (5.7) es una ecuación lineal y sabemos resolverla.

El signo que acompaña a la constante g en (5.7) depende de la dirección positiva del eje del
movimiento del cuerpo rígido. Si pensamos en caída libre la dirección positiva es hacía abajo y
se toma g en vez de −g . Lo mismo en caso contrario.
Así
mg α
v(t) = − + c e− m t .
α
mg
Como v(0) = 0 (caída libre) entonces c= α y

mg α
v(t) = − (1 − e− m t ) Velocidad. (5.8)
α
E integrando (5.8) tenemos

mg m2 g α
x(t) = − t + 2 (1 − e− m t ) Posición. (5.9)
α α
En problemas de caída libre
mg α
v(t) = (1 − e− m t ) ,
α
y
mg m2 g α
x(t) = t − 2 (1 − e− m t ) .
α α
mg
Observa que si t −→ ∞ entonces v(t) −→ α ≡ velocidad límite.

5.6. En ingeniería eléctrica


En la teoría de circuitos es notorio y de forma continua la presencia de las ecuaciones diferenciales
en su análisis. Seguramente el lector reconoce los parlantes Bose reconocidos por su delidad, muy
superior frente a otras marcas. Pues bien, uno de los más reconocidos profesores de Ingeniería

80
5.6. EN INGENIERÍA ELÉCTRICA

Eléctrica con alto nivel de matemáticas fue Amar Bose (½Está en lo correcto si reconoció este
apellido!).
Los circuitos son un ejemplo de lo que se conoce en el campo cientíco como Modelo de Redes,
los cuales se usan ampliamente por ejemplo, en la manufactura y otros sistemas económicos.
Sin ser rigurosos en el análisis consideramos la siguiente tabla

Dispositivo Símbolo Unidad Caída de voltaje


Resistor R ohm (Ω) v = iR

Capacitor C farad (F) C dv


dt = i

di
Inductor L henry (H) v = L dt

Fuente de Voltaje E Voltio (V)

Cuadro 5.1: Simbología y caída de voltaje

Vamos a considerar los circuitos RL (Resistor-Inductor)

L
Figura 5.3: Circuito Tipo RL

Primero nos referimos a dos leyes fundamentales conocidas como leyes de Kirchho:

Ley de corriente: La suma algebraica de las corrientes que entran en un nodo en cualquier
instante es igual a cero.

81
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

(a) i1 − i2 = 0 i1 + i2 = 0

(b) ,i1 + i2 + i3 = 0 i1 − i2 + i3 = 0

Figura 5.4: Ley de Corrientes

Ley de voltaje: La suma algebraica de las caídas de voltaje en una malla en cualquier
instante es igual a cero.

Dado un circuito RL básico como en la gura 5.3, si aplicamos la ley de Voltajes tenemos según
el cuadro 5.1 lo siguiente:

Caída de Voltaje en la fuente + Caída de Voltaje en el resistor + Caída de Voltaje en el inductor


= Voltaje nulo.

Esto equivale a decir:


di(t)
−E(t) + i(t)R(t) + L(t) = 0.
dt
Lo que determina la ecuación
R(t) E(t)
i0 + i= .
L(t) L(t)
Tenemos entonces una ecuación diferencial lineal de primer orden para la función de corriente
i = i(t). Suponga que E(t) = e ≡ fuente de voltaje constante, R = R(t) ≡ Resistor de resistencia
constante y L(t) = L inductor con inductancia constante. Entonces tenemos como incognita la
corriente i = i(t).
R e
i0 + i = .
L L
Por lo tanto
R e
i(t) = k e− L t + ,
R
e
con k una constante determinada por las corriente inicial del circuito. Note que lı́m i(t) = .
t−→∞ R
e
El valor se denomina el estado estacionario del circuito.
R
R
lı́m k e− L t = 0.
t→∞

82
5.6. EN INGENIERÍA ELÉCTRICA

k1 + e/R

e/R

k2 + e/R

Figura 5.5: Bosquejo del comportamiento de la corriente i(t) en el circuito RL con fuente de
voltaje constante, para los casos k = k1 > 0 y k = k2 < 0.

Se observa entonces que a medida que el circuito funciona cada vez más y más tiempo, este
estará cada vez más y más pasará de un estado transitorio a un estado constante o un estado
estacionario. Si ahora consideramos el caso E(t) = A sen t, con A una constante (en este caso
tendríamos una fuente de voltaje oscilatoria) se invita a comprobar que la función de corriente
está dada en este caso por
R A
i(t) = k e− L t + (sin t − cos t) .
2
Note que lı́m i(t) no existe (oscila).
t−→∞
R
lı́m k e− L t = 0 .
t→∞
A
Vamos de un estado transitorio a un estado oscilatorio iosc (t) = 2 (sin t − cos t).

A/2

Figura 5.6: Bosquejo del comportamiento de la corriente i(t) en el circuito RL con fuente de
voltaje oscilatorio.

Consideremos ahora circuitos RC (Resistor-Capacitor) con q(t) ≡ carga (energía almacenada en


el capacitor en el tiempo t.)

83
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

C
Figura 5.7: Circuito tipo RC.

Tenemos: q(t) = c · v(t) y de el cuadro 5.1

q 0 (t) = c · v 0 (t) = q 0 = i .

De nuevo, aplicando la ley de corrientes:

1
E(t) + iR(t) + q(t) = 0 .
c
Lo que determina la ecuación
1 E(t)
q 0 (t) + q(t) = . (5.10)
c · R(t) R(t)

Encontramos de nuevo una ecuación diferencial lineal de primer orden para la función carga
q = q(t).
Ejercicio: Suponga que E(t) = e y R(t) = R; con e y R constantes. Encuentre la solución de
(5.10).

5.7. En química
• Tratamiento de aguas
Consideremos un tanque de agua cuyo volumen en cualquier instante de tiempo se mantiene
constante.

Imaginemos que dentro del tanque de agua hay una cantidad de contaminante Q(t) de algún
tipo. Nos preguntamos por la cantidad de contaminante en cualquier instante de tiempo.
El principio físico (conservación de la cantidad Q) que se obtiene es

     
Tiempo de dQ Tasa de ujo de Tasa de ujo de
= = −
cambio de Q dt entrada de Q salida de Q

84
5.7. EN QUÍMICA

Figura 5.8: Modelo de un tanque con entrada y salida de agua (solvente) y un contaminante
(soluto) en su interior.

Ahora bien
   
  Flujo de volumen de agua Concentración de
Tasa de ujo de
= que entra al tanque · contaminante de entrada 
entrada de Q
ve Ce

   
  Flujo de volumen de agua Concentración de
Tasa de ujo de
= que sale del tanque · contaminante de salida 
salida de Q
vs Cs

Se supone que el agua en el tanque está bien mezclada (agua + contaminante), de manera que se
supone que la concentración del ujo de salida del contaminante es la misma que la concentración
global de contaminante en el tanque.

 
Concentración de Cantidad de contaminante Q(t)
= = .
contaminante en el tanque Volumen del tanque v
Del principio físico se desprende

dQ Q
= ve · ce − vs · cs = ve · ce − vs · ,
dt v
y llegamos así, a una ecuación lineal

Q
Q0 + vs = ve · ce .
v
Ahora, si consideramos el volumen no constante, suponemos que entra una concentración de
contaminante a una tasa re y sale del tanque a una tasa rs . Así

v(t) = v(0) + (re − rs )t .

Entonces
Q(t) Q(t)
Cs = = .
v(t) v(0) + (re − rs )t

85
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

Por tanto, concluimos que

ve −→ re , vs −→ rs ,

y además, la ecuación lineal es

Q
Q0 + rs = re · Ce .
v0 + (re − rs )t

5.8. Ejercicios
1. Para cada una de las siguiente ecuaciones, encuentre su respectiva solución.

dP
a) + 2tP = P + 4t − 2
dt
di
b) L + Ri = E, L 6= 0 L, R, E constantes
dt
dx
c) t2 + x2 = tx
dt
1 3
dy
d) y2 + y 2 = 1, y(0) = 4.
dx
2. Considere el problema de valor inicial

x0 + et x = f (t), x(0) = 1 .

Exprese la solución del PVI anterior en el caso t > 0, como una integral no elemental,
cuando f (t) = 1.¾Cuál es la solución cuando f (t) = 0? ¾Cuándo f (t) = et ?

3. Considere la EDO
1
x0 = ,
t + x2
a ) Determine ques esta ecuación es lineal si se considera a la variable t como función de
x (t = t(x)).
b ) Teniendo en cuenta el item anterior, encuentre su solución.

4. Dada la ecuación diferencial

y 0 + p(x)y = f (x) .
R
Sabemos que el factor integrante es e p(x) dx . No se tiene en cuenta la constante de inte-
R R
gración en p(x) dx. Explicar por qué usar p(x) dx + c no tiene efecto alguno sobre la
solución de la ecuación diferencial.

5. Suponga que p(x) es continua en algún intervalo abierto I y que el punto a está incluido
en I. ¾Que se puede decir acerca de la solución del problema de valor inicial

y 0 + p(x)y = 0, y(a) = 0?

86
5.8. EJERCICIOS

6. Considere el problema de valor inicial


p
x0 + 1 + sen2 t x = t, x(0) = 2 .

Demuestre que el factor integrante para esta ecuación se puede escribir como
Rt√
1+sen2 s ds
ϕ(t) = e 0 ,

y que la solución del problema de valor inicial es


Z t
1 2
x(t) = ϕ(τ ).τ dτ .
ϕ(t) 0 ϕ(t)

7. Demuestre que si a y λ son constantes positivas y b es cualquier número real, entonces toda
0
solución de la ecuación x + ax = be
−λt tiene la propiedad de que x −→ 0 cuando t −→ ∞

(Sug: Considere a = λ y a 6= λ).

8. Sea u = u1 (t) una solución de


u0 + p(t)u = 0 (H) ,
y sea u = u2 (t) una solución de

u0 + p(t)u = q(t) (NH) .

Demuestre que u = u1 (t) + u2 (t) también es solución de (NH).

9. En economía, un modelo matemático que describe la variación de la renta nacional (Y ) de


un pais, es el modelo keynesiano ; en el cual se asume que la renta nacional aumenta en
respuesta al exceso de demanda (D − Y ).
En una economía cerrada simple con inversión (I
e) y gasto público (G) el exceso de demanda
es igual al consumo más la inversión más el gasto público. Se asume que el consumo (C ) es
una función lineal y creciente de la renta nacional (C(Y ) = Co + C1 Y ). Encuentre la EDO
que modele el crecimiento de la renta nacional en cualquier instante de tiempo. Resuelva
esta ecuación que encuentra y estudie el comportamiento de la función Y = Y (t) cuando
t −→ ∞.

10. Considere un tanque de 100 m3 lleno de agua. El agua contiene un contaminante con una
g
concentración de 0,6 . Se bombea hacía el tanque bien mezclado agua más limpia con
m3
g m3
una concentración de contaminante de 0,15 , a una tasa de 5
m3 s . El agua uye hacía
afuera del tanque a través de una válvula de exceso de ujo a la misma tasa que se bombea
hacía adentro.

a ) Determine la cantidad y concentración del contaminante en el tanque como una fun-


ción del tiempo. Realice la gráca de esta función.
g
b ) ¾En qué momento será 0,3 m3
la concentración?

En los ejercicios 11 al 14 se reeren al circuito dado en la gura a continuación

11. Establezca la ecuación diferencial para la corriente, si la fuente del voltaje es e = e(t) sin t,
el resistor vale 1 ohm y la inductancia 1 H. Determine la corriente como una función del
tiempo para cualquier condición inicial i(0).

87
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

12. La fuente de voltaje es una constante e, la inductancia es L>0 y el resistor es lineal con
valor R > 0.

a ) Demuestre que lı́m i(t) existe y es el mismo para cualquier corriente inicial.
i−→0
b ) Si e = 8,5, ¾para qué valores de R y L se cumple lı́m i(t) = 4,2 ?
t−→∞

13. El resistor tiene valor de 1 ohm y la inductancia L = 1 H. La fuente de voltaje es una


batería de 9v que se desconecta (con cortocircuito) después de 10 s. Es decir,

9, 0 ≤ t ≤ 10
e(t) =
0, t ≥ 10

La corriente inicial es cero. Encuentre i(t) para 0 ≤ t ≤ 20 y graque el resultado.

14. La resistencia (o lo mismo, el resistor) vale 2 ohm y la inductancia L = 1 H . La fuente


de voltaje es 1,5 v que se desconecta después de los primeros 10 s y se conecta luego (con
un interruptor). La corriente inicial es cero. Encuentre i(t) para 0 ≤ t ≤ 20 y graque el
resultado.

15. En un circuito RC el capacitor es 0,5 F , el resistor es lineal y vale 2 ohm y la fuente de


voltaje sinusoidal está dada por e(t) = 6 sin t. Encuentre la carga en el capacitor como
función de t dado que inicialmente era 1 F .

16. Suponga que un circuito RC tiene un resistor variable. Si en el tiempo t, la resistencia está
dada por R = R(t) = r0 + r1 t, r0 , r1 > 0, constantes. ¾Cuál es la EDO que determina la
carga del capacitor en cualquier instante t?
Si tenemos una fuente constante e(t) = e0 y la carga inicial es q0 para el capacitor, de-
muestre que la carga del capacitor en cualquier instante de tiempo es

  1
r0 C r1
q(t) = e0 C + (q0 − e0 C) ,
r0 + r1 t
donde C es la capacitancia del capacitor del circuito.

17. Ley de Newton para el enfriamiento de cuerpos. Isaac Newton formuló una ley sobre el
enfriamiento de un cuerpo. Dicha ley dice que la variación de temperatura en un cuerpo es
proporcional a la diferencia que hay entre la temperatura del cuerpo y la del medio que lo
rodea. Matemáticamente, dicha ley se expresa así:

dT
(t) = k (T (t) − Tm ) . (∗)
dt
T = T (t): temperatura del cuerpo en el instante t.
Tm : temperatura del medio donde está el cuerpo.

constante de proporcionalidad.

Resuelva la ecuación (∗). Ahora bien, piense por ejemplo que un estudiante de la PUJ
pide un milo caliente en la cafetería. El vaso de milo se retira del horno microondas a
una temperatura de 200o F. Diez minutos más tarde, su temperatura es de 110o F. ¾Cuánto
tiempo le llevará al vaso de milo enfriarse a la temperatura ambiente de 70o F?

88
5.8. EJERCICIOS

18. Una masa de 20 g se deja caer de desde un avión que vuela horizontalmente. La resisten-
g
cia del aire actúa con una constante de proporcionalidad de 10 s . Considerando sólo el
movimiento vertical:

a ) Encuentre la velocidad con la cual cae el cuerpo, como una función del tiempo.

b ) Encuentre la velocidad después de 10 s, suponiendo que el cuerpo no ha chocado con


el suelo.

c ) Si se supone que la fuerza gravitacional es constante calcule

vlímite = lı́m v(t) ,


t−→∞

donde v(t) ≡ velocidad del cuerpo en el tiempo t.

19. Resolver las siguiente ecuaciones:

dv
a) (u2 + 1) + 4uv = 3u
dt
dy
b) (x2 + x − 2) + 3(x + 1)y = x − 1
dt
dy 2x + 1
c) x + y =x−1
dt x+1
dy
d) x4 + 2x3 y = 1
dx
dx
e) (t2 + 1) + 4tx = t, x(2) = 1.
dt

89
CAPÍTULO 5. ALGUNAS APLICACIONES DE LAS ECUACIONES LINEALES DE
PRIMER ORDEN

90
Capítulo 6

Sistemas de Ecuaciones Diferenciales


Ordinarias
Iniciamos en esta guía una nueva etapa en el curso de ecuaciones diferenciales ordinarias; nos
encontramos a las puertas de los Sistemas de Ecuaciones Diferenciales Ordinarias. Este tema es
uno de los más bonitos y extensos en el estudio de las ecuaciones diferenciales, o visto de otra
forma, es en esencia el objeto fundamental de estudio de todo curso de ecuaciones diferenciales.

Sin ser muy rigurosos, vamos a dar una breve introducción a los Sistemas de Ecuaciones Dife-
renciales Ordinarias (S.E.D.O).

Imaginamos un habitat (piensa en un dominio D en el plano) en donde viven dos especies,


digamos x e y. Vamos a dar una serie de suposiciones sobre el crecimiento poblacional de cada
especie.

1. Las Especies no interactuan en tres sí. Se sigue un modelo de Malthus para modelar el creci-
miento.

Bajo este supuesto, si quisieramos conocer la cantidad de individuos de cada especie llegaríamos
a un par de ecuaciones de la siguiente forma:

x0 = kx , (6.1)

y 0 = σy , (6.2)

con k, σ constantes. La no interacción de las especies se ve reejada en la independencia de las


ecuaciones. (La variable x no aparece en la ecuación (6.2) y la variable y no aparece en la ecuación
(6.2)).

Las constantes k, σ dependen de muchas condiciones dadas en principio por el mismo habitat de
las especies, alimento mínimo para sobrevivir, entre otras.

Vamos a utilizar una notación distinta basada en el curso de álgebra lineal.

91
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

 
x
Sea X= . Denimos la función de clase C1 en I ⊂ R,
y

X : I ⊂ R −→ R2  
x(t)
t −→ X(t) = .
y(t)

Más aún:
x0 (t)
 
0
X (t) = .
y 0 (t)

Así que si x(t) e y(t) son soluciones de (6.1) y (6.2) respectivamente:

kx0 (t)
    
k 0 x(t)
X 0 (t) = = .
σy 0 (t) 0 σ y(t)
 
k 0
Si A= , entonces llegamos a la ecuación diferencial de primer orden (en forma matri-
0 σ
cial)
x0
    
0 k 0 x
X = AX ≡ = . (6.3)
y0 0 σ y

La ecuación (6.3) representa un Sistema de Ecuaciones Diferenciales de primer orden en forma


matricial. Las ecuaciones (6.1) y (6.2) vista de forma conjunta forman un sistema de ecuaciones
diferenciales de primer orden (no acoplado).
1

El sistema de dos ecuaciones dado por (6.3) es el ejemplo más simple. Sin embargo, sistemas más
complicados de dos ecuaciones pueden reducirse a esta forma.

Desde un punto de vista más geométrico, podemos considerar la aplicación

A : R2  −→ R2   
x x kx
−→ A = .
y y σy

y y

y0 A

k x0
x0 x x
σ y0

k > 0, σ < 0.

Figura 6.1: Efecto de la aplicación A : R2 → R2 cuando k es positiva y σ es negativa .

1
El no acoplado equivale a Las especies no interactuan entre sí.

92
Por otro lado, si φ(t) = (x(t), y(t))T es una solución de (6.3) (o bien (6.1) y (6.2)), la familia de
todas las curvas
2
solución φ(t) ⊂ R se conoce como espacio de fases de (6.3).

Veamos algunos casos:


y

Ambas especies crecen sin límite.


x x: proliferación.
y : proliferación.

0<σ<k
y

La especie x crece sin límite mientras que la es-


x pecie y decrece a cero (muere).
x: proliferación.
y : extinción.

k > 0, σ < 0.

La especie x decrece a cero (muere) mientras que


x la especie y crece sin límite.
x: extinción.
y : proliferación.

k<σ<0
y

La especie x e y decrece a cero (extinción de las


especies).
x
x: extinción.
y : extinción.

σ<k<0

93
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

En este punto es relevante preguntarse: ¾Cómo hallar las soluciones de (6.3)?

La respuesta a esta pregunta tiene su inicio en una simple observación:

Sabemos que para la ecuación diferencial de primer orden

x:I⊂R→R

x0 = ax, a-cte,

todas las soluciones son de la forma: x(t) = ceat con c-cte. Pues bien, no es extraño esperar que
todas las soluciones de (6.3) tengan un estilo similar, en la forma

Φ(t) = etA · C,

donde C -vector de constantes (2 × 1) y etA - matriz (2 × 2) solución. A la matriz etA se le conoce


como Matriz Exponencial de la matriz tA, en donde:
 
tk 0
tA = .
0 tσ

Así que nuestra tarea es encontrar una matriz de solución (que en algunos casos se llamará
matriz exponencial) de un sistema de ecuaciones dado.

Por otro lado, si nos jamos bien en las ecuaciones (6.1) y (6.2) sabemos que; las soluciones están
dadas por:
x(t) = c1 ekt ; y(t) = c2 eσt ; c1 , c2 -ctes.
Así que las soluciones de (6.3) serán de la forma:

c1 ekt
   
x(t)
Φ(t) = = ,
y(t) c2 eσt
las cuales las podemos expresar así:

ekt 0
   
c1
Φ(t) = · .
0 eσt c2

Si denimos:

ekt 0
   
tA c1
e = ; C= ,
0 eσt c2

entonces todas las soluciones son de la forma

Φ(t) = etA C,

tal como lo esperábamos. Para este modelo fue posible encontrar la matriz exponencial etA , pero
en general, esta no es una tarea sencilla.

2. Las especies interactuan entre sí.

94
Bajo este supuesto, un posible modelo será el siguiente

x0 = ax + by ,
y 0 = cx + dy ,

con a, b, c, d-ctes (c, b 6= 0). Este sistema de ecuaciones (acoplado)


2 lo escribimos en forma

matricial    
0 x a b
X = AX , con X= ; A= .
y c d

¾Quién es etA en este caso?


Esta pregunta no es tan fácil de responder. Es más, es FALSO en general armar que

eat ebt
 
etA = .
ect edt

Aún siendo este un caso de dimensión muy baja (2×2) la matriz solución, etA no es tan evidente.

Por ejemplo:

Si a=d=ρ , b = −ω , c = ω (ω > 0)
entonces:  
tA ρt cos ωt − sen ωt
e =e .
sen ωt cos ωt

Si a=d=0 y c·b>0
entonces:

√ √ √ √  !
tA 1 e √cb + e− √cb bt e√ cb − e−√ cb
e = .
ct e cb − e− cb e cb + e− cb

2

Dejamos esta breve introducción a los sistemas de ecuaciones diferenciales y nos encaminamos a
la tarea de presentar todo el andamiaje matemático para resolver sistemas de ecuaciones de la
forma

X 0 = A(t)X + b(t), (6.4)

con A-matriz n × n
A : I ⊂ R −→ Mn×n (R)
t −→ A(t) = [aij (t)]1≤i≤n ,1≤j≤n

b : I ⊂ R −→ Rn  
b1 (t)
.
t −→ b(t) =  . .
 
.
bn (t)

Las aplicaciones A y b las suponemos continuas en I ⊂ R.


2
El acoplado equivale a las especies interactuan entre sí.

95
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

Diremos que (6.4) es homogénea si b(t) ≡ 0 ∀t ∈ I ⊂ R.

X 0 = A(t)X ≡ Problema homogéneo asociado a (6.4).

En el caso tal de que b(t) 6= 0 para algún t ∈ I ⊂ R, entonces (6.4) se llama afín o completa.

Nuestro objetivo es resolver el problema de Cauchy,

X 0 = A(t)X + b(t) ,

(P )
X(t0 )= X0 ,

x01 (t)
 
 x0 (t) 
 2
donde X0 =  .  es la condición inicial; (t0 , x0 ) ∈ I × Rn .

 . .

x0n (t)
Con este objetivo en mente, necesitaremos primero unos resultados del Análisis Funcional.

Dado un intervalo I ⊂ R, abierto y una aplicación

Φ : I ⊂ R −→ Mn×n (R) ,

denimos la derivada de Φ en un punto t∈I como:

Φ(t + h) − Φ(t)
Φ0 (t) = lı́m ,
h→0 h
cuando el límite exista.

Lema 6.1 Sean Φ ,ψ : I → Mn×n (R) derivables en t0 ∈ I. Entonces:

d
(Φψ) = Φ0 (t0 )ψ(t0 ) + Φ(t0 )ψ 0 (t0 ) (Regla del Producto)

dt t=t0

Demostración: De la denición de derivada para aplicaciones matriciales tenemos:


d Φ(t + h)ψ(t + h) − Φ(t)ψ(t)
(Φψ) = lı́m ,
dt h→0
 h   
Φ(t + h) − Φ(t) ψ(t + h) − ψ(t)
= lı́m ψ(t + h) + Φ(t) ,
h→0 h h
Φ(t + h) − Φ(t) ψ(t + h) − ψ(t)
= lı́m ψ(t + h) + Φ(t) lı́m ,
h→0 h h→0 h
= Φ0 (t)ψ(t) + Φ(t)ψ 0 (t).

Lema 6.2 Sea Φ : I ⊂ R → Mn×n (R) derivable en todo t0 ∈ R y suponga que det Φ(t0 ) 6= 0.
Entonces
Φ−1 : I → Mn×n (R),
es derivable en t0 y
0
Φ−1 (t0 ) = −Φ−1 (t0 )Φ0 (t0 )Φ−1 (t0 ).

96
Demostración: Aplicando la denición de derivada, se tiene:
 −1  −1
−1
0 Φ(t + h) − Φ(t)
Φ (t) = lı́m ,
h→0 h
 −1  −1 
Φ(t) Φ(t) Φ(t + h) − Id
= lı́m Id ≡ identidad,
h→0
 h
 −1  −1  −1 
Φ(t) Φ(t) Φ(t + h) − Φ(t + h) Φ(t + h)
= lı́m ,
h→0 h
−1 Φ(t + h) − Φ(t) −1 
 
 −1
= − lı́m Φ(t) Φ(t + h) .
h→0 h
Por lo tanto:
 −1
−1
0  −1 Φ(t + h) − Φ(t)  −1
Φ (t) = − Φ(t) lı́m Φ(t + h) ,
h→0 h
−1 0 −1
= − Φ(t) Φ (t) Φ(t) .

Lema 6.3 Dada Φ : I ⊂ R → Mn×n (R) derivable, la función det Φ : I → R es derivable y su


derivada es:
0
φ11 φ012 · · · φ01n

φ11 φ12 · · · φ1n

d φ21 φ22 · · · φ2n φ21 φ22 · · · φ2n
(det Φ(t)) = . + · · · + .. .

. .. . . .. .
dt .. .
. . .
. . .
. . .
.
φ0 0 0

φn1 φn2 · · · φnn n1 φn2 · · · φnn

(Derivada de la función determinante)

Demostración: Haremos la prueba en el caso n = 2. La prueba general se puede encontrar en


[]...
 
φ11 (t) φ12 (t)
Sea Φ(t) = , y det Φ(t) = f (t). Entonces:
φ21 (t) φ22 (t)

f (t + h) − f (t)
f 0 (t) = lı́m ,
h→0 h  
det Φ(t + h) − det Φ(t)
= lı́m ,
h→0 h
φ11 (t + h)φ22 (t + h) − φ21 (t + h)φ12 (t + h) − φ11 (t)φ22 (t) + φ21 (t)φ12 (t)
= lı́m ,
h→0
 h 
φ11 (t + h) − φ11 (t) φ22 (t + h) − φ12 (t + h) − φ12 (t) φ21 (t)
= lı́m +
h→0
 h 
φ22 (t + h) − φ22 (t) φ11 (t) − φ21 (t + h) − φ21 (t) φ12 (t + h)
lı́m ,
h→0 h
 0
φ11 (t) φ012 (t)
  
φ11 (t) φ12 (t)
= det + det .
φ21 (t) φ22 (t) φ021 (t) φ022 (t)

97
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS


El resultado es equivalente si se considera la derivación por columnas, es decir:

0
φ01n

φ11 φ12 · · · φ1n φ11 φ12 · · ·

φ0 φ02n
21 φ22 · · ·
d φ2n φ21 φ22 · · ·
(det Φ(t)) = . + · · · + .. .

. .. . . .. .
dt .. .
. . .
. . .
. . .
.
φ0 φ0nn

n1 φn2 · · · φnn φn1 φn2 · · ·

Ejemplo 6.0.1 Sea


5t2 t ln(t)
 
Φ(t) = ,
sen t et
donde t > 0, entonces:

5t2 ln(t) + 1

d 10t t ln(t)
(det Φ(t)) = +
dt cos t et sen t et

= 10tet − t ln(t) cos t + 5t2 et − sen t(ln(t) + 1).

Ahora consideremos el conjunto

Zb = {X ∈ C 1 (I, R) | X 0 = A(t)X + b(t)},

es decir: el conjunto de las soluciones de (6.4) o bien de la ecuación diferencial E.D.L.




En particular, si b = 0 , Z0 es el conjunto de soluciones de la ecuación diferencial lineal homogénea
E.D.L.H.

Se puede demostrar que C 1 (I, Rn ) ≡ conjunto de todas las funciones de clase C 1 de I ⊂ R en Rn


forma un espacio vectorial (de dimensión innita). Más aún, el siguiente teorema es fundamental
para nuestro estudio.

Teorema 6.0.2 Z0 es un subespacio vectorial de dimensión n de C 1 (I, Rn ).

Este teorema nos dice que Z0 tiene una base conformada por n-funciones
ϕ1 (t), . . . ϕn (t) ; ϕi : I ⊂ R → Rn , i = 1, . . . , n.
Más aún, a toda base de Z0 se le llama Sistema Fundamental de Soluciones de la E.D.L.H.

Corolario 6.0.3 Toda solución de E.D.L. se escribe como la suma de una solución particular
de la ecuación completa y de alguna solución de la E.D.L.H. Es decir, si

Xp ∈ Zb ,
Xh ∈ Z0 ,

entonces
X = Xp + Xh , X ∈ Zb .

Nos centramos ahora en la E.D.L.H.


X 0 = A(t)X ,
donde A : I ⊂ R → Mn×n (R) es continua.

98
Diremos que una función matricial Φ : I ⊂ R → Mn×n (R) es una matriz solución de la
ecuación de E.D.L.H, si es solución de la ecuación matricial

Φ0 (t) = A(t)Φ(t).
Esta denición es equivalente a que las columnas de Φ son soluciones de E.D.L.H; pues si ponemos
Φ por columnas:
Φ = (φ1 , φ2 , . . . , φn )
↓ ↓ ↓
 
φ11 φ12 · · · φ1n
≡  ... .
. .. .
.
 
. . . 
φn1 φn2 · · · φnn
y si derivamos: (ver el lema 6.3).

Φ0 (t) = φ01 (t), φ02 (t), · · · , φ0n (t) ,




= A(t)φ1 (t), A(t)φ2 (t), · · · , A(t)φn (t) ,
= A(t) φ01 (t), φ02 (t), · · · , φ0n (t) ,


Φ0 (t) = A(t)Φ(t).
Por otro lado, la matriz solución Φ se dice que es fundamental si sus columnas son linealmente
independientes si y sólo si det Φ(t) 6= 0 , ∀t ∈ I .

Proposición 6.0.1 Sea Φ una matriz solución de E.D.L.H. son equivalentes:

i) Φ es una matriz fundamental (m. f.).

ii) Existe t0 ∈ I tal que det Φ(t0 ) 6= 0.


iii) det Φ(t0 ) 6= 0 , ∀t0 ∈ I .

Cabe mencionar que existen innitas matrices fundamentales, pero todas ellas están relacionadas
así:

Proposición 6.0.2 Sea Φ una m.f. de E.D.L.H. entonces:

i) Φ(t) · C es una m.f. de E.D.L.H. con C ∈ Mn×n (R) una matriz constante tal que
det C 6= 0.

ii) Si Ψ es otra m.f. de E.D.L.H., existe C ∈ Mn×n (R) una matriz constante tal que
Ψ(t) = Φ(t) · C , ∀t ∈ I .

Demostración:
i) Considere la matriz Ψ(t) = Φ(t) C con C una matriz no singular. Entonces:

Ψ0 (t) = Φ0 (t) C = A(t)Φ(t) C = A(t)Ψ(t),


así que Ψ(t) satisface E.D.L.H. Además:

det(Ψ(t)) = det(Φ(t) C) = det Φ(t) det C 6= 0.


Esto comprueba que Ψ(t) es una matriz fundamental de E.D.L.H.

99
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

ii) Queremos probar que Φ−1 (t) Ψ(t) = C ∀t ∈ I. Entonces

0
(Φ−1 (t)Ψ(t))0 = Φ−1 (t) Ψ(t) + Φ−1 (t)Ψ0 (t)
= −Φ−1 (t) Φ0 (t) Φ−1 (t)Ψ(t) + Φ−1 (t)Ψ0 (t)
= Φ−1 (t) − A(t)Φ(t)Φ−1 (t)Ψ(t) + A(t)Ψ(t)


= Φ−1 (t) − A(t)Ψ(t) + A(t)Ψ(t) = 0




En consecuencia

Φ−1 (t)Ψ(t) = C ∀t ∈ I.


A continuación presentamos un teorema clave en nuestro estudio.

Teorema 6.0.4 (Fórmula de Jacobi)


Sea Φ(t) una matriz solución de E.D.L.H. y t0 ∈ I. Entonces se verica:

Z t
T r A(s) ds
det Φ(t) = det Φ(t0 ) · e to ,

donde T r A(t) ≡ es la traza de la matriz A(t).

Demostración: Supongamos que Φ(t) = (φij (t)i,j=1,··· ,n . Cada componente φi,j (t) satisface:

n
X
φ0ij (t) =

aik (t)φkj (t), con A(t) = aij (t) .
k=1

Por lo tanto; derivando la función det Φ(t) por las se cumple:



φ11 (t) ··· φ1n (t)
. .
. .

n . .
d X
φ0m1 (t) · · · 0

det Φ(t) = φmn (t) ,
dt
. .
m=1 . .

. .

φn1 (t) ··· φnn (t)


φ11 (t) ··· φ1n (t)

. .
. .

Xn . .
Pn Pn
=
k=1 amk (t)(φk1 (t) ··· k=1 amk (t)(φkn (t) ,

m=1 . .
. .

. .

φn1 (t) ··· φnn (t)
= a11 (t)|Φ(t)| + · · · + an1 (t)|Φ(t)|.

En consecuencia:

|Φ(t)|0 = T rA(t)|Φ(t)|,

100
Tenemos un problema de Cauchy de la forma
 0 
|Φ| = T rA(t)Φ
Φ(t0 ) = Φ0
Cuya solución es:
Z t
T rA(s)ds
Φ(t) = Φ0 e t0 .
Z t 
T r A(s) ds
= det Φ(t0 )e t0 .


La fórmula de Jacobi nos permitirá más adelante encontrar soluciones de una ecuación diferencial
de segundo orden a partir de una solución conocida.

Solución de la E.D.L. Completa


Dado el problema de Cauchy

X 0 = A(t)X ,

t0 ∈ I
X(t0 )= X0 ,
una matriz fundamental Φ(t0 ) es principal en t0 si Φ(t0 ) = In ≡ matriz identidad de orden n.

Teorema 6.0.5 (Teorema de Existencia y Unicidad)


Para el problema de Cauchy, A : I ⊂ R → Mn×n (R) continua

X 0 = A(t)X ,

(P.V.I) t0 ∈ I
X(t0 )= X0 .
Siempre existe una matriz principal ∀t0 ∈ I y tal matriz es única. Más aún si Φ(t) es fundamental
y principal en t0 entonces la solución de P.V.I. es X(t) = Φ(t)X0 .

Vamos a generalizar lo anterior para la E.D.L. completa.

Teorema 6.0.6 (Fórmula de Variación )


Considere el P.V.I.
X 0 = A(t)X + b(t) ,

(P.V.I)
X(t0 )= X0 .
Con A : I ⊂ R → Mn×n (R) continua, b : I ⊂ R → Rn continua. Si Φ(t) es una matriz
fundamental y principal de
X 0 = A(t)X,
en t0 entonces la solución de P.V.I es:

Zt
X(t) = Φ(t)X0 + Φ(t) Φ−1 (s)b(s) ds .
t0

Note que: X(t) = Xh (t) + Xp (t), solución homogénea + solución particular.

101
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

6.1. Ecuación Diferencial Lineal con Coecientes constantes


Acabamos de ver que para resolver una E.D.L. necesitamos encontrar una matriz fundamental de
la correspondiente E.D.L.H. Actualmente no existe ningún método que permita encontrar dicha
matriz fundamental.

Pero en el caso
A : I ⊂ R −→ Mn×n (R)
t −→ A(t) = A = [aij ],

en donde A es una matriz con coecientes aij constantes, si existe un método para hallar una
matriz fundamental de la ecuación E.D.L.H. con coecientes constantes

X0 = A X

y así después de aplicar la fórmula de variación de constantes, resolver:

X 0 = A X + b(t)

Denición 6.1.1 Sea A ∈ Mn×n (R). Denimos la matriz exponencial de A como:


A
X An
e =
n!
n=0

Esta denición es correcta, pues la serie es convergente, en efecto:

∞ n q q q
X An kAn k kAn k

X A X X
= lı́m ≤ lı́m ≤ lı́m = ekAk
n! q→∞ n! q→∞ n! q→∞ n!
n=0 n=0 n=0 n=0

Teorema 6.1.2 la matriz Φ(t) = eA(t−t0 ) es matriz fundamental y principal en t0 para el P.V.I.

X 0 = AX ,


X(t0 )= X0 .

El lector podrá pensar que hemos denido de la manga la matriz fundamental, estoy de acuerdo;
pero no es el objetivo de estas notas ser rigurosos. En este punto, basta con mencionar e invitar
al lector a leer el tema correspondiente a las iteraciones de Picard.

 Zt 
0
X = Ax; Xn+1 = X0 + A Xn (s) ds .
t0

Del anterior teorema se deducen los siguientes resultados:

Lema 6.4 Dada A ∈ Mn×n R, t0 ∈ R. Si Φ(t) = e(t−t0 )A , se cumple que:

Φ0 (t) = Ae(t−t0 )A .

Corolario 6.1.3 Por el teorema de Jacobi (fórmula de Jacobi), se cumple, con t0 = 0

102
6.1. ECUACIÓN DIFERENCIAL LINEAL CON COEFICIENTES CONSTANTES

1. det et·A = et·T r(A) . Si t = 1, det eA = eT r(A) .


2. det eA > 0 si y sólo si eA es invertible.

3. Dado que eA es invertible entonces

(eA )−1 = e−A .

En base a este resultado, podemos expresar la fórmula de variación de constantes, en una forma
más familiar.

Observación 6.1.1 todas las soluciones de

X 0 = AX + b(t) ,


X(t0 )= X0 .
son de la forma:
Zt
X(t) = e(t−t0 )A X0 + e(t−t0 )A e−(s−t0 )A b(s) ds .
t0

¾Cómo calcular la matriz etA ?


Dada una matriz A ∈ Mn×n (R) (con coecientes constantes) t ∈ I ⊂ R, se dene:


X (tA)k t 2 A2
etA = = In + tA + + ...
k! 2!
k=0

Teorema 6.1.4 Propiedades:

1. e0 = In×n .
2. eA+B = eB+A si y sólo si AB = BA.
−1
3. eP DP = P eD P −1 .

Denición 6.1.5 A ∈ Mn×n (R) es una matriz nilpotente de orden m, si tenemos:

Am−1 6= 0n y Am = 0 n ,
donde  
0 ... 0
. .. .
0n =  . . ≡ matriz nula.
 
. . . 
0 ... 0 n×n

Denición 6.1.6 Una matriz A ∈ Mn×n (R) es una matriz diagonal si


 
λ1 ∅
..
 , λj,s ∈ R.
 
 .
∅ λn

En donde el símbolo ∅ indica que los elementos de la matriz A fuera de la diagonal principal son
todos cero.

103
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

Ejemplos 6.1.7  
0 −1 1
A= 0 0 2 
0 0 0
es nilpotente de orden 3.
 
31 0
B=
0 31
Es diagonal; λ1 = λ2 = 31.

¾Por qué hablar de matrices nilpotentes y matrices diagonales?

Si A es una matriz nilpotente de orden m, entonces:

1 1
e A = I + A + A2 + . . . + Am−1 ,
2 (m − 1)!
P Ak
m−1
eA = (Suma nita).
k=0 k!

Si A es diagonal, entonces;
 
λ1 ∅
..
A= ,
 
.

∅ λn
y además:
λk1 eλ1
   
∅ ∅
.. ..
A= ⇒ eA =  .
   
.  .

∅ λkn ∅ e λn

Ejemplo 6.1.8 CalculareAt si:

 
0 −1 1
1. A=  0 0 2 .
0 0 0
 
−1 0 0
2. A=  0 2 0 .
0 0 3
 
0 −1 1
1. Sabemos que si A= 0 0 2 ,A es nilpotente de orden m = 3, es decir:
0 0 0

A2 6= 0 y A3 = 0 .

Así que:
At A2 t2
etA = I3 + + ,
1! 2!

104
6.1. ECUACIÓN DIFERENCIAL LINEAL CON COEFICIENTES CONSTANTES

     
1 0 0 0 −t t 2 0 0 −2
t
etA =  0 1 0  +  0 0 2t  +  0 0 0 
2
0 0 1 0 0 0 0 0 0

1 −t t − t2
 

= 0 0 2t  .
0 0 1
 
−1 0 0
2. Si A =  0 2 0 , entonces A es diagonal y por lo tanto:
0 0 3

e−t 0
 
0
etA =  0 e2t 0  .
0 0 e3t

105
CAPÍTULO 6. SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

106
Capítulo 7

Cálculo de la matriz etA para sistemas


de ecuaciones diferenciales con
coecientes constantes
Sabemos que para el problema de valor inicial

X 0 = Ax + b(t) ; x(t0 ) = x0 ,
con b : I ⊂ R −→ Rn , continua y A ∈ Rn×n (R), la solución está dada por:

Zt
X(t) = e(t−t0 )A x0 + e(t−t0 )A e−(s−t0 )A b(s) ds .
t0

La fórmula anterior es la conocida Fórmula de Variación de Constantes.

Veamos un ejemplo:

Ejemplo 7.0.9 Resolver el siguiente sistema de ecuaciones:

x0 = 5x + y

(7.1)
y 0 = 3y .
1
Sujeto a la condición x(0) = 1 ; y(0) = . Reescribimos nuestro sistema en forma matricial.
2
Sea    
x(t) 5 1
X(t) = ; A= .
y(t) 0 3
Tenemos entonces que (7.1) se escribe así:

 0   
0 x 5 1 x
X = Ax equivale a = . (7.2)
y0 0 3 y
Sabemos bien que las soluciones del sistema (7.2) son de la forma:
 
(t−t0 )A x(t0 )
X(t) = e X0 ; X0 = .
y(t0 )

107
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

En nuestro caso:  
e5t − e3t
 
1 5t
e
t0 = 0 ; X0 =   ; etA =  2 .

1/2 0 e3t

En consecuencia, la solución es por lo tanto:


  
e5t − e3t 1
tA e5t
X(t) = e X0 = 
 2  ,
  
0 e3t 1/2

e5t − e3t
 
5t
e + 2 
X(t) =  .
 e 3t 
2

7.1. Cálculo de la Matriz etA por Diagonalización


Existen varios métodos analíticos y numéricos para el cálculo de la matriz etA . Este método
llamado Diagonalización tiene su gran potencial de uso dada la siguiente igualdad.

Lema 7.1 Sea A ∈ Mn×n (R). Si A = P DP −1 para alguna matriz invertible P y una matriz D
entonces
eA = P eD P −1 .

Ejercicio: Demostrar el resultado anterior.


Recordemos algo de álgebra lineal.
Se dene la matriz Nilpotente Nk de orden k
 
0 1 0 ··· 0
0
 0 1 ··· 0
Nk =  ... .
.
.
. .. .
. ; Nk = ∅ .

. . . . k
 
0 0 0 ··· 1 
0 0 0 ··· 0
Para un escalar dado, se dene la matriz de bloque de Jordan J(λ), por:

 
λ 1 0 ··· 0
0
 λ 1 ··· 0
J(λ) = λIk + Nk =  ... .
.
.
. .. .
..

. . . .
 
0 0 0 ··· 1
0 0 0 ··· λ
J(λ) es una matriz k×k con el escalar λ en su diagonal principal y unos arriba de la diagonal
principal. En las demás posiciones sólo tiene ceros.

Una matriz de bloque de Jordan J(λ) de orden 1 es de la forma J(λ) = (λ) .

108
7.1. CÁLCULO DE LA MATRIZ etA POR DIAGONALIZACIÓN

Denición 7.1.1 Una matriz de Jordan J es de una matriz de la forma:

 
J1 (λ1 ) 1 0 ··· 0
 0
 J 2 2)
(λ 1 ··· 0 

 .. .
.
.
. .. .
.
J = . .

. . . .
 
 0 0 0 ··· 1 
0 0 0 ··· Jr (λr )

Es decir, una matriz de Jordan es una matriz que tiene en su diagonal principal matrices de
bloques de Jordan y ceros en otra parte.

Ejemplos 7.1.2

1. √ 
2 0 0
J =  0 10 1  ;
0 0 10

 
10 1
J1 (λ1 ) = J1 ( 2) , J2 (λ2 ) = J2 (10) = .
0 10

2.  
−2 0 0 0 0
 0 −2 1 0 0
 
J = 0 0 −2 1 0;
0 0 0 −2 0 
0 0 0 0 12
 
−2 1 0
J1 (λ1 ) = J1 (−2) = (−2) , J2 (λ2 ) = J2 (−2) =  0 −2 1  ,
0 0 −2
J3 (λ3 ) = J3 (12) = (12).

Del álgebra lineal tenemos el siguiente resultado.

Teorema 7.1.3 (Forma Canónica de Jordan)


Sea A una matriz (real o compleja) n × n. Entonces existe una matriz (real o compleja) P
invertible n×n tal que
A = P JP −1 ,
donde J es una matriz de Jordan cuyos elementos en la diagonal principal son los valores propios
de A. Más aún, Las columnas de la matriz P son los vectores propios de la matriz A. Así:

P = [v1 , v2 , . . . , vn ] ; vi ≡ vector propio de A, i = 1, 2, . . . , n.

Nota: La matriz de Jordan es única salvo por el orden en el que aparecen los bloques de Jordan.
Recordemos que los valores propios de A son las soluciones de la ecuación algebraica p(λ) = 0,
donde p(λ) = det(A − λIn ) (p(λ) ≡ polinomio característico asociado a la matriz A).

109
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

Tenemos así:    
−5 3 v1 0
= .
5 −3 v2 0
Este sistema equivale a:

−5v1 + 3v2 = 0 5v1 = 3v2 ,


⇔ 3
5v1 + (−3)v2 = 0 v1 = v2 .
5
Elegimos v2 = 5 entonces v1 = 3.
Por lo tanto,
   
3 3
Eλ1 = gen ≡ Espacio vectorial generado por el vector .
5 5

Eλ2 = {v ∈ R2 |(A − λ2 )v = 0}.

Tenemos    
1+2 3 v1 0
(A − λ2 )v = 0 ⇔ = ,
5 3 + 2 v2 0
   
3 3 v1 0
⇔ = .
5 5 v2 0
Este sistema equivale a:
3v1 + 3v2 = 0 3v1 = −3v2 ,

5v1 + 5v2 = 0 v1 = −v2 .
Elegimos v2 = −1 entonces v1 = 1.
   
1 1
Por lo tanto, Eλ2 = gen ≡ Espacio vectorial generado por el vector .
−1 −1
 
1 3
Ejemplo 7.1.4 Considere la matriz A=
5 3
.

Calculemos los valores propios:

1−λ 3
p(λ) = det(A − λI) = = (1 − λ)(3 − λ) − 15.
5 3−λ

Así que
p(λ) = 3 − λ − 3λ + λ2 − 15 ,
p(λ) = λ2 − 4λ − 12 .

Entonces p(λ) = 0 si y sólo si


λ2 − 4λ − 12 = 0 ,
(λ − 6)(λ + 2) = 0 .

Los valores propios son:



 Multiplicidad Algebráica
λ1 = 6 ; λ2 = −2 de los valores propios
m1 (6) = 1 ; m2 (−2) = 1 .

110
7.1. CÁLCULO DE LA MATRIZ etA POR DIAGONALIZACIÓN

Calculemos los valores propios.

Eλ1 = {v ∈ R2 |(A − λ1 )v = 0} ≡ Espacio propio asociado al valor propio λ1 .

Tenemos
   
1−6 3 v1 0
(A − λ1 )v = 0 ⇔ = ,
5 3 − 6 v2 0
 
v
donde v= 1 .
v2
   
3 1
Finalmente los vectores propios son: ϑ1 = ; ϑ2 = .
5 −1
Notemos que la multiplicidad geométrica (dimensión del espacio propio) y la multiplicidad alge-
braica de cada valor propio es igual a 1. Este hecho nos permite armar que:

   
J1 (6) 0 6 0
J= = ,
0 J2 (−2) 0 −2

o bien:
 
−2 0
J= .
0 6

Por el teorema anterior:


 
−1 6 0
A = P JP =P P −1 .
0 −2
Tomando
 
3 1
P = [ϑ1 , ϑ2 ] = .
5 −1
Se comprueba efectivamente que:

   −1
3 1 6 0 3 1
A= .
5 −1 0 −2 5 −1

   
1 3 −2 0
Si se toma Pe = [ϑ2 , ϑ1 ] = entonces, A = PeJePe−1 con Je = .
−1 5 0 6
 
6 0
Tenemos que la matriz de Jordan es J = , por lo tanto, a partir del lema 1 se tiene que:
0 −2
 
−1 3 1
A= P JP ; P = ,
5 −1
eA = P eJ P −1 ;
  6  
A 3 1 e 0 1/8 −1/8
e = .
5 −1 0 e−2 5/8 −3/8

111
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

De manera que
   6t  
3 1 e 0 1/8 −1/8
eAt = ,
5 −1 0 e−2t 5/8 −3/8
  6t
−e6t
 
1 3 1 e
= ,
8 5 −1 5e−2t −3e−2t
−2t −3e6t − 3e−2t
" 6t #
1 3e + 5e
= .
8 5e6t − 5e−2t −5e6t + 3e−2t

Estamos listos para aplicar el método de diagonalización para resolver un sistema de ecuaciones
diferenciales (2 × 2, . . . , n × n).

Ejemplo 7.1.5 Resolver el siguiente sistema de ecuaciones diferenciales

x0 = 6x + y + 6t


y 0 = 4x + 3y − 10t + 4 .

Este par de ecuaciones las re-escribimos en forma matricial.


 
x
Sea X= .
y
 0     
x 6 1 x 6t
= + .
y0 4 3 y −10t + 4

Tenemos:
X 0 = AX + b(t) ,
   
6 1 6t
con A= y b(t) = .
4 3 −10t + 4
Calculemos la matriz eAt .
Los valores propios están dados por:


6−λ 1
det(A − λI) = .
4 3−λ

p(λ) = (6 − λ)(3 − λ) − 4 ,
= λ2 − 9λ + 14 ;

donde p(λ) = 0 si y sólo si


λ2 − 9λ + 14 = 0 ,
(λ − 7)(λ − 2) = 0 .
Los valores propios son:
λ1 = 7 ; λ2 = 2 .

Calculamos los vectores propios:

Eλ1 = {v ∈ R2 |(A − λ1 )v = 0} ,

112
7.1. CÁLCULO DE LA MATRIZ etA POR DIAGONALIZACIÓN

   
6−7 1 v1 0
(A − λ1 )v = 0 ⇔ (A − 7)v = 0 ⇔ = ,
4 3 − 7 v2 0
es decir:    
−1 1 v1 0
= .
4 −4 v2 0
Esto equivale a:
−v1 + v2 = 0 −v1 + v2 = 0 ,

4v1 − 4v2 = 0 v1 = v2 .
Sea v2 = 1 entonces v1 = 1.
 
1
Por lo tanto Eλ1 = gen .
1

Eλ2 = {v ∈ R2 |(A − λ2 )v = 0} ,

   
6−2 1 v1 0
(A − λ2 )v = 0 ⇔ (A − 2)v = 0 ⇔ = ,
4 3 − 2 v2 0
es decir:    
4 1 v1 0
= .
4 1 v2 0

Este sistema equivale a:


4v1 + v2 = 0 4v1 + v2 = 0 ,

4v1 + v2 = 0 v1 =− 41 v2 .
Sea v2 = −4, entonces v1 = 1.
 
1
Por lo tanto Eλ2 = gen .
−4
Los vectores propios son:
   
1 1
ϑ1 = ; ϑ2 = .
1 −4

La matriz de Jordan para A es:


 
7 0
J= ,
0 2
por lo tanto:
   
1 1 4/5 1/5
A = P JP −1 ; con P = ; P −1 = .
1 −4 1/5 −1/5

Así tenemos:
etA = P etJ P −1
   7t  
1 1 e 0 4/5 1/5
etA = .
1 −4 0 e2t 1/5 −1/5

En consecuencia:

113
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

 
1 7t 1 7t
5 (4e + e2t ) 5 (e − e2t )
etA =  ,
4 7t 1 7t
5 (e − e2t ) 5 (e + 4e2t )

y además, la matriz inversa de eAt está dado por:

 
1 −7t + e−2t ) 1 −7t
− e−2t )
5 (4e 5 (e
e−tA =  ,
4 −7t
5 (e − e−2t ) 1 −7t
5 (e + 4e−2t )

Ahora bien, aplicamos la fórmula de variación de constantes:

Zt  
c
X(t) = e tA
C +e tA
e −sA
b(s) ds ; C = 1 .
c2

Así:

(4−10s) −7s
 
65 −7s + e−2s ) − e−2s )
5 (4e 5 (e
e−aA b(s) =  ,
24s −7s (4−10s) −7s
5 (e − e−2s ) 5 (e + 4e−2s )

Integrando se tiene:

Zt
 
2 −7t 3
− t + e−2t (−1 − 4t))

5 (e − 7
e−tA b(s) ds =  ,
1 −7t 6
− 2t + e−2t (8 + 32t))

5 (e − 7

Rt
Calculamos el producto etA e−sA b(s) ds , entonces:

Zt
 
− 47 − 2t
eAt e−As b(s) ds =  .
10
7 + 6t

Finalmente:     
1 7t + e2t ) 1 7t c1
− e2t )− 74 − 2t
5 (4e 5 (e
etA =    +  .
4 7t 1 7t 10
5 (e − e2t ) 2t
5 (e + 4e ) c2 7 + 6t

Solución problema homogéneo + Solución Particular

Podemos entonces armar:


4
x(t)= c1 e7t + c2 e2t − 7 − 2t,
10
y(t)= c3 e7t + c4 e2t + 7 + 6t,
con c1 , c2 , c3 , c4 constantes.

Como se puede ver los cálculos son extensos y algo pesados por lo que en adelante vamos a
centrarnos en los sistemas homogéneos X 0 = AX y su estudio cualitativo.

114
7.2. DIAGRAMAS DE FASE

7.2. Diagramas de Fase


Consideremos el sistema de ecuaciones lineales con coecientes constantes

X 0 = AX (7.3)

donde: X : I ⊂ R → Rn de clase C 1 , A ∈ Mn×n (R).

Sabemos por el teorema de Jordan (Forma Canónica de Jordan) que la matriz A satisface

A = P JP −1 , (7.4)

con J una matriz de Jordan de AyP una matriz invertible determinada por los vectores propios
correspondientes a cada valor propio de A. Sustituyendo (7.4) en (7.3) obtenemos:

X 0 = P JP −1 X.

Multiplicamos ahora a ambos lados por P −1 y se obtiene:

P −1 Ẋ = JP −1 X.

En este punto denamos la función Y = P −1 X ; Y : I ⊂ R → Rn de clase C 1 . En consecuencia,

Y 0 = JY . (7.5)

La ecuación (7.5) se conoce como la forma canónica de Jordan la forma canónica de Jordan de (7.3).
¾Por qué la ecuación (7.5) es importante?

La respuesta es simple, la matriz de Jordan es una matriz diagonal por bloques de Jordan y el
cálculo de la matriz exponencial es más simple.

Por otro lado notemos que (7.3) tiene una única solución de equilibrio (solución trivial) y es

 
0
Xe = 0 = .
0
 
0
Vamos a analizar las propiedades cualitativas del equilibrio en su forma canónica (7.5). En
0
resumen (7.3) y (7.5) son equivalentes pero (7.5) es más fácil.

Vamos a considerar considerar A ∈ M2×2 R; así J toma una de las siguientes formas:

     
λ1 0 λ γ α β
I. ; II. ; III. ,
0 λ2 0 λ −β α
en donde γ puede tomar los valores de 0 o 1.

De acuerdo con las raíces (valores propios) del polinomio característico

p(λ) = det(A − λI) ; A ∈ M2×2 (R).


2
= λ − (T rA)λ + det A.

115
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

La naturaleza de las raices de este polinomio dependen de los parámetros T rA y det A en la forma

∆ = (T rA)2 − 4 det A (Discriminante)

 
y1
Veamos ahora en el plano y1 , y2 como se comportan los componentes de la solución de y 0 = Jy; y = .
y2
Análisis de Cada Caso.

Caso I.

Este caso corresponde a la situación donde p(λ) tiene dos raíces reales distintas; digamos λ1 , λ2 (λ1 6= λ2 ),
Dadas por
√ √
T rA + ∆ T rA − ∆
λ1 = ; λ2 = .
2 2
De manera que
p(λ) = (λ − λ1 )(λ − λ2 ) ; λi ∈ R, i = 1, 2.

Entonces    λt 
λ 0 e 1 0
J= 1 ; e tJ
= ,
0 λ2 0 eλ2 t

por lo tanto, la situación I nos brinda soluciones de (7.5) en la forma:

 
c
tj
y(t)= e C ; C= 1 vector de constantes,
c2
 λt  
e 1 0 c1
y(t)= .
0 eλ2 t c2
 
y1 (t)
Si y(t) = entonces:
y2 (t)
y1 (t)= c1 eλ1 (t) ,
y2 (t)= c2 eλ2 t .

Ahora bien, si consideramos lo siguiente

a) λ2 < λ1 < 0,
b) λ1 < λ2 < 0.

tenemos los diagramas que se pueden observa el las guras 7.1(a) y 7.1(b). Cuando a) ó b) ocurre, el
origen (0, 0) se llama nodo estable.

116
7.2. DIAGRAMAS DE FASE

y2
y2

y1
y1

(a) Caso a) λ2 < λ1 < 0 (b) Caso b) λ1 < λ 2 < 0

Figura 7.1: El origen en estos casos se llama nodo estable

Si por el contrario 0 < λ1 < λ2 , las echas en la gura 7.1(a) se invierten (gura 7.2(a)) y si 0 < λ2 < λ1 ;
las echas en la gura 7.1(b) se invierten (gura 7.2(b)). Cuando cualquiera de los dos eventos anteriores
sucede, el origen, (0, 0), se llama nodo inestable.

y2
y2

y1
y1

(a) 0 < λ1 < λ2 , (b) 0 < λ2 < λ1 .

Figura 7.2: El origen en estos casos se llama nodo inestable

Ahora, si los valores propios tienen signos opuestos, digamos λ1 < 0 < λ2 , entonces y1 va al origen a
lo largo del eje horizontal mientras que y2 se aleja del origen a lo largo del eje vertical. En este caso el
origen se conoce como un punto silla. Lo análogo ocurre en el caso λ2 < 0 < λ1 .

117
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

y2 y2
Separatriz

Separatriz

y1 y1

(a) λ1 < 0 < λ 2 , (b) λ2 < 0 < λ1 .

Figura 7.3: El origen en estos casos se llama punto de silla

Los ejes vertical y horizontal se llaman Separatrices, las cuales separan el diagrama de fases.

Caso II

Este caso corresponde a la situación donde p(λ) tiene una sola raiz real con multiplicidad algebraica 2,
digamos que dicha raiz es λ∗ , entonces p(λ) = (λ − λ∗ )2 .

Entonces:    
λ 1 1 t
J= ∗ ; γ=1; e tJ
=e λ∗ t
.
0 λ∗ 0 1
Por lo tanto, la solución de (7.5) es de la forma:

  
λ∗ t 1 t c1
y(t) = e .
0 1 c2

Así:
y1 (t) = (c1 + c2 t)eλ∗ t ,
y2 (t) = c2 eλ∗ t .
y1 c1 eλ∗ t + c2 teλ∗ t c1
= λ t
= +t
y2 c2 e ∗ c2
y1 (t)
lı́m = ∞. (c2 6= 0)
t→∞ y2 (t)
Ahora bien, si λ∗ < 0 todas la soluciones tienden al origen.

Si c2 = 0, la solución se aproxima al origen a lo largo del eje y1 .

Si c2 6= 0, la diferencia y2 (t) − y1 (t) → 0 a la misma tasa a la cual (y1 , y2 ) se aproxima al origen cuando
t → ∞, así que la trayectoria es asintótica a la linea y = x, cuando t → ∞.

Si λ∗ > 0, todo punto (excepto el origen), tiende a innito.

Si c2 = 0, los puntos van a innito a lo largo del eje y1 .

118
7.2. DIAGRAMAS DE FASE

Si c2 6= 0, |y2 (t)| → ∞ cuando t → ∞, pero

y20 c2 λ∗
0 = →0 si t → ∞.
y1 c1 λ∗ + c2 λ∗ t

Por lo tanto, cada trayectoria es cada vez más horizontal cuando se aleja cada vez más del origen.

(a) λ∗ < 0. En este caso λ∗ = −0, 5, c1 = 0, 5 y (b) λ ∗ > 0. En este caso λ∗ = 0, 5, c1 = 0, 5 y


c2 = 1 c2 = 1

Figura 7.4: En estos casos, el origen se llama nodo impropio

Existe un caso posible dentro del caso II y es cuando la multiplicidad geométrica del valor propio λ∗ es
igual a 2. Es decir:
(multiplicidad geométrica = multiplicidad algebraica).

 
λ∗ 0
En esta situación, J= . Las trayectorias se mueven ahora sobre líneas rectas;
0 λ∗

y1 (t) = c1 eλ∗ t ; y2 (t) = c2 eλ∗ t ,


así que:
y1 c1
= ; c2 6= 0.
y2 c2
Si λ∗ < 0 me acerco al origen.

Si λ∗ > 0 me alejo del origen.

119
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

y2 y2

y1 y1

(a) λ∗ < 0 (b) λ∗ > 0

Figura 7.5:

Caso III

Este caso corresponde a la situación donde p(λ) tiene raices complejas; digamos λ = α ± iβ; α, β ∈ R.

Se puede demostrar que en este caso:


 
α β
J= .
−β α

½Sentido negativo ≡ Sentido horario!

Ahora bien:
   
α 0 0 β
J= + .
0 α −β 0

J = J1 + J2 ; observe que J1 .J2 = J2 .J1 .

etJ = et(J1 +J2 ) = etJ1 .etJ2 , en donde:

∞ (tJ )n t2 J22 t3 J23


2
etJ2 =
P
= I2 + tJ2 + + + ...
n=0 n! 2! 3!
 2 2
t3 β 3
      
1 0 0 tβ t β
 − 2! 0   0 −
3! 
= + + +  + ...
  
t2 β 2   t3 β 3
0 1 −tβ 0 0 − 0
2! 3!

Así:

t2 β 2 t4 β 4 t3 β 3 t5 β 5
 
1 − + + ... tβ − + − ...
 2! 4! 3! 5!
etJ2 = .
 
 t3 β 3 t5 β 5 t2 β 2 t4 β 4 
−tβ + − + ... 1− + + ...
3! 5! 2! 4!

120
7.2. DIAGRAMAS DE FASE

Recordando los desarrollos de Taylor en cero de las funciones sen(tβ) y cos(tβ) tenemos:

t2 β 2 t4 β 4
cos(tβ) = 1 − + + ...
2! 4!

t3 β 3 t5 β 5
sen(tβ) = tβ − + − ...
3! 5!

Así que:
" #
tJ2
cos(tβ) sen(tβ)
e = .
− sen(tβ) cos(tβ)
 αt 
tJ1 e 0
Dado que e = , concluimos:
0 eαt

" #" #
eαt 0 cos(tβ) sen(tβ)
etJ = ,
0 eαt − sen(tβ) cos(tβ)
" #
tJ αt
cos(tβ) sen(tβ)
e =e .
− sen(tβ) cos(tβ)

En consecuencia, la solución está dada por:

" #" #
αt
cos(tβ) sen(tβ) c1
y(t) = e .
− sen(tβ) cos(tβ) c2

Así tenemos:


 y1 (t) = eαt (c1 cos(tβ) + c2 sen(tβ))
(7.6)
y2 (t) = eαt (c2 cos(tβ) − c1 sen(tβ))

Nota: La matriz J se puede expresar también en la forma

 
α −β
J=
β α

y por lo tanto la solución sería:

" #" #
αt
cos(tβ) − sen(tβ) c1
y(t) = e ,
sen(tβ) cos(tβ) c2

y1 (t) = eαt (c1 cos(tβ) − c2 sen(tβ)),


y2 (t) = eαt (c2 cos(tβ) + c1 sen(tβ)).

121
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

 
α β
La diferencia entre una forma y la otra es que cuando J= , giramos en el plano en sentido de
−β α
 
α −β
las manecillas del reloj (β > 0). Cuando J= , giramos en el plano en el sentido contrario a las
β α
manecillas del reloj.

Para el sistema mostrado en (7.6) distinguimos tres casos:

a) α < 0 < β. En este caso el sistema se mueve hacia el origen describiendo una espiral en sentido de las
manecillas del reloj, pues el radio de la órbita decrece al aumentar el tiempo al igual que el argumen-
to (ángulo que describe!). En este caso el origen es un sumidero del sistema (punto espiral estable).

b) α, β < 0. El movimiento es similar al anterior pero en sentido antihorario.

c) α, β > 0. En este caso, el radio de las órbitas crece exponencialmente, es decir el sistema se mueve
lejos del origen mientras el argumento de la órbita decrece; esto equivale a decir que la espiral
es "hacia afuera"del origen en sentido de las manecillas del reloj. En este caso el origen es un
punto espiral inestable.

y2 y2 y2

y1 y1 y1

(a) α<0<β (b) α, β > 0 (c) α, β < 0

Figura 7.6: En estos casos el origen se le llama foco

Por último, si α = 0, el radio de la órbita se mantiene constante (aparecen las Soluciones Periódicas)

y1 (t) = c1 cos(tβ) + c2 sen(tβ),


y2 (t) = c2 cos(tβ) − c1 sen(tβ).

Si β>0 nos movemos en un círculo en sentido horario.

Si β<0 nos movemos en un círculo en sentido antihorario.

122
7.2. DIAGRAMAS DE FASE

y2 y2

y1 y1

(a) α=0 0<β (b) α=0 β<0

Figura 7.7: α = 0. Al origen se le llama Centro

Ejemplos 7.2.1 Veamos los siguientes ejemplos.

1. Resolver (
y1 (t) = eαt (c1 cos(tβ) + c2 sen(tβ)),
y2 (t) = eαt (c2 cos(tβ) − c1 sen(tβ)).

Pasamos este sistema a una forma matricial.

   
x 2 1
x= 1 ; 0
x = Ax, con A= .
x2 1 2

Calculamos los valores propios de A.

p(λ) = det(A − λI) = (2 − λ)2 − 1 = 4 − 4λ + λ2 − 1 = λ2 − 4λ + 3,


p(λ) = (λ − 3)(λ − 1),

λ1 = 3 ; λ2 = 1
(Tenemos valores propios reales distintos) Caso I.

Los vectores propios son:


   
1 −1
ϑ1 = ; ϑ2 = .
1 1

(Ejercicio: Vericar lo anterior).

Entonces, la matriz de Jordan de A es:

 
3 0
J= .
0 1
   
1 −1 1/2 1/2
La matriz de vectores propios está dada por P = , más aún P −1 = . Así
1 1 −1/2 1/2
tenemos:

A = P JP −1 ,

123
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

eAt = P eJt P −1 ,
1 −1 e3t
   
0 1/2 1/2
eAt = .
1 1 0 et −1/2 1/2

En consecuencia:

" 3t t
#
At 1 e +e e3t − et
e = .
2 e3t − et e3t + et

Analizamos
 el diagrama de fase de la forma canónica asociada. Sea Y = P −1 X entonces Y 0 = JY,
3 0
con J= . Como los valores propios son reales distintos y positivos entonces el origen (0, 0)
0 1
es un nodo inestable.

GRÁFICA

2. Resolver
x01 = −x1 − x2 ,

x02 = 4x1 − x2 .

Pasamos este sistema a una forma matricial

   
x −1 −1
x= 1 ; 0
x = Ax, con A= .
x2 4 −1

Calculamos los valores propios!

p(λ) = det(A − λI)


p(λ) = λ2 + 2λ + 5.

p(λ) = 0 si y sólo si λ = −1 ± 2i.

Tenemos valores propios complejos.

Los vectores propios están dados por:

Eλ1 = {v ∈ R2 : (A − λ1 v) = 0},
        
−1 − (−1 + 2i) −1 v1 0 −2i −1 v1 0
= ⇔ = ,
4 −1 − (−1 + 2i) v2 0 4 −2i v2 0

x01 = −x1 − x2 (1)


x02 = 4x1 − x2 (2)

La ecuación (2) se obtiene de multiplicar (1) por 2i, entonces

−2iv1 − v2 = 0 ; v2 = −2iv1 .

124
7.2. DIAGRAMAS DE FASE

 
i
Sea v1 = i, v2 = 1. Nuestro vector propio es ϑ1 = .
1

Así  
1
Eλ1 = gen .
i
 
−i
Por otro lado, el segundo vector propio es ϑ2 = ϑ1 = .
2

Tenemos así:    
i −i 1 −i 1/4
P = ; P −1 = ,
2 2 2 i 1/4

P = [ϑ1 , ϑ2 ].
Finalmente:
A = P JP −1 ,

eAt = P eJt P −1 .
Por otro lado; consideremos la forma canónica asociada
 
c1
X = Py ; y 0 = Jy ; y(t) = eJt C ; C= ,
c2

y sabemos bien que en el caso III la matriz eJt es:


 
− sen(tβ)
cos(tβ)
eJt = eαt  ; λ = α + iβ.
 

sen(tβ) cos(tβ)

En nuestro caso

λ = −1 + 2i ; α = −1 ; β = 1.
Luego:  
cos t − sen t
eJt = e−t  .
sen t cos t

Observa que hemos considerado el giro positivo! (Antihorario!). Como α < 0; β > 0 entonces
tenemos una espiral que gira en sentido positivo hacia el origen.

GRÁFICA

Ahora bien; y(t) = eJt C en consecuencia:

y1 (t) = e−t (c1 cos t − c2 sen t),


y2 (t) = e−t (c1 sen t + c2 cos t),

La solución del sistema es:


X(t) = P y(t).
Así:     
x1 (t) i −i y1 (t)
= .
x2 (t) 1 1 y2 (t)

125
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

Por lo tanto:
x1 (t) = iy1 (t) − iy2 (t),
x2 (t) = y1 (t) + y2 (t),
 
x1 (t) = i y1 (t) − y2 (t) ,
h  i
x1 (t) = i e−t cos t(c1 − c2 ) − sen t(c1 + c2 ) . (∗)

x2 (t) = y1 (t) + y2 (t),


 
x2 (t) = e−t cos t(c1 + c2 ) + sen t(c1 − c2 ) .

Como estamos interesados en soluciones reales, se toma la parte imaginaria en (*) y encontramos:
h i
x1 (t) = e−t cos t · (c1 − c2 ) − sen t · (c1 + c2 ) ,
h i
x2 (t) = e−t sen t · (c1 − c2 ) + cos t · (c1 + c2 ) .

Si k1 = c1 − c2 ; k2 = c1 + c2 entonces:
h i
x1 (t) = e−t k1 cos t − k2 sen t ,
h i
x2 (t) = e−t k2 cos t + k1 sen t .

Esta última expresión se puede generalizar a calquier caso


 h i
 x1 (t) = eαt k1 cos βt − k2 sen βt ,

h i
 x2 (t) = eαt k2 cos βt + k1 sen βt .

k1 , k2 constantes; λ = α ± iβ valores propios!

3. Resolver: (
x01 = 3x1 − 2x2 ,
x02 = 8x1 − 5x2 .
Pasamos este sistema a una forma matricial

   
x 3 −2
x= 1 ; 0
x = Ax , con A= .
x2 8 −5

Los valores propios son:

p(λ) = det(A − λI) ; p(λ) = λ2 + 2λ + 1 = (λ + 1)2 .


Entonces p(λ) = 0 si y sólo si λ = −1. Tenemos un valor propio con multiplicidad algebráica 2
(Caso II).

Veamos los valores propios:

Eλ1 = {v ∈ R2 |(A − λ)v = 0}.

126
7.2. DIAGRAMAS DE FASE

   
4 −2 v1 0 4v1 − 2v2 = 0,
= ;
8 −4 v2 0 8v1 − 4v2 = 0.
La segunda ecuación se obtiene de la primera al multiplicar por 2. Ahora bien,considero
 4v1 − 2v2 = 0,
1 1
luego v1 = v2 . Tomamos v2 = 2 ; v1 = 1 y nuestro vector propio es ϑ1 = .
2 2

No existe otro vector linealmente independiente con ϑ1 en Eλ1 , buscamos entonces un vector propio
generalizado ϑ2 que se calcula por medio de la ecuación:

(A − λI)ϑ2 = ϑ1 .

Es decir:  
β
(A + I)ϑ2 = ϑ1 ; ϑ2 = 1 .
β2
   
4 −2 β1 1
= .
8 −4 β2 2
Queda entonces:
4β1 − 2β2 = 1,
8β1 − 4β2 = 2.
La segunda ecuación es el doble de la primera! Así que nos quedamos con:

4β1 − 2β2 = 1,
1 + 2β2
β1 = .
4
Una elección posible es entonces β2 = 0 ; β1 = 1/4.
   
1 1/4
Tenemos entonces nuestros vectores propios ϑ1 = ; ϑ2 = .
2 0

Así:  
1 1/4
P = [ϑ1 , ϑ2 ] ≡ .
2 0
   
λ 1 −1 1
La matriz de Jordan es: J= ; J= .
0 λ 0 −1

Entonces:  
Jt −t 1 t
e =e .
0 1
En consecuencia:
eAt = P eJt P −1 ,
0
Si consideramos el sistema canónico asociado (y = Jy, con y = P −1 X ) tenemos el diagrama de
fase.

GRÁFICA

La solución del sistema queda entonces:

X = P y,
1 1/4 e−t te−t
   
c1
X= .
2 0 0 e−t c2

127
CAPÍTULO 7. CÁLCULO DE LA MATRIZ etA PARA SISTEMAS DE ECUACIONES
DIFERENCIALES CON COEFICIENTES CONSTANTES

( c2 −t
x1 (t) = c1 e−t + e ,
4
x2 (t) = 2c1 e + 2tc2 e−t .
−t

128
Capítulo 8

Ejercicios sobre los Sistemas de


Ecuaciones Diferenciales Ordinarias
1. Encuentre la solución de los siguientes problemas de valor inicial.
   
0 1 5 1
a) x = Ax; x(0) = ; con A=
2 0 5
x01 = 7x1 − 4x2

b) ; x1 (0) = 4, x2 (0) = 8
x02 = 3x1 − x2
x0 + y − 6x = 0

c) ; x(0) = 1, y(0) = 0
y 0 − 5x − 2y = 0
 0
 x1 = x1 − 2x2
d) x0 = 2x1 + x2 ; x1 (0) = 0, x2 (0) = 2, x3 (0) = 3
 02
x3 = 5x3

2. Encontrar las matrices exponencial de las siguientes matrices.


 
−1 0 0
a) A= 0
 −2 √0

0 0 10
 
0 −2 2
b) B = 0 0 5
0 0 0
 
−1 −1 1
c) C= 0 −1 2
0 0 −1
 
0 −1
d) D=
0 0

 
3 2
e) E=
−2 3

129
CAPÍTULO 8. EJERCICIOS SOBRE LOS SISTEMAS DE ECUACIONES
DIFERENCIALES ORDINARIAS

 
1 −1
f) F =
1 1

3. Use el método de variación de parámetros para resolver los siguientes sistemas de ecuaciones dife-
renciales.
x0 = −3x + y + 3t x01 = x1 + 8x2 + e−t
 
a) c)
y 0 = 2x − 4y + e−t x02 = x1 − x2 + te−t
x0 + x − 5y − sent = 0 x01 = −x2 + sect
 
b) 0 d) 0
 y 0 + x − y + 2costt = 0  x20 = x1
 x1 = x1 + x2 + e  x +x−y =t
e) x0 = x1 + x2 + e2t f) y0 + y = 2
 02  0
x3 = x3 + te3t z + 2z = e3t
4. Utilice las Leyes de Corriente y Voltaje para encontrar el valor de la corriente i en el siguiente
circuito.

Figura 8.1: Circuito.

5. En Smurt Gamma Paperboard Cali se cuentan con dos tanques de 100 galones. En uno de los
tanques, (totalmente lleno!) hay Fibra + Agua con una concentración de
0.5 lb/gal. En el segundo tanque hay agua pura.
El agua pura entra en el tanque que contiene Fibra + Agua a 2 gal/min, el agua sale bien mezclada
de este tanque a 2 gal/min y uye hacia el segundo tanque, del cual sale agua a 2 gal/min y uye
hacia un desague.
Si x(t) es la cantidad de bras en el tanque 1 en el tiempo t y y(t) la cantidad de bras en el tanque
2 en el tiempo t, el modelo matemático que se obtiene es:

0 1
 x = − 50 x


; x(0) = 50, y(0) = 0 . (8.1)
 y0 = 1 x − 1 y


50 50
a) Justicar la validez de este modelo en relación a la situación expuesta.

b) Solucionar el sistema (8.1).

130
c) Analice a partir de su solución encontrada en b) el comportamiento físico del sistema. ¾Es lo
esperado?

d) En un mismo plano gracar x vs t y y vs t. ¾Qué análisis se puede hacer a partir de estas


grácas?

6. Un modelo Keynesiano donde la renta nacional de un pais (Y ) responde al exceso de demanda de


mercancía, es decir, al exceso de la inversión (I) sobre el ahorro (S) y la tasa de interés (r) responde
al exceso de demanda monetaria (L(Y, r)) está dado por:

 0
 Y = h1 (I − S)
(8.2)
r0 = h2 (L(Y, r) − M )

donde h1 , h2 son constantes positivas, al igual que M.

Por otro lado se supone que:

I = −αr , S = s0 (Y − T ) y L(Y, r) = kY − βr ,

donde α, β, s0 , k, T son constantes positivas.

a) Demostrar que (8.2) quedaría en base a lo anterior así:

 0
 Y = −s0 h1 Y − αh1 r + h1 s0 T
(8.3)
r0 = kh2 Y − h2 βr − h2 M

b) Resuelva (8.3) suponiendo que h1 = h2 = 1 y además:

(β − s0 )2 − 4αk > 0.

7. En los siguientes problemas se considera un sistema de ecuaciones diferenciales de la forma x0 = Ax.


Clasique el equilibrio de éste sistema en espiral estable, espiral inestable, centro, punto de silla...
en cada uno de los casos.
   
2 −3 2 −3
a) A= d) A=
4 1 3 −2
   
0 −3 −1 1
b) A= e) A=
2 2 −3 1
   
2 2 1 2
c) A= f) A=
−6 −4 −5 −3

131
CAPÍTULO 8. EJERCICIOS SOBRE LOS SISTEMAS DE ECUACIONES
DIFERENCIALES ORDINARIAS

132
Capítulo 9

Ecuaciones Diferenciales de Orden


Superior
Iniciamos estas notas considerando un intervalo abierto I⊂R y el conjunto

C n (I) = {x : I → R| x una función n-veces derivable con n-ésima derivada continua}.

Por ejemplo:

C 2 (I) = {x : I → R| x una función 2-veces derivable con segunda derivada continua}.

Por otro lado, si I =] − 1, 1[ entonces la función

x1 : I → R ; t → x1 (t) = t · |t|1/2

no pertenece a C 1 (I) pues x01 (t) no es continua en t = 0. Pero la función x2 : I → R ;


t → x2 (t) = t.|t|5/2 sí pertenece a C 1 (I).
Una propiedad importante de C n (I) es que, dadas dos funciones x1 , x2 ∈ C n (I) entonces:

1) x1 + x2 ∈ C n (I).
2) kx1 ∈ C n (I) ; k -constante.

A partir de lo anterior se puede comprobar que C n (I) forma un espacio vectorial.

Consideremos el espacio vectorial C 1 (I) ; I ⊂ R. Denamos sobre C 1 (I) la siguiente función L : C 0 (I) →
0
C (I) ; x → L[x], dada por:
L[x] = x0 + x
Dadas x1 , x2 ∈ C 1 (I) se tiene que:

L[x1 + x2 ]= (x1 + x2 )0 + x1 + x2 ,
= x01 + x02 + x1 + x2 ,
= x01 + x1 + x02 + x2 ,
= L[x1 ] + L[x2 ],

y más aún:
L[kx1 ] = kL[x1 ] ; k -cte.
Tenemos entonces que:

133
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

(
L[x1 + x2 ] = L[x1 ] + L[x2 ]
(9.1)
L[kx1 ] = kL[x1 ] ; k -cte

Debido a que los elementos de C n (I) son funciones (no necesariamente funciones constantes) la función
L toma el nombre de Operador. Así por ejemplo, el operador L actuando sobre las funciones x1 (t) =
t2 , x2 (t) = sen t, x3 (t) = e−t da lo siguiente:

L[x1 (t)] = L[t2 ] = 2t + t2 ,


L[x2 (t)] = L[sen t] = cos t + sen t,
L[x3 (t)] = L[e−t ] = −e−t + e−t = 0.

De (9.1) se observa que L satisface las condiciones de linealidad, por lo que L es un Operador Lineal.

Por ejemplo en C 3 (I); I =] − ∞, ∞[, los siguientes operadores son lineales:

L1 [x] = x00 + 2tx0 − 3x,


L2 [x] = x000 − x00 + (sen t)x,

pero los operadores


L3 [x] = x00 − 2x2 ,
L4 [x] = x00 − x0 x.
no son operadores lineales (Vericar lo anterior!)

Consideremos ahora, sobre el espacio vectorial C n (I) el siguiente operador:

L : C n (I)−→ C 0 (I)
x−→ L[x] = x(n) + an−1 (t)x(n−1) + ... + a1 (t)x0 + a0 (t)x,

con ai : I ⊂ R → R, funciones continuas para i = 0, ..., n − 1.

Ejercicio: Compruebe que L es un operador lineal.

Sea b:I⊂R→R una función continua, y considere la ecuación

x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + ... + a1 (t)x0 + a0 (t)x = b(t). (9.2)

Esta última ecuación se puede escribir en la forma

L[x] = b , (9.3)

lo cual nos recuerda a los sistemas algebraicos Ax = b que se consideran en el curso de Álgebra Lineal,
con A una matriz n × n, x ∈ Rn (vector incognita) y b ∈ Rn .
Algunos ejemplos:

1) x00 + (lnt)x0 − 2x = sen t ⇔ L1 [x] = b1 (t)


00 0
con L1 [x] = x + (lnt)x − 2x; b1 (t) = sen t.

2) x00 + x = cos t + et ⇔ L2 [x] = b2 (t)


00 t
con L2 [x] = x + x; b2 (t) = cos t + e .

134
La ecuación (9.2) es una Ecuación Diferencial Lineal de Orden n no Homogenea (b(t) 6= 0).
En el caso que la función b(t) sea nula para todo t ∈ I, es decir:

b(t) = 0 ∀t ∈ I,

la ecuación L[x] = 0 la llamamos Ecuación Diferencial Lineal de Orden n Homogenea.

Ejemplos 9.0.2 Veamos los siguientes ejemplos:

1. Considere la ecuación diferencial lineal de segundo orden

x00 + x = 0 ⇔ L[x] = 0, con L[x] = x00 + x.


Comprobemos que x(t) = c1 cos t + c2 sen t es solución de esta ecuación. En efecto:

x0 = −c1 sen t + c2 cos t,


x00 = −c1 cos t − c2 sen t,

con c1 , c2 constantes. Entonces

x00 + x = c1 cos t + c2 sen t − c1 cos t − c2 sen t = 0.

2. Considere la ecuación diferencial lineal de tercer orden

x000 − 4x0 = t + 3 cos t + e−2t ,

que equivale a L[x] = b(t) con

L[x] = x000 − 4x0 ; b(t) = t + 3 cos t + e−2t .

Se comprueba que:
xh (t) = c1 + c2 e2t + c3 e−2t .
con c1 , c2 , c3 constantes; es solución de L[x] = 0 y

1 3 1
xp (t) = − t2 − sen t + te−2t ,
8 5 8
es una solución particular de L[x] = b. Más aún, toda solución de L[x] = b es de la forma

x(t) = xh (t) + xp (t),

es decir:

La solución del problema homogeneo + La solución particular

Consideremos ahora el conjunto en C n (I)

Z = {x ∈ C n (I) : x-solución de L[x] = 0},

es decir, si x ∈ Z, entonces

L[x] = x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + ... + a1 (t)x0 + a0 (t)x = 0,


L[x] = 0.

135
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

Algo fundamental del conjunto Z es que este conjunto es un espacio vectorial; más aún, es un espacio
vectorial de Cn de dimensión nita n1 , y como bien sabemos un espacio vectorial de dimensión nita
tiene una base nita; digamos {ϕ
e1 , ϕ en } donde cada función ϕ
e2 , ..., ϕ ej : I ⊂ R → R; j = 1, ..., n satisface

L[ϕ
ej ] = 0 ; j = 1, ..., n.

¾Quiénes son las funciones ϕ


fj ?

Para dar respuesta a esta pregunta presentamos un nexo entre las ecuaciones diferenciales de orden su-
perior L[x] = b y los sistemas de ecuaciones diferenciales que hemos estudiado en las guías 6 y 7.

Tome una ecuación diferencial de orden n, lineal y no homogénea

L[x] = b ⇔ x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + ... + a1 (t)x0 + a0 (t)x = b,

Denamos nuevas variables! (he aquí el nexo!!)


 x1 = x
0

 x2 = x00



x3 = x (9.4)
.
.

.




xn = x(n−1)

derivando a ambos lados tenemos:

 0
 x1 = x2
 x02 = x3


.
.


 .
x0n = −an−1 (t)xn − an−2 (t)xn−1 − ... − a1 (t)x2 − a0 (t)x1 .

Este es un sistema de n−ecuaciones diferenciales de primer orden el cual lo escribimos en forma matricial
X 0 = A(t)X con:
   
x1 0 1 0 ... 0
 x2   0 0 1 ... 0 
   
 ..   .. .
.
.
. . ..
.
.
X =  .  ; A(t) =  . ,

   . . . 
xn−1   0 0 0 ... 1 
xn −a0 (t) −a1 (t) a2 (t) . . . −an−1 (t)

Más aún, la ecuación diferencial lineal de orden n y no homogénea L[x] = b se escribe en la forma matricial

X 0 = A(t)X + B(t),
 
0
 0 
con X y B ∈ Rn , donde B(t) =  .  y A ∈ Mn×n (R).
 
 .. 
b(t)

x(0)
 
1 .
Existe un isomorsmo entre Z y Rn ; Φ : Z → R, x →  . .
 
.
(n−1)
x (0)

136
Este nexo que se tiene entre las ecuaciones diferenciales de orden superior; L[x] = b con los sistemas de
ecuaciones diferenciales de la forma X 0 = A(t)X + B(t) nos permite aplicar toda la teoría que se presentó
en la guía 6??.

Un primer resultado es el Teorema de Existencia y Unicidad.

Teorema 9.0.3 (Existencia y Unicidad)


Dados n-números en R, α0 , α1 , α2 , ..., αn−1 y t0 ∈ I ⊂ R, existe una única función x ∈ C n (I) que cumple:

L[x] = b, x(t0 ) = α0 , x0 (t0 ) = α1 , ..., xn−1 (t0 ) = αn−1 ,

con L[x] = X n + an−1 (t)xn−1 + ... + a1 (t)x0 + a0 (t)x ; ai -funciones continuas en I;


b : I ⊂ R → R continua.

Demostración
Se aplica el Teorema de Existencia y Unicidad (pag ... guía 6) al sistema

X 0 = A(t)X + B(t),
 
α0
 α1 
con condición inicial X(t0 ) = X0 ; X0 =  .  ∈ Rn y A(t), B(t) denidas como se hizo anteriormen-
 
 .. 
αn−1
te. 

Ahora bien, sabemos que la ecuación L[x] = 0 equivale a considerar la ecuación de primer orden

X 0 + A(t)X, (9.5)

y todas las soluciones de (9.5) son de la forma:

X(t) = Φ(t) C ; C ≡ Vector de Constantes, C ∈ Rn .

en donde Φ : I ⊂ R → Rn es una matriz fundamental y principal de (9.5). Más aún, si escribimos Φ(t)
por columnas
h i
Φ(t) = ϕ1 | ϕ2 | ... | ϕn
 
ϕ11 ϕ12 . . . ϕ1n
= ... .
. .. . 
. .

. . .
ϕn1 ϕn2 . . . ϕnn
Las columnas de Φ(t) son soluciones de (9.5); i.e ϕ0j = A(t)ϕj para j = 1, ..., n; y por lo tanto son solu-
ciones de L[x] = 0. Veamos esto en detalle:

ϕ01j
   
ϕ1j
 ϕ2j   ϕ02j 
Primero, observemos que: ϕj =  .  , así ϕ0j =  . 
   
 ..   .. 
ϕnj ϕ0nj
Dado que ϕ0j = A(t)ϕj entonces:

ϕ01j = ϕ2j ; ϕ02j = ϕ3j , ...

137
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

y en consecuencia:
ϕ0nj = −an−1 (t)ϕnj − an−2 (t)ϕn−1j − ... − a0 (t)ϕ1j .

Pero de acuerdo al cambio de variable (9.4) tenemos:

(i−1) (n−1)
ϕ1j = xj , ϕ2j = x0j , . . . , ϕij = xj , . . . , ϕnj = xj .

(n)
Así; ϕ0nj = xj y por lo tanto:

(n) (n−1) (n−2)


ϕ0nj = xj = −an−1 (t)xj − an−2 (t)xj − ... − a0 (t)xj
= −an−1 (t)ϕnj − an−2 (t)ϕn−1j − ... − a0 (t)ϕij

Esto equivale a decir:

(n) (n−1) (n−2)


xj + an−1 (t)xj + an−2 (t)xj + ... + a0 (t)xj = 0 ⇔ L[xj ] = 0 (9.6)

La i-ésima componente de ϕj es la (i − 1)-derivada de la solución xj de L[x] = 0.


A partir de lo anterior concluimos lo siguiente:

a) Las funciones ϕ
ej que buscamos son la primera componente del vector columna ϕj de la matriz
Φ(t), es decir:
ϕ
ej = ϕij ; j = 1, ..., n.

b) La (i − 1)-derivada de ϕ
ej es la i-ésima componente del vector ϕj , es decir:

(i−1)
ϕ
ej = ϕij .

c) Dado que Φ(t) es una matriz fundamental y principal se cumple:

det Φ(t) 6= 0 y Φ(0) = In , ∀t ∈ I ⊂ R.

Esto implica que {ϕ e1 , ϕ en }


e2 , ..., ϕ es un conjunto fundamental de soluciones de L[x] = 0 y ϕ
e1 (0) =
(n−1)
e02 (0) = 1, ..., ϕ
0, ϕ en (0) = 1.

Ejemplos 9.0.4 Veamos unos ejemplos:

1. Considere el sistema:  
0 1
X 0 = A(t)X ; con A(t) =  4 3 .
− 2
t t
denido en I =]0, ∞[.

Se sabe que dos soluciones linealmente independiente de este sistema son:


" 2# " #
t t2 ln(t)
ϕ1 (t) = ; ϕ2 (t) = .
2t 2t ln(t) + t

En efecto:
    
2t 0 1 t2
0
ϕ1 (t) =   =  4 3   ,
2 − 2 2t
t t
= A(t) ϕ1 (t).

138
2t ln(t) + t t2 ln(t)
    
0 1
ϕ02 (t) =  = 4 3  ,
2ln(t) + 3 − 2 2t ln(t) + t
t t
= A(t) ϕ2 (t).
 
0 1 4 3
Observamos que A(t) es de la forma con a0 (t) = , a1 (t) = − . Así que la
−a0 (t) −a1 (t) t2 t
ecuación L[x] = 0 con:
L[x] = x00 + a1 (t)x0 + a0 (t)x,
3 4
L[x] = x00 − x0 + 2 x,
t t
tiene soluciones fundamentales:

e1 (t) = t2
ϕ y e2 (t) = t2 ln(t).
ϕ

Hemos encontrado el sistema fundamental de soluciones {ϕ e2 }


e1 , ϕ de la ecuación diferencial lineal
de segundo orden homogénea:

3 4
x00 − x0 + 2 x = 0 ; t > 0.
t t

2. Considere la ecuación
x000 + 3x00 + 3x0 − 7x = 0.
Denimos (cambio de variable (9.4))
  
 x1 = x x1
x2 = x0 ; x = x2  ,
x3 = x00 x3

y obtenemos el sistema:  
0 1 0
x0 = Ax ; con A = 0 0 1 .
7 −3 −3
Resolvamos este sistema:

· Vectores propios.

p(λ) = det(A − λI) ⇔ p(λ) = λ3 + 3λ2 + 3λ − 7 = 0,


p(λ) = (λ − 1)(λ2 + 4λ + 7) = 0,

−4 ± 16 − 28 √
λ2 + 4λ + 7 = 0 sii λ= ; λ = −2 ± 3i.
2

Los valores propios son: √


λ=1 ; λ = −2 ± 3i.
La matriz de Jordan es, en este caso:
 
1 0 0

J = 0 3  ←− una forma posible!!

−2


0 − 3 −2

139
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

Entonces la solución de la forma canónica asociada es:


 
c1
y(t) = eJt C con C = c2  ,
c3
y
 t 
e 0 √ 0 √
eJt = 0 e−2t cos √3 t e−2t sen √3 t .
0 −e−2t sen 3 t e−2t cos 3 t
Así que:
y1 (t) = c1 et , √ √
y2 (t) = e−2t (c2 cos √3 t + c3 sen √3 t),
y3 (t) = e−2t (c3 cos 3 t − c2 sen 3 t).
Los vectores propios son:
√ 1
√ 1
1 + 4 3i − 4 3i
 
7 7
1 √  1 √ 
ϑ1 = 1 ; ϑ2 =  −2 − 3 i ; ϑ3 = ϑ2 =  .
−2 + 3 i
 
7   7 
1 1 1

La solución de nuestro problema es:

x(t) = P y(t) ; P = [ϑ1 , ϑ2 , ϑ3 ]


Nos interesan tres soluciones ϕ1 , ϕ2 , ϕ3 ; linealmente independientes y reales, para ello basta con
tomar:

√ √
ϕ1 (t) = et ϑ1 ; ϕ2 (t) = e−2t cos 3 t Re(ϑ2 ) + e−2t sen 3 t Im(ϑ2 ),
√ √
; ϕ3 (t) = e−2t cos 3 t Im(ϑ2 ) − e−2t sen 3 t Re(ϑ2 ),
donde
1
   √ 
4 3
7
1 1 √ 

Re(ϑ2 ) = −2 ; Im(ϑ2 ) = − 3 .
7  7  
1 1

Parte Real Parte Imaginaria

Note que:
x(t) = eAt C ; C ≡ Vector de Constantes,

se puede escribir así:


x(t) = Φ(t)C,
con:
Φ(t) = [ϕ1 (t), ϕ2 (t), ϕ3 (t)].
Ahora bien, las soluciones ϕ
e1 (t); ϕ
e2 (t); ϕ
e3 (t) que buscamos son:

e1 (t) = et ,
ϕ

1 −2t √ 4 3 −2t √
ϕ
e2 (t) = e cos 3 t + e sen 3 t,
49 √7
2 −2t √ 3 −2t √
ϕ
e3 (t) = e sen 3 t − e cos 3 t.
49 7

140
Observación 9.0.1 Aunque los cálculos parecen muy pesados, basta con recordar que si x(t) es solución
de L[x] = 0 entonces kx(t), k -cte, también lo es; esto por que el operador es lineal y la ecuación es
homogénea. Así que basta con encontrar las soluciones en la forma canónica y obtenemos inmediatamente
las funciones ϕ
ei que buscamos.

Ejemplos 9.0.5 Resolver las siguientes ecuaciones:

1.
x00 − 10x0 + 25x = 0,
con x1 = x; x2 = x0 , tenemos:
   
x1 0 1
x= ; x0 = Ax ; con A= .
x2 −25 10

Los valores propios de A son:

p(λ) = det(A − λI) = −λ(10 − λ) + 25 = λ2 − 10λ + 25

p(λ) = 0 sii λ2 − 10λ + 25= 0,


(λ − 5)2 = 0,
λ1 = λ2 = 5.
Tenemos un valor propio con multiplicidad algebraica 2.

La matriz de Jordan de A es:  


5 1
J= ←− Justicar!
0 5
Así que:  
Jt 5t1 t
e =e .
0 1
En consecuencia, la solución de y 0 = Jy es:

y(t) = eJt C ; C ≡ Vector de Constantes.

Luego:
y1 (t) = c1 e5t + c2 te5t ,
y2 (t) = c2 e5t .

Tenemos entonces las soluciones fundamentales

e1 (t) = e5t
ϕ ; e2 (t) = te5t .
ϕ

Así que toda la solución de x00 − 10x0 + 25x = 0 es de la forma

x(t) = d1 e5t + d2 te5t ; d1 , d2 -Constantes.

2. Resolver la ecuación
x000 − 13x0 − 12x = 0.
Pasamos esta ecuación a un sistema 3 × 3.
   
x1 x1 = x 0 1 0
0
x = x2  , x2 = x0 , x = Ax ; con A=0 0 1 .
x3 x3 = x00 12 13 0

141
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

El polinomio característico es:

p(λ) = det(A − λI) = λ3 − 13λ − 12,

p(λ) = 0 sii λ3 − 13λ − 12= 0,


(λ + 1)(λ + 3)(λ − 4)= 0.
Los valores propios son: λ1 = −1 , λ2 = −3 , λ3 = −4. Entonces la matriz de Jordan es:
   −t 
−1 0 0 e 0 0
J =  0 −3 0  ; eJt =  0 e−3t 0 .
−4t
0 0 −4 0 0 e

La solución de y 0 = Jy está dada por: y(t) = eJt C.


Así:
y1 (t) = c1 e−t , y2 (t) = c2 e−3t , y3 (t) = c3 e−4t .

Tenemos entonces las soluciones fundamentales ϕ


e1 (t), ϕ
e2 (t) y ϕ
e3 (t) dadas por:

e1 (t) = e−t
ϕ , e2 (t) = e−3t
ϕ , e3 (t) = e−4t .
ϕ

Toda solución de x000 − 13x0 − 12x = 0 es de la forma:

x(t) = d1 e−t + d2 e−3t + d3 e−4t ; d1 , d2 , d3 -ctes

Ahora recordemos un resultado que hemos visto en la guía 6 (página ...).

Teorema 9.0.6 Sea Φ(t) una matriz solución de x0 = A(t)x y t0 ∈ I. Entonces se verica:
Rt
Tr A(s) ds
det Φ(t) = det Φ(t0 ) · e t0
, ∀t ∈ I.

donde Tr A(t) ≡ Traza de la matriz A(t).

En el contexto de las ecuaciones diferenciales lineales de orden superior, nuestra matriz


Φ(t) = [ϕ1 |ϕ2 |...|ϕn ] cobra otro nombre y es Wronskiano (o bien: matriz de Wronski) de las funciones
ϕ
e1, , ϕ
e2 , ..., ϕ
en .
Dado que:
 
ϕ11 ϕ12 . . . ϕ1n
 ϕ21 ϕ22 . . . ϕ2n 
Φ(t) =  . . ,
 
. ..
 .. .
. . . 
.
ϕn1 ϕn2 . . . ϕnn
 
ϕe1 ϕ
e2 ... ϕ
en
0 0
 ϕ e1 ϕ
e 2 ... e0n 
ϕ
W (t) ≡ Φ(t) =  .. . . .
 
. .. .
 . . . . 
(n−1) (n−1) (n−1)
ϕ
en ϕ
e2 ... ϕ
en
Esta última matriz se denota por W (t). Claramente, todas las propiedades de la matriz fundamental Φ
las hereda la matriz de Wronski; por lo tanto, son equivalentes:

1) det W (t) 6= 0 , ∀t ∈ I.
2) ∃t0 ∈ I tal que det W (t0 ) 6= 0.

142
9.1. REDUCCIÓN DE ORDEN

Más aún, la Fórmula de Jacobi nos garantiza que:


Rt
Tr A(s) ds
det W (t) = det W (t0 )e t0
; ∀t ∈ I.

pero sabemos que Tr A(s) = −an−1 (s); en consecuencia:


Rt
− an−1 (s) ds
det W (t) = det W (t0 )e t0
.

Ejemplos 9.0.7 Considere las funciones e1 (t) = t2 ; ϕ


ϕ e2 (t) = t2 lnt con t ∈]0, ∞[. Entonces:
2
t2 ln(t)
  
ϕe (t) ϕe2 (t) t
W (t) = 01 ; W (t) = .
ϕ e02 (t)
e1 (t) ϕ 2t 2tln(t) + t

Note que det W (t) = t3 ; ∀t ∈]0, +∞[. Por otro lado, sabemos que ϕ
e1 y ϕ
e2 son soluciones de la ecuación
diferencial

3 4
x000 − x0 + 2 = 0 ; t ∈]0, +∞[.
t t
3
En este caso identicamos: an−1 (t) = a1 (t) = − .
t
Aplicamos la fórmula de Jacobi con t0 = 1 y obtenemos:
 
1 0
W (1) = ; det W (1) = 1.
2 1

Por otro lado: Rt Rt 3


e− 1
a1 (s) ds
=e 1 s
ds
= t3 .
Así que: Rt
det W (t) = det W (t)e− 1
a1 (s) ds
= t3 .
Justo lo que se obtuvo antes.

Vamos ahora a hacer uso de la fórmula de Jacobi con el n de completar un conjunto fundamental de
soluciones {ϕ e2 }
e1 , ϕ para las ecuaciones diferenciales lineales homogéneas de segundo orden:

x00 + a1 (t)x0 + a0 x = 0.

cuando se conoce una solución de antemano.

9.1. Reducción de Orden


Consider la ecuación diferencial
x00 + a1 (t)x0 + a0 (t)x = 0. (9.7)

Suponga que ϕ
e1 (t) es solución de esta ecuación. Vamos a encontrar otra solución, digamos v(t) tal que

e1 (t), v(t)} formen un conjunto fundamental de soluciones.

Con este propósito, a partir de la Fórmula de Jacobi se tiene:


 
ϕe1 (t) v(t)
det W (t) = det e1 (t) v 0 (t) − ϕ
=ϕ e2 (t) v(t),
ϕe2 (t) v 0 (t)

de donde: Rt
− a1 (s) ds
e1 (t) v 0 (t) − ϕ
ϕ e2 (t) v(t) = det W (t)e t0
.

143
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

Sin pérdida de generalidad, vamos a suponer que det W (t0 ) = 1. En consecuencia:


Rt
− a1 (s) ds
e1 (t) v 0 (t) − ϕ
ϕ e2 (t) v(t) = e t0
.
Vamos a suponer que e1 ⊂ I ⊂ R → R
ϕ no se anula en I, es decir: e1 (t) 6= 0,
ϕ para toda t ∈ I (t0 ∈ I ).
Así que:
e01 (t)
ϕ 1 − Rtt a1 (s) ds
v 0 (t) − v(t) = e 0 .
ϕ
e1 (t) ϕ
e1 (t)
Sean
e01 (t)
ϕ 1 − Rtt a1 (s) ds
p(t) = − ; q(t) = e 0 .
ϕ
e1 (t) ϕ
e1 (t)
En consecuencia:
v 0 (t) + p(t)v(t) = q(t). (9.8)

Note que la ecuación (9.8) es de orden 1, mientras que la ecuación (9.7) es de orden 2; esto justica el
nombre Reducción de Orden. Ahora bien, la ecuación (9.8) es una ecuación diferencial lineal de primer
orden que sabemos resolver muy bien.

La solución de (9.8) está dada por:


R R
Z R
− p(t) dt − p(t) dt p(t)dt
v(t) = C e +e e q(t) dt

con C ≡ cte. Ahora bien:


e 01 (t)
R

R ϕ
dt 1
e p(t) dt
=e ϕ
e 1 (t)
= e−ln|ϕe1 (t)| = ,
ϕ
e1 (t)
R e 01 (t)
ϕ
dt
R
e− p(t) dt
= e ϕ
e 1 (t)
= eln|ϕe1 (t)| = ϕ
e1 (t).
En consecuencia: Z
−1 1
v(t) = C ϕ
e1 (t) + [ϕ
e1 (t)] q(t) dt .
ϕ
e1 (t)
Sea C = 0. Así: Z
1 1 − t a (s) ds
R
v(t) = e t0 1 dt .
e1 (t)]−1
[ϕ [ϕ
e1 (t)]2

Encontramos así la expresión de la segunda solución fundamental de (9.7) a partir de una solución
conocida!. Es decir: dada e1 (t) solución de (9.7); {ϕ
ϕ e1 (t)ϕe2 (t)} forma un conjunto fundamental para (9.7)
con: Z
1 1 − tt a1 (s) ds
R
ϕ
e2 (t) = e 0 dt.
ϕ
e1 (t) e1 (t)]2

Ejemplos 9.1.1 1. Encontrar una segunda solución de la ecuación:

(1 − t2 )x00 + 2tx0 = 0,
si se sabe que ϕ
e1 (t) = 1 es solución.

Según el método de reducción de orden; otra solución ϕ


e2 (t) linealmente independiente con ϕ
e1 (t)
será dada por: Z
1 1 − R0t 2s
ds
ϕ
e2 (t) = e 1−s2 dt ,
1 [1]2
de donde:
2
e2 (t) = Z e−ln(1−t ) dt ,
R
ϕ
2
1 1 + t
ϕ
e2 (t) = dt = ln

1 − t2 1−t
.
2
La constante de integración se toma como cero.

144
9.2. ECUACIONES LINEALES DE ORDEN SUPERIOR

1 + t
Así que ϕ
e1 (t) = 1 y ϕ
e2 (t) = ln forma un conjunto fundamental de soluciones para (1 −

1−t

2 00 0
t )x + 2tx = 0.
2. Encontrar una segunda solución de la ecuación:

4t2 x00 + x = 0,

si se sabe que e1 (t) = t1/2 ln(t) ; t ∈]0, +∞[,


ϕ es solución.

Tenemos en este caso: Z


1 1 Rt
ϕ
e2 (t) = e− 0
0 ds
dt ,
t1/2 ln(t) [t1/2 ln(t)]2
con a1 (t) = 0 en este caso. Así:
Z
1 1
ϕ
e2 (t) = dt ,
t1/2 ln(t) t ln2 (t)

dado que Z
1 1
dt = − ,
t ln2 (t) ln(t)
entonces
1
ϕ
e2 (t) = .
t1/2 ln2 (t)
1
Así que e1 (t) = t1/2 ln(t)
ϕ y ϕ
e2 (t) = forman un conjunto fundamental de soluciones para
t1/2 ln2 (t)
la ecuación 4t2 x00 + x = 0.

9.2. Ecuaciones Lineales de Orden Superior


Vamos ahora a considerar ecuaciones de la forma

L[x] = x(n) + an−1 x(n−1) + ... + a1 x0 + a0 x = 0.

donde an−1 , an−2 , ..., a1 , a0 son constantes.

Mostraremos las relaciones entre los métodos de solución que se encuentran usualmente en los textos con
los que consideramos en estas notas cuando se hace el cambio de variable dado en la pág ...

Iniciamos con las ecuaciones diferenciales lineales de orden 2.

x00 + a1 x0 + a0 x = 0. (9.9)

con coecientes constantes a1 , a0 .

Para (9.9) se buscan soluciones de la forma ϕ(t) = eλt , en cuyo caso, al reemplazar se obtiene:

L[eλt ] = λ2 eλt + a1 λeλt + a0 eλt = 0,


= eλt (λ2 + a1 λ + a0 ) = 0.

En consecuencia: L[eλt ] = 0 sii λ2 + a1 λ + a0 .

145
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

A esta última ecuación se le denomina Ecuación Auxiliar.

Suponga que la ecuación auxiliar tiene raíces λ1 y λ2 , entonces

2
λ + a1 λ + a0 = (λ − λ1 )(λ − λ2 ) = 0,
de aquí tenemos que
−(λ1 + λ2 ) = a1 ,
λ1 .λ2 = a0 .
Por otro lado, gracias a la fórmula cuadrática, sabemos que:
p
a21 − 4a0
−a1 ±
λ= ,
2

−a1 ± M
λ= ; M= a21 − 4a0 .
2
Ahora note lo siguiente; pasando (9.7) a una ecuación de primer orden tenemos:
 0   
x1 0 1 x1
= .
x02 −a0 −a1 x2
 
0 1
Si A= entonces
−a0 −a1
p(λ) = det(A − λI),
p(λ) = λ2 + a1 λ + a0 .
Es decir: la ecuación auxiliar es la ecuación p(λ) = 0 con p(λ) el polinomio característico de la matriz A.
Así podemos armar lo siguiente:

1)

−(λ1 + λ2 ) = a1 = Traza de A
λ1 .λ2 = a0 = det A .
2) Hay tres tipos de soluciones que dependen de las raíces del polinomio característico (Ecuación
Auxiliar) de A. Entonces:

Caso I: Raíces reales distintas (λ1 , λ2 )


e1 (t) = eλ1 t
ϕ , e2 (t) = eλ2 t
ϕ ; λ1 6= λ2 .
Toda solución es de la forma

e = d1 eλ1 t + d2 eλ2 t
ϕ(t) ; d1 , d2 -ctes.
Caso II: Raíces reales iguales (λ1 = λ2 = λ),
e1 (t) = eλ t
ϕ , e2 (t) = teλ t .
ϕ
Toda solución es de la forma
e = d1 eλ t + d2 teλ t .
ϕ(t)
Caso III: Raíces complejas (λ = α ± iβ)
e1 (t) = eαt (d1 cos(tβ) + d2 sen(tβ)),
ϕ
e2 (t) = eαt (d2 cos(tβ) − d1 sen(tβ))
ϕ ; d1 , d2 -ctes.
Toda solución es de la forma

e = eαt (C1 cos(tβ) + C2 sen(tβ)),


ϕ(t)
con C1 , C2 -ctes apropiadas.

146
9.3. ECUACIONES DIFERENCIALES LINEALES DE ORDEN 3

9.3. Ecuaciones Diferenciales Lineales de Orden 3

x000 + a2 x00 + a1 x0 + a0 x = 0, (9.10)

con coecientes constantes a2 , a1 , a0 .

Para (9.10) de nuevo buscamos soluciones de la forma ϕ(t) = eλt y se llega a la ecuación.

L[eλt ] = eλt (λ3 + a2 λ2 + a1 λ + a0 ).

Así que la ecuación auxiliar en este caso es:

p(λ) = λ3 + a2 λ2 + a1 λ + a0 = 0.

Las raíces de p(λ) (polinomio característico) determinan el tipo de solución que se obtiene:

Caso 1. Un cero real con multiplicidad algebraica 3.

En este caso p(λ) = (λ − λ∗ )3 . Mirando las formas de la matriz de Jordan posibles se deduce que
toda solución en este caso es de la forma:

e = C1 etλ∗ + C2 tetλ∗ + C3 t2 etλ∗ ,


ϕ(t)

con C1 , C2 , C3 constantes.

Caso 2. Un cero real con multiplicidad algebraica 1 y otro cero real distinto con multiplicidad algebraica 2.

En este caso p(λ) = (λ − λ1 )(λ − λ2 )2 : λ1 6= λ2 ∈ R.

La matriz de Jordan asociada tiene las posibles formas


   
λ1 0 0 λ1 0 0
J =0 λ2 0 ; J =0 λ2 1 ,
0 0 λ2 0 0 λ2

por lo que toda solución es de la forma:

e = C1 eλ1 t + C2 eλ2 t + C2 teλ2 t .


ϕ(t)

Caso 3. Tres ceros reales distintos: λ1 6= λ2 6= λ3 ∈ R.

En este caso p(λ) = (λ − λ1 )(λ − λ2 )(λ − λ3 ).


 
λ1 0 0
La matriz de Jordan tiene la forma J =0 λ2 0 ,
0 0 λ3
así que toda solución se escribe:

e = C1 eλ1 t + C2 eλ2 t + C3 eλ3 t .


ϕ(t)

Caso 4. Un cero real y un par de raíces complejas:

λ1 ∈ R ; λ2 = α + iβ ; λ3 = λ2 .

147
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

La matriz de Jordan tiene la posible forma:


 
λ1 0 0
J =0 α −β  .
0 β α

En cuyo caso toda solución está dada así:


 
e = C1 eλ1 t + eαt C2 cos(tβ) + C3 sen(tβ) .
ϕ(t)

Podemos entonces presentar la generalización.

Si consideramos la ecuación L[x] = 0 con L el operador diferencial lineal

L[x] = x(n) + an−1 x(n−1) + ... + a1 x0 + a0 x,

con coecientes an−1 , an−2 , ..., a1 , a0 -ctes, entonces el polinomio característico (correspondiente a
la matriz A asociada pág...) es:

p(λ) = λn + an−1 λn−1 + an−2 λn−2 + ... + a1 λ + a0 .

Ahora bien, si λi con i = 1, ..., k son las raíces distintas de p(λ) con multiplicidades algebraicas mi
entonces:
ϕ1 (t) = d11 eλ1 t + d12 teλ1 t + ... + d1m1 em1 −1 eλ1 t ,
ϕ2 (t) = d21 eλ2 t + d22 teλ2 t + ... + d2m1 em2 −1 eλ2 t ,
.
.
.
ϕk (t) = dk1 eλk t + dk2 teλk t + ... + dkm1 emk −1 eλk t ,
forman un conjunto fundamental de soluciones para L[x] = 0.

Ejemplos 9.3.1 1. Suponga que para una ecuación de la forma:

xIV + a3 x000 + a2 x00 + a1 x0 + a0 = 0,

se tiene el siguiente polinomio característico: p(λ) = (λ − 3)(λ − 2)2 (λ + 10).

Entonces tenemos 3 raíces reales distintas:

λ1 = 3 ; λ2 = 2 ; λ3 = 10,

con multiplicidades m1 = 1 , m2 = 2 , m3 = 1 respectivamente; por lo tanto:

ϕ1 (t) = d11 e3t ; ϕ2 (t) = d21 e2t + d22 te2t ; ϕ3 (t) = d31 e10t ,

forman un conjunto fundamental de soluciones. Así que la solución general sería:

e = d11 e3t + d21 e2t + d22 te2t + d31 e10t


ϕ(t) ; dji -ctes.

2. Si p(λ) = (λ − 4)4 . La solución en este caso es:

e = d1 e4t + d2 te4t + d3 t2 e4t + d4 t3 e4t .


ϕ(t)

3. Si p(λ) = (λ − 5)2 (λ + 1)2 la solución en este caso es:

e = d11 e5t + d21 te5t + d12 e−t + d22 te−t .


ϕ(t)

148
9.3. ECUACIONES DIFERENCIALES LINEALES DE ORDEN 3

4. Si p(λ) = (λ − 3)2 (λ2 − 2λ + 2).


En este caso tenemos una raíz real; λ = 3 con multiplicidad algebraica 2 y un par de raíces complejas
λ = 1 ± i. Así que:
e = d01 e3t + d21 te3t + et (d02 cos t + d22 sen t).
ϕ(t)

5. Si p(λ) = (λ2 − 10λ + 29)2 .


En este caso tenemos un par de raíces complejas λ = 5 ± 2i con multiplicidad algebraica 2. Así que:

e = e5t (d01 cos 2t + d21 sen 2t) + te5t (d31 cos 2t + d41 sen 2t).
ϕ(t)

El lector puede observar que lo fundamental en todo lo anterior es conocer las raíces de un polinomio, lo
cual no siempre es sencillo, usualmente el método de la división sintética ayuda para este problema pero
no es un método efectivo en la gran mayoría de los casos.

149
CAPÍTULO 9. ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR

150
Capítulo 10

Transformada de Laplace
Damos inicio con esta guía a la parte nal del curso de ecuaciones diferenciales, en la cual estudiaremos
un nuevo concepto que pertenece a lo que en matemáticas se conoce como Transformada Integrales.
Preguntémonos cómo hacían en el pasado cuando no se disponían de calculadoras pero si de las extensas
tablas de logaritmos. Pues bien, las tablas de logaritmos arduamente conseguidas, servían para realizar
varios cálculos difíciles.

Ejemplo 10.0.2 Resolver la ecuación



7
x= 35.

Si se toma logaritmo a ambos lados, tenemos:


7
log x = log 35 ,
1
log x = log 35 .
7

Consultamos en la tabla el logaritmo de 35 y al dividirlo entre 7 ya conocemos el logaritmo de x. Ahora


bien, mirando la tabla de los antilogaritmos obtenemos el valor de 1, 661.

La gran ventaja del uso de los logaritmos es que simplica las operaciones de la aritmética.

• log(producto) = suma(log)

• log(división) = resta(log)

• log(potencias) = producto(log)

Pues bien, esta ventaja que presenta la función logaritmo también la presenta La Transformada de Laplace.
En esencia, la transformada de Laplace que lleva funciones en funciones (es decir es un operador ) y que
simplica operaciones en dicho proceso; por ejemplo:

derivadas −→ producto de polinomios.

Ahora bien, una ecuación diferencial involucra derivadas de una función desconocida así que, si apli-
cáramos el operador de Laplace llevaríamos el problema a una ecuación algebraica que en principio
esperaríamos fuese más fácil.

151
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Así, tenemos el siguiente esquema: (L ≡ operador de Laplace.)

Ecuación Diferencial Ordinaria L Ecuación Algebraica


−→

↓ ↓

x-solución L−1 L{x}


←−

Note que en este esquema es necesario que nuestro operador sea denido en un conjunto especial de fun-
ciones donde L{x} tenga sentido (al menos para hablar de una ecuación algebraica en la variable L{x})
y también que sea invertible (exista el operador inverso L−1 ) para recuperar de nuevo la variable inicial
x (nuestra función solución de la ecuación diferencial).
Vamos a presentar a continuación de manera formal la transformada de Laplace.

Denición 10.0.3 Sea f : [0, ∞[ −→ R, t −→ f (t). Se dene la transformada de Laplace L{f } = F ;


F = F (s) como:
Z ∞
F (s) = e−st f (t) dt ,
0
siempre y cuando la integral impropia dependiente de un parámetro sea nita.

Ejemplo 10.0.4 Sea f (t) = c, c-cte. Tenemos


Z ∞ Z ∞
F (s) = e−st c dt = c e−st dt,
0 0
b b
e−st
Z
= c lı́m e−st dt = c lı́m − ,
b→∞ 0 b→∞ s 0
−sb
 
e 1
=c lı́m + ,
b→∞ s s
c
= ; s > 0.
s

Así que:
c
f (t) = c L ; c-cte.
−→ s
Dado que la integral impropia que involucra la denición de la transformada de Laplace necesitamos que
exista (es decir, que sea nita!) Vamos a considerar un conjunto especial de funciones donde se garantiza
lo anterior.

Denición 10.0.5 Sea f : [0, ∞[−→ R, t −→ f (t). Diremos que f está en la clase Ω, es decir, f ∈ Ω, si
satisface:

• f es continua en [0, ∞[.


• f tiene a lo sumo crecimiento exponencial; es decir, existen M ≥ 0, t0 ∈ [0, ∞[ y σ = σ(t0 , M ) ∈ R
tales que
|f (t)| ≤ M eσt ; ∀t ≥ t0 .

Grácamente, la anterior desigualdad se ve en la gura 10.1.

152
σt
σt Me
Me

f(t) f(t)

M M

t0

-M -M

-Meσt
-Meσt

Figura 10.1: Funciones que pertenecen a Ω

Ejemplos 10.0.6 Veamos algunos ejemplos de funciones que están en Ω.


1. Las funciones polinómicas
f (t) = a0 + a1 t + · · · + an tn .
En efecto, Sea k ∈ N, se sabe que ∀k < n sabemos, por la regla de L'Hopital, que

tn tk
lı́m = 0, lı́m = 0.
t→∞ et t→∞ tn

para todo n∈N (jo).

Esto indica que para un t0 lo sucientemente grande, se cumple que

tn ≤ et , tk ≤ tn .
para todo t > t0 .

Sea M̄ = máx{|a0 |, |a1 |, . . . , |an |}. Observe que

|f (t)| = |a0 + a1 t + · · · + an tn | ≤ |a0 | + |a1 t| + · · · + |an tn | ≤ M̄ + M̄ t + · · · + M̄ tn


Xn
≤ M̄ tn + M̄ tn + · · · + M̄ tn = M̄ tn = (1 + n)M̄ tn .
i=0

Sea (1 + n)M̄ = M ,
|f (t)| ≤ (1 + n)M̄ tn ≤ M et , (σ = 1).
Por lo tanto las funciones polinómicas pertenecen a Ω.
2. Las funciones trigonométricas

f (t) = c1 cos (wt) + c2 sen (βt), c1 , c2 , w, β -ctes.

Observe que:

|f (t)| = |c1 cos(wt) + c2 sen(βt)|


≤ |c1 || cos(wt)| + |c2 || sen(βt)|
≤ |c1 | + |c2 | .
Sea M = |c1 | + |c2 |, entonces |f (t)| ≤ M e0t , (σ = 0).

153
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

3. Las funciones exponentiates


f (t) = et ln a = at , a > 1.
Tomemos así:

at e−σt = et ln a e−σt ,
= et(ln a−σ) .

Sea σ ≥ ln a entonces f (t) · e−σt ≤ 1. Con M = 1; σ ≥ ln a se tiene: f (t) ≤ e−σt , ∀t ≥ 0.

4. Suma y producto de funciones en Ω pertenecen a Ω. En efecto, sean f, g ∈ Ω. Dena h = f + g,


entonces:

|h(t)| = |f (t) + g(t)|


≤ |f (t)| + |g(t)|, ∀t ≥ 0
σ1 t σ2 t
≤ M1 e + M2 e , M1 , M2 ≥ 0; σ1 , σ2 ∈ R.

Sea M = M1 + M2 , σ = máx{σ1 , σ2 }. Entonces

|h(t)| ≤ M eσt .

Ahora, para el producto de funciones h(t) = f (t) · g(t), tenemos

|h(t)| = |f (t)||g(t)|
≤ M1 eσ1 t |g(t)|
≤ M1 e σ1 t · M2 e σ2 t
≤ M1 M2 e(σ1 +σ2 )t , ∀t ≥ 0.

Sea M = M1 M 2 y σ = σ1 + σ2 . Tenemos que:

|h(t)| ≤ M eσt , ∀t ≥ 0.

Observación 10.0.1 Lo anterior nos dice que por ejemplo, las siguiente funciones están en Ω:

. . . , t5 e2t , t5 + cos(3t) − sen(2t), t4 cos(2t)e6t , . . .

Claramente no se puede esperar otra cosa que la existencia de funciones que no estén en Ω.

Ejemplo 10.0.7 Sea


3
f (t) = et .
3
En efecto, suponga que existen M ≥0 y σ ∈ R, tales que |f (t)| = et ≤ M eσt , ∀t ≥ 0. Entonces

3
−σt
et ≤ M, ∀t ≥ 0.
3
−σt
Pero esto no es cierto pues et es no acotada en [0, ∞[.

Miremos ahora que la transformada de Laplace está bien denida en Ω.

En efecto, sea f (t) ∈ Ω. Entonces, existen M ≥ 0, σ ∈ R tales que

|f (t)| ≤ M eσt ∀t ≥ 0,

esto equivale a decir


−M eσt ≤ f (t) ≤ M eσt ; ∀t ≥ 0.

154
Lema 10.0.8 Sea f ∈ Ω. Entonces existe un número s0 ∈ R (s0 depende de f) tal que F (s) = L{f (s)}
está bien denida si s > s0 .

Demostración

Sabemos que
Z ∞
L{f (s)} = e−st f (t) dt .
0

Así
Z ∞ Z ∞
−st
e−st |f (t)| dt .

|L{f (s)}| = e f (t) dt ≤
0 0

Por lo tanto:
Z ∞
|L{f (s)}| ≤ e−st M eσt dt,
0
b b
e(σ−s)t
Z
(σ−s)t
≤ lı́m Me dt = lı́m M ,
b→∞ 0 b→∞ σ − s 0
M
≤ <∞ si s > σ.
s−σ

Tomamos s0 = σ y tenemos la demostración completa. 

Es de notar que la transformada de Laplace de una función dada, digamos f, tiene como dominio ]s0 , ∞[
donde s0 = s0 (f ); s0 ≡ depende de f.

Así:
L:f ∈Ω −→ F (s); s ∈ ]s0 (f ), ∞[
f = f (t) −→ L{f (s)}.

Este operador tiene propiedades de linealidad.

1. Si f1 , f2 ∈ Ω entonces L{f1 + f2 } = L{f1 } + L{f2 } para s > s0 (f1 ); s0 (f2 ).

2. f ∈ Ω, c ∈ R entonces L{cf } = c L{f }; c-cte.

Cabe mencionar que hemos denido la transformada de Laplace por medio de una integral impropia
dependiente de un parámetro, y hemos visto que en Ω esta denición tiene sentido; ahora bien, esto
quiere decir que es suciente con el hecho de que f ∈ Ω para que L{f } exista; pero no es necesaria esta
condición. Por ejemplo, la función

1 3

3t 1+ 2t; t ≥ 2,
f (t) = −2t
e ; 0 ≤ t ≤ 2.

f (t) ∈
/Ω pero L{f } existe.

Vamos a sacar provecho de las transformadas de Laplace.

Derivadas 7−→ Producto de polinomios.

Llevando cosas más difíciles a cosas más simples.

155
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

10.1. Transformadas de Laplace y derivadas


3
Sea f ∈ C 1 [0, ∞[ y supongamos que f y f0 están en Ω (observe que f (t) = cos(et ) ∈ Ω pero f0 ∈
/ Ω).
0
Calculemos L{f (s)}.

Por denición:
Z ∞ Z b
0 −st 0
L{f (s)} = e f (t) dt = lı́m e−st f 0 (t) dt.
0 b→∞ 0
Por otro lado, aplicando el método de integración por partes

Z b b Z b
−st 0 −st
e−st f (t) dt,

e f (t) dt = f (t)e +s
0 0 0
Z b
= f (b)e−sb − f (0) + s e−st f (t) dt.
0

Tomando lı́m a ambos lados, tenemos que


b→∞

L{f 0 (s)} = −f (0) + s L{f (s)}, s: sucientemente grande.

El anterior resultado lo podemos extender a derivadas superiores.

Segundo orden

L{f 00 (s)} = −f 0 (0) + s L{f 0 (s)},


= −f 0 (0) + s(−f (0) + s L{f (s)}),
= −f 0 (0) − sf (0) + s2 L{f (s)}.

En conclusión,
L{f 00 (s)} = s2 L{f (s)} − sf (0) − f 0 (0).

Tercer orden

L{f 000 (s)} = −f 00 (0) + s L{f 00 (s)},


= −f 00 (0) + s(−f 0 (0) − sf (0) + s2 L{f (s)}),
= −f 00 (0) − sf 0 (0) − s2 f (0) + s3 L{f (s)}.

En conclusión,
L{f 000 (s)} = s3 L{s} − s2 f (0) − sf 0 (0) − f 00 (0).

Teorema 10.1.1 Sea f ∈ C n [0, ∞[ , f, f 0 , . . . , f (n) ∈ Ω. Entonces

L{f (n) }(s) = sn L{f (s)} − sn−1 f (0) − . . . − sf (n−2) (0) − f (n−1) (0),

si s es sucientemente grande.

Ejemplo 10.1.2 Mirando la tabla de las transformadas de Laplace, sabemos que

s
L{cos(at)} = ; s > 0.
s2 + a2
Ahora bien,
d
(cos(at)) = −a sen(at),
dt

156
10.1. TRANSFORMADAS DE LAPLACE Y DERIVADAS

entonces
 
d
L{−a sen(at)} = L (cos(at)) ,
dt
= s L{cos(at)} − 1 ,
s2
= − 1,
s2 + a2
a2
= − 2 .
s + a2
Así que
a
L{sen(at)} = .
s2 + a2
Ahora presentaremos un resultado que es clave en lo que sigue, el cual se puede inferir por inducción.

Proposición 10.1.1 Considere la ecuación L[x] = b, con b : I ⊂ R −→ R continua, tal que b ∈ Ω, con
L[x] el operador

L : C n (I) −→ C 0 (I)
x −→ L[x] = x(n) + an−1 x(n−1) + . . . + a1 x0 + a0 .

con a0 , a1 , . . . , an−1 constantes.


Entonces todas las soluciones de L[x] = b; satisfacen que x, x0 , x00 , . . . , x(n) ∈ Ω.

El anterior resultado no se puede aplicar en ecuaciones como:

x00 + tx = et ⇐ el operador no es lineal.


3
x00 + 2x0 − 3x = et ⇐ b(t) ∈
/ Ω.

Ejemplo 10.1.3 Considere la ecuación


x0 − 3x = 4,
con condición inicial x(0) = 7.

El anterior problema lo sabemos resolver muy bien, pues es una ecuación lineal de primer orden, más
aún: Rt
x(t) = x0 e3t + e3t 0
e−eτ 4 dτ ,
h i
= 7e3t + 4e3t − 13 e−3t − 13 ,
= 7e3t + 43 e3t − 4
3 ,
25 3t 4
= 3 e − 3 .
Veamos cómo se hace con el operador de Laplace. Aplicamos el operador de Laplace a ambos lados (esto
es posible por la Proposición 10.1.1)

4
L{x0 − 3x} = L{4} = , s > 0.
s
Aplicando las propiedades de linealidad y derivadas

4
L{x0 } − 3L{x} = ,
s
4
−x0 + sL{x} − 3L{x} = .
s

157
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Sea X = L{x}, tenemos:


4 4 4 + 7s
X (s − 3) = + x(0) = + 7 =
s s s
4 + 7s 4 25
X = =− + .
s(s − 3) 3s 3(s − 3)
Hemos obtenido    
4 1 25 1
L{x} = − + .
3 s 3 s−3
Mirando la tabla de las transformadas de Laplace al revés sabemos que
 
1 1
1 = L−1 ⇔ L{1} = ,
s s
 
1 1
e3t = L−1 ⇔ L{e3t } = .
s−3 s−3

Así:
4 25
L{x} = − L{1} + L{e3t }.
3 3
Entonces,
25 3t 4
x(t) = e − .
3 3
Ejemplo 10.1.4 Considere con a-cte
x0 + ax = b(t)
Al aplicar el operador de Laplace a ambos lados se obtiene

L{b(t)} = L{x0 + ax} = L{x0 } + L{ax}


= sL{x} − x(0) + aL{x}
= L{x}(s + a) − x(0)
Por lo tanto
L{x}(s + a) = L{b(t)} + x(0)
L{b(t)} + x(0)
L{x} =
(s + a)

Consideremos la siguiente ecuación diferencial de segundo orden

x00 + a1 x0 + a0 x = b(t),
con a0 , a1 constantes y b(t) ∈ Ω. Aplicando el operador de Laplace a ambos lados:

L{x00 + a1 x0 + a0 x} = L{b(t)} ,
L{x00 } + L{a1 x0 } + L{a0 x} = L{b(t)} .
Tenemos:
−x(0) − sx(0) + s2 L{x} + a1 (−x(0) + sL{x}) + a0 L{x} = L{b(t)} .
Por lo tanto,
L{x}[s2 + a1 s + a0 ] = L{b(t)} + a1 x(0) + sx(0) + x0 (0) ,

L{b(t)} + a1 x(0) + sx(0) + x0 (0)


L{x} = . (10.1)
s2 + a1 s + a0

158
10.1. TRANSFORMADAS DE LAPLACE Y DERIVADAS

Ejemplos 10.1.5 Veamos como aplica lo anterior:

1. Sea
x00 − 2x0 + x = 3et ; x(0) = 1, x0 (0) = 1.
Entonces,

L{3et } + 1(s + (−2)) + 1


L{x} = ,
s2 − 2s + 1
3
s−1 + s − 2 + 1
= ,
s2 − 2s + 1
3
s−1 + s − 1
= ,
(s − 1)2
3 + (s − 1)2
= ,
(s − 1)3
3 1
= + .
(s − 1)3 s−1

2. Sea
x00 + 3x = sen 5t; x(0) = 0, x0 (0) = 0.
Entonces,

L{sen 5t} + 0(s + 0) + 0


L{x} = ,
s2 + 3
L{sen 5t}
= ,
s2 + 3
5
s2 +2s
= ,
s2 + 3
5
= .
(s2 + 25)(s2 + 3)

La expresión (10.1) nos brinda la transformada de Laplace de la solución x de la ecuación diferencial lineal
de segundo orden que consideramos. Cabe preguntarnos ahora ¾Cómo obtener la solución x a partir del
conocimiento de su transformada de Laplace?

Pues la respuesta es formalmente simple. Debemos invertir el proceso. Es decir, debemos justicar la
existencia de el operador inverso de Laplace, que denotamos por L{F (s)} donde:

F (s) = L{f } si y sólo si f (t) = L−1 {F (s)}.

Existe una fórmula general para la transformada inversa de Laplace, pero se requiere conocer la teoría
de las funciones de la variable compleja, pero no lo haremos aquí.

Se puede demostrar que si f1 , f2 ∈ Ω tales que

L{f1 } = L{f2 } para s > s0 .

Entonces, f1 (t) = f2 (t) ∀t ∈ [0, ∞[ .

El anterior resultado arma que una función f (t) está completamente determinada por su transformada
de Laplace. Esto equivale a decir que si L−1 {F (s)} existe, entonces es única.

159
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Entonces basta con leer la tabla de las transformadas de Laplace al revés. Más aún la propiedad de la
linealidad la hereda de igual forma la transformada inversa.

Continuando con los ejemplos, tenemos:

1. Para el PV I
x00 − 2x0 + x = 3et ; x(0) = 1, x0 (0) = 1.
Encontramos que:
1 3
L{x} = + .
s − 1 (s − 1)3
Entonces, mirando las tablas:

1 3
x(t) = L−1 { } + 3L−1 { },
s−1 (s − 1)3
3
= et + (t2 et ) .
2
2. Para el PV I
x00 + 3x = sen 5t ; x(0) = 0, x0 (0) = 0.
Encontramos que:
5
L{x} = .
(s2 + 25)(s2 + 3)
Primero hacemos un poco de álgebra:

5 As + B Cs + D
= 2 + 2 .
(s2 2
+ 25)(s + 3) s +3 s + 25
Haciendo los cálculos respectivos se obtiene:

5 5
5 22 − 22
= + .
(s2 + 25)(s2 + 3) s2 + 3 s2 + 25
Entonces

5 5
− 22
   
−1 22 −1
x(t) = L +L ,
s2 + 3 s2 + 25
5 √ 1
= √ sen 3t − sen 5t .
22 3 22

Ejemplo 10.1.6 Resolver el siguiente problema de valor inicial utilizando la transformada de Laplace.

 00
 x + 4x0 + 6x = e−t ,

x(0) = 0 ; x0 (0) = 0 .

Aplicando la transformada de Laplace se obtiene:

1
L{e−t }
L{x} = 2 = 2 s+1 .
s + 4s + 6 s + 4s + 6
Entonces,
1
L{x} = .
(s + 1)(s2 + 4s + 6)

160
10.1. TRANSFORMADAS DE LAPLACE Y DERIVADAS

Note que:
1 1 A Bs + C
= = + .
(s + 1)(s2 + 4s + 6) (s + 1)[(s + 2)2 + 2] s + 1 (s + 2)2 + 2
Entonces:
1= A((s + 2)2 + 2) + (Bs + C)(s + 1) ,
= (A + B)s2 + (4A + B + C)s + 6A + C .
De aquí tenemos que:

• A+B =0 ∴ A = −B .
• 4A + B + C = 0 ∴ −3B + C = 0, C = 3B .
• 6A + C = 1 ∴ −6B + 3B = 1, −3B = 1 ⇒ B = −1/3.

Así que,
B=-1/3

A=1/3

C=-1

Por lo tanto:

s
+1
" #
1 1 3
= − ,
(s + 1)[(s + 2)2 + 2] 3(s + 1) (s + 2)2 + 2
1 1 s−2+2 1
= − − ,
3(s + 1) 3 (s + 2)2 + 2 (s + 2)2 + 2
1 1 s+2 1
= − − .
3(s + 1) 3 [(s + 2) + 2] 3[(s + 2)2 + 2]
2

Así que:
(  ( ) ( )
−1 1 1 −1 s+2 1 −1 1
x(t)= L − L − L ,
3(s + 1) 3 (s + 2)2 + 2 3 (s + 2)2 + 2
1 −t 1 −2t √ 1 1 √
= e − e cos( 2t) − · √ e−2t sen( 2t) .
3 3 3 2

Veamos otro ejemplo donde se aplica la transformada de Laplace.

Ejemplo 10.1.7 Resolver el sistema

x01 = 2x1 + x2 , x1 (0) = c1 ,


x02 = −x1 + 4x2 , x2 (0) = c2 .

Aplicamos la transformada de Laplace a ambos lados:

L{x01 }= 2L{x1 } + L{x2 } ,


L{x02 }= −L{x1 } + 4L{x2 } .

Tenemos así:

161
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

−c1 + sL{x1 }= 2L{x1 } + L{x2 } ,


−c2 + sL{x2 }= −L{x1 } + 4L{x2 } .


(s − 2)L{x1 } − L{x2 }= c1
Sistema de ecuaciones algebraicas 2 × 2.
L{x1 } + (s − 4)L{x2 }= c2

Usamos la regla de Cramer.


1 c1 −1 c1 (s − 4) + c2
L{x1 } = = ,
(s − 3) c2
2 s−4 (s − 3)2


1 s−2 c1 c2 (s − 2) − c1
L{x2 } = = .
(s − 3)2 1 c2 (s − 3)2

Así tenemos:

 
c1 (s − 4) + c2
x1 = L−1 ,
(s − 3)2
 
−1 c2 (s − 2) − c1
x2 = L .
(s − 3)2

Conviene escribir lo anterior de la siguiente forma:

 
c1 c1 − c2
x1 = L−1 − ,
(s − 3) (s − 3)2

 
−1 c2 c2 − c1
x2 = L − .
(s − 3) (s − 3)2

Mirando las tablas concluimos:


   
c1 c1 − c2
x1 = L−1 − L−1 ,
(s − 3) (s − 3)2
x1 = c1 e3t + (c2 − c1 )te3t .

   
c2 c2 − c1
x2 = L−1 + L−1 ,
(s − 3) (s − 3)2
x2 = c2 e3t + (c2 − c1 )te3t .

10.2. Teoremas de Traslación


A continuación vamos a presentar una serie de propiedades de la transformada de Laplace.

Iniciamos con la introducción de las funciones escalón.

162
10.2. TEOREMAS DE TRASLACIÓN

t
c

Figura 10.2: Imagen de la función escalón unitario psic (t)

10.2.1. Función Escalón Unitario


Denimos la función 
0, t<c
ψc (t) =
1, t ≥ c,

con c ≥ 0.

Ejercicio: Trazar las grácas de las funciones


y(t) = d − ψc (t), d > 1.
h(t) = ψπ (t) − ψ2π (t).

En muchas ocasiones resulta conveniente considerar para una función f dada, una nueva función φ denida
así: 
0 , t<c
y = φc (t) =
f (t − c) , t ≥ c.

Es decir: φc (t) = f (t − c) · ψc (t).


φc -representa geométricamente una traslación de f, una distancia positiva c, en la dirección positiva de t.

t t
c

(a) f (t) (b) φc (t)

Figura 10.3: Translación de f (t)

Veamos ahora cual es la trasformada de Laplace de la función ψc .

163
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Z∞ Z∞
−st e−cs
L{ψc (t)} = e ψc (t) dt = e−st dt = , s > 0.
s
0 c

Este resultado es muy importante pues nos permite determinar el siguiente teorema llamado Teorema de Traslación.

Teorema 10.2.1 Teorema de Traslación (Parte 1).


Si F (s) = L{f (t)} existe para s > sf ≥ 0 y si c es una constante positiva, entonces

L{φ(t)} = L{ψc (t)f (t − c)} ,


= e−c·s L{f (t)} ,
= e−c·s F (s) .

Demostración. Veamos por cálculo directo que el resultado es cierto:


Z∞ Z∞
−st
L{φ(t)} = e φ(t) dt = e−st ψc (t)f (t − c) dt ,
0 0

Z∞ Z∞
−st
= e f (t − c) dt = e−(ξ+c)s f (ξ) dξ , ξ =t−c
0 0
Z∞
−cs
=e eξs f (ξ) dξ .
0

Así que: L{φ(t)} = e−cs L{f (t)}. 

Del Teorema de Traslación se concluye:

Corolario 10.2.2 Si F (s) = L{f (t)} existe para s > sf ≥ 0 y si c es una constante positiva, entonces:

L−1 {e−cs F (s)} = ψc (t) · f (t − c).

Vamos a presentar unas aplicaciones del anterior resultado.

Ejemplo 10.2.3 Calculemos la transformada de Laplace de la siguiente función

t3 √

, 0<t≤5
f (t) =
t3 + t − 5 , t ≥ 5.

Note que f (t) la podemos escribir de la siguiente forma:



f (t) = t3 + h(t); h(t) = ψ5 (t) t − 5 .

Entonces:
L{f (t)}= L{t3 + h(t)} ,
= L{t3 } + L{h(t)} ,
6 √
L{f (t)}= 4 + e−5s L{ t} ; s > 0.
s

164
10.2. TEOREMAS DE TRASLACIÓN

Ejemplo 10.2.4 Encontrar la transformada inversa de

1 − e−2s
. F (s) =
s2
   −2s 
−1 −1 1 −1 −e
Tenemos que L {F (s)} = L +L .
s2 s2

Identicamos ahora:
e−2s 1
= e−2s · 2 = e−2s · G(s) ,
s2 s
1
con G(s) = ⇔ G(s) = L{t}. Por lo tanto:
s2
L−1 {F (s)} = t − ψ2 (t)(t − 2) . f (t) = t .

Note que la función g(t) = t − ψ2 (t) · (t − 2) se puede escribir así:



t , 0≤t<2
g(t) =
2 , t ≥ 2.

Teorema 10.2.5 Teorema de Traslación. (Parte 2)


Si F (s) = L{f (t)}, existe para s > sf ≥ 0 y s0 es una constante (positiva o negativa), entonces:

L{es0 t f (t)} = F (s − s0 ) ,
con s > s f + s0 .

Demostración. Por cálculo directo tenemos:


Z∞ Z∞
−st s0 t
L{e s0 t
f (t)} = e e f (t) dt = e−(s−s0 )t f (t) dt .
0 0

En consecuencia:
L{es0 t f (t)} = F (s − s0 ) .


10.2.2. Aplicación de este Teorema


Encontremos la transformada inversa de

1
G(s) = , s > 0.
s2 − 4s + 5
Completando cuadrados en el denominador, tenemos:

1 1
G(s) = = F (s − 2) con F (s) = .
(s − 2)2 + 1 s2 + 1
Dado que F (s) = L{sen t} entonces:

L{e2t sen t} = F (s − 2), s0 = 2 ,


= G(s) .
Así:
L−1 {G(s)} = e2t sen t .

165
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

10.3. Convolución entre Funciones


Consideremos dos funciones f (t) = t2 ; g(t) = t por ejemplo. Observe que:

2
F (s) = L{f (t)} = L{t2 } = , s > 0.
s3
1
G(s) = L{g(t)} = L{t} = 2 , s > 0.
s
Por otro lado
24
L{f (t) · g(t)} = L{t3 } = .
s4
Esto nos muestra que
H(s) = L{f (t) · g(t)} =
6 F (s) · G(s) ,
L{f (t) · g(t)} =
6 L{f (t)} · L{g(t)} .

Nos preguntamos entonces por el siguiente problema.

Si F (s) = L{f (t)} y G(s) = L{g(t)} ¾Quien es la función Continua

h : [0, ∞[→ R
t→ h(t) ,

tal que L{h(t)} = F (s) · G(s)?

El siguiente teorema nos brinda la respuesta a esta pregunta.

Teorema 10.3.1 (Teorema de Convolución). Si F (s) = L{f (t)}; G(s) = L{g(t)} existen para s > a ≥ 0,
entonces
L{h(t)} = F (s) · G(s),
con
Zt Zt
h(t) = f (t − τ )g(τ ) dτ = g(t − τ )f (τ ) dτ .
0 0

La función h se conoce como convolución de f y g y se denota por

h(t) = (f ∗ g)(t) .
Previo a la demostración de este teorema veamos algunos ejemplos y propiedades de la convolución.

10.3.1. Propiedades de la Convolución


1. f ∗g =g∗f (Conmutatividad)

2. f ∗ (g1 + g2 ) = f ∗ g1 + f ∗ g2 (Distributividad)

3. (f ∗ g1 ) ∗ h = f ∗ (g ∗ h) (Asociatividad)

Observación 10.3.1 En general f ∗ 1 6= f y f ∗f puede ser negativo.

166
10.3. CONVOLUCIÓN ENTRE FUNCIONES

Ejemplos 10.3.2 1. Sea f (t) = cos t,

Zt
(f ∗ 1)(t) = cos(t − τ ) dτ ,
0

t
= − sen(t − τ ) ,

0

= sen t ,
6= f (t) .

2. Sea f (t) = sen t,


Zt
(f ∗ f )(t) = sen(t − τ ) sen τ dτ ,
0

Zt
= (sen t cos τ sen τ − sen2 τ cos t) dτ ,
0

sen t t
= (1 + cos t − cos t) − cos t ,
2 2
sen t t
= − cos t .
2 2
Observe que (f ∗ f )(2π) = −π < 0.

3. Sea g(t) = sen t ; f (t) = t. Calculamos (f ∗ g)(t).

Zt
(f ∗ g)(t) = (t − τ ) sen τ dτ ,
0

Zt Zt
=t sen τ dτ − τ sen τ dτ ,
0 0
t " t Z t #

= −t cos τ − τ cos τ + cos τ dτ ,


0 0 0

= t − sen t .

Demostración del Teorema 5.4.1

Sabemos que
Z∞
F (s) = e−sξ f (ξ) dξ ,
0

Z∞
G(s) = e−sη g(η) dη .
0

167
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Entonces:
Z∞ Z∞
−sξ
F (s) · G(s) = e f (ξ)dξ · e−sη g(η) dη .
0 0

Dado que la primera integral no depende de η podemos hacer lo siguiente:

Z∞ Z∞
−s(ξ+η)
F (s) · G(s) = e f (ξ) dξ · g(η) dη .
0 0

Sea t = ξ + η ; dt = dξ .
Z∞ Z∞
−st
F (s) · G(s) = e f (t − η) dt · g(η) dη ,
η 0

Z∞ Z∞
= e−st f (t − τ ) dt · g(τ ) dτ .
τ 0

La región de integración es:

R = (t, τ ) ∈ R2 | 0 ≤ t < +∞, 0 ≤ τ ≤ t}.




Para la anterior integral podemos aplicar el Teorema de Fubini,

Z∞ Z∞
F (s) · G(s) = e−st f (t − τ )g(τ ) dt dτ ,
0 τ

Z∞ Zt !
−st
= e f (t − τ )g(τ ) dτ dt .
0 0

Esto nos dice que:

Si
Zt
h(t) = f (t − τ )g(τ )dτ,
0
entonces
F (s) · G(s) = L{h(t)},
lo que equivale a:
h(t) = L−1 {(s) · G(s)} = (f ∗ g)(t) .

El siguiente esquema ilustra lo anterior.

Ω F
·f (t) ←→ F (s) = L{f (t)}
·h(t) ←→ F (s) · G(s)
·g(t) ←→ G(s) = L{g(t)}

168
10.3. CONVOLUCIÓN ENTRE FUNCIONES

h(t) = (f ∗ g)(t). (El producto en el espacio de las Transformadas de Laplace se corresponden con la
convolución en el espacio de de funciones!)

Ejemplo 10.3.3 Encuentre la transformada inversa de


a
H(s) = .
s2 (s2 + a2 )
1 a
Note que H(s) = F (s) · G(s) con F (s) = y G(s) = ; por lo tanto:
s2 s2 + a2
f (t) = t = L−1 {F (s)} ,
g(t) = sen at = L−1 {G(s)} .

Por el teorema se concluye:


(f ∗ g)(t) = L−1 {H(s)} ,

Zt
at − sen at
(f ∗ g)(t) = (t − τ ) sen aτ dτ = .
a2
0

Ejemplo 10.3.4 Resolver la ecuación


y 00 + y = sent
con las condiciones iniciales y(0) = 0 ; y 0 (0) = 2.

Aplicamos la transformada de Laplace:

L{y 00 } + L{y} = L{sen t} ,


1
s2 L{y} − s · y(0) − y 0 (0) + L{y} = ,
s2 + 1
1
(s2 + 1)L{y} = + 2,
+1 s2
1 2
L{y} = 2 2
+ 2 .
(s + 1) s +1
Tomando la transformada inversa:
( ) ( )
1 1
y(t) = L−1 + 2L−1 .
(s2 + 1)2 s2 + 1

1 1
Sea F (s) = y G(s) = . En consecuencia:
s2 + 1 s2 + 1
y(t) = L−1 {F (s) · G(s)} + 2L−1 {F (s)} ,
= (f ∗ g)(t) + 2f (t).
Donde f (t) = L−1 {F (s)} = g(t) = L−1 {G(s)} = sen t.

Así que:
1 1
(sen t ∗ sen t) = sen t − t cos t (vericar esto).
2 2
Por lo tanto:
1 1
y(t) = sen t − t cos t + 2 sen t .
2 2

169
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

10.4. Derivadas de Transformadas


Sea f : [0, ∞[→ R con transformada de Laplace F (s) es decir:

F (s) = L{f (t)} ,


Z∞
F (s) = e−st f (t) dt . (10.2)

0
Al derivar en (10.2) respecto a s obtenemos:

Z∞ !
0 ∂ −st
F (s) = e f (t) dt ,
∂s
0

Z∞ Z∞ Z∞
0 ∂  −st 
−st
F (s) = e f (t) dt = −te f (t) dt = − e−st (tf (t)) dt .
∂s
0 0 0
Así que F 0 (s) = −L{tf (t)}.

Lo anterior se puede generalizar!

Teorema 10.4.1 Si F (s) = L{f (t)}, n ∈ N entonces

dn F (s)
L{tn f (t)} = (−1)n .
dsn
Ejemplo 10.4.2 Sea f (t) = sen kt. Sabemos que:

k
F (s) = .
s2 + k2
Entonces con n=1 !
d k 2ks
L{t sen kt} = − = .
ds s2 + k 2 (s2 + k 2 )2
Resolver la ecuación diferencial:

x00 + 16x = cos4t, x(0) = 0, x0 (0) = 1.

Si aplicamos la transformada de Laplace se obtiene:

L{x00 + 16x} = L{cos4t} ,

s
s2 L{x} − sx(0) − x0 (0) + 16L{x} = .
s2 + 16
Así:
s
L{x}(s2 + 16) = + 1,
s2 + 16
s 1
L{x} = 2 2
+ 2 .
(s + 16) s + 16
Ahora, aplicando la Transformada de Laplace inversa:
( ) ( )
−1 s −1 s
x(t) = L +L .
(s + 16)2
2 2
s + 16

170
10.4. DERIVADAS DE TRANSFORMADAS

Del ejemplo anterior, se concluye con k=4 que

( )
s 1
L−1 = t sen 4t .
(s2 + 16)2 8

Así que:
1 1
x(t) = t sen 4t + sen 4t .
8 4
Ahora veamos un resultado que se deduce del teorema de Convolución.

Proposición 10.4.1 Si F (s) = L{f (t)} entonces

( Zt )
F (s)
L f (τ ) dτ = .
s
0

Demostración. Por el teorema de Convolución tenemos:


Zt
(f ∗ g)(t) = f (τ )g(t − τ ) dτ ,
0

L{(f ∗ g)(t)} = F (s) · G(s), donde G(s) = L{g(t)}.

1
Ahora bien, si g(t) = 1 entonces G(s) = , por lo tanto:
s
( Zt )
1
L{(f ∗ 1)(t)} = L f (τ ) dτ = F (s) · .
s
0

Es decir:
( Zt )
F (s)
L f (τ ) dτ = .
s
0

Ejemplo 10.4.3 Sabemos que


k
L{sen kt} = , (s > 0).
s2 + k2
Así que:
( ) Zt
−1 1 1 1 1
L · 2 = sen(kτ ) dτ = (1 − cos kt) .
s s + k2 k k2
0

De igual forma:
( ) Zt
−1 1
L = f (t) dt ,
s2 (s2 + k 2 )
0

donde ( )
−1 1 1 1
f (t) = L · = (1 − cos kt) .
s s2 + k 2 k2

171
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

Así:
( ) Zt
−1 1 1 1 1 1
L · = 2 (1 − cos kt) dt = (t − sen kt) .
s s2 + k 2 k k2 k
0

Teorema 10.4.4 Sea f : [0, ∞[→ R una función periódica con periodo mínimo T (i.e.
f (t + T ) = f (t), ∀t ∈ [0, ∞[ ) tal que F (s) = L{f (t)}. Entonces

ZT
1
F (s) = e−st f (t) dt .
1 − e−sT
0


Ejemplo 10.4.5 Sea f (t) = sen at. Note que f es periódica con periodo T = . Entonces:
a
e−st f (t) = e−st sen at ,

Z2π Z2π
−st
e f (t) = e−st sen at ,
0 0
 2 2
−1
s +a 1h −2πs
i
= · 1−e a .
s2 s

Así:
−1
s2 + a2

1 1h −2πs
i
F (s) = −2πs · · 1−e a ,
1−e a s2 s

s
F (s) = (tal como dice la tabla !)
s2 + a2

Ejemplo 10.4.6 Considere la siguiente función:


1 0≤t<1
E(t) =
0 1 ≤ t < 2,

E(t + 2) = E(t) para todo t ∈ [0, ∞[. Nuestra función tiene periodo T =2 y gráca: GRAFICA!!!!!!

Entonces:
Z2
1 1
L{E(t)} = e−st E(t)dt = .
1 − e−2s s(1 + e−s )
0

Veamos como se aplica el anterior resultado:

Ejemplo 10.4.7 Considere un circuito RLC como el siguiente:


1 ,0 ≤ t < 1
GRÁFICA!!! E = E(t) =
0 ,1 ≤ t < 2,

La ecuación diferencial de la corriente, i = i(t) es:

Li0 + Ri = E(t), L 6= 0 , i(0) = 0.

172
10.4. DERIVADAS DE TRANSFORMADAS

Dividimos por L y aplicamos la transformada de Laplace

R 1
L{i0 } + L{i} = L{E(t)} ,
L L
 
R 1 1
sL{i} − i(0) + L{i} = ,
L L s(1 + e−s )
   
R 1 1
L{i} s + = i(0) + .
L L s(1 + e−s )
Así obtenemos:  
1 1 1
L{i} = · .
L (s + R
L)
s(1 + e−s )

En consecuencia:  
1 −1 1 1
i(t) = L · .
L s(s + R
L)
(1 + e−s )

Nos proponemos ahora a estudiar los factores involucrados. Por un lado tenemos que:


1 X
= (−1)n xn , |x| < 1 .
1 + x n=0

En consecuencia, para s > 0, |e−s | < 1 y entonces:


1 X
= (−1)n e−ns .
1 + e−s n=0

De otro lado,
1 L/R L/R
R
= − (fracciones parciales).
s(s + L)
s s + R/L

Así:  X∞
1 1 L/R L/R
· = − (−1)n e−ns ,
s(s + R
L ) 1 + e−s s s + R/L n=0
" ∞ ∞
#
L X (−1)n e−ns X (−1)n e−ns
= − .
R n=0 s n=0
s + R/L

Ahora bien, si tomamos la trasformada de Laplace inversa en la última expresión, tenemos que:
" ∞  −ns  X ∞  −ns #
1 X n −1 e n −1 e
i(t) = (−1) L − (−1) L .
R n=0 s n=0
s + R/L

Por el Teorema de Traslación, sabemos que:

ψc (t) · f (t − c) = L−1 {e−c·s F (s)} ,

donde f (t) = L−1 {F (s)}.

En consecuencia:
e−ns
 
−1
L = ψn (t) , n = 1, 2...
s

173
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

pues en este caso f (t) = 1.

De igual forma
e−ns
 
L−1 = ψn (t) · g(t − n) , n = 1, 2...
s + R/L
R
con g(t) = e− L t . Concluimos así:

∞ ∞
"  −ns   −ns #
1 X
n −1 e −R t
X
n+1 −1 e
i(t) = 1+ (−1) L −e L + (−1) L ,
R n=1
s n=1
s + R/L

∞ ∞
" #
1 X R
X R
i(t) = 1+ (−1)n ψn (t) − e− L t + (−1)n ψn (t)e− L (t−n) .
R n=1 n=1

10.5. Ejercicios
1. Aplique la denición de Transformada de Laplace para calcular F (s) = L{f (t)} (No usar tablas!)
de las siguientes funciones:

a) teat

b) cosh bt

c) ebt senh at

d)

 t2 , 0 ≤ t ≤ 1
f (t) = 1 , 1<t≤2
3−t , 2<t≤3

2. La función gamma se denota por Γ(p) y se dene por la integral

Z∞
Γ(p + 1) = e−x xp dx , p > −1 .
0

a) Demuestre que para p>0 se cumple:

Γ(p + 1) = pΓ(p).

b) Demuestre que Γ(1) = 1.

c) Si p ∈ N, digamos p = n, n ∈ N entonces pruebe que:

Γ(n + 1) = n!

d) Para p>0 muestre que:

Γ(p + n)
p(p + 1)(p + 2)...(p + n − 1) = .
Γ(p)
A partir de lo anterior, calcule:

Γ(1/2) , Γ(3/2) , Γ(11/2).

174
10.5. EJERCICIOS

Γ(p + 1)
3. Sea p > −1. Muestre que L{tp } = , s > 0. Encuentre: L{tn }, n ∈ N.
sp+1

4. Demuestre que
Z∞
−1/2 2 2
L{t }= √ e−x dx , s > 0.
5
0

Más aún, si
Z∞ √
−x2 π
e dx = ,
2
0

encuentre L{t1/2 }
5. Aplique el método de la Transformada de Laplace para resolver las siguientes ecuaciones diferen-
ciales:

a) y 00 − y 0 − 6y = 0 ; y(0) = 1, y 0 (0) = −1.

b) x(IV ) − 4x = 0 ; x(0) = 1, x0 (0) = 0 ; x00 (0) = −2, x000 (0) =?

c)

00 1 , 0≤t<π
x + 4x = x(0) = 1 ; x0 (0) = 0 .
0 , π≤t<∞

d)

t , 0≤t<1
x00 + x = x(0) = 0 ; x0 (0) = 0 .
0 , 1≤t<∞

e)

00 t , 1≤t<1
x + 4x = x(0) = 0 ; x0 (0) = 0 .
0 , 1≤t<∞

6. Resolver: x00 + x = ψπ/2 (t) − ψ3π/2 (t); x(0) = 0, x0 (0) = c.

7. Encuentre las siguientes trasformadas de Laplace inversas:


 
1
a) L−1
s4 (s2 + 1)
 
s
b) L−1
(s + 1)(s2 + 4)
 
1
c) L−1
(s + 1) (s2 + 4)
2
 
G(s)
d) L−1
(s2 + 1)

175
CAPÍTULO 10. TRANSFORMADA DE LAPLACE

8. Resolver y expresar la solución en términos de una integral de convolución las soluciones de los
siguientes problemas:

a) y 00 + ω 2 y = g(t); y(0) = 0 , y 0 (0) = 1.

b) y 00 + 3y 0 + 2y = cosαt; y(0) = 1 , y 0 (0) = 0.

c) y (IV ) + 5y 00 + 4y = g(t); y(0) = 1 , y 0 (0) = 0 , y 00 (0) = 0 , y 000 (0) = 0.

9. Sean f (t) ; k(t) funciones conocidas las cuales tienen transformadas de Laplace. Considere la
ecuación integral
Zt
φ(t) + k(t − ξ)φ(ξ) dξ = f (t) .
0

Aplique la transformada de Laplace a esta ecuación y obtenga una expresión de L{φ(t)} en térmi-
nos de F (s) = L{f (t)} y K(s) = L{k(t)}.

10. considere la ecuación integral

Zt
φ(t) + k(t − ξ)φ(ξ) dξ = sen 2t . (10.3)

a) Demuestre que si u = u(t) satisface u00 = φ entonces:

u00 + u − tu0 (0) − u(0) = sen 2t .

b) Pruebe que (10.3) equivale al problema de valor inicial

u00 (t) + u(t) = sen 2t ; u(0) = u0 (0) = 0.

c) Resuelva (10.3).

176
Capítulo 11

Resolución de Ecuaciones por Series de


Potencias, Puntos Ordinarios y
Singularidades
Iniciamos este tema con un breve repaso de series de potencias y las funciones reales.

11.1. Repaso de Series de Potencia


Una serie de potencia es una serie de la forma


X
an (t − t0 )n = a0 + a1 (t − t0 ) + a2 (t − t0 )2 + . . .
n=0

donde t0 es el centro de la serie y ai ; i = 0, 1, 2, . . . son coecientes reales. Podemos pensar que se tratan
de polinomios de grado innito.

A cada serie de potencia se le asocia un radio de convergencia R ∈ [0, ∞]. Si R = 0 la serie es formal, esto
quiere decir que no dene una función. Si 0 < R < ∞, (t0 − R, t0 + R) y
la serie converge en el intervalo
no lo hace en (−∞, t0 − R) ∪ (t0 + R, ∞). Finalmente, si R = ∞ la serie converge en todo R.

? Sector de convergencia
?

t0-R t0 t0+R

R
No converge

Figura 11.1: Intervalo de convergencia de una serie de potenicia. Todavía se desconoce si los
puntos límite pertenecen al intervalo o no.

Veamos unos ejemplos

Ejemplos 11.1.1

177
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES


X
n! tn ; R=0 Serie formal
n=0
Se aplica el criterio del cociente y se obtiene

an+1 (n + 1)! tn+1 an+1


= = (n + 1)t ; lı́m no existe si t 6= 0.
an n! tn n→∞ an

X 1
tn = ; |t| < 1 ; R=1
n=0
1−t
Aquí se considera la n-ésima suma parcial

n
X
sn = tk = 1 + t + t2 + . . . + tn
k=0

Entonces
t sn = t + t2 + t3 + . . . + tn+1
(1 − t) sn = 1 − tn+1
1 − tn+1
sn = ; t 6= 1
1−t
De manera que

X 1
lı́m sn = tn = si |t| < 1.
n→∞
n=0
1−t
En consecuencia R=1
P∞ n
Note que; si
P∞ t = 1 tenemos la serie n=1 1 que no converge y si t = −1 tenemos la serie
n
n=1 (−1) la cual es una serie alternante. Aplicando el criterio de Leibniz vemos que lı́m (+1) =
n→∞
1 6= 0 por lo cual la serie no converge.

-1 0 1

Intervalo de Convergencia

Figura 11.2: Intervalo de convergencia donde |t| < 1

∞ n
X t
= et ; R=∞
n=0
n!

Denición 11.1.2 (Función Analítica Real) Dada una serie de potencias con radio R > 0, podemos
denir la función

f : (t0 − R, t0 + R) −→ R

X
t −→ f (t) = an (t − t0 )n
n=0

En este caso diremos que la función f es una función analítica (real) en t0 .

1
Ejemplos 11.1.3 Las funciones f (t) = ; t ∈ (−1, 1) y g(t) = et ; t∈R son funciones analíti-
1−t
cas.

178
11.1. REPASO DE SERIES DE POTENCIA

Nota: La teoría de las funciones analíticas se ilumina cuando se admite que la variable t tome valores complejos.
1
Por ejemplo; la función f (t) = es analítica en t0 = 0 pero si calculamos su desarrollo en serie de
1 + t2
X∞
potencias tenemos: f (t) = (−1)n t2n tiene radio de convergencia R = 1.
n=0
Desde la perspectiva de la variable real este hecho resulta oscuro ¾Qué hay de particular en t = 1? Si
admitimos t ∈ C la funció f tiene polos (ceros del denominador) en ±i, el disco de convergencia se
extiende hasta tocar las singularicades.

-i

Figura 11.3: disco de convergencia extendido hasta tocar las singularidades

Las series de potencias se derivan término a término, como los polinomios. Así, la función


X
f (t) = an (t − t0 )n
n=0

es derivable en (t0 − R, t0 + R) y su derivada vale:


X
f 0 (t) = nan (t − t0 )n−1
n=0

(Note que la serie de f0 también tiene radio R)

Ejemplo 11.1.4

X 1
f (t) = tn = , |t| < 1,
n=0
1−t

0
X 1
f (t) = ntn−1 = ; |t| < 1.
n=0
(1 − t)2


X n
Ejecicio: Calcular
n=1
2n
Como la derivada también es una serie de Potencias, podemos repetir este proceso tantas veces como
queramos. Así que f ∈ C ∞ (t0 − R, t0 + R). Si reeplazamos t = t0 en las fórmulas que dan f 0 (t); f 00 (t);
. . . tenemos:
a0 = f (t0 ) ; a1 = f 0 (t0 ) ; 2a2 = f 00 (t0 ), . . .

179
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

En General

1 (n)
an = f (t0 )
n!

De esta fórmula se deduce un hecho importante:

an (t − t0 )n ; bn (t − t0 )n
P P
Sean f (t) = con |t − t0 | < R1 y g(t) = con |t − t0 | < R2
Supongamos que para algún  > 0,

f (t) = g(t); t ∈ (t0 − , t0 + ),

entonces:

an = bn ∀n = 0, 1, 2, . . .

Nota: Se sigue de aquí que si una función analítica en t0 se conoce en un pequeño entorno de t0 ; digamos
(t0 − , t0 + ) entonces su continuación a (t0 − R, t0 + R) es única.

Conviene observar que no toda función C∞ es analítica. Por ejemplo la función

1



f (t) = e 2
t , t 6= 0
0 , t = 0.

está en C ∞ (R) y cumple que: f (n) (0) = 0; n = 0, 1, 2, . . .

f(t)

g(t) = 0 t=0

Figura 11.4: Funciones f (t) y g(t) = 0

Esta función no puede ser analítica en t0 = 0 pues su serie sería la de g ≡ 0.

Las series de Potencias se suman y multiplican como polinomios.

Si


X
f (t) = an (t − t0 )n ; |t − t0 | < Rf
n=0
X∞
g(t) = bn (t − t0 )n ; |t − t0 | < Rg
n=0

180
11.2. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Se cumple:


X
(f + g)(t) = (an + bn )(t − t0 )n
n=0
X∞ n
X
(f g)(t) = cn (t − t0 )n ; cn = ak bn−k
n=0 k=0
| {z }
Producto de Cauchy.

Además; Rf +g , Rf g ≥ mı́n(Rf , Rg )

11.2. Series de Potencias y Ecuaciones Diferenciales


La idea de usar series de Potencias para resolver ecuaciones diferenciales se remonta a Newton,

Ejemplo 11.2.1
x0 = t2 x.
Esta ecuación de primer orden la podemos resolver fácilmente; en efecto: es una ecuación separable así
que

Soluciones de equilibrio: xe (t) = 0


Soluciones de no equilibrio:
t t
x0 x0 (s)
Z Z
= t2 ↔ ds = s2 ds.
x t0 x(s) t0

Así:

x(t) t3 − t30

ln = ,
x(t0 ) 3
3
−t30 )/3
x(t) = ±|x(t0 )|e(t ; x(t0 ) 6= 0.

La solución general es:


3
−t30 )/3
x(t) = ce(t ; c = x(t0 ) ≡ cte.

Utilizando el método de las series de potencias en t0 =0 tendríamos lo siguiente:


X
x(t) = c0 + c1 t + c2 t2 + . . . = cn tn ,
n=0

X
x0 (t) = c1 + 2c2 t + 3c3 t2 + . . . = cn ntn−1 .
n=1

Sustituyendo en la ecuación:

X ∞
X
cn ntn−1 = t2 cn tm ,
n=1 n=0

c1 + 2c2 t + 3c3 t2 + . . . = t2 (c0 + c1 t + c2 t2 . . .).


Entonces por igualdad de series

c1 = 0; c2 = 0; 3C3 = c0 ; . . .

181
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

Ahora usamos la notación de sumatoria


X ∞
X ∞
X
cn ntn−1 = t2 cn tn = cn tn+2 .
n=1 n=0 n=0

Para identicar coecientes, necesitamos que el grado de los monomios en ambas series coincida; hacemos
cambio de índice. De esta manera en la primera serie


X ∞
X
m=n−1 cn ntn−1 = cm+1 (m + 1)tm .
n=1 m=0

En la segunda serie:

X ∞
X
m=n+2 cn tn+2 = cm−2 tm .
n=0 m=2

Por lo tanto


X ∞
X
cm+1 (m + 1)tm = cm−2 tm ,
m=0 m=2
X∞ X∞
c1 + 2c2 t + cm+1 (m + 1)tm = cm−2 tm .
m=2 m=2

Así tenemos:
c1 = 0 ; 2c2 = 0 y cm+1 (m + 1) = cm−2 m ≥ 2.

Tenemos así una ley de Recurrencia.

1
c1 = c2 = 0; cm+1 = cm−2 ; m ≥ 2.
m+1

Esta es una ley de Recurrencia a tres términos. De c1 = 0, c4 = 0, . . . en general

c3p+1 = 0 p ≥ 0.

De c2 = 0, c5 = 0, c8 = 0,. . .
c3p+2 = 0 p ≥ 0.

Nos quedan los múltiplos de 3, que se obtienen a partir de

1 1 1 1 1
c3 = c0 ; c6 = c3 = c0 ; c9 = c6 = c0
3 6 6×3 9 9×6×3
1
c3p = c0 ;
3p × p!

c0 c1 c2 c3 c4 c5 c6 c7 c8

Figura 11.5: Recurrencia a tres términos

Observe que c0 = x(0) es la condición inicial. Por lo tanto, si queremos buscar todas las soluciones, debe
quedar como parámetro.

182
11.2. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Escribimos la serie:
∞ ∞  n t3
X 1 3p X 1 t3
x(t) = c0 t ≡ c0 = c0 e 3
p=0
3p p! n=0
n! 3

Hasta ahora hemos hecho un cálculo formal, sin embargo todavía no hay garantías de que la serie converja
a la función de la derecha. Vamos a estudiar un ejemplo que se debe a Euler.

Ejemplo 11.2.2
t 2 x0 = x − t (11.1)

Para esta ecuación buscamos soluciones en serie centrada en t0 = 0.



X
x(t) = c0 + c1 t + c2 t2 + . . . + = cn tn
n=0

Sustituyendo;
t2 (c1 + 2c2 t + 3c3 t2 + . . .) = c0 + c1 t + c2 t2 + . . . − t
c1 t2 + 2c2 t3 + 3c3 t4 + . . . = c0 + (c1 − 1)t + c2 t2 + c3 t3 + . . .
c0 = 0; c1 − 1 = 0; c1 = c2 ; 2c2 = c3 ; 3c3 = c4
Entonces
c0 = 0; c1 = 1; c2 = 1; c3 = 2; c4 = 3 × 2
cn = (n − 1)!
Obtenemos la serie

X
x(t) ∼ (n − 1)!tn
n=0
Pero esta serie tiene radio de convergencia R=0 y por lo tanto no converge.

Ejercicio: Comprobar que las soluciones de la ecuación (11.1) ecuación son de la forma

Z t
−1/t −1/t 1 1/s
x(t) = ce −e e ds, c ∈ R.
1 s
(Funciones no analíticas en t0 = 0). El siguiente teorema establece las condiciones para que la serie que

se encuentra siempre converja a la solución.

Teorema 11.2.3 Considere la ecuación lineal

x(n) + an−1 (t)x(n−1) + . . . + a1 (t)x0 + a0 (t)x = b(t)


en donde todos los coecientes aiy b son expresables en serie de potencias centrada en t0 y tienen radios
de convergencia Ri y Rb > 0. Entonces todas las soluciones de la ecuación admiten un desarrollo del
mismo tipo y el radio de convergencia es, al menos,

mı́n(R0 , R1 , . . . , Rn−1 , Rb )

Ejemplo 11.2.4
x0 = t2 x; n=1 a0 (t) = t2 ; b(t) ≡ 0.
Como los coecientes son polinomios, tienen radio de convergencia Rb = R0 = ∞. Lo mismo le ha de
ocurrir a las soluciones
−1 1
t2 x0 = x − t; n = 1; a0 (t) = ; b(t) =
t2 t
(El teorema no aplica en t0 = 0).

183
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

Ejemplo 11.2.5
x00 + x = 0; x(0) = 0; x0 (0) = 1.
Por el teorema de Cauchy sabemos que la solución admite un desarrollo


X
x(t) = cn tn ; t ∈ (−∞, ∞)
n=0

Además; de las condiciones iniciales:


c0 = 0; c1 = 1.

X ∞
X
x0 (t) = ncn tn−1 , x00 (t) = ncn (n − 1)tn−2 .
n=1 n=2


X ∞
X
−→ ncn (n − 1)tn−2 + cn tn = 0; t ∈ (−∞, ∞).
n=2 n=0

Sea m=n−2

X ∞
X
(m + 2)(m + 1)cm+2 tm = n(n − 1)cn tn−2 .
m=0 n=2

Sea m=n

X ∞
X
cm t m = cn tn .
m=0 n=0

Así tenemos:

X ∞
X
cm+2 (m + 2)(m + 1)tm + cm tm = 0.
m=0 m=0

cm+2 (m + 2)(m + 1) + cm = 0; m ≥ 0.

Tenemos recurrencia a dos términos.

c0 = 0 −→ c2 = c4 = . . . = 0; c2p p ≥ 0.

−1 −1 1
c1 = 1, c3 = , c5 = c3 = ,
3×2 5×4 5×4×3×2
(−1)p
c2p+1 =
(2p + 1)!

c0 c1 c2 c3 c4 c5

Figura 11.6: Recurrencia a dos términos

Así que:

X (−1)p 2p+1
x(t) = t ; (Desarrollo de la función seno)
p=0
(2p + 1)!

184
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

Ejemplo 11.2.6
x00 + t2 x = 0 ; x(0) = 0 ; x0 (0) = 1.
P∞ P∞
Se supone que x(t) = n
n=0 cn t ; por lo tanto se tiene que x00 (t) = n=2 n(n − 1)cn tn−2 . Al sustituir
en la ecuación se obtiene el siguiente resultado


X ∞
X
n(n − 1)cn tn−2 + cn tn+2 = 0,
n=2 n=0

(m = n − 2) (m = n + 2)

X ∞
X
cm+2 (m + 2)(m + 1)tm + cm−2 tm = 0.
m=0 m=2

Así:
m=0; c2 × 2 × 1 = 0 m=1; c3 × 3 × 2 = 0,
c2 = 0 c3 = 0.
−cm−2
m≥2 cm+2 = .
(m + 2)(m + 1)
Ley recursiva a 4 términos

Nota: El orden de la ley recursiva no está ligada con el orden de la ecuación

c0 = 0 → c4 = c8 = c12 = . . . = 0 ; c4p = 0,

−1 −1 1
c1 = 1 → c5 = , c9 = c5 = .
5×4 9×8 9×8×5×4
En general:
(−1)p
c4p+1 = ,
(4p + 1)4p(4(p − 1) + 1)4(p − 1) . . . 9 × 8 × 5 × 4
c2 = c6 = c1 0 = . . . = 0 ; c4p+2 = 0,
c3 = c7 = c1 1 = . . . = 0 ; c4p+3 = 0.
Por lo tanto

X
x(t) = c4p+1 t4p+1 ; p∈N; t ∈ R.
p=0

11.3. Singularidades de la Ecuación Lineal


Considere la ecuación
t2 x00 + tet x0 + x = 0. t∈R
t
e 1
En este caso a1 (t) = ; a0 (t) = ← funciones no analíticas en t0 = 0 . Si elegimos t0 > 0, por ejemplo
t t2
t0 = 3, podemos desarrollar las soluciones en la forma analítica real


X
x(t) = cn (t − 3)n
n=0

y la serie converge en ]0, 6[; R < 3

185
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

R=3

t0 2t 0

Polo
R < Radio de Convergencia

Figura 11.7: Se pueden desarrollar soluciones dentro de ]0, 6[ como soluciones en el intervalo
[t0 , 2t0 ] donde t0 < 3

Esto es así puesto que las funciones a1 (t) y a0 (t) son desarrollables en series de potencias centradas en
t0 y con radio menor que t0 , pues t = 0 es un polo

t0

0
t0

Figura 11.8: Se puede desarrollar soluciones dentro del dominio indicado centrado en t0 y con
radio t0 . Esta es la representación del dominio en los complejos

¾Qué pasa cuando t → 0? Esta es la pregunta que vamos a contestar en algunos casos muy especiales.
Antes de resolver esta pregunta en el ejemplo anterior, vamos a considerar unas ecuaciones más simples
que nos mostrarán el camino a casos más generales.

11.3.1. Singularidades de la Ecuación de Euler


Considere la ecuación de Euler de orden 2

t2 x00 + αtx0 + βx = 0; α, β ∈ R. ctes.

Vamos a tomar t ∈]0, +∞[. Si consideramos el cambio de variable t = es tenemos una nueva función

x = x(s) = x(s(t)) ; s(t) = ln t.

186
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

Así:

dx dx dt dx
= = x0 es −→ x0 = e−s ,
ds dt ds ds
 2
d2 x d2 x dt dx d2 t
= 2 + ,
ds2 dt ds dt ds2
d2 x
2
− x0 es
00 2s 0 s
= x e + x e −→ x = 00 ds .
e2s
Reemplazando:
d2 x
 
0 s
− x e
 2 −s dx
t2  ds 2s  + αte + βx = 0,

e ds

↓ (×e2s )
2
 
2 d x 0 s dx
t − x e + αtes + βe2s x = 0,
ds2 ds
 2 
2s d x −s dx s dx
e −e e + αes es + βe2s x = 0,
ds2 ds ds
d2 x dx dx
e2s 2 − e2s + e2s α + βe2s x = 0,
ds  ds ds
d2 x

dx
e2s + (α − 1) + βx = 0.
ds2 ds
m
d2 x(s) dx(s)
+ (α − 1) + βx(s) = 0. (11.2)
ds2 ds
Ecuación lineal con coecientes constantes

El polinomio característico asociado a (11.2) es

p(r) = r2 + (α − 1)r + β = 0.

Distinguimos tres casos.

1. r1 , r2 ∈ R; r1 6= r2 Raices Reales Simples

Sistema fundamental: ϕ1 (t) = tr1 ; ϕ2 (t) = tr2


r1 s r1 ln t r1
(e −→ e = t ) (Recordar: s = ln t)
Pensemos por un momento en las propiedades de tr cerca de 0+ (cero por la derecha)

Para r > 0; tr es una función continua en [0, ∞)

187
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

Figura 11.9: gráca de la función t1/2

En general tr admite un número nito de derivadas en 0 a menos que r sea natural


5/2 2 3
Por ejemplo: t está en c [0, ∞) pero no en c [0, ∞). En efecto:

f (t) = t5/2
5
f˙(t) = t3/2 , f˙(t) es continua en [0, ∞) → f ∈ c1 [0, ∞)
2
15 1/2 ¨
f¨(t) = t , f (t) es continua en [0, ∞) → f ∈ c2 [0, ∞)
4
15 −1/2 15
f (3) (t) = t = √ , f (3) (t) es continua en (0, ∞) → f ∈/ c3 [0, ∞)
8 8 t
Si r = 0 tenemos una función constante

f (t) = tr = t0 = 1. ←− Constante

Si r<0 tenemos

Figura 11.10: gráca de la función t−1

2. r1 = r2 = r ∈ R; Raíces Reales Iguales.

Sistema fundamental: ϕ1 (t) = tr ; ϕ2 (t) = tr ln t


(sers −→ ln ter ln t ).
La función tr ln t es continua en t=0 si r>0 y tiene una asíntota en t=0 si r ≤ 0.

188
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

Figura 11.11: gráca de la función t−1 ln t.

3. Raíces Complejas Conjugadas.

r1 = a + ib ; r2 = a − ib ; (b 6= 0).

Sistema fundamental:
ϕ1 (t) = ta cos(b ln t),
ϕ2 (t) = ta sen(b ln t),
(e(a+ib)s −→ ea ln t eib ln t )

a
t

a
t

Figura 11.12: a<0

189
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

a
t

a
t
Figura 11.13: a>0

Figura 11.14: a=0

Estamos listos para comprender situaciones más complicadas a partir del conocimiento adquirido sobre
el comportamiento de la ecuación de Euler en la singularidad t0 = 0+ .

11.3.2. Ejercicios
Estudie el comportamiento de las siguientes ecuaciones de Euler.

1. t2 x00 − 3tx0 − 2x = 0.
2. 25t2 x00 + 25tx0 + x = 0.
3. 3t2 x00 + 6tx0 + x = 0.
4. t2 x00 + 8tx0 + 6x = 0.
5. 4t2 x00 + x = 0.
6. t2 x00 − 2x = 0..

190
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

11.3.3. Puntos Regulares


Considere la ecuación

(t − t0 )2 x00 + (t − t0 )α(t)x0 + β(t)x = 0 ; t > 0, (11.3)

P∞ P∞
donde α(t) y β(t) son analíticas en t = t0 (Es decir: α(t) = n=0 αn (t − t0 )n y β(t) = n=0 βn (t − t0 )n
αn , βn ∈ R)
Tenemos una singularidad en t0 dado que (11.3) no es válida para t = t0 y si recordamos la ecuación
de Euler sabemos que no hay mucha esperanza en encontrar soluciones en series de potencias centradas
en t0 . Si α ≡ cte y β ≡ cte tenemos la ecuación de Euler y ya hemos visto como son las soluciones
fundamentales de esta ecuación.

Vamos a hacer una analogía, para el caso general vamos a suponer que las soluciones de (11.3) se pueden
escribir en la forma


X
x(t) = (t − t0 )r cn (t − t0 )n , con r ∈ C,
n=0

X
x(t) = cn (t − t0 )n+r .
n=0

Estas series (más generales que las series de potencia) reciben el nombre de series de Frobenius. En
general, las series de Frobenius no son regulares en t0 , pero como se obtienen como el producto de
(t − t0 )r y una serie de potencias.

Denición 11.3.1 Se dene la ecuación indicial de (11.3) como:

r2 + (α(t0 ) − 1)r + β(t0 ) = 0.

Note que la ecuación indicial coincide con el polinomio característico de la ecuación (11.2)

d2 x(s) dx(s)
+ (α − 1) + βx(s) = 0. (11.2)
ds2 ds

Donde α(t) = α = cte y β(t) = β = cte.


Estudiamos los dos casos distintos que se presentan para las raíces r1 , r2 ∈ C de la ecuación indicial.

r1 − r2 ∈
/Z
Este caso sostiene que no existe un número entero m tal que r1 = r2 + m.
En este caso existe un conjunto fundamental de soluciones para (11.3) del tipo

ϕ1 (t) = (t − t0 )r1 h1 (t) ; ϕ2 (t) = (t − t0 )r2 h2 (t).

donde h1 (t) y h2 (t) son analíticas en t0 . Además sus radios de convergencia cumplen:

R1 , R2 ≥ mı́n(Rα , Rβ ).

Nota: Si r1 y r2 son números complejos entonces r1 = a + ib, r2 = a − ib así: r1 − r2 = 2ib ∈


/ Z. Se
está en el caso 1, por lo que se tomarán las partes real e imaginaria de ϕ1 .

191
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

Ejemplo 11.3.2
1 1
t2 x00 + tx0 + t2 x = 0; t > 0. t0 = 0.
2 2
1 t2
En este ejemplo tenemos: α(t) = β(t) = ambas analíticas en t0 = 0 , y sus radios Rα y Rβ
2 2
son +∞.
La ecuación indicial:
1
r2 + ( − 1)r + 0 = 0,
2
es decir
1 1
r2 − r = 0 ↔ r(r − ) = 0.
2 2
Tenemos raíces r1 = 0; r2 = 1/2, entonces

1
r1 − r2 = − ∈
/ Z.
2
Existirá por lo tanto un conjunto fundamental de la forma


X ∞
X
ϕ1 (t) = t0 cn tn ; ϕ2 (t) = t1/2 dn tn ; t ∈]0, ∞[.
n=0 n=0

Vamos a calcular ϕ2 (t)


∞ ∞  
X X 1
ϕ2 (t) = dn tn+1/2 ; ϕ02 (t) = n+ dn tn−1/2 ;
n=0 n=0
2

∞   
X 1 1
ϕ002 (t) = n+ n− dn tn−3/2 ,
n=0
2 2

válido para t > 0.


Nota: Ahora no se pierden términos al derivar, todas las derivadas empiezan en n = 0.
Reemplazando en la ecuación obtenemos:

∞    ∞    ∞  
X 1 1 n+1/2
X 1 1 n+1/2
X 1
n+ n− dn t + n+ dn t + dn tn+5/2 = 0.
n=0
2 2 n=0
2 2 n=0
2

Para ordenar los términos e identicar los coecientes debemos ordenar los monomios.

Para las dos primeras sumas hacemos:

m = n,
∞    ∞   
X 1 1 n+1/2
X 1 1
n+ n− dn t = m+ m− dm tm+1/2 .
n=0
2 2 m=0
2 2
 X∞    X∞  
1 1 1 1
n+ dn tn+1/2 = m+ dm tm+1/2 .
2 n=0 2 2 m=0 2

Para la última serie hacemos m=n+2


 X∞  X∞
1 1
dn tn+5/2 = dm−2 tm+1/2 .
2 n=0 2 m=2

192
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

Sustituimos y obtenemos:

∞     X∞    X∞
X 1 1 1 1 1
m+ m− dm tm+1/2 + m+ dm tm+1/2 + dm−2 tm+1/2 = 0.
m=0
2 2 2 m=0 2 2 m=2

Las dos primeras series inician en m = 0; así que evaluamos m=0 y m=1 en ambas para que
todas inicien en m = 2. Obtenemos:
 
1 −1 1 1 1 1
• × × d0 + × × d0 = 0 (m = 0), entonces d0 − + = 0 por lo tanto no hay
2 2 2 2 4 4
condición sobre d0 .
 
3 1 3 3 3
• × × d1 + × d1 = 0 (m = 1), entonces d1 + = 0 → d1 = 0.
2 2 2 4 2
∞      !
X 1 1 1 1 1
m+ m− dm + m+ dm + dm−2 tm+1/2 = 0.
m=2
2 2 2 2 2
Entonces:

    !
1 1 1 1 1
m+ m− + m+ dm + dm−2 = 0,
2 2 2 2 2
  !
1 1 1 1
m+ m− + dm + dm−2 = 0,
2 2 2 2
 
1 1
m+ m dm + dm−2 = 0.
2 2

Ley de Recurrencia a 2 términos

1
dm−2
dm = − 2  ; m ≥ 2,
1
m+ m
2

dm−2
dm = − ; m ≥ 2.
2(m + 1/2)m
d1 = 0 → d3 = d5 = . . . = 0 ; c2p+1 = 0 p ≥ 0.
d0
d2 = − ;
2 × 2 × (2 + 1/2)
d2 d0 d0
d4 = − = 2 = 4 .
2 × 4 × (4 + 1/2) 2 × 4 × 2 × (4 + 1/2)(2 + 1/2) 2 × 2 × 1 × (4 + 1/2)(2 + 1/2)
En general:
(−1)p d0
d2p =    .
22p p! 2p + 1/2 2(p − 1) + 1/2 . . . 4 + 1/2 2 + 1/2
Finalmente


X
ϕ2 (t) = t1/2 dn tn ,
n=0

X (−1)p d0 t2p+1/2
= d0 t1/2 +    .
p=1
22p p! 2p + 1/2 2(p − 1) + 1/2 . . . 4 + 1/2 2 + 1/2

193
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

En este tipo de cálculos siempre ha de aparecer un parámetro sin determinar (en nuestro caso d0 ).
Si ϕ2 (t) cumple los requisitos, también lo hace kϕ2 (t); k 6= 0.
P∞
El cálculo de ϕ1 (t) es más sencillo pues ϕ1 (t) = n=0 cn tn es analítica en t0 = 0. Se obtiene:

1
c0 = 0 y cn = − ; n 6= 2.
2n(n − 1/2)cn−2

r1 − r2 ∈ Z
Podemos ordenar r1 y r2 de modo que se cumpla:

r1 = r2 + m ; m ≥ 0 m ∈ Z.

Existe un sistema fundamental de la forma;

ϕ1 (t) = (t − t0 )r1 h1 (t) ; ϕ2 (t) = (t − t0 )r2 h2 (t) + γϕ1 (t) ln(t − t0 ),

donde h1 y h2 son analíticas en t0 con un radio de convergencia

R1 , R2 ≥ mı́n(Rα , Rβ ).

La constante γ∈R ha de ser determinada junto con h1 y h2 .

Ejemplo 11.3.3
tx00 + tx0 − x = 0.
Reescribimos esta ecuación en la forma:

t2 x00 + t2 x0 − tx = 0, (multiplicado por t)

t2 x00 + tα(t)x0 + β(t)x = 0.


con α(t) = t; β(t) = −t. (Ambas analíticas en t0 = 0)
La ecuación indicial:
r2 + (α(0) − 1)r + β(0) = 0
Así:
r2 + (0 − 1)r + 0 ↔ r(r − 1) = 0
Por lo tanto r1 = 1; r2 = 0. r1 − r2 ∈ Z.
Hay una solución no trivial de la forma


X
ϕ1 (t) = t cn tn .
n=0

Haciendo los cálculos se demuestra que podemos elegir

ϕ1 (t) = t.

X
Buscamos ahora ϕ2 (t); ϕ2 (t) = dn tn + γt ln t, t ∈]0, ∞[.
n=0
Derivando,

X
ϕ02 (t) = ndn tn−1 + γ + γ ln t,
n=1

X γ
ϕ002 (t) = n(n − 1)dn tn−2 + .
n=2
t

194
11.3. SINGULARIDADES DE LA ECUACIÓN LINEAL

Sustituyendo:


X ∞
X ∞
X
n(n − 1)dn tn + γt + ndn tn+1 + γt2 + γt2 ln t − dn tn+1 − γt2 ln t = 0.
n=2 n=1 n=0

Reordenando las series (n → m; n + 1 → m; n + 1 → m)



X ∞
X ∞
X
m(m − 1)dm tm + γt + (m − 1)dm−1 tm + γt2 − dm−1 tm = 0.
m=2 m=2 m=1

Así:

m=1; −d0 + γ = 0.
γ
m=2; 2(1)d2 + (1)d1 − d1 + γ = 0 −→ d2 = − .
2
(m − 2)dm−1
m≥3; dm = − .
m(m − 1)
γ
γ = d0 ; d2 = − . Nos queda ahora una recurrencia a un término que se puede calcular.
2
¾Qué pasa con d1 ?

Podemos dar a d1 cualquier valor (incluido d1 = 0) debido a que al variar d1 sólo estamos escri-
biendo otra solución de la ecuación. Para jar ideas, llamaremos ϕ2 (t) a la solución que se obtiene
con d0 = 1; d1 = 0. Entonces:
ϕ2 (t) + cϕ1 (t) c ∈ R.
Es otra solución que cumple con los mismos requisitos de ϕ2 .

ϕ2 (t) = d0 + d1 t + d2 t2 + d3 t3 + . . . ,
   
−1 2 1 3 −1
=1+ t + t + + ...,
2 3×2×2 4×3×3×2
1 1 1
= 1 − t + t3 − t4 + . . . .
2 12 72
Por lo tanto, la solución es

1 1 1
1 + ct − t + t3 − t4 + . . . c ∈ R.
2 12 72

11.3.4. Puntos Regulares - Singulares


Dada una ecuación de la forma
P (t)x00 + Q(t)x0 + R(t)x = 0,
con P (t), Q(t) y R(t) analíticas
P∞ en t0 , se dirá que t0 es un punto regular si P (t0 ) 6= 0. En este caso las
soluciones analíticas x(t) = n=0 cn (t − t0 )n existen.
Si por el contrario P (t0 ) = 0 se dirá que t0 es un punto singular. Un punto singular t0 se dirá que es un
punto singular - regular si los cocientes

Q(t) R(t)
α(t) = (t − t0 ) , β(t) = (t − t0 )2 .
P (t) P (t)
Son analíticas en t0
En el formato anterior tendríamos

195
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

P (t)x00 + Q(t)x0 + R(t)x = 0.


Q(t) 0 R(t)
x00 + x + x = 0.
P (t) P (t)
Con P (t) 6= 0 para t 6= t0 y P (t0 ) = 0.
2
Multiplicamos por (t − t0 ) y dividimos por P (t)

Q(t) 0 R(t)
(t − t0 )2 x00 + (t − t0 ) (t − t0 ) x + (t − t0 )2 x = 0.
P (t) P (t)
| {z } | {z }
α(t) β(t)

Llegamos así a una nueva ecuación de la forma

(t − t0 )2 x00 + (t − t0 )α(t)x0 + β(t)x = 0.

En los puntos singulares - regulares se puede obtener un desarrollo en serie de Frobenius de las soluciones.
Por último, t0 es un punto singular - irregular (½En cualquier otro caso!).

Para puntos singular - irregular no disponemos de teoría sobre desarrillos de soluciones en t0 .

11.4. Desarrollos en Innito


En algunas ocasiones es necesario obtener un desarrollo en serie de las soluciones centradas en ∞.
No hay que desarrollar una nueva teoría, basta con hacer un cambio de variable apropiado.
1
Sea t= así
s
∞ → 0
Innito en t → Cero en s.

Ejemplo 11.4.1 La ecuación con coecientes constantes en t0 =∞

x00 + ax0 + bx = 0; a, b ∈ R, (11.4)

1 
t= ; x = x(s) ↔ x = x t(s) ,
s
 
dx dx dt dx dx 1
= × ↔ = − 2 .
ds dt ds ds dt s
2
d2 x d2 x dt dx d2 t
 
= + ,
ds2 dt2 ds dt ds2
2
d2 x d2 x
  
1 dx 2
= − + .
ds2 dt2 s2 dt s3
Por lo tanto tenemos que
dx dx
= −s2 . (11.5)
dt ds
d2 x 2
4d x dx
= s + 2s3 . (11.6)
dt2 ds2 ds

196
11.4. DESARROLLOS EN INFINITO

Reemplazando en la ecuación (11.4):

d2 x dx dx
s4 2
+ 2s3 − as2 + bx = 0,
ds ds ds
d2 x dx
s4 + (2s3 − as2 ) + bx = 0.
ds2 ds
Entonces ∞ es un punto singular irregular a menos que a = b = 0.

Ejemplo 11.4.2 La ecuación de Euler en t0 =∞

t2 x00 + atx0 + bx = 0.
1
Si t= se obtiene:
s
d2 x
   
1 3 dx a 2 dx
s4 2 + 2s + −s + bx = 0,
s2 ds ds s ds
d2 x dx
s2 + (2s − as) + bx = 0.
ds2 ds
Entonces ∞ es un punton singular - regular; note que α(s) = 2 − a; analítica en s0 = 0 y β(s) = b ≡ cte;
analítica en s0 = 0.

197
CAPÍTULO 11. RESOLUCIÓN DE ECUACIONES POR SERIES DE POTENCIAS,
PUNTOS ORDINARIOS Y SINGULARIDADES

198
Capítulo 12

Sistemas No Lineales
En esta sección del curso vamos a estudiar sistemas de ecuaciones diferenciales en el plano x, y de la
forma
x0 = f (x, y)

(12.1)
y 0 = g(x, y)

En donde asumiremos f, g : Ω ⊂ R2 → R funciones continuas con primeras derivadas parciales continuas.


Es evidente que el sistema (12.1) se puede escribir en la forma

X 0 = F (X); (12.2)

con    
x f (x, y)
X= ; F (X) = ; F : Ω ⊂ R 2 → R2
y g(x, y)

La ecuación (12.2) nos recuerda las ecuaciones autónomas en R, dadas por

x0 = f (x), (12.3)

con f :]a, b[→ R con f ∈ c1 (]a, b[). Es más (12.2) es en sí una ecuación autónoma en Ω ⊂ R2 .
Una de las primeras preguntas que nos hicimos para las ecuaciones autónomas (12.3) fue por la existencia
de soluciones constantes (soluciones triviales) x(t) = x∗ con x∗ una constante. Hemos visto que x∗ es una
solución constante de (12.3) si y solo si
f (x∗ ) = 0.

Luego, una solución de equilibrio para (12.3) será y es un cero de la función f.

199
CAPÍTULO 12. SISTEMAS NO LINEALES

y = f (x)

x0 x1 x2

Figura 12.1: f (x0 ) = f (x1 ) = f (x2 ) = 0; Las soluciones de equilibrio son x0 (t) = x0 ; x1 (t) = x1 ;
x2 (t) = x2 .

Esta misma situación se translada al caso de los sitemas autónomos en el plano del tipo (12.1). Así pues
diremos que
   
x(t) x
= ∗
y(t) y∗

con x∗ , y∗ constantes, será una solución de equilibrio de (12.1) si y solo si


f (x∗ , y∗ ) = 0
g(x∗ , y∗ ) = 0

De manera que si dibujamos en el plano x, y las curvas de nivel

f (x, y) = 0; g(x, y) = 0,

y estudiamos los puntos donde dichas curvas se cortan tendremos que cada corte (o quizas innitos cortes)
son puntos de equilibrio del sistema (12.1).

200
y
f (x, y) = 0

p0
p1

p2

g(x, y) = 0


Figura 12.2: Tres puntos de corte
 p0 , P1 , p2que implican tres soluciones de equilibrio x(t), y(t) =
(x0 , y0 ); x(t), y(t) = (x1 , y1 ); x(t), y(t) = (x2 , y2 ).

Ejemplo 12.0.3 Considere el siguiente modelo de competencia entre especies; x e y denotan las pobla-
ciones de dos especies que compiten por los recursos de un medio (habitat). Un crecimiento de una especie
tiene un efecto negativo en el crecimiento de la otra especie.
 x
x0 = 2x 1 − − xy
2 (12.4)
 y
y 0 = 3y 1 − − 2xy
3
Note que el modelo (12.4) está formado de una corrección de un modelo logístico sobre cada población
 x  y
x0 = 2x 1 − y 0 = 3y 1 − .
2 3
Dicha corrección lo maniestan los factoes −xy y −2xy respectivamente, los cuales se interpretan como
las interacciones promedio de la especie x con la especie y. El signo negativo muestra que es negativa
(dañina) la interacción de una especie con otra (siendo peor esta interacción para la especie y ).
Tenemos entonces que los equilibrios están dados por:

Si
 x
f (x, y) = 2x 1 − − xy,
2
 y
g(x, y) = 3y 1 − − 2xy.
3
Entonces
f (x, y) = g(x, y) = 0 si y solo si
h  x i
x 2 1− − y = 0,
2
h  y i
y 3 1− − 2x = 0.
3
  y 
Entonces si x = 0; y 3 1 − =0
3 
y=0
y=3

201
CAPÍTULO 12. SISTEMAS NO LINEALES

Obtenemos dos equilibrios:


p0 (0, 0); p1 (0, 3)
  x 
si y = 0; x 2 1 − =0
2 
x=0
x=2

Obtenemos un nuevo equilibrio:


p2 (2, 0)

Si x 6= 0; y 6= 0 entonces:
2 1− x −y =0
  
2
3 1 − y − 2x = 0

3
Equivale a tener:

−x − y = −2
−2x − y = −3

Este sistema tiene una única solución dada por p3 (1, 1). Concluimos entonces la existencia de cuatro
equilibrios para el sistema (12.4) dados por:

p0 (0, 0); p1 (0, 3); p2 (2, 0); p3 (1, 1)

p2

p3

p1
p0

Figura 12.3: Linea negra: f (x, y) = 0. Linea punteada: g(x, y) = 0.

Ejemplo 12.0.4 Considere el sistema dinámico

x0 = ax + by − x(x2 + y 2 )
y 0 = cx + dy − y(x2 + y 2 )

202
12.1. ESTABILIDAD DE LOS EQUILIBRIOS VÍA EL MÉTODO DE LINEALIZACIÓN

el cual surge en el problema de sincronización de un oscilador de válvula.

Este sistema es considerado como un modelo fundamental en teoría de soncronización. Para la congu-
racipon de parámetros a = 2; b = 1/2; c = 1/2; d = 1 tenemos las siguientes curvas:

1
f (x, y) = 0 si y solo si 2x + y − x(x2 + y 2 ) = 0.
2
x
g(x, y) = 0 si y solo si + y − y(x2 + y 2 ) = 0.
2
Los equilibrios son cinco puntos de corte entre ellas

p3
p3
p2

p0
p1

Figura 12.4: Linea negra: f (x, y) = 0. Linea punteada: g(x, y) = 0.

12.1. Estabilidad de los Equilibrios Vía el Método de Linealiza-


ción
En los sistemas autónomos escalares x0 = f (x), f :]a, b[→ R continua, la estabilidad lineal de la solución
de equlibrio x(t) = x∗ (f (x∗ ) = 0) se determinó bajo los siguientes teoremas

Teorema 12.1 Sea x∗ un punto de equilibrio de x0 = f (x) con f : R → R localmente lipschitziana .


1

Suponga que ∃ > 0 tal que 


f (x) > 0 ∀x ∈]x∗ − , x∗ [
y
f (x) < 0 ∀x ∈]x∗ , x∗ + [

1
Dado un punto x0 de un abierto U ⊂R existe una constante L0 > 0 y B (x0 ) ⊂ U tal que |f (x) − f (y)| ≤
L0 |x − y| ∀x, y ∈ B (x0 )

203
CAPÍTULO 12. SISTEMAS NO LINEALES

Entonces la solución de equilibrio x(t) = x∗ es asintóticamente estable

Note que necesitamos un cambio de signo de + a - para tener estabilidad asintótica. Si f 0 (x∗ ) existe
0
entonces: si f ( (x∗ ) < 0 −→ x(t) = x∗ es asintóticamente estable (x∗ es sumidero).

Teorema 12.2 Sea x∗ un punto de equilibrio de x0 = f (x) con f : R → R localmente lipschitziana.


Suponga que existe  > 0 tal que 
f (x) < 0 ∀x ∈]x∗ − , x∗ [
ó
f (x) > 0 ∀x ∈]x∗ , x∗ + [

Entonces la solución de equilibrio x(t) = x∗ es inestable

De nuevo, note que necesitamos un cambio de signo de - a + para tener inestabilidad. Si f 0 (x∗ ) existe
0
entonces: si f (x∗ ) > 0 −→ x(t) = x∗ es inestable

Estos dos teoremas constituyen (en el caso en el f 0 (x∗ ) exista y tenga signo) el método de linealización
para el estudio de la estabilidad del equilibrio. Vamos a generalizar esta idea para sistemas del tipo (12.1).

12.2. Método de linealización


(Segundo método de Lyapuno, Método Indirecto)

Considere un equilibrio p(x0 , y0 ) del sistema (12.1). Con el n de estudiar el comportamiento del sistema
en una pequeña vecindad ϑ del punto p(x0 , y0 ) se introduce el siguiente cambio de variable:

u = x − x0 x = u + x0
⇐⇒
v = y − y0 y = v + y0

Note que;

(x, y) (u, v)

(x0 , y0 ) (0, 0)

ϑ ϑ0

Figura 12.5: El sistema se translada para que el punto de equilibrio se pueda trabajar como el
punto (0, 0)

Es claro que se cambia la vecindad ϑ del punto p(x0 , y0 ) a una vecindad ϑ0 del punto (0, 0) en el plano
u, v .

Sea r(t) = x(t), y(t) una curva en ϑ solución del sistema (12.1); claramente p(x0 , y0 ) ∈
/ r(t) ∀t ∈ I ⊂ R
pues el Teorema de existencia y unicidad de soluciones lo impide
 0 
x (t)
r0 (t) =
y 0 (t)

204
12.2. MÉTODO DE LINEALIZACIÓN

r(t0 )

p(x0 , y0 )

r(t)

Note que
d
x0 (t) u(t) + x0 = u0 (t)

=
dt
d
y 0 (t) v(t) + y0 = v 0 (t)

=
dt

Tenemos una curva r̂(t) en ϑ0 en el plano u, v


 0 
0 u (t)
r̂ (t) = 0
u (t)

r̂(t0 )

(0, 0)

r̂(t)

Dado que

x0 = f (x, y)

y 0 = g(x, y)

Entonces:
u0 = f (u + x0 , v + y0 )

Nuevo sistema en el plano u, v −→ (12.5)
v 0 = g(u + x0 , v + y0 )

Note que el sistema (12.5) tiene a (0, 0) como equilibrio. En efecto:

Si u=v=0 entonces
f (0 + x0 , 0 + y0 ) = f (x0 , y0 ) = 0
g(0 + x0 , 0 + y0 ) = g(x0 , y0 ) = 0

205
CAPÍTULO 12. SISTEMAS NO LINEALES

Ahora hacemos una aproximación lineal del campo vectorial

 
f (u + x0 , v + y0 )
F (u, v) =
g(u + x0 , v + y0 )

por medio de la expasión de Taylor, en (0, 0):


 
u
F(u, v) = F (0, 0) + DF (0, 0) + ...
v
∂f ∂f
 
(u + x0 , v + y0 ) (u + x0 , v + y0 )
 
 ∂x ∂y u
=  ∂g + ...

∂g 
v
(u + x0 , v + y0 ) (u + x0 , v + y0 )

∂x ∂y (0,0)
∂f ∂f
 
(x0 , y0 ) (x0 , y0 )  
 u
=  ∂x ∂y
 v + ...

∂g ∂g
(x0 , y0 ) (x0 , y0 )
∂x ∂y
∂f ∂f
 
(x0 , y0 )u + (x0 , y0 )v + . . .
=  ∂x ∂y
 
∂g ∂g 
(x0 , y0 )u + (x0 , y0 )v + . . .
∂x ∂y

Tenemos un sistema linealizado en el equilibrio (0, 0) en el plano u, v :

 0  
u u
=A
v v

donde
∂f ∂f
 
(x , y ) (x0 , y0 )
 ∂x 0 0 ∂y
A =  ∂g

∂g 
(x0 , y0 ) (x0 , y0 )
∂x ∂y

A ≡ D(x,y) F (x, y) (x0 ,y0 )

De esta forma:
 0    
u u u
= F(u, v) = D(x,y) F (x0 , y0 ) · +ϕ
v v v

En donde    
u 0
lı́m ϕ =
(u,v)→(0,0) v 0

Denición 12.2.1 Considere el sistema no lineal (12.1) y un punto de equilibrio p(x0 , y0 ) de dicho
sistema. Se dice que p(x0 , y0 ) es un punto de equilibrio simple si el sistema linealizado Y 0 = AY con
A = DF (x0 , y0 ) no tiene valores propios cero; es decir 0∈
/ σ(A)

Ejemplo 12.2.2 Considere el sistema no lineal

x0 = x + 2y + x2
y 0 = 2x + y + xy

206
12.2. MÉTODO DE LINEALIZACIÓN

Claramente p(0, 0) es un equilibrio de este sistema. Note que el sistema linealizado en este punto está
dado por:  
1 2
Y 0 = AY; A=
2 1
2
 
x + 2y + x
F (x, y) =
2x + y + xy
 
1 + 2x 2
D(x,y) F (x, y) = A = D(x,y) F (0, 0)
2+y 1+x

Note que σ(A) = {−1, 3} por lo que 0∈


/ σ(A). Se concluye que p(0, 0) es un punto de equilibrio simple

Ejemplo 12.2.3 Considere el sistema no lineal

x0 = −x3
y 0 = −y + y 2

Claramente p(0, 0) y q(0, 1) son equilibrios de este sistema (los únicos equilibrios). Ahora bien, el sistema
linealizado asociado al equilibrio p y q respectivamente es:
 
0 0 0
Y = AY; A=
0 −1
 
0 0
Y 0 = BY; B=
0 1

Note que ambas matrices cumplen: σ(A) = {0, −1}; σ(B) = {0, 1}.

0 ∈ σ(A); 0 ∈ σ(B)

Por lo que ambos puntos son equilibrios no simples

Denición 12.2.4 (Punto de Equilibrio Hiperbólico)

Un punto de equilibrio simple del sistema no lineal (12.1) se dice que es hiperbólico si la matriz

A = D(x,y) F (x0 , y0 )

en su sistema linealizado asociado no tiene valores propios con parte real cero; es decir; si λ ∈ σ(A)
entonces Re(λ) 6= 0

Ejemplo 12.2.5 Considere el sistema no lineal

x0 = y − (x2 + y 2 )x
y 0 = −x − (x2 + y 2 )y

El origen p(0, 0) es un punto de equilibrio de este sistema y el sistema linealizado asociado a este equilibrio
está dado por  
0 0 1
Y = AY; A=
−1 0

Note que σ(A) = {±i}. Por lo tanto (0, 0) es un equilibrio simple no hiperbólico

El siguiente teorema constituye la razón fundamental del porque el método de linealización nos ayuda
a analizar los sitemas no lineales cerca de un punto de equilibrio por medio de un apropiado sistema
linealizado (sistema que será lineal) asociado a dicho equilibrio

207
CAPÍTULO 12. SISTEMAS NO LINEALES

Teorema 12.3 (Teorema de linealización de Hartman y Grobman en R2 )


Considere el sistema dinámico no lineal

x0 = f (x, y)
(12.6)
y 0 = g(x, y)

Suponga que (x0 , y0 ) es un punto de equilibrio simple e hiperbólico de (12.6). Entonces existe una vecindad
ϑ de (x0 , y0 ) para la cual el diagrama de fases de (12.6) y el diagrama de fases del sistema linealizado en
(x0 , y0 ) dado por
 
0 u
Y = AY; Y = ; A = D(x,y) F (x0 , y0 ) (12.7)
v

Con  
f (x, y)
u = x − x0 ; v = y − y0 ; F (x, y) =
g(x, y)

en una vecindad ϑ̂ del origen (0, 0) en el plano u, v son equivalentes. Es decir, el diagrama de fases de
(12.6) y el diagrama de fases de (12.7) en los equilibrios (x0 , y0 ) y (0, 0) respectivamente son el mismo

Demostración. Hartman (1964). Aunque la demostración no la haremos en estas breves notas, el teorema
es simple de entender y aplicar. Simplemente dice que siempre que los valores propios de la matriz
A = D(x,y) F (x0 , y0 ) no esten en el eje imaginario (incluyendo el origen) del plano complejo (ver gura
12.6) es decir: Siempre que Re(λi ) 6= 0 ∀i = 1, 2; λi ∈ σ(A). Entonces el sistema (12.6) y (12.7) son
cualitativamente equivalentes: nodos, puntos silla o espirales en (12.6) siguen siendo nodos, puntos silla o
espirales en (12.7). Más aún, se puede demostrar que en una pequeña vecindad de un punto de equilibrio
hiperbólico el sistema dinámico es estructuralmente estable: Es robusto bajo pequeñas perturbaciones.

(a) λ1 6= λ2 . • cuando λ1 < (b) λ1 = λ2 . • cuando λ > 0. (c) • y ∗ cuando Im(λ) 6= 0


0 < λ2 . × cuando 0 < λ1 < ∗ cuando 0<λ
λ2 . ∗ cuando λ1 < λ2 < 0

Figura 12.6: Valores propios de puntos no hiperbólicos

Note que en el caso planar tenemos control sobre la posición de los valores propios de la matriz A.
En efecto:
∂f ∂f
 
(x , y ) (x0 , y0 )
 ∂x 0 0 ∂y
A =  ∂g

∂g 
(x0 , y0 ) (x0 , y0 )
∂x ∂y

Utilizamos una notación más cómoda:

∂f ∂f
fx (x0 , y0 ) = (x0 , y0 ); fy (x0 , y0 ) = (x0 , y0 )
∂x ∂y

208
12.2. MÉTODO DE LINEALIZACIÓN

Lo mismo para la función g. Así:

τ ≡ traza A = fx (x0 , y0 ) + gy (x0 , y0 )


d ≡ det A = fx (x0 , y0 ) · gy (x0 , y0 ) − fy (x0 , y0 ) · gx (x0 , y0 )
∆ ≡ discriminanteA = τ 2 − 4d

Los valores propios son:



τ± ∆ τ = λ1 + λ2
λ1,2 =
2 d = λ1 · λ2

Según el discriminante tenemos los siguintes casos dependiendo si el punto de equilibrio es hiperbólico o
no hiperbólico:

Punto de Equilibrio Hiperbólico: (Reλ 6= 0)


Caso 1 ∆>0
1. λ1 , λ2 ∈ R Signos distintos λ1 6= λ2
2. λ1 , λ2 ∈ R Signos iguales λ1 6= λ2

Re(λ)

Nodo Nodo
Estable Inestable

Im(λ)

Punto de Silla

Figura 12.7: Ubicación en el plano complejo de los valores propios para el caso 1. En el lado
izquierdo se muestra cuando λ1 6= λ2 con signos distintos y en el lado derecho cuando λ1 6= λ2
con signos iguales.

Caso 2 ∆=0
τ
λ1 = λ2 = λ∗ = ≷0
2

Re(λ)

Im(λ)

Nodo Nodo
Impropio Estable Impropio Inestable

Figura 12.8: Ubicación en el plano complejo del valor propio del caso 2

Caso 3 ∆<0
λ = α ± iβ con α 6= 0; β 6= 0

209
CAPÍTULO 12. SISTEMAS NO LINEALES

Re(λ)

Im(λ)

Espiral Espiral
Estable Inestable

Figura 12.9: Ubicación en el plano complejo de los valores propios del caso 3

Punto de Equilibrio no Hiperbólico: (Reλ = 0)


Caso 1 ∆>0
λ1 = 0; λ2 6= 0 −→ d = 0

Figura 12.10: Ubicación en el plano complejo de los valores propios del caso 1. Se tiene en los
dos casos un equilibrio degenerado simple

Caso 2 ∆=0
λ1 = λ2 = 0 −→ τ = 0; d = 0

Figura 12.11: Ubicación en el plano complejo de los valores propios del caso 1. Se tiene un
equilibrio degenerado doble

Caso 3 ∆<0
λ = ±iβ; β > 0 τ = 0 < d

210
12.2. MÉTODO DE LINEALIZACIÓN

Figura 12.12: Ubicación en el plano complejo de los valores propios del caso 1. Se tiene un centro

Por lo tanto, el teorema de linealización de Hartman y Grobman no aplica cuando algún valor propio tiene
parte real cero (Re(λ) = 0, para algún λ ∈ σ(A)) En este caso el sistema lineal es estructuralmente inestable
y el sistema linealizado es inapropiado para estudiar el correspondiente diagrama de fase, es decir la di-
námica del sistema no lineal propiamente.

FIGURA!!
En la gura - vemos esquemáticamente porque falla el análisis estructural del sistema no lineal por el
método de linealización cuando tenemos un punto de equilibrio no hiperbólico. En la gura - tenemos
un centro

Una pequeña perturbación de los valores propios puede causar que ellos dejen el eje imaginario y se
muevan a la derecha convirtiendo el centro en un espiral inestable o bien que se muevan a la izquierda
convirtiendo el centro en una espiral estable. Por lo tanto se pierde la estabilidad estructural. Se dice
entonces que el sistema no lineal no es estructuralmente estable.

FIGURA!!
En la gura derecha de - tenemos un centro para el cual sus valores propios complejos colisionan en
λ = 0; es decir β & 0 luego en el punto de colisión que sería λ1,2 = 0 (α = 0; β = 0) se dividen en
dos valores propios de signo contrario, obteniendo así un punto de silla.

FIGURA!!
Luego si β=0
FIGURA!!
El plano queda estacionario (inmóvil), por lo que si α≷0 se tiene un punto de equilibrio tipo silla

FIGURA!!
Ejemplo 12.2.6 Considere el siguiente sistema no lineal

x0 = −y + r2 x,
y 0 = x + r2 y,

con r 2 = x2 + y 2 . Vamos a suponer que el parámetro  toma dos valores posibles =1 y  = −1.
Tenemos pues dos sistemas
x0 = −y + (x2 + y 2 )x

(Sistema I)
y0 = x + (x2 + y 2 )y

x0 = −y − (x2 + y 2 )x

(Sistema II)
y0 = x − (x2 + y 2 )y
Note que para ambos sistemas el origen (0, 0) es un punto de equilibrio y el sistema linealizado asociado
en (0, 0) para ambos sistemas es el mismo, dado por
 
0 0 −1
y = Ay ; A=
1 0

211
CAPÍTULO 12. SISTEMAS NO LINEALES

λ1 = 3 λ2 = 1 λ1 = −3 λ2 = −1

punto de silla

λ1 = −1 λ2 = 1

λ1 = λ2 = 1 λ1 = λ2 = −1

Figura 12.13: Ubicación en el plano complejo del valor propio del caso 3

212
12.2. MÉTODO DE LINEALIZACIÓN

λ1,2 = ±i y así tenemos un centro


Los valores propios del sistema linealizado en el origen son por lo tanto
por lo que no podemos utilizar el teorema de linealización de Hartman y Grobman.

Paso a Coordenadas Polares


Hacemos el siguiente cambio de coordenadas:

x = r cos θ r 2 = x2 + y 2
y
y = r sin θ tan θ =
x

es decir:

r 2 = x2 + y 2
2rr0 = 2xx0 + 2yy 0
rr0 = x(−y ± r2 x) + y(x ± r2 y)
rr0 = −xy ± r2 x2 + yx ± r2 y 2
rr0 = r2 (x2 + y 2 )
rr0 = ±r4

y
θ = tan−1
x
1 y 0 x − x0 y
θ0 =  y 2
x2
1+
x
x2 y 0 x − x0 y
=
x2 + y 2 x2
(x ± r y)x − (−y ± r2 x)y
2
=
x2 + y 2
x ± r yx + y 2 ∓ r2 xy
2 2
=
x2 + y 2
2 2
x +y
= =1
x2 + y 2

Para el sistema I tenemos:

r0 = r3

−→ r0 > 0 El radio se expande
θ0 = 1

Para el sistema II tenemos:

r0 = −r3

−→ r0 < 0 El radio se contrae
θ0 = 1

Ejemplo 12.2.7 Considere un sistema linealizado de la forma


 
0 
y 0 = Ay ; con A=
1 0

Note que los valores propios de A dependen del parámetro ; así:



λ1,2 () = ± 

213
CAPÍTULO 12. SISTEMAS NO LINEALES


Para  < 0; λ1,2 = ±i  lo que implica tener un centro en el origen.

Para  = 0; λ1,2 = λ∗ = 0 lo que implica tener un nodo degenerado en el origen.



Para  > 0; λ1,2 = ±  lo que implica tener un punto de silla en el origen.
Figura !!

Ejemplo 12.2.8 Regresemos al modelo del competencia entre especies que presentamos en la ecuación
(12.4); x e y denotan las poblaciones de dos especies que compiten por los recursos de un medio (habitat).
Un crecimiento de una especie tiene un efecto negativo en el crecimiento de la otra especie.
 x
x0 = 2x 1 − − xy
2 (12.4)
 y
y 0 = 3y 1 − − 2xy
3

Hemos mostrado que el sistema de ecuaciones no lineales (12.4) tiene cuatro equilibrios dados por

p0 (0, 0); p1 (0, 3); p2 (2, 0) y p3 (1, 1)

Vamos a estudiar los sitemas linealizados en cada uno de los equilibrios.

Linealización del sistema en (0, 0)


El equilibrio (0, 0) no es de mucho interes biológico pues representa el caso donde ambas especies se
ectinguen. Veamos su interés matemático.

Nuestro sistema asociado (sistema lineal) será:

∂f ∂f
 
 0   (0, 0) (0, 0)
u u  ∂x ∂y
=A con A =  ∂g

v v ∂g 
(0, 0) (0, 0)
∂x ∂y
donde:
 x
f (x, y) = 2x 1 − − xy
2
 y
g(x, y) = 3y 1 − − 2xy
3
Por lo tanto :
∂f ∂f

 (x, y) = 2 − 2x − y
 (x, y) = −x
∂x ∂y (12.8)
∂g ∂g

 (x, y) = −2y (x, y) = 3 − 2y − 2x
∂x ∂y
Sustituyendo en las ecuaciones (12.8) el punto (0, 0) se obtiene:
 
2 0
A=
0 3

Nótese que la matriz A tiene los valores propios

σ(A) = {2, 3} λ1 = 2; λ2 = 3

Por lo que localmente el diagrama de fases del sistema no lineal coincide con el diagrama de fases del
sistema linealizado (alrededor del origen). Esto se debe a que (0, 0) es un punto de equilibrio hiperbólico
y podemos aplicar el teorema de Hartman y Grodman. Por lo tanto, cerca al origen el diagrama de fases
se ve como en la gura

214
12.2. MÉTODO DE LINEALIZACIÓN

FIGURA!!
Dibujamos las lineas de ujo del primer cudrante ya que x, y modelan la cantidad de individuos de una
especie respectivamente.

Linealización del sistema en (0, 3)


El equilibrio (0, 3) nos dice que en la competencia entre las especies x = x(t) en y = y(t), la especie x(t)
se extingue y la especie predominante es y(t). Siguiendo los cálculos que hicimos antes, nuestro sistema
linealizado en (0, 3) está dado por:

∂f ∂f
 
 0   (0, 3) (0, 3)
u u  ∂x ∂y
=B ; con B =  ∂g

v v ∂g 
(0, 3) (0, 3)
∂x ∂y

De las ecuaciones (12.8) se deduce:


 
−1 0
B=
−6 −3
Nótese que la matriz B tiene los valores propios

σ(B) = {−1, −3}; λ1 = −1 ; λ2 = −3

Podemos notar que los valores propios son negativos y reales, por lo que podemos aplicar el teorema de
Hartman y Grobman y armar que localmente el diagrama de fases del sistema no lineal se ve así:

FIGURA!!
Linealización del sistema en (2, 0)
El equilibrio (2, 0) nos dice que la especie predominante es x(t) y la especie que se extingue es y(t).
Nuestro sistema linealizado está dado por:

∂f ∂f
 
 0   (2, 0) (2, 0)
u u  ∂x ∂y
=D ; con D =  ∂g

v v ∂g 
(2, 0) (2, 0)
∂x ∂y

De las ecuaciones (12.8) se deduce:


 
−2 −2
D=
0 −1
Notese que la matriz D tiene los valores propios

σ(D) = {−2, −1}; λ1 = −2 ; λ2 = −1

Los valores propios son negativos y reales, por lo que podemos aplicar el teorema de Harman y Grobman
y de nuevo armar que localmente el diagrama de fases del sistema lineal se ve así:

FIGURA!!
Linealización del sistema en (1, 1)
El punto de equilibrio (1, 1) es de particular interés desde el punto de vista biológico y matemático. Su
existencia indica que es posible para las dos especies x(t) y y(t) coexistir en equlibrio, ambs especies se
aproximan a un estado de existencia común.

El sistem linealizado en (1, 1) está dado por:

∂f ∂f
 
 0   (2, 0) (2, 0)
u u  ∂x ∂y
=A ; con A =  ∂g

v v ∂g 
(2, 0) (2, 0)
∂x ∂y

215
CAPÍTULO 12. SISTEMAS NO LINEALES

De las ecuaciones (12.8) se deduce:


 
−1 −1
D=
−2 −1

Notese que la matriz D tiene los valores propios


√ √ √ √
σ(A) = {−1 + 2, −1 − 2}; λ1 = −1 + 2; λ2 = −1 − 2

Los valores propios son reales con signos contrarios λ1 > 0; λ2 < 0. Tenemos un punto de silla.

Podemos aplicar el teorema de Hartman y Grobman y armar que localmente el diagrama de fases del
sistema no lineal se ve como el diagrama de un punto de silla.

Para ser más precisos en nuestro diagrama vamos a calcular los vectores propios de nuestro sistema
asociado.
Eλ1 = {ϑ ∈ R2 : (A − λ1 I)ϑ = 0R2 } ←− Espacio propio de λ1

 √ 
− 2 −1
√ 0

(A − λ1 I)ϑ = 0R2 } ⇔
−2 − 2 0
√ √
Se deduce que: − 2ϑ1 + (−1)ϑ2 = 0 −→ ϑ = − 2ϑ1
Podemos entonces tomar el vector propio
 
1

ϑ=
− 2

Así obtenemos:  
1

Eλ1 = gen
− 2

Se comprueba que para λ2 = −1 − 2 que:

 
Eλ1 = gen √1
2

De manera que el diagrama del sistema no lineal cerca del equilibrio (1, 1) se verá así:

FIGURA !!

Cuando tenemos un equilibrio que localmente es un punto silla del sistema linelizdo asociado, aparecen
cuatro curvas que se acercan al equilibrio cuando t→∞ o cuando t → −∞; que se llaman Separatrices.

FIGURA !!
Las separatrices son curvas muy importantes pues separan las soluciones del sistema que tienen diferente
comportamiento. Las separatrices para las cuales las soluciones se acercan al punto silla (equilibrio)
cuano t → ∞ se llaman separatrices estables o bien variedad estable, mientras que aquellas para las
cuales las soluciones tienden al punto silla cuando t → −∞ se llaman separatrices inestables o bien
variedad inestable.

¾Quienes son ls separatrices en el ejemplo 12.2.8?

Si observamos el sistema linealizado en (1, 1), las separatrices del sistema lineal son:

Separatrices Estables:

 
1
Eλ2 = gen √ −→ u= 2v
2

216
12.3. ANÁLISIS CUALITATIVO DE SISTEMAS NO LINEALES

Separatrices Inestables:

 
1

Eλ1 = gen −→ u = − 2v
− 2

FIGURA !!
La expresión lineal de ls separatrices del sistema no lineal serán:


u=x−1 → x=u+1
v =y−1 → y =v+1

Separatrices Inestables: Separatrices Estables:

u x−1 u x−1
y= √ +1= √ +1 y = √ +1= √ +1
− 2 − 2 2 2
   
1 1 1 1
y = −√ x + 1 + √ y = √ x+ 1− √
2 2 2 2

Estamos listos para dibujar el diagrama de fases del sistema no lineal al reunir toda la información que
hemos obtenido de los equilibrios

FIGURA !!

12.3. Análisis Cualitativo de Sistemas no Lineales


Como hemos aprendido en las líneas anteriores, el método de linealización nos brinda información local del
comportamiento del sistema no lineal cerca de un equilibrio simple e hiperbólico (Teorema de Hartman
y Grobman). Un análisis global del comportamiento del sistema no lineal requiere ténicas más avanzadas
que está fuera del alcance de este curso. Pero vamos a estudiar una técnica culitava que permite visualizar
en muchos casos el comportamiento global de las líneas de ujo

Denición 12.3.1 (Isoclina núla)

Considere le sistema no lineal

x0 = f (x, y)
(12.9)
y 0 = g(x, y)

La isoclina nula en dirección x es el conjunto de puntos (x, y) donde

217
CAPÍTULO 12. SISTEMAS NO LINEALES

218
Índice alfabético
Ecuaciones Autónomas, 26
Ecuaciones Homogéneas, 32
Ecuaciones Separables, 29

Problema de Valor Inicial (PVI), 25

Soluciones de Equilibrio, 27

219

También podría gustarte