Universidad de Chile

Facultad de Ciencias F´ısicas y Matem´aticas
Ecuaciones Diferenciales Ordinarias
Ra´ ul Manasevich, Alfredo N´ u˜ nez
Marzo 2009
2
´
Indice
1. Introducci´on 3
1.1. Clasificaci´on de ecuaciones diferenciales. 3
1.2. Soluci´on de una EDO 5
2. EDO de primer orden 6
2.1. EDO de variables separables. 6
2.2. EDO lineales, caso escalar. 10
2.3. Algunas ecuaciones no lineales 13
2.4. Ejercicios Resueltos 16
2.5. Ejercicios Propuestos 37
3. Ecuaciones lineales de orden n 42
3.1. Propiedades generales 42
3.2. Ecuaci´on de segundo orden homog´enea 52
3.3. EDO lineal de orden n con coeficientes constantes 56
3.4. M´etodo de variaci´ on de par´ametros 64
3.5. M´etodo de los coeficientes indeterminados 72
3.6. Ejercicios Resueltos 79
3.7. Ejercicios Propuestos 101
4. Transformada de Laplace 110
4.1. Transformada Inversa 117
4.2. Propiedades operacionales 120
4.3. Aplicaciones a EDO 127
4.4. Producto de Convoluci´on 134
4.5. Transformada de Laplace de funciones peri´odicas 139
4.6. Delta de Dirac 144
4.7. Funci´on de Transferencia 150
4.8. Funcion Gama 157
4.9. Ejercicios Resueltos 159
4.10. Ejercicios Planteados 185
5. Sistemas de Ecuaciones Diferenciales 188
5.1. Introducci´on 188
5.2. Propiedades generales de sistemas 197
5.3. Matriz exponencial 214
5.4. Sistemas Lineales Planos 242
5.5. Problemas Resueltos. 248
6. Resolucion de EDO por series de potencias 276
6.1. Breve repaso de series de potencias 276
6.2. Aplicaciones a ecuaciones diferenciales 280
6.3. Caso donde existen puntos singulares. 303
6.4. Ejercicios resueltos 321
7. Aspectos cualitativos de EDO No lineales 325
3
1. Introducci´ on
Definici´on 1.1. Una ecuaci´on que contiene derivadas de una o m´as variables
dependientes con respecto a una o m´as variables independientes se llama ecuaci´on
diferencial.
En (1.1) y (1.2), y es la variable dependiente y t es la variable independiente, a, c
son par´ametros.
dy
dt
= ae
t
, (1.1)
d
2
y
dt
2
= c
dy
dt
+ ay. (1.2)
En (1.3), u es la variable dependiente, x e y son las variables independientes.

2
u
∂x
2
+

2
u
∂y
2
= 0, (1.3)
En las ecuaciones diferenciales la(s) variable(s) dependiente(s) es(son) la(s)
inc´ognita(s) del problema.
1.1. Clasificaci´on de ecuaciones diferenciales. Se mostrar´a a continuaci´ on
la clasificaci´on de las ecuaciones diferenciales de acuerdo a su tipo, a su orden y
de acuerdo a si es lineal o no lineal.
Clasificaci´on por tipo. Se dividen en Ecuaciones Diferenciales Ordinarias (EDO)
y en Ecuaciones Diferenciales Parciales o Ecuaciones en Derivadas Parciales (EDP).
(a) Ecuaciones Diferenciales Ordinarias, son aquellas que contienen derivadas de
una o m´as variables dependientes con respecto a solamente una variable indepen-
diente. Las ecuaciones diferenciales ordinarias las vamos a abreviar por EDO o
edo.
Ejemplos: los casos (1.1) y (1.2) y tambi´en (1.4)
y
(n)
+a
n−1
(t)y
n−1
+ + a
1
(t)y

+a
0
(t)y = h(t), (1.4)
donde h(t), a
0
(t), , a
n−1
(t) son funciones conocidas.
4
(b) Ecuaciones Diferenciales Parciales, son aquellas que contienen derivadas par-
ciales de una o m´as variables dependientes con respecto a dos o m´as variables
independientes.
Ejemplos. La ecuaci´on (1.3) que corresponde a la ecuaci´on de Laplace y (1.5),
(1.6) que corresponden a las ecuaciones del calor y de ondas respectivamente.
∂u
∂t
=

2
u
∂x
2
(1.5)

2
u
∂x
2


2
u
∂y
2
= 0 (1.6)
Clasificaci´on por orden. El orden de una Ecuaci´on Diferencial es el de la deri-
vada de mayor orden que aparece en esta.
Ejemplos. La edo (1.7) es de orden 3.
d
3
y
dt
3
+ 5
d
2
y
dt
2
+ 6
dy
dt
+ 7y = e
t
, (1.7)
Los ejemplos (1.3), (1.5) y (1.6) corresponden a EDPs de orden 2. Los ejemplos
(1.1), (1.2) y (1.4) corresponden a EDOs de orden 1, 2 y n respectivamente.
Consideremos a continuaci´ on la expresi´on
F(t, y, y

, , y
(n)
) = 0 (1.8)
donde F : Ω ⊂ R
n+2
−→ R y Ω es un abierto. (1.8) representa la ecuaci´on
diferencial ordinaria escalar m´as general de orden n.
Un ejemplo de una F es, para el caso de orden tres (n = 3), la funci´on (1.9),
que tiene como edo asociada a (1.10)
F(t, x
0
, x
1
, x
2
, x
3
) = a
0
x
2
0
+ a
1
x
3
1
+ a
2
log [x
2
[ + e
x
3
−h(t), (1.9)
e
y
(3)
+ a
2
log [y

[ + a
1
(y

)
3
+ a
0
y
2
= h(t), (1.10)
donde se supone que a
0
, a
1
, a
2
son constantes y h(t) es una funci´on conocida.
En lo que sigue vamos a suponer siempre la ecuaci´on est´a resuelta para la deri-
vada de mayor orden, esto significa que de (1.8) se puede despejar la derivada de
mayor orden. A la expresi´on (1.11) vamos a llamarla forma normal de la ecuaci´on
escalar m´as general de orden n.
5
y
(n)
=
˜
F(t, y, , y
(n−1)
), (1.11)
Clasificaci´on seg´ un linealidad. Un caso importante es aquel en que la funci´on
F viene dada por (1.12), con su ecuaci´on diferencial correspondiente
F(t, x
0
, , x
n
) = a
0
(t)x
0
+ a
1
(t)x
1
+a
2
(t)x
2
+ + a
n
(t)x
n
−g(t), (1.12)
a
n
(t)y
(n)
+ a
n−1
(t)y
(n−1)
+ + a
0
(t)y = g(t), (1.13)
Si a
n
(t) ,= 0, la EDO anterior se puede escribir como
y
(n)
+ ˜ a
n−1
(t)y
(n−1)
+ + ˜ a
0
(t)y = ˜ g(t) (1.14)
donde
˜ a
i
(t) =
a
i
(t)
a
n
(t)
para i = 1, , n −1, y ˜ g(t) =
g(t)
a
n
(t)
.
La ecuaci´on (1.13) o (1.14) se llama Ecuaci´on Diferencial Ordinaria Lineal de
orden n.
Una edo (de orden n) que no es lineal, esto es, que no se puede escribir en la
forma (1.13) o (1.14), la llamaremos edo (de orden n) no lineal.
Algunos ejemplos de ecuaciones no lineales son
y

= ty
1/2
,
y

+ y
2
= 0.
1.2. Soluci´on de una EDO. Comencemos analizando el caso particular de la
edo de segundo orden lineal
y

+ k
2
y = 0, (1.15)
donde k es una constante no nula.
Resolver (1.15) es encontrar funciones y(t) definidas en un cierto intervalo tales
que
y

= −k
2
y.
6
Con la experiencia de cursos anteriores sabemos que un par de funciones que
satisfacen esta propiedad son cos(kt) y sin(kt). Ambas funciones satisfacen enton-
ces (1.15) para todo t ∈ R y por lo tanto son soluciones de la ecuaci´on definida
en R.
M´as generalmente consideremos la ecuaci´on (1.8) y expliquemos lo que enten-
demos por una soluci´on de esta ecuaci´on.
Definici´on 1.2. Una soluci´on de (1.8) es una funci´on z : I −→ R, de clase
C
n
(I), tal que
F(t, z(t), z

(t), , z
(n)
(t)) = 0, ∀ t ∈ I.
Notemos que para cada t ∈ I el punto (t, z(t), , z
(n)
(t)) necesariamente debe
pertenecer al dominio Ω de definici´on de F. En esta definici´on I denota un intervalo
de los reales. Este intervalo puede no ser el m´aximo intervalo donde se puede definir
la soluci´on. Encontrar este intervalo maximal puede llegar a ser un problema dif´ıcil
en el caso no lineal.
Definici´on 1.3. El problema con condici´on inicial para la ecuaci´on (1.8) consiste
en encontrar la soluci´on de esta ecuaci´on que satisface condiciones iniciales de la
forma
y(t
0
) = c
1
, y

(t
0
) = c
2
, , y
n−1
(t
0
) = c
n
, (1.16)
donde t
0
∈ I es un punto dado y c
1
, c
n
son constantes dadas.
Esta soluci´on puede no ser ´ unica y veremos ejemplos m´as adelante.
2. EDO de primer orden
2.1. EDO de variables separables. La edo m´as simple de primer orden tiene
la forma
y

(t) = g(t)
donde g es una funci´on cont´ınua. Por integraci´ on obtenemos inmediatamente
que las soluciones de esta ecuaci´on queda dada por la expresi´on
y(t) = C +
_
g(t)dt,
donde C es una constante arbitraria.
Consideremos a continuaci´ on la edo
7
y

=
g(t)
h(y)
, (2.1)
donde g y h son funciones continuas tales que h(y) ,= 0. Esta ecuaci´on se conoce
como de ’variables separables’. Suponiendo que y = φ(t) es una soluci´on de esta
edo, se tiene que
h(φ(t))φ

(t) = g(t),
y definiendo
H(s) =
_
h(s)ds, G(t) =
_
g(t)dt,
por integraci´ on se obtiene que la soluci´on φ(t) debe satisfacer
H(φ(t)) = G(t) + C.
Inversamente, si z(t) es una funci´on diferenciable que satisface
H(z(t)) = G(t) + C
en un intervalo I, entonces al derivar,
h(z(t))z

(t) = g(t),
se tiene que z es soluci´on de (2.1) en cualquier intervalo donde h(z(t)) ,= 0.,
De este argumento queda claro que para resolver la ecuaci´on (2.1) encontramos
primero las primitivas H y G y formamos la expresi´on
H(y) = G(t) + C. (2.2)
A continuaci´ on despejamos y como funci´on de t. Si no es posible despejar, se
acostumbra llamar a (2.2) la soluci´on de impl´ıcita de (2.1). Damos a continuaci´ on
algunos ejemplos.
Ejemplo 2.1. Resuelva el problema
y

=
t
y
.
Evaluamos H y G,
H(y) =
_
ydy =
y
2
2
y G(t) =
_
tdt =
t
2
2
,
y formamos
H(y) = G(t) + C,
de donde
y
2
2
=
t
2
2
+ C.
8
Despejando
y(t) = ±(t
2
+ 2C)
1/2
.
Queda propuesto encontrar soluciones de la ecuaci´on, con sus intervalos maxi-
mal de definici´on, para distintos valores de la constante C.
Ejemplo 2.2. Resolver la ecuaci´on
y

=
y
1 + t
,
No tiene la forma de variables separables, pero se la podemos dar escribiendola
como
y

=
1
1 + t
1
y
.
Evaluando H y G se obtiene
H(y) =
_
1
y
dy, G(t) =
_
dt
1 +t
,
de donde la soluci´on se puede despejar como
y(t) = C(1 +t),
con C una constante.
De acuerdo a la definici´on 1.3 el problema con condici´on inicial para la edo
escalar de primer orden consiste en encontrar todas las soluciones del problema
y

= f(t, y)
y(t
0
) = y
0
Es decir encontrar todas aquellas soluciones que satisfacen la condici´on inicial
y(t
0
) = y
0
. El par (t
0
, y
0
) debe pertenece al dominio de definici´on de la funci´on f.
Ejemplo 2.3. Resolver el problema con condici´on inicial
y

= −
t
3
y
3
, y(−1) = 5.
Evaluando H y G obtenemos
H(y) =
_
y
3
dy =
y
4
4
G(t) = −
_
t
3
dy = −
t
4
4
,
de donde las soluciones satisfacen
y
4
+ t
4
= C.
9
Resolviendo para y.
y(t) = ±(C −t
4
)
1/4
,
y usando la condici´on inicial para calcular la constante C obtenemos que C = 626
con lo que la soluci´on pedida es
y(t) = (626 −t
4
)
1/4
.
Propuesto. ¿Cu´al es el intervalo maximal de definici´on de esta soluci´on ?
En el siguiente ejemplo queremos ilustrar la falta de unicidad de las soluciones
para un problema con condici´on inicial.
Ejemplo 2.4. Resolver
y

= ty
1/2
, y(0) = 0. (2.3)
Escribiendo la ecuaci´on como
y

=
t
y
−1/2
,
evaluando las primitivas H, G y resolviendo para y en la expresi´on resultante, se
obtiene
y(t) =
_
t
2
4
+ C
_
2
.
Usando la condici´on inicial nos da que
y(t) =
t
4
16
es una soluci´on al problema con condici´on inicial.
Notamos, sin embargo, que el problema (2.3) tiene tambi´en la soluci´on trivial
y(t) ≡ 0 para todo t ∈ R. As´ı este problema tiene por lo menos 2 soluciones.
Vamos a probar que tiene infinitas. En efecto, considere la familia de funciones
que dependen de un par´ametro a > 0,
y(t) =
_
0 [t[ < a
(t
2
−a
2
)
2
16
t ≥ a o t ≤ −a.
Esta funci´on es de clase C
1
en R y satisface
y

(t) =
_
0 [t[ < a
t(t
2
−a
2
)
4
= ty
1/2
[t[ ≥ a
10
por lo que es soluci´on del problema con condici´on inicial para cualquier valor a > 0
dado.
Se deja como ejercicio demostrar que este problema con condici´on inicial tiene
una familia de soluciones que dependen de dos parametros.
2.2. EDO lineales, caso escalar. Vimos que la edo lineal de orden n m´as
general tiene la forma
a
n
(t)y
(n)
+ a
n−1
(t)y
(n−1)
+ + a
1
(t)y

+ a
0
(t)y = g(t). (2.4)
Si g(t) ≡ 0 diremos que esta ecuaci´on es Homog´enea y No Homog´enea en caso
contrario.
Vamos a suponer de ahora en adelante la siguiente hip´otesis.
(H
1
) Las funciones coeficientes a
i
(t), i = 0, , n, y la funci´on g(t) est´an definidas
en un intervalo com´ un I, donde son continuas. Adem´as a
n
(t) ,= 0, para todo t ∈ I.
Cuando n = 1, (3.1) se llama ecuaci´on lineal de primer orden y tiene la forma
a
2
(t)y

+ a
1
(t)y = g(t).
Dividiendo por a
1
(t) (a
1
(t) ,= 0), resulta
y

+ P(t)y = f(t), (2.5)
donde P(t) =
a
1
(t)
a
2
(t)
y f(t) =
g(t)
a
2
(t)
.
Estudiemos primero la ecuaci´on homogenea
y

+ P(t)y = 0. (2.6)
Observando que
d
dt
e

P(t)dt
= P(t)e

P(t)dt
,
y multiplicando (2.6) por e

P(t)dt
, se obtiene que
d
dt
_
e

P(t)dt
y
_
= 0.
Integrando y despejando se sigue que
y
h
(t) = Ce

P(t)dt
, (2.7)
donde y
h
denota la soluci´on de la ecuaci´on (homogenea) (2.6). Notamos que esta
expresi´on nos da todas las soluciones de esta ecuaci´on por lo que la llamamos la
soluci´on general.
11
Consideremos a continuaci´ on la ecuaci´on no homog´enea
y

+ P(t)y = f(t). (2.8)
Con un procedimiento similar, esto es, multiplicando ambos lados de la ecuaci´on
por e

P(t)dt
e integrando, obtenemos que la soluci´on general de la ecuaci´on no
homogenea queda dada por
y(t) = ce

P(t)dt
+e

P(t)dt
_
f(t)e

p(t)dt
. (2.9)
La expresi´on
y
p
(t) := e

P(t)dt
_
f(t)e

P(t)dt
dt (2.10)
se llama la soluci´on particular de la ecuaci´on (2.8). Diferenciaciando se obtiene
directamente que y
p
satisface la ecuaci´on (2.8), es decir, satisface
y

p
(t) + P(t)y
p
(t) = f(t).
Se tiene entonces que la soluci´on general de la ecuaci´on no homogenea se puede
escribir como
y(t) = y
h
(t) + y
p
(t).
A continuaci´ on se presentan algunos ejemplos de ecuaciones lineales de primer
orden.
Ejemplo 2.5. Resolver
ty

(t) −4y(t) = t
5
e
t
, t ∈ (0, ∞),
Al escribirla en su forma normal queda
y

(t) −
4y(t)
t
= t
4
e
t
, t ∈ (0, ∞).
Comparando con la ecuaci´on (2.8), se observa que P(t) = −
4
t
y f(t) = t
4
e
t
.
Despu´es de algunos c´alculos se obtiene que
_
y
t
4
_

= e
t
,
e integrando
y(t) = ct
4
+t
4
e
t
,
que es la soluci´on general de la ecuaci´on.
12
Consideremos a continuaci´ on un ejemplo de un problema con condici´on inicial.
Ejemplo 2.6. Resolver el problema con condici´on inicial
t
dy
dt
+y = 2t, y(1) = 0, t ∈ (0, ∞).
En su forma normal
y

+
y
t
= 2, y(1) = 0, t ∈ (0, ∞).
Despu´es de algunos c´alculos, se obtiene que
(ty)

= 2t
e integrando
y(t) =
c
t
+ t para t > 0.
Usando la condici´on inicial, se tiene que la soluci´on pedida es
y(t) = t −
1
t
.
Consideremos a continuaci´ on un ejemplo de una la ecuaci´on diferencial que es
no lineal pero que se puede reducir a una lineal.
Ejemplo 2.7. Resolver
y

=
1
t + y
2
.
Escrita de esta manera, esta ecuaci´on es no lineal. Sin embargo, si la escribimos
como
dt
dy
−t = y
2
se convierte en una ecuaci´on lineal. Se han invertido eso si el rol de variable
dependiente con el de variable independiente. As´ı en vez de pedir y como funci´on
de t buscamos t como funci´on de y. Resolviendo, se obtiene
t = e
y
c + e
y
_
y
2
e
−y
dy.
Como
_
y
2
e
−y
dyx = −e
−y
y
2
−2e
−y
y −2e
−y
,
la soluci´on queda dada entonces por
t(y) = ce
y
−y
2
−2y −2.
13
2.3. Algunas ecuaciones no lineales. Explicaremos a continuaci´ on algunos
m´etodos para resolver ciertas ecuaciones diferenciales no lineales de primer orden.
La idea general es introducir un cambio de variables adecuado para reducir la
ecuaci´on a otra que sea conocida.
Comenzamos con un tipo de ecuaciones que tienen una cierta propiedad de
homogeneidad, lo cual se va a usar para llevarlas a una ecuaci´on conocida. Primero
un ejemplo.
Ejemplo 2.8. Consideremos la edo
y

= −
t
2
+ y
2
t
2
−ty
,
que no es lineal y tiene la forma
y

= f(t, y).
Denotando por M(t, y) := t
2
+y
2
y N(t, y) := t
2
−ty la ecuaci´on se puede escribir
como
y

= −
M(t, y)
N(t, y)
Las funciones M y N tienen la siguiente propiedad
M(st, sy) = s
2
M(t, y), N(st, sy) = s
2
N(t, y),
para cualquier s ,= 0. Esto sugiere hacer el cambio de variables y = ut, donde
u se considera una nueva variable dependiente. Reemplazando y

= u

t + u en la
ecuaci´on diferencial y despejando se obtiene
u

= −
1
t
1 + u
1 −u
,
que escrita como
u

= −
1
t
1−u
1+u
,
resulta ser de variables separable. Utilizando la notaci´on introducida para dicho
tipo de ecuaciones, se tiene despues de algunos c´alculos, que
H(u) =
_ _
1 −u
1 +u
_
du = log((1 + u)
2
) −u, y G(t) = −log[t[.
Reemplazando u =
y
t
, se obtiene finalmente que las soluciones satisfacen
(t +y)
2
= C
y
t
.
M´as generalmente, consideremos la ecuaci´on homogenea
14
y

= −
M(t, y)
N(t, y)
, (2.11)
donde M y N son funciones continuas y homogeneas de grado α , es decir satisfacen
M(st, sy) = s
α
M(t, y), N(st, sy) = s
α
N(t, y)
(note que puede ser necesario restringir los valores de s).
Haciendo el cambio de variables y = ut en la ecuaci´on (2.11), nos queda
u

t +u = −
M(t, tu)
N(t, tu)
= −
M(1, u)
N(1, u)
de donde
u

= −
u +
M(1,u)
N(1,u)
t
.
De esta forma esta ecuaci´on se puede escribir como una de variables separables
de la forma
u

= −
g(t)
h(u)
,
con
h(u) =
1
u +
M(1,u)
N(1,u)
y g(t) = −
1
t
.
Asi la ecuaci´on se ha reducido a una conocida.
A continuaci´on vamos a considerar la Ecuaci´on de Bernoulli que tiene la
forma
y

+ P(t)y = f(t)y
n
Notamos que para n = 0 y n = 1 la ecuaci´on es una lineal de primer orden. Para
resolver esta ecuaci´on la escribimos en la forma
y
−n
y

+ P(t)y
1−n
= f(t). (2.12)
Haciendo el cambio de variables u = y
1−n
, derivando esta expresi´on,
y
−n
y

=
u

1 −n
,
y reemplazando en la ecuaci´on (2.12) resulta la ecuaci´on lineal
u

+ (1 −n)P(t)u = (1 −n)f(t),
que sabemos como resolver.
15
Otra ecuaci´on no lineal de primer orden es la llamada Ecuaci´on de Ricatti
(1676-1754), que tiene la forma
y

= P(t) + Q(t)y + R(t)y
2
. (2.13)
En algunos casos esta ecuaci´on se puede resolver por m´etodos elementales. En
efecto, supongamos que se conoce una soluci´on y
1
de la ecuaci´on (2.13) y queremos
encontrar todas las otras soluciones. Para esto definamos z(t) = y(t) − y
1
(t) y
reemplacemos en (2.13), se obtiene
y

= z

+ y

1
= P(t) + Q(t)(z + y
1
) + R(t)(z
2
+ 2zy
1
+ y
2
1
),
la cual usando que y
1
es soluci´on, se simplifica a
z

−(Q(t) + 2y
1
(t)R(t))z = R(t)z
2
,
que resulta ser una ecuaci´on de Bernoulli, con n = 2, que ya sabemos como
resolver.
Ejemplo 2.9. Consideremos la ecuaci´on
y

= 6 + 5y + y
2
.
En este caso como P = 6, Q = 5, y R = 1, se tiene que una soluci´on particular
es y
1
(t) = −2. Sea y = −2 + z, entonces z satisface la ecuaci´on
z

−z = z
2
,
que como dijimos reci´en es una ecuaci´on de Bernoulli, con n = 2. Haciendo el
cambio u = z
−1
se obtiene que u satisface
u

+ u = −1
de donde
u(t) = ce
−t
−1.
Volviendo a las variables originales
z(t) =
1
ce
−t
−1
y finalmente
y(t) = −2 +z(t) = −2 +
1
ce
−t
−1
.
Notamos que haciendo c = 0 obtenemos la soluci´on y(t) = −3.
16
2.4. Ejercicios Resueltos.
Ejercicio 2.1. Considere la ecuaci´on de Clairaut:
y = ty


1
4
(y

)
2
.
Demuestre que y(t) = Ct −
1
4
C
2
es una soluci´on uniparam´etrica de esta ecuaci´on.
Encuentre cual de las siguientes funciones: y(t) = t
2
, y(t) = t
3
, y(t) = e
t
, es una
soluci´on de la ecuaci´on diferencial. Indique cual es la relaci´on geom´etrica entre
las soluciones.
Soluci´on:
Se eval´ ua la funci´on en la EDO y resulta:
ty


1
4
(y

)
2
−y = tC −
1
4
(C)
2
−tC +
1
4
(C)
2
= 0.
Por lo tanto la funci´on con par´ametro C es una soluci´on de la EDO.
Para encontrar cuales de las funciones son tambi´en soluci´on, se eval´ ua en la EDO
de manera similar:
t(t
2
)


1
4
((t
2
)

)
2
−(t
2
) = 2t
2
−t
2
−t
2
= 0.
Por lo tanto y(t) = t
2
es soluci´on.
t(t
3
)


1
4
((t
3
)

)
2
−(t
3
) = 3t
3

9
4
t
3
−t
3
=
1
4
t
3
.
Por lo tanto y(t) = t
3
no es soluci´on de la EDO.
t(e
t
)


1
4
((e
t
)

)
2
−(e
t
) = 2e
t

1
4
e
2t
−e
t
,= 0.
Por lo tanto y(t) = e
t
no es soluci´on de la EDO.
Finalmente, la relaci´on geom´etrica de las soluciones de esta EDO es que las rectas
son tangentes a la par´abola t
2
. Esto se puede obtener dibujando varias soluciones,
y luego calculando la ecuaci´on de la recta tangente a y(t) = t
2
en t =
C
2
. Sea
f(t) = at + b la recta tangente en t =
C
2
, entonces se debe cumplir que:
f
_
C
2
_
= y
_
C
2
_
, y f

_
C
2
_
= y

_
C
2
_
.
de donde se obtiene que a = −
1
4
C
2
y b = C.
En la Figura 1 se pueden ver los comandos de Maple para generar las soluciones
y sus gr´aficos.
17
Figura 1. C´odigo Maple Ejercicio 2.1
Ejercicio 2.2. Considere la EDO:
y

+ p(t)y

+ q(t)y = 0.
donde p, q : I → R son dos funciones continuas que se pide determinar bajo la
condici´on de que
y
1
(t) = sin(t
2
) e y
2
(t) = cos(t
2
).
formen una base de soluciones de esta ecuaci´on. Determine claramente los inter-
valos reales I donde este problema admite soluci´on.
Soluci´on:
Para calcular p(t) y q(t) se eval´ ua y
1
(t) y y
2
(t) en la EDO, obteni´endose el
siguiente sistema de 2 ecuaciones y 2 inc´ognitas:
18
2tp(t) cos(t
2
) + q(t) sin(t
2
) = 4t
2
sin(t
2
) −2 cos(t
2
).
−2tp(t) sin(t
2
) + q(t) cos(t
2
) = 4t
2
cos(t
2
) + 2 sin(t
2
).
Resolviendo el sistema se obtiene la respuesta: p(t) = −
1
t
, q(t) = 4t
2
. Los intervalos
donde la EDO admite soluci´on son (−∞, 0) y (0, ∞).
Ejercicio 2.3. La ecuaci´on diferencial:
dP
dt
= P(a −b ln(P)).
se utiliza en el pron´ostico de crecimiento de poblaciones. En esta ecuaci´on a > 0
y b son constantes.
(i) Encuentre la soluci´on de esta ecuaci´on, si P(0) = P
0
> 0.
(ii) Describa el comportamiento de P(t) cuando t →∞.
Soluci´on:
(i) La EDO es del tipo variables separables:
dP
dt
= P

=
1
1
P(a −b ln(P))
=
g(t)
h(P)
.
Integrando se tiene que:
G(t) =
_
t
0
dt = t.
H(P(t)) =
_
P(t)
P
0
1
P(a −b ln(P))
dP = −
1
b
ln
_
a −b ln(P(t))
a −b ln(P
0
)
_
.
H(P(t)) = G(t).
Finalmente luego de despejar, la soluci´on de la EDO es:
P(t) = e
a
b

e
−bt
b
(a −b ln(P
0
))
.
(ii) Por enunciado P
0
> 0, a > 0. Entonces hay dos casos por analizar: b < 0 y
b > 0.
En el caso que b > 0, se cumple que:
l´ım
t→∞
P(t) = l´ım
t→∞
e
a
b

e
−bt
b
(a−b ln(P
0
))
= e
a
b
.
19
En el caso que b < 0, se cumple que:
l´ım
t→∞
P(t) = l´ım
t→∞
e
a
b

e
−bt
b
(a −b ln(P
0
))
= e
a
b

(a −b ln(P
0
))
b
l´ım
t→∞
e
−bt
.
y entonces hay tres casos: (a−b ln(P
0
)) = 0, (a−b ln(P
0
)) > 0 y (a−b ln(P
0
)) < 0.
Si se cumple que (a −b ln(P
0
)) = 0:
l´ım
t→∞
P(t) = e
a
b
.
Si se cumple que (a −b ln(P
0
)) > 0:
l´ım
t→∞
P(t) = ∞.
Si se cumple que (a −b ln(P
0
)) < 0:
l´ım
t→∞
P(t) = 0.
Ejercicio 2.4. Considere el problema con condici´on inicial:
(1 + x
2
)y

+ 2xy = f(x), y(0) = 0.
donde:
f(x) =
_
x para x ∈ [0, 1)
−x para x ≥ 1
(2.14)
Encuentre una soluci´on continua, (no de clase C
1
) de este problema. Eval´ ue
y

(1
+
), y

(1

) y demuestre que y

(1
+
) −y

(1

) = −1.
Soluci´on:
Si x ∈ [0, 1):
y

1
+
2x
1 + x
2
y
1
=
x
1 + x
2
.
la cual es una EDO lineal. El factor integrante es 1 + x
2
. Al multiplicar por el
factor integrante resulta:
d((1 + x
2
)y
1
)
dx
= x,
(1 + x
2
)y
1
=
x
2
2
+ c
1
,
20
y
1
(x) =
x
2
2(1 + x
2
)
+
c
1
1 + x
2
.
Esta soluci´on es valida en x ∈ [0, 1), por lo que se puede aplicar la condici´on inicial
y
1
(0) = 0, resultando c
1
= 0, y por lo tanto:
y
1
(x) =
x
2
2(1 + x
2
)
.
Si x ∈ [1, ∞):
y

2
+
2x
1 + x
2
y
2
=
−x
1 + x
2
.
La cual es una EDO lineal. El factor integrante es 1 + x
2
. Al multiplicar por el
factor integrante resulta:
d((1 + x
2
)y
2
)
dx
= −x,
(1 +x
2
)y
2
=
−x
2
2
+ c
2
,
y
2
(x) =
−x
2
2(1 + x
2
)
+
c
2
1 + x
2
.
Esta soluci´on es valida en x ∈ [1, ∞). c
2
se obtiene aplicando la condici´on de
continuidad de las soluciones: y
1
(1) = y
2
(1), resultando c
2
= 1, y por lo tanto:
y
2
(x) =
−x
2
+ 2
2(1 + x
2
)
.
En res´ umen, la soluci´on definida por tramos es:
y(x) =
_
¸
¸
_
¸
¸
_
x
2
2(1 + x
2
)
para x ∈ [0, 1)
−x
2
+ 2
2(1 + x
2
)
para x ≥ 1
De la EDO se obtiene que:
y

(x) =
f(x) −2xy(x)
1 + x
2
.
Evaluando en 1+ y en 1− se tiene:
y

(1+) =
−1 −2y(1+)
2
=
−1 −2
1
4
2
= −
3
4
.
y

(1−) =
1 −2y(1−)
2
=
−1 −2
1
4
2
=
1
4
.
21
y

(1+) −y

(1−) = −1.
En la Figura 2 se muestra el c´odigo en Maple para obtener la soluci´on y su gr´afico.
Es claro a partir de la figura que la funci´on y(x) no es diferenciable en x = 1.
Figura 2. C´odigo Maple Ejercicio 2.4
22
Ejercicio 2.5. Considere la ecuaci´on diferencial lineal de primer orden:
y

+a(t)y = b(t)u(t)
(i) Se pide encontrar las funciones a(t) y b(t), sabiendo que si u(t) = 0 la solu-
ci´on es y(t) = e
−t
y si u(t) = 1 la soluci´on es y(t) = −e
−t
+ 1.
(ii) A partir de (i), determine la soluci´on y(t) de la ecuaci´on cuando
u(t) = sen t, y(0) = 0
(iii) Resuelva la ecuaci´on diferencial ordinaria cuando:
a(t) = tan t, b(t) = cos
2
t, y(0) = −1.
Soluci´on:
(i) El primer dato: u(t) = 0, y(t) = e
−t
, y

(t) = −e
−t
. Entonces:
−e
−t
+ a(t)e
−t
= (a(t) −1)e
−t
= 0.
Luego a(t) = 1.
El segundo dato: u(t) = 1, y(t) = −e
−t
+ 1, y

(t) = −e
−t
. Entonces:
−e
−t
+ 1 −e
−t
= 1 = b(t).
Finalmente los par´ametros de la EDO resultaron ser constantes. Ahora se resuelve
la parte (ii):
y

+ y = sin(t).
La EDO es del tipo Lineal de primer orden. El m´etodo dice que se debe obtener
un factor integrante, el cual es e
t
. Al multiplicar este factor integrante en la EDO,
esta queda:
d(ye
t
)
dt
= e
t
sin(t).
La cual es una EDO de variables separables de la forma y

= f(t), que se resuelve
integrando directamente.
_
d(ye
t
) = y(t)e
t
=
_
e
t
sin(t)dt + C = −
1
2
e
t
cos(t) +
1
2
e
t
sin(t) + C,
y(t) = Ce
−t
+
1
2
(sin(t) −cos(t)).
De la condici´on inicial y(0) = 0 se obtiene que C =
1
2
, con lo que la soluci´on al
problema con condici´on inicial es:
23
y(t) =
1
2
(e
−t
+ sin(t) −cos(t)).
Este mismo resultado puede ser obtenido ocupando el programa Maple, como
se muestra en la figura (3). El comando plot por defecto ocupa 50 puntos para
realizar el gr´afico, sin embargo no son suficientes en este ejemplo, y se modifica a
500 puntos.
Figura 3. C´odigo Maple Ejercicio 2.5 (ii)
En la figura (4) se muestra el c´odigo Maple para generar las pendientes de las
curvas integrales de la ecuaci´on. Para marcar la soluci´on al problema con condici´on
inicial, luego de fijar los ejes se anota [[0, 0]], en la que la primera componente
significa t = 0 y la segunda y(0) = 0.
24
Figura 4. C´odigo Maple Ejercicio 2.5 (ii)
(iii) En la tercera parte de la pregunta, la EDO es del tipo lineal, y el factor
integrante e

tan(t)
= e
−ln(cos(t))
= sec(t). Al multiplicar la EDO por el factor
integrante resulta:
d(y(t) sec(t))
dt
= cos(t),
_
d(y sec(t)) =
_
cos(t)dt + C,
y(x) = C cos(t) + sin(t) cos(t).
La condici´on inicial es y(0) = −1, entonces C = −1 con lo que la soluci´on al
problema con CI es:
y(t) = sin(t) cos(t) −cos(t) =
1
2
sin(2t) −cos(t).
En la figura (5) se muestra el c´odigo Maple para generar las pendientes de las
curvas integrales de la ecuaci´on y se marca la soluci´on al problema de condici´on
inicial (se anota [[0, −1]], o sea y(0) = −1).
25
Figura 5. C´odigo Maple Ejercicio 2.5 (iii)
Ejercicio 2.6. Considere la ecuaci´on diferencial:
y

+ ay = bu(t), y(0) = 0,
donde a > 0, b > 0 son n´ umeros reales dados. La funci´on u(t) est´a definida por:
u(t) =
_
¸
¸
¸
_
¸
¸
¸
_
3 si 0 ≤ t ≤ τ
2 si τ < t ≤ 2τ
1 si 2τ < t ≤ 3τ
f(t) si 3τ < t
donde τ es un n´ umero positivo dado. Encuentre y grafique una funci´on y(t) que
satisface la ecuaci´on diferencial en los intervalos [0, τ], (τ, 2τ], (2τ, 3τ], (3τ, ∞) y
que es continua en [0, ∞) para los siguientes casos:
(i) f(t) = 0, (ii) f(t) = cos(t).
Soluci´on:
En el intervalo [0, τ] se cumple:
26
y

+ ay = 3b ⇒y(t) = c
1
e
−at
+
3b
a
.
Al aplicar la condici´on inicial y(0) = 0 resulta c
1
= −
3b
a
y entonces:
y(t) =
3b
a
(1 −e
−at
), t ∈ [0, τ].
En el intervalo (τ, 2τ] se cumple:
y

+ ay = 2b ⇒y(t) = c
2
e
−at
+
2b
a
.
Al aplicar la condici´on de continuidad en τ, y(τ) =
3b
a
(1 − e
−aτ
) resulta c
2
=
b
a
(e

−3) y entonces:
y(t) =
b
a
(e

−3)e
−at
+
2b
a
, t ∈ (τ, 2τ].
En el intervalo (2τ, 3τ] se cumple:
y

+ ay = b ⇒y(t) = c
3
e
−at
+
b
a
.
Al aplicar la condici´on de continuidad en 2τ, y(2τ) =
b
a
(e

−3)e
−aτ
+
2b
a
resulta
c
3
=
b
a
(e
2aτ
+ e

−3) y entonces:
y(t) =
b
a
(e
2aτ
+ e

−3)e
−at
+
b
a
, t ∈ (2τ, 3τ].
En el intervalo (3τ, ∞) se cumple:
y

+ ay = f(t).
(i) Analizando el primer caso f(t) = 0
y

+ ay = 0 ⇒y(t) = c
41
e
−at
.
Al aplicar la condici´on de continuidad en 3τ, y(3τ) =
b
a
(e
2aτ
+ e

− 3)e
−3aτ
+
b
a
resulta c
41
=
b
a
(e
3aτ
+ e
2aτ
+ e

−3) y entonces:
y(t) =
b
a
(e
3aτ
+ e
2aτ
+e

−3)e
−at
, t ∈ (3τ, ∞).
27
(ii) Analizando el segundo caso f(t) = cos(t)
y

+ ay = cos(t) ⇒y(t) = c
42
e
−at
+
ab
1 + a
2
cos(t) +
b
1 + a
2
sin(t).
Tomando sen(φ) =
a
1+a
2
y cos(φ) =
1
1+a
2
, la soluci´on de la EDO en este intervalo
se escribe:
y(t) = c
42
e
−at
+ b sen(t + φ).
Al aplicar la condici´on de continuidad en 3τ, y(3τ) =
b
a
(e
2aτ
+ e

−3))e
−3aτ
+
b
a
resulta c
42
=
b
a
(e
3aτ
+ e
2aτ
+ e

−3) −e
3aτ
b sen(3τ + φ) y entonces:
y(t) =
_
b
a
(e
3aτ
+ e
2aτ
+ e

−3) −be
3aτ
sen(3τ +φ)
_
e
−at
+sen(t+φ), t ∈ (3τ, ∞).
En las siguientes figuras se muestran gr´aficos de la funci´on y(t) para cada caso
de f(t), tomando los valores a = 1, b = 1, τ = 10.
Figura 6. Gr´aficos Ejercicio 2.6
Ejercicio 2.7. Resuelva la siguiente ecuaci´on diferencial:
y

=
y
2
+ βty
t
2
+ αty
.
Soluci´on:
La EDO es del tipo Homog´enea y entonces se aplica el cambio de variable:
y = tu, y

= u + tu

. Al reemplazar en la ecuaci´on resulta:
28
u + tu

=
u
2
+βu
1 + αu
.
Despejando u

queda:
u

=
u ((1 −α)u + (β −1))
t(1 + αu)
.
La cual es una ecuaci´on del tipo Variables Separables. Entonces se cumple que:
_
1 + αu
u((1 −α)u + (β −1))
du =
_
1
t
dt +c.
ocupando fracciones parciales, resulta:
_
A
u
du +
_
B
(1 −α)u + (β −1)
du =
_
1
t
dt +c.
donde A =
1
β−1
y B =
1−αβ
1−β
. Finalmente se obtiene la soluci´on impl´ıcita de la
EDO:
u
A
((1 −α)u + (β −1))
B
1−α
= Ct.
Regresando a la variable original, sustituyendo u =
y
t
queda:
_
y
t
_ 1
β−1
_
(1 −α)
_
y
t
_
+ (β −1)
_
1−αβ
(1−β)(1−α)
= Ct.
Ejercicio 2.8. Mediante sustituciones adecuadas resuelva la EDO no lineal:
y

−4y ln y + 2ty(ln y)
3
= 0.
y encuentre la soluci´on que satisface y(0) = e

1
4
. Demuestre que el dominio de
definici´on de esta soluci´on incluye el intervalo [0, ∞). Sugerencia. Transforme
primero la ecuaci´on en otra no lineal pero conocida.
Soluci´on:
Se aplica el cambio de variable u = ln(y), u

= y
−1
y

y resulta la EDO del tipo
Bernoulli:
u

−4u + 2tu
3
= 0.
u
−3
u

−4u
−2
= −2t.
Con el cambio de variable u
−2
= w, −2u
−3
u

= w

resulta la EDO lineal:
w

+ 8w = 4t.
cuya soluci´on es
29
w(t) = ce
−8t
+
1
2
t −
1
16
.
Regresando a la variable inicial:
u(t) =
1
±
_
ce
−8t
+
1
2
t −
1
16
.
y(t) = e
u(t)
= e
1
±

ce
−8t
+
1
2
t−
1
16
= e
4
±

c

e
−8t
+8t−1
.
La condici´on inicial y(0) = e

1
4
, impone que de ambas soluciones posibles (± la
ra´ız cuadrada), se deba elegir aquella con ra´ız de signo negativo −. La constante
toma el valor c

= 257 y finalmente la soluci´on al problema con condici´on inicial
es:
y(t) = e

4

257e
−8t
+ 8t −1
.
Ejercicio 2.9. Resuelva la siguiente ecuaci´on diferencial:
y

=
y
2
(m+ n)
2

4mn
(m+ n)
2
y −(m−n)
2
.
Donde m > 0 y n > 0 son constantes positivas.
Soluci´on:
La ecuaci´on diferencial es del tipo Riccati. El m´etodo dice que para resolver este
tipo de ecuaci´on se debe encontrar una soluci´on particular de la EDO. Se intenta
encontrar primero una soluci´on del tipo constante y
1
= C, y

1
= 0, y luego de
hacer algunas simplificaciones resulta la siguiente ecuaci´on algebraica de segundo
grado:
C
2
−4mnC −(m
2
−n
2
)
2
= 0.
cuyas soluciones son: (m+ n)
2
y −(m−n)
2
.
Tomando por ejemplo como soluci´on a y
1
= (m + n)
2
, el siguiente paso es
realizar el cambio de variable:
z = y −y
1
= y −(m+ n)
2
, z

= y

.
Al aplicar este cambio de variable resulta la siguiente EDO del tipo Bernoulli:
z

+
_
2(n
2
+ m
2
)
(m+ n)
2
_
z =
1
(m+ n)
2
z
2
.
30
z

z
2
+
_
2(n
2
+ m
2
)
(m+ n)
2
_
1
z
=
1
(m+ n)
2
.
Para resolver la EDO de tipo Bernoulli se realiza el cambio de variable: u =
1
z
,
u

= −
1
z
2
z

, quedando la siguiente EDO de tipo Lineal.
u

+
2(n
2
+ m
2
)
(m+ n)
2
u =
−1
(m+ n)
2
.
Para resolver la EDO lineal, esta se debe multiplicar por el factor integrante:
e

2(n
2
+m
2
)
(m+n)
2

dt
= e

2(n
2
+m
2
)
(m+n)
2

t
.
d
_
ue

2(n
2
+m
2
)
(m+n)
2

t
_
dt
=
−1
(m+ n)
2
e

2(n
2
+m
2
)
(m+n)
2

t
.
entonces
u(t) = e

−2(n
2
+m
2
)
(m+n)
2

t
_
C −
1
(m+ n)
2
_
e

2(n
2
+m
2
)
(m+n)
2

t
_
dt = Ce

−2(n
2
+m
2
)
(m+n)
2

t

1
2(n
2
+ m
2
)
.
Regresando a la variable z =
1
u
z(t) =
1
Ce

−2(n
2
+m
2
)
(m+n)
2

t

1
2(n
2
+ m
2
)
.
Regresando a la variable y(t) = z(t) + y
1
(t), se obtiene la soluci´on del problema:
y(t) =
1
Ce

−2(n
2
+m
2
)
(m+n)
2

t

1
2(n
2
+ m
2
)
+ (m+ n)
2
.
Ejercicio 2.10. Resuelva la siguiente ecuaci´on diferencial:
y

= tan(y) sen(y) + 3 tan(y) + 2 sec(y).
Sugerencia: Use un cambio de variable adecuado para convertir la ecuaci´on en
Ricatti a coeficientes constantes.
Soluci´on:
El cambio de variable adecuado es: z = sen(y), z

= cos(y)y

. Al aplicar el CV
en la EDO, resulta:
cos(y)y

= (sen(y))
2
+ 3 sen(y) + 2.
31
z

= z
2
+ 3z + 2.
La cual es una EDO del tipo Riccati. Para resolverla se debe encontrar una soluci´on
particular de la EDO. Se tantea z
1
= C, z

1
= 0. Se debe entonces resolver la
ecuaci´on de segundo grado:
C
2
+ 3C + 2 = (C + 2)(C + 1) = 0.
Sea y
1
= −2. El cambio de variable para reducir EDO del tipo Ricatti a Bernoulli
es w = z −z
1
= z + 2, w

= z

. Al aplicarlo resulta la EDO:
w

+ w = w
2
.
w
−2
w

+ w
−1
= 1.
Se aplica el cambio de variable: v = w
−1
, v

= −w
−2
w

, con el cual resulta la EDO
del tipo lineal:
v

−v = −1.
cuya soluci´on es
v(t) = ce
t
+ 1.
Volviendo a la variable inicial:
w(t) =
1
ce
t
+ 1
.
z(t) =
1
ce
t
+ 1
−2.
y(t) = arc sen
_
1
ce
t
+ 1
−2
_
.
Ejercicio 2.11. Considere el siguiente problema de Control
´
Optimo:
min
1
2
x
2
(T) +
1
2
_
T
0
_
5
4
x
2
+u
2
_
dt.
sujeto a :
x

= x + u, x(0) = x
0
.
Este problema consiste en encontrar la funci´on u(t) que minimiza el funcional
objetivo. Este problema se puede resolver entre otros m´etodos, mediante Progra-
maci´on Din´amica. En este caso se debe resolver la ecuaci´on en derivadas parciales
de Hamilton-Jacobi-Bellman:
32
v
t
+ m´ax
a∈
_
(x + a)∇
x
v −
1
2
_
5
4
x
2
+ a
2
__
= 0.
Con condici´on de borde:
v(x, T) = −
1
2
x
2
.
(i) (Opcional) Pruebe que la EDP admite soluciones de la forma K(t)x
2
, donde
K(t) es soluci´on de la ecuaci´on de Ricatti: K

+2K
2
+2K−
5
8
= 0, con condici´on
final K(T) = −
1
2
.
(ii) Usando (i), resuelva la ecuaci´on de Ricatti para K(t) y luego, sabiendo que el
control ´optimo est´a dado por u(t) = 2x(t)K(t), encuentre una expresi´on para la
trayectoria ´optima x(t).
Soluci´on:
(i) Sea v(x, t) = K(t)x
2
. Entonces las derivadas parciales son:
∂v(x, t)
∂t
=
dK(t)
dt
x
2
.

x
v =
∂v(x, t)
∂x
= 2K(t)x.
Antes de reemplazar las derivadas parciales, notar que el valor m´aximo de:
_
(x + a)∇
x
v −
1
2
_
5
4
x
2
+ a
2
__
.
se alcanza cuando a = ∇
x
v. Reemplazando esto y las derivadas parciales en la
EDP resulta:
x
2
_
dK(t)
dt
+ 2K(t)
2
+ 2K(t) −
5
8
_
= 0.
La condici´on de borde entrega la condici´on final para la ecuaci´on de Riccati:
v(x, T) = K(T)x
2
= −
1
2
x
2
⇒K(T) = −
1
2
.
(ii) La EDO de Ricatti es:
dK(t)
dt
= −2K(t)
2
−2K(t) +
5
8
.
El procedimiento para resolver este tipo de EDO dice que hay que encontrar una
soluci´on particular de esta EDO. Debido a que los coeficientes son constantes, se
tantea una soluci´on particular de la forma K
p
(t) = C, K
p
(t)

= 0. Entonces para
encontrar C se debe resolver la ecuaci´on de segundo grado:
33
2C
2
+ 2C −
5
8
= 0.
cuyas ra´ıces son: C
1
= −
5
4
, y C
2
=
1
4
.
Escogiendo K
p
(t) =
1
4
, se realiza el cambio de variable:
z(t) = K(t) −K
p
(t) = K(t) −
1
4
, ⇒z(t)

= K(t)

.
La EDO queda ahora del tipo Bernoulli:
z

+ 3z = −2z
2
.
z
−2
z

+ 3z
−1
= −2.
Aplicando el cambio de variable w(t) = z
−1
, w(t)

= −z
−2
z

, resulta la siguiente
EDO lineal:
w

−3w = 2.
La soluci´on de la EDO lineal es:
w(t) = Ce
3t

2
3
.
La soluci´on de la EDO de Bernoulli es:
z(t) =
1
Ce
3t

2
3
.
La soluci´on de la EDO de Ricatti es:
K(t) =
1
Ce
3t

2
3
+
1
4
.
Se aplica ahora la condici´on final K(T) = −
1
2
y se obtiene C = −
2
3
e
−3T
. Final-
mente la soluci´on del problema de Ricatti con condici´on terminal es:
K(t) =
1

2
3
(e
3(t−T)
+ 1)
+
1
4
.
Se sabe que u(t) = 2x(t)K(t). Al reemplazar esto en la EDO para x(t) resulta la
EDO de primer orden lineal homogenea (variables separables) :
x(t)

−x(t) = u(t) = 2x(t)K(t).
x(t)

+ (−1 −2K(t))x(t) = 0.
34
cuya soluci´on es:
x(t) = x(0)e

t
0
(1+2K(t))dt
.
Ejercicio 2.12. Resuelva la siguiente ecuaci´on diferencial:
xy

−y =
_
x
2
+ y
2
.
Soluci´on:
Se aplica el cambio de variable y = xu, y

= u +xu

y queda
x(u + xu

) −xu =

x
2
+x
2
u
2
.
Al simplificar resulta:
x
2
u

= x

1 + u
2
.
La cual es una EDO del tipo Variables Separables.
_
du

1 +u
2
=
_
dx
x
+ C.
Entonces se tiene que:
sinh
−1
(u(x)) = ln(x) + C.
Regresando a la variable inicial, reemplazando u =
y
x
, se obtiene la soluci´on del
problema:
y(x) = x sinh(ln(x) + C).
Ejercicio 2.13. Resolver las siguientes ecuaciones diferenciales:
(i) y

=
y
x(ln(y) −ln(x) + 1)
, y(1) = e.
(ii) y

= 1 + e
y−x+5
.
(iii) y

=
cos(t)
y

e
y
2
+ 1
.
Adem´as en este caso a partir de la expresi´on encontrada para y

demuestre que se
puede resolver para y

en forma ´ unica.
Soluci´on:
(i) La ecuaci´on se puede escribir como:
35
y

=
y
x
1
ln(
y
x
) + 1
.
Aplicando el cambio de variable: y = ux, y

= u

x + u resulta:
u

x + u =
u
ln(u) + 1
,
que es una EDO del tipo Variables Separables.
u

=
1
x

1
u

1
uln(u)
=
g(x)
h(u)
Se integra y se obtiene:
G(x) =
_
1
x
dx = ln(x)
H(u) = −
_ _
1
u
+
1
uln(u)
_
du = −ln(u) −ln(ln(u)) = ln
_
1
uln(u)
_
Por lo tanto:
ln
_
1
u ln(u)
_
= ln(x) + C
1
u ln(u)
= cx
Se regresa a la variable inicial y queda:
y(x) ln
_
y(x)
x
_
c = 1
La condici´on inicial y(1) = e permite obtener c = e
−1
, por lo que la soluci´on del
problema con condici´on inicial es:
y(x) ln
_
y(x)
x
_
= e
(ii) Para la segunda pregunta, se realiza el cambio de variable: u = y − x + 5,
u

= y

−1.
u

= e
u
36
La cual es de variables separables.
e
−u
= −x + c, ⇒ u = −ln(−x +c).
Y regresando a la variable inicial:
y(x) = x −5 −ln(c −x).
(iii) La ecuaci´on es de variables separables. Luego de integrar resulta la expresi´on:
e
y
2
+ 2y

= 2 sin(t) + C.
Para demostrar que esta EDO se puede resolver para y

de manera ´ unica se debe
analizar el t´ermino e
y
2
= −2y

el cual se puede resolver para y

de manera ´ unica
debido a que la recta −2y

intersecta a la funci´on e
y
2
en un solo punto.
37
2.5. Ejercicios Propuestos.
Propuesto 2.1. La velocidad de enfriamiento de un cuerpo en el aire es propor-
cional a la diferencia entre la temperatura T del cuerpo y la temperatura T
0
del
aire, es decir
dT
dt
= K(T −T
0
), K > 0.
(a) Determine T.
(b) Si T
0
= 20 grados Celcius y el cuerpo se enfria desde 100 a 60 grados Celcius
en veinte minutos se pide calcular en cuanto tiempo la temperatura del cuerpo
descender´a hasta 30 grados Celcius.
(c) Cual es la temperatura limite (t →∞) del cuerpo.
Soluciones:
(a) T(t) = T
0
+ C e
kt
,
(b) 60 minutos,
(c) 20
o
C.
Propuesto 2.2. En un circuito RC la fuente de voltaje f(t) es tal que si el voltaje
en el condensador v
C
supera o es igual a v
0
/2 tomar´a el valor f(t) = −v
0
. Si v
C
es menor o igual a -v
0
/2 entonces f(t) tomar´a el valor f(t) = v
0
.
Figura 7. Circuito RC
El voltaje v
C
es una funci´on continua y satisface la ecuaci´on diferencial:
RC
dv
C
dt
+ v
C
= f(t),
f(0) = v
0
, v
C
(0) = 0.
(a) Grafique la evoluci´on en el tiempo del voltaje en el condensador, indicando
intersecciones con el eje de las abscisas y puntos relevantes.
(b) Indique el per´ıodo del voltaje en el condensador y grafique el voltaje en la
resistencia.
38
Datos:
v
C
(t) + v
R
(t) = f(t)
v
R
(t) = i(t)R = RC
dv
C
dt
Soluciones:
Figura 8. Voltaje en el condensador v
C
(t)
El per´ıodo del voltaje en el condensador es 2RC ln(3).
Figura 9. Voltaje en la resistencia v
R
(t)
Propuesto 2.3. Resuelva las siguientes ecuaciones diferenciales :
(a)
y
2
y

x
4
+ e
x
5
+y
3
= 0
39
Adem´as la soluci´on y(x) se hace cero cuando x tiende a menos infinito.
(b) y

=
y
x
+ x
4
y
2
−x
6
(c) y

−y
2
arctan y = arctan y + [3(arctan y)
2
−2](1 + y
2
)
Soluciones:
(a) y(x) =
3
¸
−ln
_
3
5
e
x
5
+ 1
_
, (b) y(x) = −tanh
_
1
6
x
6
+ C
_
x.
(c) y(t) = tan
_
1
Ce
5t
+
3
5
−1
_
.
Propuesto 2.4. Un esquiador de masa M baja por una ladera inclinada con un
´angulo respecto a la horizontal, sometiendo adem´as de la fuerza de roce cin´etica
con la nieve con constante µ
k
una fuerza de roce viscosa de la forma −2βmv La
ecuaci´on de movimiento del esquiador es:
mg sin α −2βm
dx
dt
−µ
k
mg cos α = m
d
2
x
dt
2
Si tan(α) > µ
k
:
(a) Determine la rapidez del esquiador en funci´on del tiempo
dx
dt
(t).
(b) Determine la rapidez l´ımite, es decir cuando t →∞.
(c)Determine la posici´on en funci´on del tiempo (x(t)) .
Soluciones:
(a)
dx
dt
=
_
g sin α −η
k
g cos α −Ce
−2βt
_

1

,
(b)
1

(g sin α −η
k
g cos α),
(c) x(t) =
g

(sin α −η
k
cos α)t + C
1
e
−2βt
+ C
2
.
Propuesto 2.5. Resuelva la siguiente ecuaciones diferenciales:
(a)
dy
dx
= 2 +
_
y −2x + 3
(b)
dy
dx
=
1 −x −y
x + y
(c) xyy

= 3y
2
+ x
2
, y(−1) = 2.
(d) xy
2
dy
dx
= y
3
−x
3
40
(e)
dy
dx
= (−5x + y)
2
−4
Soluciones:
(a) x −2
_
y(x) −2x + 3 −C = 0, (b) y(x) = −x ±

2x −C
(c) y(x) = −
1
2

−2 + 18x
4
x, (d) y(x) = (−3 ln(x) + C)
1
3
x
(e) y(x) =
C(3+5x)+(3−5x)e
6x
C−e
6x
.
Propuesto 2.6. Resuelva las siguientes ecuaciones diferenciales no lineales:
(a) y

(x) = x y
1
2
, y(0) = 1
(b) y

= 6e
2x−y
, y(0) = 0
(c) 2x
1
2
y

= cos
2
y, y(4) =
π
4
Soluciones:
(a) y(x) =
1
16
x
4
+
1
2
x
2
+ 1, (b) y(x) = ln(3e
2x
−2)
(c) y(x) = arctan(

x −1).
Propuesto 2.7. Considere la siguiente ecuaci´on no lineal:
dy
dx
= sin(x −y).
Encuentre la soluci´on general y el dominio de definici´on de esta soluci´on. En-
cuentre una soluci´on de esta ecuaci´on que satisfaga y
_
π
2
_
= 0.
Soluciones:
y(x) = x −2 arctan
_
x−2−C
x−C
_
, y(x) = x −
1
2
π.
Propuesto 2.8. Considere la siguiente ecuaci´on no lineal:
dy
dx
= (x + y)
2
Encuentre la soluci´on que satisface y(0) = 0, y d´e el dominio de definici´on de esta
soluci´on.
Soluci´on:
y(x) = tan(x) −x.
Propuesto 2.9. Se tiene un sistema din´amico de primer orden de tiempo conti-
nuo, definido por la ecuaci´on diferencial
˙
Y (t) + 4Y (t) = 2U(t), Y (0) = 1.
41
Suponga que la entrada U(t) es un proceso estoc´astico de valor medio η
U
= 2t
y funci´on de autocorrelaci´on R
UU
(t
1
, t
2
) = t
1
t
2
. Se pide analizar el proceso
estoc´astico de salida Y (t), encontrando su valor medio η
Y
(t) y autocorrelaci´on
R
Y Y
(t
1
, t
2
). Para esto tendr´a que resolver las ecuaciones:
(1) ˙ η
Y
+ 4η
Y
= 4t para encontrar el valor medio η
Y
(t).
(2)
∂R
UY
(t
1
, t
2
)
∂t
2
+ 4R
UY
(t
1
, t
2
) = t
1
t
2
para encontrar R
UY
(t
1
, t
2
).
(3)
∂R
Y Y
(t
1
, t
2
)
∂t
1
+ 4R
Y Y
(t
1
, t
2
) = R
UY
(t
1
, t
2
).
Soluciones:
(a) η
k
(t) = C
1
e
−4t
+ t −
1
4
,
(b) R
UY
(t
1
, t
2
) = C
2
e
−4t
2
+
1
4
t
1
_
t
2

1
4
_
,
(c) R
Y Y
(t
1
, t
2
) = C
3
e
−4t
1
+
1
4
C
2
e
−4t
2
+
1
256

1
64
(t
2
+ t
1
) +
1
16
t
1
t
2
.
Propuesto 2.10. Resuelva las siguientes ecuaciones:
(a) x
dy
dx
+ y = x
2
y
2
.
(b)
dy
dx
−5y = −
5
2
xy
3
.
(c) y

= −ty −ty
2
.
(d) y

+ (cot(t))y +
1
sin(t)
y
2
= 0, y
_
π
4
_
=
1

2
.
Soluciones:
(a) y(x) = −
1
(x −C)x
, (b)y(x) = ±
10

−5 + 50x + 100e
−10x
C
,
(c) y(t) =
1
−1 +e
1
2
t
2
C
, (d) y(t) =
1
−cos(t) + 3 sin(t)
.
Propuesto 2.11. Muestre que con un cambio de variable adecuado la EDO:
e
−x
2
y

= 1 + 2(x −1)e
−x
2
y + (e
−2x
2
y
2
),
es de tipo Ricatti con coeficientes constantes y resuelva.
Soluci´on:
El cambio de variable es u = y(x) e
−x
2
y la soluci´on es y(x) =
_
1
c −x
+ 1
_
e
x
2
.
42
3. Ecuaciones lineales de orden n
3.1. Propiedades generales. La ecuaci´on diferencial lineal de orden n m´as
general tiene la forma
a
n
(t)y
(n)
+ a
n−1
(t)y
(n−1)
+ + a
1
(t)y

+ a
0
(t)y = g(t). (3.1)
Si g(t) ≡ 0 diremos que esta ecuaci´on es homog´enea y no homog´enea en caso
contrario.
Vamos a suponer de ahora en adelante la siguiente hip´otesis.
(H
1
) Las funciones coeficientes a
i
, i = 0, , n, y la funci´on g est´an definidas en
un intervalo com´ un I, donde son continuas. Adem´as a
n
(t) ,= 0, para todo t ∈ I.
Definici´on 3.1. Sean f
1
, ..., f
n
, n funciones definidas en un intervalo com´ un I.
Decimos que estas funciones son linealmente dependientes en I si existen cons-
tantes c
1
, , c
n
no todas nulas tal que
c
1
f
1
(t) + +c
n
f
n
(t) = 0 para todo t ∈ I.
Decimos que f
1
, , f
n
son linealmente independientes si
c
1
f
1
(t) + + c
n
f
n
(t) = 0 para todo t ∈ I
implica que c
1
= c
2
= ... = c
n
= 0.
Ejemplo 3.1.
f
1
(t) = t, f
2
(t) = [t[
Es inmediato ver que ¦f
1
, f
2
¦ es un conjunto linealmente dependiente en el inter-
valo [0, ∞). Sin embargo estas mismas funciones son linealmente independientes
en el intervalo (−∞, +∞).
Ejemplo 3.2. Las funciones
f
1
(t) = cos kt, f
2
(t) = sin kt, k ,= 0,
son linealmente independientes en cualquier intervalo I. En efecto, supongamos
que
c
1
f
1
(t) + c
2
f
2
(t) = 0 para todo t ∈ I.
Como tenemos una identidad podemos derivar, obteniendo
c
1
f

1
(t) + c
2
f

2
(t) = 0 para todo t ∈ I.
43
Reemplazando, se tiene el sistema de ecuaciones
c
1
cos kt + c
2
sin kt = 0
−c
1
k sin kt +c
2
k cos kt = 0.
Como el determinante de los coeficientes es no nulo implica que c
1
= c
2
= 0.
Entonces la funciones ¦cos(kt), sin(kt)¦ son linealmente independientes en el in-
tervalo I.
M´as generalmente tenemos
Teorema 3.1. Sean f
1
,...,f
n
, n funciones definidas en un intervalo I, donde cada
una de ellas posee hasta la derivada n −1. Si el determinante
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(t
0
) f
n
(t
0
)
f

1
(t
0
) f

n
(t
0
)
.
.
.
.
.
.
.
.
.
f
(n−1)
1
(t
0
) f
(n−1)
n
(t
0
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
,= 0, (3.2)
para alg´ un t
0
∈ I, entonces ¦f
1
, . . . , f
n
¦ son linealmente independientes en ese
intervalo.
Definici´on 3.2. La funci´on determinante
W(f
1
, . . . , f
n
)(t) =
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(t) f
n
(t)
f

1
(t) f

n
(t)
.
.
.
.
.
.
.
.
.
f
(n−1)
1
(t) f
(n−1)
n
(t)
¸
¸
¸
¸
¸
¸
¸
¸
¸
se llama el Wronskiano de las funciones f
1
, . . . , f
n
en I.
Demostraci´on del Teorema 3.1. Por contradicci´ on, supongamos que existe un pun-
to t
0
∈ I tal que (3.2) es cierta y que f
1
, . . . , f
n
son linealmente dependientes en
I. Existen entonces constantes c
1
, . . . , c
n
, no todas nulas, tal que
n

i=1
c
i
f
i
(t) = 0 ∀ t ∈ I.
Derivando n −1 veces se obtiene
n

i=1
c
i
f

i
(t) = 0 ∀ t ∈ I
.
.
.
n

i=1
c
i
f
(n−1)
i
(t) = 0 ∀ t ∈ I.
44
Estas ecuaciones las podemos escribir como el sistema
_
_
_
_
_
f
1
(t) f
n
(t)
f

1
(t) f

n
(t)
.
.
.
.
.
.
.
.
.
f
(n−1)
1
(t) f
(n−1)
n
(t)
_
_
_
_
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
= 0,
para cada t ∈ I. En particular para t = t
0
, asi
_
_
_
_
_
f
1
(t
0
) f
n
(t
0
)
f

1
(t
0
) f

n
(t
0
)
.
.
.
.
.
.
.
.
.
f
(n−1)
1
(t
0
) f
(n−1)
n
(t
0
)
_
_
_
_
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
= 0.
Pero este sistema de ecuaciones tiene una soluci´on no trivial, entonces el de-
terminante de los coeficientes debe ser cero, esto es W(f
1
, . . . , f
n
)(t
0
) = 0, que es
una contradicci´ on
Corolario 3.1. Sean f
1
, . . . , f
n
n funciones linealmente dependientes en I, enton-
ces
W(f
1
, . . . , f
n
)(t) = 0 ∀ t ∈ I
Ejemplo 3.3. Sean m
1
, m
2
, m
3
tres n´ umeros reales distintos entre si y conside-
remos las funciones
f
1
(t) = e
m
1
t
, f
2
(t) = e
m
2
t
, f
3
(t) = e
m
3
t
.
Afirmamos que estas funciones son linealmente independientes en R. Para ver
esto consideremos el wronskiano
W(f
1
, f
2
, f
3
)(t) =
¸
¸
¸
¸
¸
¸
e
m
1
t
e
m
2
t
e
m
3
t
m
1
e
m
1
t
m
2
e
m
2
t
m
3
e
m
3
t
m
2
1
e
m
1
t
m
2
2
e
m
2
t
m
2
3
e
m
3
t
¸
¸
¸
¸
¸
¸
= e
(m
1
+m
2
+m
3
)t
¸
¸
¸
¸
¸
¸
1 1 1
m
1
m
2
m
3
m
2
1
m
2
2
m
2
3
¸
¸
¸
¸
¸
¸
45
Por lo tanto
W(f
1
, f
2
, f
3
)(t) = −e
(m
1
+m
2
+m
3
)t
(m
1
−m
3
)(m
2
−m
1
)(m
3
−m
2
).
El resultado se sigue entonces del Teorema 3.1.
Volvamos ahora a la ecuaci´on diferencial lineal de orden n (3.1).
a
n
(t)y
(n)
+ + a
1
(t)y

+ a
0
(t)y = g(t),
para la cual suponemos que se satisface la hip´otesis (H
1
). Esta ecuaci´on la vamos
a escribir equivalentemente como
n

i=0
a
i
(t)y
(i)
= g(t), (3.3)
con la convenci´ on y
(0)
(t) ≡ y(t).
Proposici´on 3.1. (Principio de Superposici´on.) Sean y
1
. . . y
k
, k soluciones de la
ecuaci´on homogenea
n

i=0
a
i
(t)y
(i)
= 0 en I. (3.4)
Entonces la combinaci´on lineal
Y (t) :=
k

i=1
c
i
y
i
(t),
donde los c
i
, i = 1, . . . , k son constantes, es tambi´en una soluci´on de la ecuaci´on
homogenea en I.
Demostraci´on. Se tiene
n

j=0
a
j
(t)Y
(j)
(t) =

n
j=0
a
j
(t)

k
i=1
c
i
y
(j)
i
(t)
=

k
i=1
c
i
(
n

j=0
a
j
(t)y
(j)
i
(t))
. ¸¸ .
=0
= 0.
46
Ejemplo 3.4. Consideremos la ecuaci´on
y

+ k
2
y = 0.
Sabemos que y
1
(t) = cos kt , y
2
(t) = sin kt son dos soluciones de esta ecuaci´on
definidas en R, que son linealmente independientes en este intervalo. Formemos
Y (t) = c
1
cos kt +c
2
sin kt,
entonces Y es tambi´en solucion. Podemos verificar esto directamente, derivando
se tiene
Y

(t) + k
2
Y (t) = −k
2
(c
1
cos kt + c
2
sin kt) + k
2
(c
1
cos kt + c
2
sin kt)
= c
1
(k
2
cos kt −k
2
cos kt) + c
2
(k
2
sin kt −k
2
sin kt) = 0.
Ejemplo 3.5. Consideremos la ecuaci´on
y

−k
2
y = 0.
Entonces
y
1
(t) = e
kt
, y
2
(t) = e
−kt
,
son dos soluciones linealmente independientes de esta ecuaci´ on en R. De la pro-
posici´on 3.4, se tiene que
Y (t) = c
1
y
1
(t) + c
2
y
2
(t)
es tambi´en es soluci´on.
A continuaci´ on vamos a estudiar un problema importante que llamamos pro-
blema con condici´on inicial para la ecuaci´on diferencial (3.1) o equivalentemente
ecuaci´on (3.3). Este problema se escribe como
(I
n
)
_
a
n
(t)y
(n)
+ + a
1
(t)y

+ a
0
(t)y = g(t)
y(t
0
) = c
1
, y

(t
0
) = c
2
, , y
n−1
(t
0
) = c
n
,
donde suponemos que las constantes c
1
, , c
n
y t
0
∈ I son datos del problema y
que se satisface la condici´on (H
1
).
En este problema se quiere encontrar una funci´on y definida en un intervalo
(que seg´ un se ver´ a va a coincidir con I), que tenga n derivadas en I, que satisface
la ecuaci´on para cada t ∈ I y las condiciones iniciales en t
0
.
Por ejemplo para el caso n = 2 este problema se reduce a
(I
2
)
_
a
2
(t)y

+ a
1
(t)y

+ a
0
(t)y = 0,
y(t
0
) = c
1
, y

(t
0
) = c
2
.
47
Para el problema (I
n
) se tiene el siguiente resultado general.
Teorema 3.2. Sean a
0
(t), , a
n
(t), g(t), funciones cont´ınuas en un intervalo I
tal que a
n
(t) ,= 0 para todo t ∈ I. Sea t
0
∈ I, entonces el problema con condici´on
inicial (I
n
) tiene una ´ unica soluci´on definida en el intervalo I.
Este teorema asegura dos cosas: la existencia de una funci´on (soluci´on) que
satisface la ecuaci´on diferencial (en I) y las condiciones iniciales y adem´as que
ella es ´ unica.
No vamos a demostrar este teorema todav´ıa, pero lo haremos m´as adelante,
como un caso particular, cuando tratemos sistemas de ecuaciones diferenciales.
A continuaci´on y como consecuencia de este teorema vamos a estudiar algu-
nas propiedades de la ecuaci´on homogenea lineal de orden n (3.4). Primero una
consecuencia inmediata de este teorema.
Corolario 3.2. La funci´on y ≡ 0, en I, es la ´ unica soluci´on de la ecuaci´on
homogenea (3.4) que satisface las condiciones iniciales
y(t
0
) = 0, y

(t
0
) = 0, . . . , y
n−1
(t
0
) = 0,
y la llamamos la soluci´on trivial.
Note que la soluci´on trivial siempre satisface ecuaci´on homogenea (3.4).
Teorema 3.3. Sean ¦y
1
. . . y
n
¦ n soluciones de la ecuaci´on diferencial (3.4) de-
finidas en I. Entonces ¦y
1
. . . y
n
¦ es un conjunto de soluciones linealmente inde-
pendientes, si y solo si
W(y
1
. . . y
n
)(t) ,= 0, ∀ t ∈ I.
Demostraci´on. Si es el caso que W(y
1
. . . y
n
)(t) ,= 0 para todo t ∈ I, entonces por
Teorema 3.1 se tiene que ¦y
1
. . . y
n
¦ son funciones linealmente independientes.
Supongamos que ¦y
1
. . . y
n
¦ son soluciones linealmente independientes de (3.4).
Queremos probar que W(y
1
. . . y
n
)(t) ,= 0 para todo t ∈ I. Para demostrar esto,
vamos a probar equivalentemente que
W(y
1
. . . y
n
)(t
0
) = 0, para alg´ un t
0
∈ I, (3.5)
48
implica que ¦y
1
. . . y
n
¦ son linealmente dependientes en I. Supongamos entonces
(3.5) y formemos el sistema de n ecuaciones algebraicas
_
_
y
1
(t
0
) y
n
(t
0
)
y

1
(t
0
) y

n
(t
0
)
y
n−1
1
(t
0
) y
n−1
n
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
= 0. (3.6)
De (3.5) y Algebra Lineal se tiene que el sistema algebraico (3.6) tiene una soluci´on
_
_
c
1
.
.
.
c
n
_
_
,= 0
Esto es una soluci´on donde no todos los c

i
s son nulos. Formemos entonces
Y (t) := c
1
y
1
(t) + . . . + c
n
y
n
(t). (3.7)
Por el principio de superposici´on como y
1
(t) . . . y
n
(t) son soluciones, Y (t) tambi´en
lo es. Adem´as se satisface
Y (t
0
) = 0, Y

(t
0
) = 0, . . . , Y
n−1
(t
0
) = 0
Pero entonces, por el Corolario 3.2, se debe tener que
Y (t) = 0, ∀ t ∈ I,
que de (3.7), nos da
c
1
y
1
(t) + . . . + c
n
y
n
(t) = 0, ∀t ∈ I,
con c
1
. . . c
n
no todas nulas. Esto significa que ¦y
1
. . . y
n
¦ son linealmente depen-
dientes en I.
Teorema 3.4. Sean ¦y
1
. . . y
n
¦ n soluciones linealmente independientes de la
ecuaci´on homogenea (3.4). Sea tambi´en Z(t) otra soluci´on cualquiera de esta ecua-
ci´on. Entonces existen constantes c
1
. . . c
n
, tal que
Z(t) =
n

i=1
c
i
y
i
(t).
Demostraci´on. Sea t
0
∈ I y consideremos el sistema algebraico
_
¸
_
y
1
(t
0
) y
n
(t
0
)
.
.
.
.
.
.
y
(n−1)
1
(t
0
) y
(n−1)
n
(t
0
)
_
¸
_
_
_
ρ
1
.
.
.
ρ
n
_
_
=
_
_
Z(t
0
)
Z

(t
0
)
Z
(n−1)
(t
0
)
_
_
. (3.8)
Como el determinante de los coeficientes de este sistema, que es el wronskiano
W(y
1
y
n
)(t
0
) = det
_
¸
_
y
1
(t
0
) y
n
(t
0
)
.
.
.
.
.
.
y
(n−1)
1
(t
0
) y
(n−1)
n
(t
0
)
_
¸
_
,= 0,
49
(las soluciones son linealmente independientes) se tiene de Algebra Lineal que este
sistema tiene una ´ unica soluci´on.
Llamemos (ρ
1
. . . ρ
n
) a esta soluci´on y consideremos la funci´on
G(t) = ρ
1
y
1
(t) + +ρ
n
y
n
(t)
Es claro que G es soluci´on de (3.4) y que considerando (3.8) satisface en t
0
G(t
0
) = Z(t
0
), G

(t
0
) = Z

(t
0
), . . . , G
(n−1)
(t
0
) = Z
(n−1)
(t
0
).
Por Teorema 3.2 (parte de unicidad), se debe tener que
Z(t) = G(t) =
n

i=1
ρ
i
y
i
(t) ∀ t ∈ I.
Se concluye la demostraci´on definiendo c
i
= ρ
i
, i = 1 . . . n.
Hasta el momento hemos supuesto que existe un conjunto de soluciones lineal-
mente independientes ¦y
1
. . . y
n
¦ de la ecuaci´on (3.4). Vamos a verificar que esto
es as´ı en el siguiente teorema.
Teorema 3.5. La ecuaci´on (3.4) tiene un conjunto de soluciones ¦y
1
. . . y
n
¦ que
son linealmente independientes en el intervalo I.
Demostraci´on. Para cada i = 1 . . . n, consideremos el problema con condici´on
inicial,
_
a
n
(t)y
(n)
+ . . . + a
1
(t)y

+ a
0
(t)y = 0
y(t
0
) = 0, , y
(i−1)
(t
0
) = 1, , y
(n−1)
(t
0
) = 0,
donde t
0
∈ I es fijo. Por el Teorema (3.2), de existencia y unicidad, se tiene que
este problema tiene una ´ unica soluci´on definida en el intervalo I. Llamemos y
i
a
esta soluci´on.
Vamos a probar que este conjunto ¦y
1
. . . y
n
¦ es linealmente independientes en
el intervalo I. Para esto basta probar que
W(y
1
. . . y
n
)(t
0
) ,= 0,
para algun t
0
∈ I. Se tiene
W(y
1
. . . y
n
)(t
0
) = det
_
¸
¸
¸
¸
¸
¸
_
y
1
(t
0
) y
i
(t
0
) y
n
(t
0
)
.
.
.
.
.
.
.
.
.
.
.
. y
i−1
i
(t
0
)
.
.
.
.
.
.
.
.
.
.
.
.
y
n−1
1
(t
0
) y
n−1
i
(t
0
) y
n−1
n
(t
0
)
_
¸
¸
¸
¸
¸
¸
_
50
= det
_
¸
¸
¸
¸
¸
_
1 0 0
.
.
.
.
.
.
.
.
.
0 . . . 1 . . . 0
.
.
.
.
.
.
.
.
.
0 0 1
_
¸
¸
¸
¸
¸
_
= 1.
Por lo tanto, del Teorema 3.1, ¦y
1
. . . y
n
¦ son linealmente independientes en I.
A continuaci´ on estudiamos la estructura del espacio de soluciones de la ecuaci´on
(3.4).
Sea o el conjunto de todas las funciones y : I → R que son soluci´on de la
ecuaci´on (3.4), esto es
o = ¦y : I →R [ y es soluci´on de (3.4)¦.
Notemos que si α, β son escalares reales e y
1
∈ o, y
2
∈ o, entonces αy
1
+βy
2
∈ o,
ya que cualquier combinaci´on lineal de soluciones es soluci´on, por el principio de
superposici´on. Adem´as claramente la soluci´on trivial est´a en o.
Este argumento nos dice que o tiene la estructura de un espacio vectorial (es-
pacio lineal). M´as a´ un, Teorema (3.4) nos dice que dim o = n. As´ı, hemos demos-
trado.
Teorema 3.6. El conjunto de soluciones o de la ecuaci´on (3.4) es un espacio
vectorial de dimensi´on n.
Una base de soluciones en este espacio esta formada por cualquier conjunto de
n soluciones linealmente independientes.
Por ejemplo, en el caso de la ecuaci´on
y

+ k
2
y = 0
una base de soluciones queda dada por ¦y
1
, y
2
¦ donde y
1
(t) = cos kt, y
2
(t) = sin kt.
Sea ¦y
1
. . . y
n
¦ una base de soluciones de la ecuaci´on (3.4). Entonces sabemos
que para cualquier soluci´on y, existen constantes c
1
. . . c
n
tal que
y(t) = c
1
y
1
(t) + . . . + c
n
y
n
(t).
Por esta raz´on la expresi´on
y(t) = c
1
y
1
(t) + . . . + c
n
y
n
(t),
51
donde ahora c
1
. . . c
n
son constantes arbitrarias, la llamamos la soluci´on general
de la ecuaci´on homogenea (3.4) (m´as adelante la denotaremos por y
h
(t)).
Ejemplo 3.6. Consideremos el problema
y

−6y

+ 11y

−6y = 0.
Queremos encontrar un conjunto de tres soluciones linealmente independientes, es
decir una base de soluciones de esta ecuaci´on. Intentamos soluciones de la forma
y(t) = e
αt
.
Derivando y substituyendo en la ecuaci´on, se tiene

3
−6α
2
+ 11α −6)e
αt
= 0 ∀ t ∈ R,
por lo que
α
3
−6α
2
+ 11α −6 = 0.
Se tiene que α
1
= 1, α
2
= 2, y α
3
= 3 son raices de esta ecuaci´on, ellas dan origen
a las tres soluciones
y
1
(t) = e
t
, y
2
(t) = e
2t
, y
3
(t) = e
3t
.
Como α
1
, α
2
, α
3
son distintas entre si, sabemos que son linealmente independien-
tes en R. En consecuencia la soluci´on general de la ecuaci´on diferencial es dada
por
y(t) = c
1
e
t
+ c
2
e
2t
+ c
3
e
3t
,
con c
1
, c
2
y c
3
constantes arbitrarias.
Consideremos ahora la ecuaci´on no homogenea (3.3)
n

i=0
a
i
(t)y
(i)
= g(t),
para la cual como en el caso de la ecuaci´on homogenea queremos encontrar una
representaci´on para la soluci´on general. La ecuaci´on homogenea asociada a esta
ecuaci´on es
n

i=0
a
i
(t)y
(i)
= 0.
Sea ¦y
1
, . . . , y
n
¦ una base de soluciones de esta ecuaci´on. y supongamos que por
alg´ un m´etodo hemos encontrado una soluci´on de la ecuaci´on no homogenea que
llamamos y
p
, por soluci´on particular. Sea tambi´en y una soluci´on cualquiera de
la ecuaci´on no homogenea y definamos una funci´on z por z(t) := y(t) −y
p
(t.) Se
tiene que
n

j=0
a
i
(t)z
(j)
(t) =
n

j=0
a
i
(t)y
(j)
(t) −
n

j=0
a
i
(t)y
p
(j)
(t) = g(t) −g(t) = 0.
52
Entonces z es soluci´on de la ecuaci´on homogenea y por lo tanto existen constantes
c
1
, . . . , c
n
, tal que z(t) =

n
i=0
c
i
y
i
(t). De aqu´ı,
y(t) =
n

i=0
c
i
y
i
(t) + y
p
(t),
expresi´on que llamamos la soluci´on general de la ecuaci´on no homogenea. Recono-
ciendo que la expresi´on

n
i=0
c
i
y
i
(t) es lo que hemos llamado la soluci´on general de
la ecuaci´on homogenea, la llamaremos de ahora en adelante y
h
. Se tiene entonces
que la soluci´on general de la ecuaci´on no homogenea se puede escribir como
y(t) = y
h
(t) + y
p
(t).
Ejemplo 3.7. Consideremos la ecuaci´on diferencial
y

−6y

+ 11y

−6y = 3t, (3.9)
y llamemos y a la soluci´on general de esta ecuaci´on. La ecuaci´on homogenea
asociada es
y

−6y

+ 11y

−6y = 0,
y sabemos que su soluci´on general queda dada por
y
h
(t) = c
1
e
t
+ c
2
e
2t
+ c
3
e
3t
,
donde c
1
, c
2
, c
3
son constantes arbitrarias. Falta conocer y
p
(t), la cual vamos a
encontrar de la siguiente forma. Suponemos que y
p
(t) = At +B. Reemplazando en
la ecuaci´on diferencial (3.9), nos da un par de ecuaciones algebraicas de las cuales
determinamos A y B. Efectuando los c´alculos se obtiene A = −
1
2
y B = −
11
12
.
Entonces, la soluci´on general de la ecuaci´on (3.9) es
y(t) = c
1
e
t
+ c
2
e
2t
+ c
3t
e

1
2
t −
11
12
.
3.2. Ecuaci´on de segundo orden homog´enea. En esta secci´on queremos
aplicar la teor´ıa de la secci´on anterior a la ecuaci´on diferencial
a
2
(t)y

+ a
1
(t)y

+ a
0
(t)y = 0, (3.10)
donde a
2
, a
1
, a
0
son funciones cont´ınuas en un intervalo I, con a
2
(t) ,= 0 para todo
t ∈ I, es decir se cumple la condici´on (H
1
).
De acuerdo a lo visto para encontrar la soluci´on general de la ecuaci´on (3.10)
tenemos que encontrar dos soluciones linealmente independientes, es decir una
base de soluciones para esta ecuaci´on. Consideremos dos ejemplos.
Ejemplo 3.8. Consideremos la ecuaci´on
t
2
y

+ 8ty

+ 12y = 0, t ∈ (0, +∞).
53
Intentamos soluciones de la forma y(t) = t
m
. Derivando
y

(t) = mt
m−1
, y

(t) = m(m−1)t
m−2
.
y formando el lado izquierdo de la ecuaci´on, se obtiene que
t
2
y

+ 8ty

+ 12y = t
2
m(m−1)t
m−2
+ 8tmt
m−1
+ 12t
m
= (m(m−1) + 8m+ 12)t
m
.
De aqui que y(t) = t
m
ser´a soluci´on si
m(m−1) + 8m + 12 = m
2
+ 7m+ 12 = (m+ 3)(m+ 4) = 0.
Este polinomio tiene las dos raices,
m
1
= −3, m
2
= −4,
lo que nos da las dos soluciones linealmente independientes
y
1
(t) = t
−3
, y
2
(t) = t
−4
,
con lo que la soluci´on general de la ecuaci´on es
y(t) = C
1
t
−3
+ C
2
t
−4
.
Consideremos a continuaci´on un ejemplo donde el m´etodo anterior nos da solo
una soluci´on.
Ejemplo 3.9. Consideremos la ecuaci´on
t
2
y

−3ty

+ 4y = 0, t ∈ (0, +∞).
Como antes intentamos soluciones de la forma y(t) = t
m
. Derivando, se tiene que
y

(t) = mt
m−1
, y

(t) = m(m−1)t
m−2
.
Formando el lado izquierdo de la ecuaci´on
t
2
y

−3ty

+ 4y = t
2
m(m−1)t
m−2
−3tmt
m−1
+ 4t
m
= (m(m−1) −3m+ 4)t
m
.
De aqui que y(t) = t
m
ser´a soluci´on si
m(m−1) −3m+ 4 = (m−2)
2
= 0.
Este polinomio tiene una raiz con multiplicidad 2,
m
1,2
= 2,
54
lo que nos da solo una soluci´on de la ecuaci´on y
1
(t) = t
2
.
Para completar la base tenemos entonces que usar otro m´etodo el cual lo vamos
a explicar para el caso general. Se deja como ejercicio completar la base para este
ejercicio.
Partimos de la ecuaci´on (3.10) que escribimos en la forma:
y

+ P(t)y

+ Q(t)y = 0 (3.11)
donde
P(t) =
a
1
(t)
a
2
(t)
y Q(t) =
a
0
(t)
a
2
(t)
.
Suponemos que se conoce una soluci´on y
1
de este problema y queremos completar
la base.
Por condiciones t´ecnicas vamos a suponer tambi´en que y
1
(t) ,= 0 para todo
t ∈ I. Si esta condici´on no se satisface entonces el m´etodo se aplica en cualquier
subintervalo de I donde ella se se cumpla.
Intentamos una soluci´on en la forma
y(t) = u(t)y
1
(t). (3.12)
Derivando y formando la ecuaci´on (3.11) se obtiene:
0 = y

+P(t)y

+Q(t)y = y
1
(t)u

+(2y

1
(t)+P(t)y
1
(t))u

+(y

1
+ P(t)y

1
+ Q(t)y
. ¸¸ .
=0
)u,
de donde y, dado por (3.12), ser´a soluci´on si u satisface
y
1
(t)u

+ (2y

1
(t) + P(t)y
1
(t))u

= 0.
Esta ecuaci´on se puede escribir como
u

+
_
2y

1
(t)
y
1
(t)
+ P(t)
_
u

= 0.
Haciendo el cambio de variable u

= w, se obtiene que w satisface
w

+
_
2y

1
(t)
y
1
(t)
+ P(t)
_
. ¸¸ .

P(t)
w = 0,
55
que es una lineal de primer orden. Ahora
e

P(t)dt
= y
1
(t)
2
e

P(t)dt
,
de donde
_
w

+
¯
P(t)w
_
e

P(t)dt
= 0,
nos da
_
y
1
(t)
2
e

P(t)dt
w(t)
_

= 0.
Integrando
w(t) = u

(t) =
C
2
y
1
(t)
2
e

P(t)dt
,
de donde una nueva integraci´on nos da
u(t) = C
1
+ C
2
_
1
y
1
(t)
2
e

P(t)dt
dt.
De aqui y de (3.12), y(t) queda dado por
y(t) = C
1
y
1
(t) + C
2
y
1
(t)
_
e

P(t)dt
y
1
(t)
2
dt. (3.13)
Una segunda soluci´on es dada entonces por
y
2
(t) = y
1
(t)
_
e

P(t)dt
y
1
(t)
2
dt.
Mostramos a continuaci´ on que y
1
, y
2
son linealmente independientes en I.
Para esto formamos el correspondiente wronskiano
W(y
1
, y
2
)(t) =
¸
¸
¸
¸
y
1
y
2
y

1
y

2
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
¸
y
1
(t) y
1
(t)
_
e

P(t)dt
y
2
1
(t)
dt
y

1
(t) y

1
(t)
_
e

P(t)dt
y
2
1
(t)
dt +
y
1
(t)e

P(t)dt
y
2
1
(t)
¸
¸
¸
¸
¸
¸
¸
¸
= e

P(t)dt
,= 0 en I
56
Por lo tanto y
1
, y
2
son soluciones linealmente independientes en I de la ecuaci´on
diferencial (3.11) ( respectivamente (3.10)), y la soluci´on general de esta ecuaci´on
es entonces (3.13).
3.3. EDO lineal de orden n con coeficientes constantes. Consideremos
primero el caso de la ecuaci´on de segundo orden
ay

+ by

+ cy = 0. (3.14)
donde a, b y c son constantes con a ,= 0. Intentando soluciones de la forma y(t) =
e
mt
, derivando, y reemplazando en la ecuaci´on (3.14), se obtiene
(am
2
+ bm +c)e
mt
= 0.
Por lo tanto y es soluci´on de (3.14) si m es una ra´ız del polinomio
p(m) = am
2
+bm + c. (3.15)
Dependiendo de las ra´ıces se obtienen distintos casos.
(a) p(m) = 0 tiene dos ra´ıces reales y distintas m
1
y m
2
. Entonces y
1
(t) = e
m
1
t
y y
2
(t) = e
m
2
t
son soluciones linealmente independientes que forman una base de
soluciones. La soluci´on general en este caso es dada por
y(t) = c
1
e
m
1
t
+ c
2
e
m
2
t
,
donde c
1
y c
2
son constantes reales arbitrarias.
(b) p(m) = 0 tiene una ra´ız real m
1
de multiplicidad dos, la cual da or´ıgen a
la soluci´on y
1
(t) = e
m
1
t
. Para encontrar otra soluci´on linealmente independiente
usamos el m´etodo de la secci´on anterior. As´ı usando la formula
y
2
(t) = y
1
(t)
_
1
y
2
1
(t)
e

P(t)dt
dt
con P(t) =
b
a
y m
1
= −
b
2a
, se obtiene la soluci´on y
2
(t) = te
m
1
. Las soluciones y
1
e
y
2
son linealmente independientes en R por lo que la soluci´on general de (3.14) es
y(t) = c
1
e
m
1
t
+c
2
te
m
1
t
= (c
1
+ c
2
t)e
m
1
t
.
(c) p(m) = 0 tiene ra´ıces complejas, que deben ser complejas conjugadas y que
denotamos por m
1
= α+iβ, m
2
= α−iβ, con β ,= 0. En este caso las expresiones
y
1
(t) = e
(α+iβ)t
e y
2
(t) = e
(α−iβ)t
,
son soluciones complejas de (3.14). Estas se pueden escribir como
y
1
(t) = u(t) + iv(t), y
2
(t) = u(t) −iv(t),
donde
u(t) = e
αt
cos βt y v(t) = e
αt
sin βt.
57
A partir de que y
1
e y
2
son soluciones complejas de (3.14) es inmediato ver
que u y v son soluciones reales de esta ecuaci´on. Tambi´en, derivando, se puede
demostrar directamente que u y v son soluciones linealmente independientes en R
de (3.14). De esta forma la soluci´on general de (3.14) se puede escribir como:
y(t) = c
1
e
αt
cos βt + c
2
e
αt
sin βt =
_
c
1
cos βt + c
2
sin βt
_
e
αt
.
Ejemplo 3.10.
3
d
2
y
dt
2
+ 2
dy
dt
+ y = 0
En este caso p(m) = 3m
2
+ 2m+ 1, que tiene como raices
m
1
=
−1 + i

2
3
y m
2
=
−1 −i

2
3
.
La soluci´on general de esta ecuaci´on es
y(t) = e
−t/3
_
c
1
cos

2t
3
+ c
2
sin

2t
3
_
.
Consideremos ahora el caso de la ecuaci´on de orden n. Tiene la forma
a
n
y
(n)
+ a
n−1
y
(n−1)
+. . . +a
2
y

+ a
1
y

+ a
0
y = 0 (3.16)
donde a
0
, a
1
, ...., a
n
son constantes reales, con a
n
,= 0. Como en el caso de n = 2
vamos a intentar soluci´on de la forma y(t) = e
mt
. Derivando y reemplazando en
(3.16), se obtiene
p(m)e
mt
= 0,
donde
p
n
(m) = a
n
m
n
+.... + a
1
m+ a
0
,
que vamos a llamar el polinomio caracter´ıstico de la ecuaci´on de orden n.
As´ı tendremos soluciones de (3.16) de la forma y(t) = e
mt
cada vez que m sea
una ra´ız del polinomio caracter´ıstico. Como en el caso de la ecuaci´on de segundo
orden hay varios casos dependiendo de las ra´ıces. A continuaci´on vamos a estudiar
las distintas situaciones que suceden.
Caso 1. p
n
(m) = 0 tiene n ra´ıces reales y distintas m
1
, m
2
, ..., m
n
. Esto da or´ıgen
a las n soluciones linealmente independientes:
y
1
(t) = e
m
1
t
, . . . , y
n
(t) = e
m
n
t
,
que forman una base de soluciones para este caso. La soluci´on general es entonces
y(t) =
n

i=1
C
i
e
m
i
t
.
58
Caso 2. p
n
(m) = 0 tiene una sola ra´ız real m, de multiplicidad n. Digamos
p
n
(m) = a
n
(m−m
1
)
n
.
Vamos a motivar la b´ usqueda de la base de soluciones para este caso por medio
de un caso particular. Consideremos la ecuaci´on diferencial
y

+ 3y

+ 3y

+y = 0.
El polinomio caracter´ıstico correspondiente es
p
3
(m) = m
3
+ 3m
2
+ 3m+ 1 = (m + 1)
3
que tiene como ra´ız a m
1
= −1 con multiplicidad 3. Esto da solo una soluci´on de
la forma exponencial y
1
(t) = e
−t
, y por lo tanto tenemos que completar la base
por un medio distinto.
Definamos la funci´on de dos variables u(t, α) = e
αt
. Se tiene
∂u
∂t
(t, α) = αe
αt
,

2
u
∂t
2
(t, α) = α
2
e
αt
,

3
u
∂t
3
(t, α) = α
3
e
αt
.
De aqu´ı que

3
u
∂t
3
(t, α) + 3

2
u
∂t
2
(t, α) + 3
∂u
∂t
(t, α) + u(t, α)
=

3
∂t
3
(e
αt
) + 3

2
∂t
2
(e
αt
) + 3

∂t
(e
αt
) + e
αt
= (α
3
+ 3α
2
+ 3α + 1)e
αt
= (α + 1)
3
e
αt
(3.17)
expresi´on que es una identidad. Derivando (3.17) parcialmente con respecto a α,
se obtiene

3
∂t
3
(
∂u
∂α
(t, α)) + 3

2
∂t
2
(
∂u
∂α
(t, α)) + 3

∂t
(
∂u
∂α
(t, α)) +
∂u
∂α
(t, α)
=

3
∂t
3
(te
αt
) + 3

2
∂t
2
(te
αt
) + 3

∂t
(te
αt
) + te
αt
= 3(α + 1)
2
e
αt
+ t(α + 1)
3
e
αt
(3.18)
Derivando nuevamente con respecto a α, obtenemos

3
∂t
3
(t
2
e
αt
) + 3

2
∂t
2
(t
2
e
αt
) + 3

∂t
(t
2
e
αt
) + t
2
e
αt
59
= 6(α + 1)e
αt
+ 6(α + 1)
2
te
αt
+ t
2
(α + 1)
3
e
αt
(3.19)
Notemos a continuaci´ on que se tiene la siguiente propiedad:

i
∂t
i
(t
k
e
αt
)
α=m
1
=
d
i
dt
i
(t
k
e
m
1
t
),
donde k es un entero no negativo. Usando esta propiedad, y evaluando (3.17),
(3.18) y (3.19) para α = m
1
se obtienen respectivamente las siguientes ecuaciones:
d
3
dt
3
(e
m
1
t
) + 3
d
2
dt
2
(e
m
1
t
) + 3
d
dt
(e
m
1
t
) + e
m
1
t
= (m
1
+ 1)
3
e
m
1
t
, (3.20)
d
3
dt
3
(te
m
1
t
) +
d
2
dt
2
(te
m
1
t
) +
d
dt
(te
m
1
t
) + te
m
1
t
= 3(m
1
+ 1)
2
e
m
1
t
+ t(m
1
+ 1)
3
e
m
1
t
, (3.21)
y
d
3
dt
3
(t
2
e
m
1
t
) +
d
2
dt
2
(t
2
e
m
1
t
) +
d
dt
(t
2
e
m
1
t
) + t
2
e
m
1
t
= 6(m
1
+ 1)e
m
1
t
+ 6(m
1
+ 1)
2
te
m
1
t
+ t
2
(m
1
+ 1)
3
e
m
1
t
. (3.22)
Pero m
1
= −1, por lo que los segundos miembros de (3.20), (3.21) y (3.22), son
cero. Se obtiene entonces que las funciones
y
1
(t) = e
m
1
t
, y
2
(t) = te
m
1
t
, y
3
(t) = t
2
e
m
1
t
son soluciones de la ecuaci´on diferencial. Veamos que son soluciones linealmente
independientes. Para esto evaluamos el wronskiano
60
W(y
1
, y
2
, y
3
)(t) =
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
e
m
1
t
te
m
1
t
t
2
e
m
1
t
m
1
e
m
1
t
e
m
1
t
+ m
1
te
m
1
t
2te
m
1
t
+ t
2
m
1
e
m
1
t
m
2
1
e
m
1
t
2m
1
e
m
1
t
+ m
2
1
te
m
1
t
2e
m
1
t
+ 4tm
1
e
m
1
t
+ t
2
m
2
1
e
m
1
t
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
en t = 0, obteniendo
W(y
1
, y
2
, y
3
)(0) =
¸
¸
¸
¸
¸
¸
1 0 0
m
1
1 0
m
2
1
2 2
¸
¸
¸
¸
¸
¸
= 2,
por lo que estas soluciones son linealmente independientes en R. La soluci´on ge-
neral del problema es finalmente
y(t) = (c
1
+ c
2
t + c
3
t
2
)e
m
1
t
.
El caso general se demuestra de la misma forma, aunque claramente en forma
m´as t´ecnica. En este caso m
1
es ra´ız real de multiplicidad n, as´ı que el polinomio
caracteristico tiene la forma
p
n
(m) = a
n
(m−m
1
)
n
.
La base de soluciones est´a dada por el conjunto de soluciones linealmente inde-
pendientes
y
1
(t) = e
m
1
t
, y
2
(t) = te
m
1
t
, . . . , y
n
(t) = t
n−1
e
m
1
t
,
por lo que la soluci´on general es
y(t) = (c
1
+c
2
t + c
3
t
2
+ + c
n
t
n−1
)e
m
1
t
.
Caso 3. Suponemos ahora que el polinomio caracter´ıstico p
n
(m) tiene una ra´ız real
m
1
de multiplicidad k y el resto de las ra´ıces son reales y simples. Razonando como
en los casos anteriores se puede demostrar que una base de soluciones est´a formada
de la siguientes manera. Para la ra´ız m
1
se obtienen las soluciones
61
y
1
(t) = e
m
1
t
, y
2
(t) = te
m
1
t
, . . . , y
k
(t) = t
k−1
e
m
1
t
,
y para el resto de las ra´ıces m
k+1
, . . . , m
n
, las soluciones
y
k+1
(t) = e
m
k+1
t
, . . . , y
n
(t) = e
mnt
.
Estas n funciones son linealmente independientes en R. La soluci´on general se
puede escribir entonces como
y(t) = (c
1
+ + c
k
t
k−1
)e
m
1
t
+ c
k+1
e
m
k+1
t
+. . . +c
n
e
m
n
t
.
Caso 4. Las ra´ıces del polinomio caracter´ıstico p
n
(m) son todas reales y son tales
que dos de ellas tienen multiplicidad, m
1
con multiplicidad k
1
y m
2
con multipli-
cidad k
2
, el resto de las ra´ıces (si es que existen) m
k
1
+k
2
+1
, . . . , m
n
, son simples.
En este caso la base de soluciones est´a formada por las funciones
y
1
(t) = e
m
1
t
, . . . , y
k
1
(t) = t
k
1
−1
e
m
1
t
asociadas a la ra´ız m
1
,
y
k
1
+1
(t) = e
m
2
t
, y
k
1
+2
(t) = te
m
2
t
, . . . , y
k
1
+k
2
(t) = t
k
2
−1
e
m
2
t
asociadas a la ra´ız m
2
, y
y
k
1
+k
2
+1
(t) = e
m
k
1
+k
2
+1
t
, . . . , y
n
(t) = e
m
n
t
que est´an asociadas al resto de las ra´ıces. Estas n funciones son linealmente inde-
pendientes en R y por lo tanto la soluci´on general se puede escribir como
y(t) = (c
1
+. . . +c
k
1
t
k
1
−1
)e
m
1
t
+ (c
k
1
+1
+. . . +c
k
1
+k
2
t
k
2
−1
)e
m
2
t
+c
k
1
+k
2
+1
e
m
k
1
+k
2
+1
t
+ . . . + c
m
n
e
mnt
.
62
Ejemplo 3.11. Resuelva la ecuaci´on diferencial
y
(iv)
−2y

+ y = 0
El polinomio caracter´ıstico correspondiente es
p(m) = m
4
−2m
2
+ 1 = (m
2
−1)
2
= (m+ 1)
2
(m−1)
2
que tiene las ra´ıces m
1
= 1, m
2
= −1, ambas con multiplicidad 2, con lo que la
base de soluciones est´a dada por
e
t
, te
t
, e
−t
, te
−t
.
La soluci´on general es entonces
y(t) = (c
1
+ c
2
t)e
t
+ (c
3
+ c
4
t)e
−t
.
Caso 5. Suponemos que p
n
(m) tiene un par de ra´ıces complejas conjugadas m
1
=
α + iβ, m
2
= α − iβ, con β ,= 0, y el resto de las ra´ıces m
3
, . . . , m
n
son reales
y simples. Tal como antes se puede demostrar que para las ra´ıces m
1
y m
2
se
obtienen las soluciones reales
y
1
(t) = e
αt
cos βt y
2
(t) = e
αt
sin βt,
y para el resto de las ra´ıces las soluciones
e
m
3
t
, . . . , e
m
n
t
.
As´ı la soluci´on general se escribe como
y(t) = c
1
e
αt
cos βt + c
2
e
αt
sin βt +c
3
e
m
3
t
+ + c
mn
e
m
n
t
.
Ejemplo 3.12. Resuelva la ecuaci´on diferencial
y

−8y = 0.
El polinomio caracter´ıstico correspondiente es
p(m) = m
3
−8 = (m−2)(m
2
+ 2m+ 4)
que tiene las ra´ıces m
1
= 2, m
2
= −1 + i

3, m
2
= −1 −i

3, con lo que la base
de soluciones est´a dada por
e
2t
, e
−t
cos(

3t), e
−t
sin(

3t).
La soluci´on general es entonces
y(t) = c
1
e
2t
+ (c
2
cos(

3t) + c
3
sin(

3t))e
−t
.
63
Consideremos un ´ ultimo caso.
Caso 6. Suponemos que el polinomio caracter´ıstico p
n
(m) tiene una ra´ız compleja,
m
1
= α + iβ de multiplicidad k, y por lo tanto tiene tambi´en a m
2
= α − iβ,
como ra´ız con multiplicidad k. Para simplificar vamos a suponemos que no hay
m´as ra´ıces lo que implica que n = 2k. En este caso se puede demostrar que la
base de soluciones esta formada por las funciones:
e
αt
cos βt, te
αt
cos βt, , t
k−1
e
αt
cos βt
e
αt
sin βt, te
αt
sin βt, , t
k−1
e
αt
sin βt.
De esta forma la soluci´on general es
y(t) = e
αt
(c
1
+ c
2
t + + c
k
t
k−1
) cos βt
+e
αt
(d
1
+ d
2
t + +d
k
t
k−1
) sin βt.
Ejercicio. Encuentre la base de soluciones y la soluci´on general si en Caso 6 se
tiene que n > 2k y adem´as el polinomio caracter´ıstico tiene n −2k ra´ıces reales y
simples.
Ejemplo 3.13. Encuentre la soluci´on general para la ecuaci´on diferencial
y
(iv)
+y = 0.
El polinomio caracter´ıstico es
p
4
(m) = m
4
+ 1 = (m
2
−i)(m
2
+ i),
que tiene como ra´ıces a
m
1,2
= ±

i, m
3,4
= ±

−i.
Estas se pueden escribir como
m
1
=
1

2
+
i

2
m
2
= −
1

2

i

2
m
3
=
1

2

i

2
m
4
= −
1

2
+
i

2
.
La base de soluciones es entonces
e
t

2
cos
_
t

2
_
, e
t

2
sin
_
t

2
_
, e

t

2
cos
_
t

2
_
, e

t

2
sin
_
t

2
_
.
La soluci´on general se puede representar como
64
y(t) = e
t

2
_
c
1
cos
t

2
+ c
2
sin
t

2
_
+ e

t

2
_
d
1
cos
t

2
+ d
2
sin
t

2
_
.
3.4. M´etodo de variaci´on de par´ametros. Este m´etodo nos va a a permitir
encontrar soluciones particulares de algunas ecuaciones diferencial con coeficientes
variables. Comencemos con la ecuaci´on diferencial
a
2
(t)y

+a
1
(t)y

+ a
0
(t)y = g(t).
Como siempre suponemos que a
2
, a
1
, y a
0
, g son funciones que satisfacen la con-
dici´on (H
1
) en un intervalo I. La ecuaci´on la escribimos en la forma
y

+ P(t)y

+ Q(t)y = f(t) (3.23)
donde
P(t) =
a
1
a
2
(t), Q(t) =
a
0
a
2
(t), f(t) =
g
a
2
(t).
La ecuaci´on homog´enea asociada es
y

+P(t)y

+Q(t)y = 0, (3.24)
para la cual suponemos conocida una base de soluciones y
1
, y
2
. As´ı, la soluci´on
general de esta ecuaci´on es
y
h
(t) = C
1
y
1
(t) + C
2
y
2
(t).
El m´etodo para para encontrar una soluci´on particular y
p
(t) de (3.23) consiste
en suponer
y
p
(t) = u
1
(t)y
1
(t) + u
2
(t)y
2
(t)
y reemplazar en (3.23) para encontrar dos ecuaciones para las funciones inc´ognitas
u
1
y u
2
. Derivando y reemplazando se obtiene
65
u
1
(t)[y

1
+ P(t)y

1
+ Q(t)y
1
. ¸¸ .
=0
] + u
2
(t)[y

2
+P(t)y

2
+ Q(t)y
2
. ¸¸ .
=0
] + P(t)u

1
(t)y
1
(t)
+P(t)u

2
(t)y
2
(t) + 2u

1
(t)y

1
(t) + 2u

2
(t)y

2
(t) + u

1
(t)y
1
(t) + u

2
(t)y
2
(t) = f(t),
que dado que y
1
e y
2
satisfacen la ecuaci´on homogenea se puede escribir como
P(t)[u

1
(t)y
1
(t) + u

2
(t)y
2
(t)]
+u

1
(t)y

1
(t) + u

2
(t)y

2
(t) +
d
dt
[u

1
(t)y
1
(t) + u

2
(t)y
2
(t)] = f(t) (3.25)
Como necesitamos 2 ecuaciones para u
1
y u
2
suponemos que
u

1
(t)y
1
(t) + u

2
(t)y
2
(t) = 0, (3.26)
quedando la ecuaci´on (3.25) como
u

1
(t)y

1
(t) + u

2
(t)y

2
(t) = f(t). (3.27)
Ecuaciones (3.26) y (3.27) son dos ecuaciones para u
1
y u
2
. Usando matrices
estas toman la forma
_
y
1
(t) y
2
(t)
y

1
(t) y

2
(t)
_ _
u

1
(t)
u

2
(t)
_
=
_
0
f(t)
_
Usando la regla de Kramer se obtiene que
u

1
(t) = −
y
2
(t)f(t)
W(y
1
, y
2
)(t)
, y u

2
(t) =
y
1
(t)f(t)
W(y
1
, y
2
)(t)
.
Notamos que W(y
1
, y
2
)(t) ,= 0 para todo t ∈ I porque y
1
, y
2
son linealmente
independientes en t. Integrando las expresiones para u

1
y u

2
se obtiene
66
u
1
(t) = C
1

_
y
2
(t)f(t)
W(y
1
, y
2
)(t)
dt, y u
2
(t) = C
2
+
_
y
1
(t)f(t)
W(y
1
, y
2
)(t)
,
de donde
u
1
(t)y
1
(t) + u
2
(t)y
2
(t) =
= C
1
y
1
(t) + C
2
y
2
(t) −y
1
(t)
_
y
2
(t)f(t)
W(y
1
, y
2
)(t)
dt + y
2
(t)
_
y
1
(t)f(t)
W(y
1
, y
2
)(t)
.
Como los dos primeros t´erminos forman parte de la soluci´on de la ecuaci´on ho-
mogenea podemos tomar la soluci´on particular como
y
p
(t) = −y
1
(t)
_
y
2
(t)f(t)
W(y
1
, y
2
)(t)
dt + y
2
(t)
_
y
1
(t)f(t)
W(y
1
, y
2
)(t)
.
Con esto la soluci´on general de la ecuaci´on es
y(t) = C
1
y
1
(t) + C
2
y
2
(t) + y
p
(t).
Ejemplo 3.14. Resuelva la ecuaci´on diferencial
d
2
y
dt
2
−4
dy
dt
+ 4y = (t + 5)
2
e
2t
.
La ecuaci´on homogenea asociada es:
d
2
y
dt
2
−4
dy
dt
+ 4y = 0,
con polinomio caracter´ıstico (m − 2)
2
= 0, y por lo tanto m = 2 es ra´ız de
multiplicidad 2. De aqu´ı que la soluci´on general de la ecuaci´on homogenea es
y
h
(t) = (c
1
+ c
2
t)e
2t
.
Para encontrar la soluci´on particular de la no homogenea, usamos variaci´on de
par´ametros. Se obtiene:
y
p
(t) = −e
2t
_
t
4
4
+
10
3
t
3
+
25
2
t
2
_
+te
2t
_
t
3
3
+ 5t
2
+ 25t
_
y, finalmente, la soluci´on general es:
y(t) = (c
1
+c
2
t)e
2t
+y
p
(t).
67
Estudiemos a continuaci´on como extender el m´etodo para ecuaciones de orden
superior. Consideremos el siguiente caso.
y

+P(t)y

+ Q(t)y

+ R(t)y = f(t), (3.28)
donde las funciones coeficientes y f son continuas en un intervalo I. Como antes,
suponemos conocida una base de soluciones ¦y
1
, y
2
, y
3
¦ de la ecuaci´on homogenea
asociada y postulamos como soluci´on particular de (3.28)
y
p
(t) = u
1
(t)y
1
(t) + u
2
(t)y
2
(t) + u
3
(t)y
3
(t). (3.29)
Derivando esta expresi´on se obtiene
y

p
(t) = u
1
(t)y

1
(t) + u
2
(t)y

2
(t) + u
3
(t)y

3
(t) (3.30)
donde hemos impuesto la condici´on de que
u

1
(t)y
1
(t) + u

2
(t)y
2
(t) + u

3
(t)y
3
(t) = 0. (3.31)
Derivando (3.30) e imponiendo que
u

1
(t)y

1
(t) + u

2
(t)y

2
(t) + u

3
(t)y

3
(t) = 0, (3.32)
se obtiene
y

p
(t) = u
1
(t)y

1
(t) + u
2
(t)y

2
(t) + u
3
(t)y

3
(t). (3.33)
Derivando esta expresi´on obtenemos
y

p
(t) = u
1
(t)y

1
(t) + u
2
(t)y

2
(t) + u
3
(t)y

3
(t)
+u

1
(t)y

1
(t) + u

2
(t)y

2
(t) + u

3
(t)y

3
(t). (3.34)
68
Reemplazando (3.29), (3.30), (3.33) y (3.34) en (3.28) y utilizando que y
1
, y
2
, y
3
son soluciones de la ecuaci´on homogenea asociada, se obtiene
u

1
(t)y

1
(t) + u

2
(t)y

2
(t) + u

3
(t)y

3
(t) = f(t). (3.35)
Las ecuaciones (3.31), (3.32) y (3.35) se pueden escribir como el sistema
_
_
y
1
(t) y
2
(t) y
3
(t)
y

1
(t) y

2
(t) y

3
(t)
y

1
(t) y

2
(t) y

3
(t)
_
_
_
_
u

1
(t)
u

2
(t)
u

3
(t)
_
_
=
_
_
0
0
f(t),
_
_
para las incognitas u

1
, u

2
, u

3
. As´ı, usando la regla de Cramer, se obtiene que:
u

1
(t) = f(t)
W(y
2
, y
3
)
W(y
1
, y
2
, y
3
)
u

2
(t) = f(t)
W(y
3
, y
1
)
W(y
1
, y
2
, y
3
)
u

3
(t) = f(t)
W(y
1
, y
2
)
W(y
1
, y
2
, y
3
)
,
donde W(y
i
, y
j
) denota el wronskiano de las funciones y
i
, y
j
para j = 1, 2, 3, y
W(y
1
, y
2
, y
3
) el wronskiano de las funciones y
1
, y
2
, y
3
. Como en el caso anterior
estas expresiones e integran y se forma
u
1
(t)y
1
(t) + u
2
(t)y
2
(t) + u
3
(t)y
3
(t),
de donde se obtiene una soluci´on particular.
En forma enteramente similar se puede encontrar una f´ormula para encontrar
una soluci´on particular para una ecuaci´on lineal de orden n. Esto se deja como
ejercicio.
Para usar el m´etodo de variaci´on de par´ametros hay que conocer una base de
soluciones de la ecuaci´on homogenea asociada. Vamos a consider a continuaci´ on
una clase de ecuaciones diferenciales a coeficientes variables donde esto es simple.
Ecuaci´on de Euler-Cauchy. Tiene la forma:
a
n
t
n
y
(n)
+a
n−1
t
n−1
y
(n−1)
+ + a
1
ty

+ a
0
y = g(t), (3.36)
69
donde a
0
, a
1
, . . . , a
n
son constantes con a
n
,= 0 y donde suponemos que t > 0. La
ecuaci´on homogenea asociada es
a
n
t
n
y
(n)
+ . . . + a
1
ty

+ a
0
y = 0. (3.37)
Afirmamos que con la transformaci´on de variable independiente t = e
τ
la ecuaci´on
(3.36) y la ecuaci´on (3.37), se transforman en ecuaciones a coeficientes constantes.
Ilustramos esto para la ecuaci´on de segundo orden.
a
2
t
2
y

+a
1
ty

+ a
0
y = g(t). (3.38)
La ecuaci´on homogenea asociada es
a
2
t
2
y

+ a
1
ty

+ a
0
y = 0. (3.39)
Denotando por ¯ y(τ) = y(e
τ
) y derivando se obtiene respectivamente:
ty

=
d¯ y

y t
2
y

=
d
2
¯ y
d
2
τ

d¯ y

.
De esta forma la ecuaci´on homogenea asociada
a
2
t
2
y

+ a
1
ty

+ a
0
y = 0,
se transforma en la ecuaci´on a coeficientes constantes siguiente:
a
2
d
2
¯ y

2
+ (a
1
−a
2
)
d¯ y

+ a
0
¯ y = 0.
El polinomio caracter´ıstico correspondiente es
p(m) = a
2
m
2
+ (a
1
−a
2
)m+ a
0
.
Denotando por m
1
y m
2
las ra´ıces de este polinomio tenemos 3 casos.
Caso 1. m
1
y m
2
son reales y distintas. En este caso una base de soluciones es
70
¯ y
1
(τ) = e
m
1
τ
, ¯ y
2
(τ) = e
m
2
τ
.
Caso 2. m
1
= m
2
= m. Una base de soluciones es
¯ y
1
(τ) = e

, ¯ y
2
(τ) = τe

.
Caso 3. Las ra´ıces son complejas (conjugadas), m
1
= α + iβ, m
2
= α − iβ, con
β ,= 0. En este caso una base de soluciones es
¯ y
1
(τ) = e
ατ
cos βτ, ¯ y
2
(τ) = e
ατ
sin βτ.
Conocida estas bases, las expresamos en t´ermino de la variable t para obtener
las bases correspondientes para la ecuaci´on (3.39). Se tiene respectivamente:
Caso 1.
y
1
(t) = t
m
1
, y
2
(t) = t
m
2
.
Caso 2.
y
1
(t) = t
m
, y
2
(t) = t
m
ln t.
Caso 3.
y
1
(t) = t
α
cos (β(ln t)) , y
2
(t) = t
α
sin (β(ln t)) .
Estamos entonces en posici´on de obtener una soluci´on particular de la ecuaci´on
(3.38) por medio del m´etodo de variaci´on de par´ametros. Sigamos con un ejemplo.
Ejemplo 3.15. Resuelva la ecuaci´on diferencial
t
2
y

−2ty

+ 2y = t
4
e
t
.
Haciendo el cambio de variable t = e
τ
la ecuaci´on homogenea asociada
t
2
y

−2ty

+ 2y = 0,
se transforma en
d
2
¯ y
d
2
τ
−3
d¯ y

+ 2¯ y = 0.
71
El polinomio caracter´ıstico es p(m) = m
2
− 3m + 2, con ra´ıces m
1
= 1, m
2
= 2.
De aqu´ı que la base de soluciones es
¯ y
1
(τ) = e
τ
, ¯ y
2
(τ) = e

.
Volviendo a la variable t esta base queda
y
1
(t) = t, y
2
(t) = t
2
,
por lo que la soluci´on general de la ecuaci´on es
y
h
(t) = c
1
t +c
2
t
2
.
Para encontrar la soluci´on particular usando variaci´on de par´ametros, partiendo
de la ecuaci´on escrita como
y


2y

t
+
2y
t
= t
2
e
t
.
Ponemos y
p
= u
1
(t)y
1
(t) + u
2
(t)y
2
(t) donde u
1
, u
2
satisfacen:
u

1
(t) =
−y
2
(t)f(t)
W(y
1
, y
2
)(t)
,
u

2
(t) =
y
1
(t)f(t)
W(y
1
, y
2
)(t)
.
Calculando el wronskiano, se obtiene
W(y
1
, y
2
)(t) =
¸
¸
¸
¸
t t
2
1 2t
¸
¸
¸
¸
= t
2
.
Entonces
u

1
(t) = −t
2
e
t
, y u

2
(t) = te
t
.
72
Integrando, se tiene
u
1
(t) = −
_
t
2
e
t
dt = −t
2
e
t
+ 2te
t
−2e
t
,
y
u
2
(t) =
_
te
t
dt = te
t
−e
t
.
Con esto la soluci´on de la ecuaci´on queda
y(t) = c
1
t + c
2
t
2
+ u
1
(t)t + u
2
(t)t
2
= c
1
t + c
2
t
2
+t
2
e
t
−2te
t
.
Nota. Observamos que un procedimiento alternativo al expuesto consiste en trans-
formar la ecuaci´on.
a
2
t
2
y

+ a
1
ty

+a
0
y = g(t)
por medio del cambio de variables t = e
τ
, a
a
2
d
2
¯ y
d
2
τ
+ (a
1
−a
2
)
d¯ y

+ a
0
y = g(e
τ
),
resolver esta ecuaci´on a coeficientes constantes, y volver despu´es a las expresiones
en t´erminos de la variable t.
3.5. M´etodo de los coeficientes indeterminados. Este m´etodo nos va a
servir para encontrar soluciones particulares de la ecuaci´on lineal no homogeneas
a coeficientes constantes
a
n
y
(n)
+ . . . + a
1
y

+ a
0
y = g(t), (3.40)
donde g : I →R es una funci´on continua y a

1
, a
n
son constantes reales.
Introducimos una notaci´on operacional denotando por
73
D =
d
dt
, D
2
=
d
2
dt
2
, . . . , D
n
=
d
n
dt
n
.
As´ı la ecuaci´on diferencial anterior la podemos escribir como
(a
n
D
n
+. . . +a
1
D +a
0
I)y = g(t), (3.41)
donde I denota el operador identidad. La expresi´on
P(D) = a
n
D
n
+ . . . + a
1
D + a
0
I, (3.42)
la llamamos un operador diferencial de orden n (a coeficientes constantes). Como
se puede ver inmediatamente P(D) es un operador lineal sobre el espacio vectorial
de las funciones y : R →R de clase C
n
(R, R).
Como motivaci´on veremos algunos casos particulares de operadores diferencia-
les. Consideremos los tres operadores diferenciales:
P(D) = D
2
+D, Q(D) = D(D + I), R(D) = (D + I)D.
Se tiene
P(D)y = (D
2
+ D)y =
d
2
y
dt
2
+
dy
dt
,
Q(D)y = D(D + I)y =
d
dt
_
dy
dt
+ y
_
=
d
2
y
dt
2
+
dy
dt
,
y
R(D)y = (D + I)Dy =
_
d
dt
+ I
_
dy
dt
=
d
2
y
dt
2
+
dy
dt
por lo tanto P(D) = Q(D) = R(D), es decir
D
2
+ D = D(D + I) = (D + I)D,
que interpretamos como que P(D) = D
2
+D se puede factorizar en 2 factores que
conmutan. En forma similar se demuestran los siguientes casos.
Para a y b n´ umeros reales y n un entero positivo, se tiene:
74
(D
2
+ (a +b)D + abI) = (D + aI)(D + bI) = (D + bI)(D + aI),
(D
2
+ (a + b)D + abI)
n
= (D +aI)
n
(D + bI)
n
= (D + bI)
n
(D + aI)
n
,
y si m es otro entero positivo, se tiene
(D
2
+ (a + b)D + abI)
n
(D
2
+ (c + d)D +cdI)
m
= (D +aI)
n
(D + bI)
n
(D + cI)
m
(D + dI)
m
= (D + bI)
n
(D + aI)
n
(D +dI)
m
(D + cI)
m
= (D + cI)
m
(D + aI)
n
(D + dI)
m
(D +bI)
n
= (D
2
+ (c + d)D + cdI)
m
(D
2
+ (a + b)D + abI)
n
.
Similarmente si a
1
, . . . , a
n
son n´ umeros reales, se tiene:
(D +a
1
I) (D + a
n
I) =

j=1..n
(D +a
k(j)
I)
donde ¦k(1), . . . , k(n)¦ es cualquier reordenamiento de ¦1, . . . , n¦. Note que esta
expresi´on es tambien cierta si los a
1
, . . . , a
n
son n´ umeros complejos.
Finalmente, si adem´as b
1
, . . . , b
n
son n´ umeros reales se tiene
(D
2
+ (a
1
+b
1
)D + a
1
b
1
I) (D
2
+ (a
n
+ b
n
)D + a
n
b
n
I)
=

j=1..n
(D
2
+ (a
k(j)
+ b
k(j)
)D + a
k(j)
b
k(j)
)
75
Consideremos nuevamente la ecuaci´on diferencial (3.41), que reescribimos como
p(D)y = g(t), (3.43)
con p(D) dado por (3.42). La ecuaci´on homogenea asociada es
p(D)y = 0, (3.44)
para la cual sabemos como encontrar sus soluciones. Hemos visto que estas solucio-
nes forman un espacio vectorial lineal de dimensi´on n. Este espacio es exactamente
el kernel del operador p(D). Por abuso de notaci´on p(D) lo llamaremos tambi´en
un polinomio (diferencial).
En el m´etodo de coeficientes indeterminados es conveniente introducir el con-
cepto de polinomio anulador. Sea u una funci´on suficientemente diferenciable y
supongamos que q(D) es un polinomio diferencial tal que q(D)u = 0. Entonces
decimos que q(D) es un polinomio anulador de u. Notamos que equivalentemente
u debe estar en el kernel del operador q(D).
En forma elemental se tiene:
Si u(t) = k = cte, entonces D
n
k =
d
n
k
dt
n
= 0 para todo n ≥ 1.
Si u(t) = t
n
, n entero positivo, entonces D
m
u =
d
m
u(t)
dt
m
= 0 para todo entero
m > n.
Como consecuencia de esto ´ ultimo si
u(t) = c
0
+ c
1
t +. . . +c
n−1
t
n−1
(3.45)
donde c
0
, , c
n−1
son constantes reales, entonces D
m
u = 0, para todo entero
m ≥ n. Es decir D
m
, m ≥ n, es un anulador del polinomio en (3.45).
A continuaci´ on vamos a estudiar algunos casos particulares importantes.
El operador
p(D) = (D −α)
n
(3.46)
76
es un polinomio anulador de las siguientes funciones:
e
αt
, te
αt
, , t
n−1
e
αt
, n ≥ 1, (3.47)
equivalentemente todas estas funciones est´an en ker p(D).
En efecto, p(D)u = 0 es equivalente a la ecuaci´on diferencial homogenea:
(D −α)
n
u = (
d
dt
−α) (
d
dt
−α)u = 0,
que tiene por polinomio caracter´ıstico a p(m) = (m−α)
n
(usamos la misma letra
para denotar el polinomio). Como el conjunto de ra´ıces de este polinomio esta
formando por una ra´ız real de multiplicidad n, entonces es claro que la familia de
funciones (3.47) son anuladas por el polinomio diferencial , m´as aun forman una
base de soluciones para la ecuaci´on diferencial p(D)u = 0.
Ejemplo 3.16. Encuentre un polinomio que anule a u(t) = e
−3t
+ te
t
.
Soluci´on. Se tiene que (D + 3) anula a e
−3t
y que (D − 1)
2
anula a te
t
, por lo
tanto (D + 3)(D −1)
2
es un polinomio anulador de u.
El operador diferencial
p(D) = [D
2
−2αD + (α
2

2
)]
n
. (3.48)
donde α, β son n´ umeros reales con β ,= 0, es anulador de las siguientes funciones
e
αt
cos βt, te
αt
cos βt, . . . , t
n−1
e
αt
cos βt,
e
αt
sin βt, te
αt
sin βt, . . . , t
n−1
e
αt
sin βt. (3.49)
En efecto, el polinomio caracter´ıstico correspondiente a la ecuaci´on p(D)y = 0
es
p(m) = [m
2
−2αm + (α
2
+ β
2
)]
n
,
y como
77
m
2
−2αm + (α
2
+ β
2
) = 0
tiene como ra´ıces m
1
= α +iβ y m
2
= α −iβ, se tiene que m
1
y m
2
con multipli-
cidad n son las ´ unicas ra´ıces del polinomio p(m). Entonces la familia de funciones
(3.49) son anuladas por el polinomio diferencial, y como antes forman una base
de soluciones para la ecuaci´on diferencial p(D)u = 0 correspondiente.
Ejemplo 3.17. Encuentre un polinomio anulador de
cosβt, sin βt, β ,= 0
Soluci´on. En ambos casos es (D
2
+ β
2
).
Ejemplo 3.18. Encuentre un polinomio anulador de
t cos βt, t sin βt.
Soluci´on. (D
2
+ β
2
)
2
.
Pasamos a continuaci´ on a describir el m´etodo de los coeficientes indeterminados.
Consideremos la ecuaci´on a coeficientes constantes (3.43), que reescribimos co-
mo
p(D)y = g(t),
donde p(D) esta definido en (3.42), es decir
p(D) = a
n
D
n
+. . . +a
1
D +a
0
.
La ecuaci´on homogenea asociada de la ecuaci´on (3.43) es
p(D)y = 0, (3.50)
con polinomio caracteristico p(m) = 0. Supongamos que las ra´ıces de este poli-
nomio m
1
, . . . , m
l
son reales y tienen multiplicidad k
1
, . . . , k
l
, respectivamente, de
manera que
p(m) = a
n
(m−m
1
)
k
1
(m−m
l
)
k
l
, (3.51)
donde k
1
+ + k
l
= n. Entonces es f´acil ver que p(D) admite la factorizaci´on
78
p(D) = a
n
(D −m
1
I)
k
1
(D −m
l
I)
k
l
, (3.52)
y viceversa si p(D) se puede factorizar como en (3.52) entonces p(m) se puede
factorizar como en (3.51).
Supongamos ahora que el polinomio caracter´ıstico p(m) de (3.50) contiene un
par de ra´ıces complejas conjugadas m
1
= α + iβ y m
2
= α − iβ, entonces p(m)
contendr´a el factor m
2
−2αm+(α
2

2
). Si adem´as estas ra´ıces tienen multipli-
cidad k entonces p(m) contendr´a el factor [m
2
−2αm+ (α
2

2
)]
k
. En este caso
el polinomio p(D) contendr´ a el correspondiente factor [D
2
−2αD + (α
2
+ β
2
)I]
k
y viceversa.
Como el polinomio anulador p(m) siempre se podr´a factorizar en expresiones
que contengan t´erminos de la forma (m−α)
j
, [m
2
−2αm+(α
2

2
)]
k
(teorema
fundamental del algebra) es claro que p(D) se puede factorizar similarmente en
factores de la forma (D −α)
j
, [D
2
−2αD + (α
2
+ β
2
)]
k
.
De los argumentos anteriores es claro que si g(t) es una de las siguientes fun-
ciones
(a) una constante k;
(b) un polinomio en t;
(c) una funci´on exponencial e
αt
;
(d) una funci´on trigonom´etrica de la forma sin βt, o cos βt;
(e) productos de estas funciones
(f) combinaciones lineales de estas funciones,
entonces es siempre posible encontrar un polinomio anulador p(D) de esta funci´on
g(t).
Supongamos que para la ecuaci´on (3.43) conocemos un polinomio anulador
q(D) de la funci´on g, y multipliquemos ambos mienbros de esta ecuaci´on por
q(D), entonces
q(D)p(D)y = q(D)g = 0.
As´ı y (la soluci´on general de ecuaci´on (3.43)) es tambi´en soluci´on de una ecuaci´on
homogenea a coeficientes constantes (de orden n
1
mayor que n). Poniendo r(D) =
q(D)p(D), esta ecuaci´on se escribe
79
r(D)z = 0, (3.53)
ecuaci´on homogenea a coeficientes constantes que sabemos como resolver. En efec-
to tenemos que encontrar n
1
soluciones linealmente independientes de esta ecua-
ci´on para formar una base B.
Sean ¦y
1
, , y
n
¦ n soluciones linealmente independientes de la ecuaci´on (3.50),
es decir que satisfacen, p(D)y
i
= 0, i = 1, . . . , n. Entonces tambien se satisface que
r(D)y
i
= 0, i = 1, . . . , n, es decir son n soluciones linealmente independientes de
(3.53). Supongamos que y
n+1
, . . . , y
n
1
son n
1
−n soluciones adicionales de (3.53)
tales que ¦y
1
, . . . , y
n
1
¦ forman una base de soluciones de (3.53) (note y
n+1
, . . . , y
n
1
no pueden ser soluciones de (3.50)).
Como y(t) = y
h
(t) + y
p
(t), la soluci´on general de (3.43) satisface la ecuaci´on
homogenea (3.53), se puede escribir como
y(t) =
n
1

i=1
c
i
y
i
(t) =
n

i=1
c
i
y
i
(t) +
n
1

i=n
c
i
y
i
(t),
donde c
1
, . . . , c
n
1
son constantes. Ya que

n
i=1
c
i
y
i
(t) forma parte de la soluci´on
general de (3.50), que llamamos antes y
h
, se tiene entonces que y
p
(t) = y(t)−y
h
(t)
debe tener la forma
y
p
(t) =
n
1

i=n
c
i
y
i
(t).
Esta expresi´on contiene n
1
−n constantes indeterminadas las cuales se determinan
reemplazando esta expresi´on en (3.43). De aqu´ı el nombre del m´etodo de los
coeficientes indeterminados.
3.6. Ejercicios Resueltos.
Ejercicio 3.1. Considere la EDO de segundo orden lineal homogenea:
y

+ p(t)y

+ q(t)y = 0.
(a) Demuestre que el Wronskiano W(t) = W(y
1
, y)(t) de dos soluciones y(t), y
1
(t)
de la EDO satisface:
W(t) = Ce

p(t)dt
.
(b) Encuentre a continuaci´on una expresi´on para
d
dt
_
y(t)
y
1
(t)
_
en t´erminos de W(t)
e y
1
(t). A partir de aqu´ı y de (a) encuentre finalmente y(t) en t´erminos de y
1
(t).
(c) Ocupando la parte anterior, resuelva la siguiente EDO:
80
(1 −x
2
)y

+ 2xy

−2y = 0,
Indicaci´on: y(x) = −x es soluci´on de la EDO.
Soluci´on:
(a) Se sabe que y(t), y
1
(t) son soluciones de la EDO de segundo orden. Entonces
se deben cumplir las siguientes ecuaciones:
y

+ p(t)y

+ q(t)y = 0
y

1
+ p(t)y

1
+ q(t)y
1
= 0
Al multiplicar la primera ecuaci´on por y
1
, la segunda por y(t) y restarlas queda:
y

y
1
−y

1
y + p(t)(y

y
1
−y

1
y) = 0
Por otro lado el Wronskiano es igual a:
W(t) = W(y
1
, y)(t) =
¸
¸
¸
¸
y
1
y
y

1
y

¸
¸
¸
¸
= y

y
1
−y

1
y ⇒W(t)

= y

y
1
−y

1
y.
Al reemplazar entonces W(t) y W

(t) resulta:
W(t)

+ p(t)W(t) = 0
La cual es una EDO del tipo lineal homogenea de primer orden. La soluci´on de
esta EDO (variables separables):
W(t) = Ce

p(t)dt
.
(b) Directo de la parte anterior,
d
dt
_
y(t)
y
1
(t)
_
=
y

y
1
−yy

1
y
2
1
=
W(y
1
, y)
y
2
1
=
Ce

p(t)dt
y
2
1
Integrando:
y(t)
y
1
(t)
= C
_
e

p(t)dt
y
1
(t)
2
+ C
2
Finalmente se obtiene:
81
y(t) = C
y
2
(t)
¸ .. ¸
y
1
(t)
_
e

p(t)dt
y
1
(t)
2
+C
2
y
1
(t)
(c) Lo primero es normalizar la EDO:
y

+
2x
(1 −x
2
)
y


2
(1 −x
2
)
y = 0
Tomando y
1
(x) = −x, p(x) =
2x
(1 −x
2
)

_
2x
(1 −x
2
)
dx = −ln(1 −x
2
)
Reemplazando en el resultado de la parte (b):
y(x) = Cx
_
e
ln(1−x
2
)
(−x)
2
dx+C
2
x = Cx
_ _
1
x
2
−1
_
dx+C
2
x = Cx(−x
−1
−x)+C
2
x
Finalmente:
y(x) = C(−1 −x
2
) + C
2
x.
Ejercicio 3.2. Sea Ψ una funci´on definida en ' con Ψ

continua en '. Si Ψ(0) =
1 y Ψ

(0) = 0, se pide encontrar Ψ que satisface las siguientes ecuaciones diferen-
ciales:
_
_
_
Ψ

+M(1 −R)Ψ = 0 para x ≤ 0
Ψ

−MRΨ = 0 para 0 < x ≤ 1
Ψ

+M(1 −R)Ψ = 0 para 1 < x
Donde 0 < R < 1 y M > 0 son constantes.
Soluci´on:
Cuando x ∈ (−∞, 0], Ψ
1
(x) = c
1
cos(
_
M(1 −R)x) + c
2
sin(
_
M(1 −R)x).
Cuando x ∈ (0, 1], Ψ
2
(x) = c
3
e

MRx
+ c
4
e


MRx
.
Cuando x ∈ (1, ∞), Ψ
3
(x) = c
5
cos(
_
M(1 −R)x) + c
6
sin(
_
M(1 −R)x).
Las derivadas de estas funciones son:
82
Ψ
1
(x)

=
_
M(1 −R)(−c
1
sin(
_
M(1 −R)x) + c
2
cos(
_
M(1 −R)x))
Ψ
2
(x)

=

MR(c
3
e

MRx
−c
4
e


MRx
)
Ψ
3
(x)

=
_
M(1 −R)(−c
5
sin(
_
M(1 −R)x) + c
6
cos(
_
M(1 −R)x))
Se aplica ahora las condiciones iniciales:
Ψ
1
(0) = 1 ⇒c
1
= 1
Ψ

1
(0) = 0 ⇒c
2
= 0
⇒Ψ
1
(x) = cos(
_
M(1 −R)x)
Ahora se aplican condiciones de continuidad y diferenciabilidad:
Ψ
1
(0) = Ψ
2
(0) = 1 ⇒c
3
+ c
4
= 1
Ψ

1
(0) = Ψ

2
(0) = 0 ⇒c
3
−c
4
= 0
⇒Ψ
2
(x) =
1
2
(e

MRx
+ e


MRx
) = cosh(

MRx)
Ψ
3
(1) = Ψ
2
(1) ⇒c
5
cos(
_
M(1 −R)) + c
6
sin(
_
M(1 −R)) = cosh(

MR)
Ψ

3
(1) = Ψ

2
(1) ⇒
_
M(1 −R)(−c
5
sin(
_
M(1 −R)) + c
6
cos(
_
M(1 −R))) =

MRsenh(

MR)
De donde se obtiene:
Ψ
3
(x) = c
5
cos(
_
M(1 −R)x) + c
6
sin(
_
M(1 −R)x)
con:
c
5
= cosh(

MR)cos
2
(
_
M(1 −R))−

MR
2
_
M(1 −R)
senh(

MR)sen(2
_
M(1 −R))
c
6
= cosh(

MR)sen(
_
M(1 −R)) +

MR
_
M(1 −R)
senh(

MR)cos(
_
M(1 −R))
Ejercicio 3.3. Encuentre la soluci´on de la ecuaci´on:
a
7
y
vii
+ a
6
y
vi
+a
5
y
v
+ a
4
y
iv
+a
3
y

+a
2
y

+ ay

+ y = 0
83
que satisface las condiciones iniciales y(0) = 1, y(0)

=

2
2a
y la condici´on de
estabilidad: l´ım
t→∞
y(t) = 0, a < 0.
Soluci´on:
Sea y(t) = e
mt
, entonces:
a
7
m
7
+ a
6
m
6
+ a
5
m
5
+ a
4
m
4
+ a
3
m
3
+a
2
m
2
+ am + 1 = 0
Aplicando la sumatoria geom´etrica:
n

i=0
p
i
=
1 −p
n+1
1 −p
con p = am, n = 7, se tiene:
7

i=0
(am)
i
=
1 −(am)
8
1 −(am)
=
[(am)
4
+ 1][(am)
2
+ 1][(am) + 1][(am) −1]
[(am) −1]
Se analiza cada factor para encontrar las ra´ıces de la ecuaci´on.
(am)
4
+ 1 = 0 ⇔ m
4
= −
1
a
4
=
1
a
4
e

⇒ Calculando las ra´ıces cuartas de la ecuaci´on se tienen las cuatro soluciones
complejas:
m
1
=
1
|a|
e
π
4
i
⇔ m
1
=
1
a
_

2
2
+

2
2
i
_
m
2
= −
1
|a|
e
π
4
i
⇔ m
2
= −
1
a
_

2
2
+

2
2
i
_
m
3
=
1
|a|
e

π
4
i
⇔ m
3
=
1
a
_

2
2


2
2
i
_
m
4
= −
1
|a|
e

π
4
i
⇔ m
4
= −
1
a
_

2
2


2
2
i
_
Para el factor (am)
2
+ 1 = 0 se obtienen las soluciones:
m
5
=
1
a
i, m
6
= −
1
a
i
Del factor (am) + 1 = 0 se obtiene:
84
m
7
= −
1
a
Entonces la soluci´on de la EDO es:
y(t) = e

2t
2a
_
c
1
cos
_

2t
2a
_
+ c
2
sin
_

2t
2a
__
+e


2t
2a
_
c
3
cos
_

2t
2a
_
+ c
4
sin
_

2t
2a
__
+c
5
cos
_
1
a
t
_
+ c
6
sin
_
1
a
t
_
+ c
7
e

1
a
t
.
Ahora se aplican las condiciones del problema:
l´ım
t→∞
y(t) = 0 ⇒ c
3
= c
4
= c
5
= c
6
= c
7
= 0
y(0) = 1 ⇒ c
1
= 1
y(0)

=

2
2a
⇔ y(0)

=

2
2a
(c
1
+ c
2
) =

2
2a
⇒ c
2
= 0
Finalmente la soluci´on del problema es:
y(t) = e

2
2a
t
cos
_

2
2a
t
_
.
Ejercicio 3.4. Sea λ > 0 en el problema:
y
(iv)
−λy = 0,
y(0) = y

(0) = y

(0) = 0, y(1) = 0.
Estudie si existen valores de λ para los cuales el problema tiene soluci´on no trivial.
Soluci´on:
El polinomio caracter´ıstico p(m) = m
4
−λ se puede factorizar de la forma:
p(m) = (m
2


λ)(m
2
+

λ) = (m−
4

λ)(m +
4

λ)(m
2
+

λ) = 0
Entonces la soluci´on de la EDO es:
y(t) = c
1
e

4

λt
+ c
2
e
4

λt
+c
3
cos(
4

λt) + c
4
sin(
4

λt).
85
Las derivadas de y(t) son:
y

(t) =
4

λ(−c
1
e

4

λt
+ c
2
e
4

λt
−c
3
sin(
4

λt) + c
4
cos(
4

λt))
y

(t) =

λ(c
1
e

4

λt
+ c
2
e
4

λt
−c
3
cos(
4

λt) −c
4
sin(
4

λt))
Ahora se imponen las condiciones iniciales y condici´on terminal:
y(0) = 0 ⇒c
1
+ c
2
+ c
3
= 0
y

(0) = 0 ⇒−c
1
+c
2
+c
4
= 0
y

(0) = 0 ⇒c
1
+ c
2
−c
3
= 0
y(1) = 0 ⇒c
1
e

4

λ
+ c
2
e
4

λ
+ c
3
cos(
4

λ) + c
4
sin(
4

λ) = 0
De la primera y tercera ecuaci´on c
3
= 0. Luego c
1
= −c
2
, c
4
= −2c
2
. Al reemplazar
en la cuarta ecuaci´on:
c
2
(senh(
4

λ) −sen(
4

λ)) = 0.
Como c
2
debe ser distinto de cero para no tener la soluci´on trivial, se debe cumplir
que:
senh(
4

λ) = sen(
4

λ)
lo cual solo se cumple solamente para λ = 0.
Ejercicio 3.5. Usando el m´etodo de variaci´on de par´ametros resuelva la siguiente
ecuaci´on diferencial:
x
2
y

+ xy

−4y = 4x
2
Soluci´on:
En primer lugar se resuelve ecuaci´on homogenea:
x
2
y

+ xy

−4y = 0
Se tantea soluciones del tipo: y = x
α
, y

= αx
α−1
, y

= α(α −1)x
α−2
86
Reemplazando en la EDO se obtiene:
(α(α −1) + α −4)x
α
= 0
lo cual se cumple para los valores α
1
= 2 y α
1
= −2, con lo que se llega a dos
soluciones de la homogenea:
y
1
(x) = x
2
, y
2
(x) = x
−2
.
A partir de estas dos soluciones se obtiene la soluci´on homogenea que esta dada
por:
y
h
(x) = c
1
x
2
+ c
2
x
−2
Aplicando el m´etodo de variaci´ on de par´ametros la soluci´on particular est´a dada
por:
y
p
(x) = u
1
(x)y
1
(x) + u
2
(x)y
2
(x)
W(y
1
, y
2
) =
¸
¸
¸
¸
x
2
x
−2
2x −2x
−3
¸
¸
¸
¸
= −4x
−1
u
1
(x) =
_
4x
−2
4x
−1
dx =
_
x
−1
dx = ln (x)
u
2
(x) =
_
4x
2
−4x
−1
dx = −
_
xdx =
−x
2
2
luego la soluci´on de la particular es:
y
p
(x) = x
2
ln (x) −
−x
2
2
x
−2
= x
2
ln (x) +
1
2
Se obtiene la soluci´on general dada por y
g
= y
h
+y
p
y(x) = c
1
x
2
+ c
2
x
−2
+x
2
ln x +
1
2
.
Ejercicio 3.6. Usando el m´etodo de variaci´on de par´ametros resuelva la siguiente
ecuaci´on diferencial:
y

+ y

= tan (t)
87
Soluci´on:
En primer lugar se resuelve ecuaci´on homogenea:
y

+ y

= 0
Disminuyendo el orden de la ecuaci´on diferencial realizando el cambio de variable
y

= Υ → y

= Υ

la EDO se puede expresar de la siguiente forma:
Υ

+ Υ = tan (t).
Ahora resolvemos la homogenea:
Υ

+ Υ = 0
Se prueban soluciones del tipo: Υ(x) = e
mt
, → Υ

= me
mt
, Υ

= m
2
e
mt
. Reem-
plazando en la EDO se obtiene:
(m
2
+ 1)Υ = 0
Del polinomio caracter´ıstico p(m) = (m
2
+ 1) = 0, se obtienen las soluciones
complejas m
1
= i y m
2
= −i. Luego la soluci´on de la ecuaci´on homogenea es:
Υ
h
(t) = c
1
cos (t) + c
2
sin (t).
Ahora se usa el m´etodo de variaci´ on de par´ametros para obtener la soluci´on par-
ticular:
Υ
p
(t) = u
1
(t)Υ
1
(t) + u
2
(t)Υ
2
(t)
W(Υ
1
, Υ
2
) =
¸
¸
¸
¸
cos (t) sin (t)
−sin (t) cos (t)
¸
¸
¸
¸
= cos (t)
2
+ sin (t)
2
= 1
u
1
(t) = −
_
tan (t) sin (t)dt = sin (t) −ln (sec (t) + tan (t))
u
2
(t) =
_
cos (t) tan (t)dt = −cos (t)
Entonces la soluci´on particular es:
Υ
p
(t) = u
1
cos (t) + u
2
sin (t) = −cos (t) ln (sec (t) + tan (t)),
y la soluci´on general:
Υ(t) = c
1
cos (t) + c
2
sin (t) −cos (t) ln (sec (t) + tan (t)).
88
Se regresa a la variable inicial, integrando Υ(t):
y(t) = c
1
_
cos (t)dt +c
2
_
sin (t)dt +
_
Υ
p
(t)dt + c
3
de donde se obtiene:
y(t) = c
1
sin (t) + c
2
cos (t) + c
3
+
_
cos (t) ln (sec (t) + tan (t))dt
Ejercicio 3.7. Encuentre la homogenea y plantee la forma de la soluci´on parti-
cular.
y
(iv)
+ 4y

+ 16y = e
t
cos

3t
Soluci´on:
El polinomio caracter´ıstico es:
p(m) = m
4
+ 4m
2
+ 16 = 0
m
2
=
−4 ±

16 −4 16
2
=
−4 ±4

3 i
2
= −2 ±2

3 i
m
2
=

4 + 4 3 e
±i·arctg(
−2
2

3
)
= 4 e
±i·120
o
Entonces las soluciones complejas son m = ±

4 e
±i·
120
o
2
= ±2 e
±i·60
o
. Ahora
los complejos se deben escribir en la forma a + ib para obtener su parte real e
imaginaria:
m = ±2(cos60
o
±i sen60
o
) = ±2
_
0,5 ±i

3
2
_
m
1,2
= 1 ±i

3 m
3,4
= −1 ±i

3
Entonces la soluci´on homogenea es:
y
h
(t) = e
t
(C
1
cos

3 t + C
2
sen

3 t) + e
−t
(C
3
cos

3 t + C
4
sen

3 t)
y la forma de la soluci´on particular es:
y
p
(t) = d
1
e
t
cos

3 t +d
2
e
t
sen

3 t
89
Ejercicio 3.8. Encuentre la homogenea y plantee la forma de la soluci´on parti-
cular de la siguiente EDO:
y

+ ky = e

|k|·t
Soluci´on:
El polinomio caracter´ıstico es
p(m) = m
2
+k = 0.
Luego se tienen los siguientes casos:
Caso 1:
k > 0 ⇒m = ±i

k ⇒y(t) = C
1
cos

k t + C
2
sen

k t +d e

k·t
Caso 2:
k = 0 ⇒m = 0 ⇒y(t) = C
1
+C
2
t + d e

k·t
Caso 3:
k < 0 ⇒m = ±

−k ⇒y(t) = C
1
e

−k·t
+C
2
e

−k·t
+ d t e

−k·t
Ejercicio 3.9. Resuelva la siguiente ecuaci´on diferencial:
y
(v)
+ 8a
3
y

= a + e
at
cos (at)
Soluci´on:
En primer lugar se resuelve ecuaci´on homogenea:
y
(v)
+ 8a
3
y

= 0
El polinomio caracter´ıstico asociado resulta ser p(m) = m
5
+ 8a
3
m
2
, cuyas ra´ıces
son:
m
1
= m
2
= 0, m
3
= −2a, m
4
= a + a

3i, m
5
= a −a

3i
Entonces la base de la soluci´on homogenea est´a dada por:
¦1, t, e
−2at
, e
at
cos (a

3t), e
at
sin (a

3t)¦
90
Luego la soluci´on homogenea de la ecuaci´on es la combinaci´ on lineal de la base:
y
h
(t) = c
1
+ c
2
t +c
3
e
−2at
+ c
4
e
at
cos (a

3t) + c
5
e
at
sin (a

3t).
Lo siguiente es encontrar la forma de la soluci´on particular. El polinomio anulador
de la funci´on f(t) = a + e
at
cos (at), es:
D(D
2
−2aD + 2a
2
I).
Aplic´andolo a la EDO, resulta la nueva homogenea:
D
2
(D + 2aI)(D
2
−2aD + 4a
2
I)D(D
2
−2aD + 2a
2
I)y(t) = 0,
cuya soluci´on es:
Y (t) = c
1
+ c
2
t + c
3
e
−2at
+ c
4
e
at
cos (a

3t)
+c
5
e
at
sin (a

3t) + c
6
e
at
cos (at) + c
7
e
at
sin (at) + c
8
t
2
Al sacar de esta soluci´on las pertenecientes a la homogenea, la forma de la soluci´on
particular es:
y
p
(t) = c
6
e
at
cos (at) + c
7
e
at
sin (at) + c
8
t
2
donde c
6
, c
7
, c
8
son los coeficientes indeterminados. Se eval´ ua la soluci´on particular
en la EDO:
y

p
(t) = −2c
6
a
2
e
at
sin (at) + 2a
2
c
7
e
at
cos (at) + 2c
8
y
p
(5)
(t) = −4(c
6
+c
7
)a
5
e
at
cos (at) + 4(c
6
−c
7
)a
5
e
at
sin (at).
Al remplazar en la EDO, se obtienen los valores de las constantes c
6
, c
7
y c
8
:
c
6
= −
1
40a
5
, c
7
=
3
40a
5
, c
8
=
1
16a
2
Finalmente la soluci´on general de la EDO es:
y(t) = c
1
+ c
2
t + c
3
e
−2at
+ c
4
e
at
cos (a

3t) + c
5
e
at
sin (a

3t).

e
at
cos (at)
40a
5
+
3e
at
sin (at)
40a
5
+
1
16a
2
t
2
.
91
Ejercicio 3.10. Resuelva la siguiente ecuaci´on diferencial:
y
(iv)
−y = exp (t) + cos (t).
Soluci´on:
En primer lugar se resuelve la ecuaci´on homogenea:
y
(iv)
−y = 0
El polinomio caracter´ıstico asociado resulta ser: p(m) = m
4
−1,
cuyas ra´ıces son:
m
1
= 1, m
2
= −1, m
3
= i, m
4
= −i.
Entonces la base de la soluci´on homogenea est´a dada por:
¦e
t
, e
−t
, cos(t), sin(t)¦.
Luego la soluci´on homogenea de la ecuaci´on es:
y
h
(t) = c
1
e
t
+ c
2
e
−t
+ c
3
cos(t) + c
4
sin(t).
Lo siguiente es encontrar la forma de la soluci´on particular. Para esto se debe
encontrar el polinomio anulador de la funci´on f(t) = exp (t) + cos (t), el cual es:
(D −I)(D
2
+ I). Al aplicar el anulador a la ecuaci´on se obtiene:
(D −I)(D
2
+ I)(D
4
−I)y(t) = 0.
luego se resuelve
p(D) = (D −I)(D
2
+ I)(D
4
−I)y(t) = 0
con lo que se obtiene:
Y
p
(t) = c
1
e
t
+ c
2
e
−t
+ c
3
cos (t) + c
4
sin (t) + c
5
te
t
+ c
6
t cos (t) + c
7
t sin (t)
Quitando las soluciones de la homogenea, la forma de la soluci´on particular es:
y
p
(t) = c
5
te
t
+ c
6
t cos (t) + c
7
t sin (t).
92
Para determinar los coeficientes indeterminados se eval´ ua en la EDO la soluci´on
particular. Se necesita la cuarta derivada de y
p
que es:
y
(4)
p
= 4c
5
e
t
+ c
5
te
t
+ 4c
6
sin (t) −c
6
t cos (t) + c
7
t sin (t).
Reemplazando en la EDO se obtienen los valores de las coeficientes indetermina-
dos.
c
5
=
1
4
, c
6
= 0, c
7
= −
1
4
.
Luego, la soluci´on particular de la EDO es:
y
p
(t) =
1
4
te
t

1
4
t sin (t),
y finalmente la soluci´on general del problema es:
y(t) = c
1
e
t
+c
2
e
−t
+ c
3
cos (t) + c
4
sin (t) +
1
4
te
t

1
4
t sin (t).
Ejercicio 3.11. Usando el m´etodo de coeficientes inderminados resuelva la si-
guiente ecuaci´on diferencial, analizando los posibles valores que puede tomar la
constante w.
z

+ wz = t cos (

wt).
Soluci´on:
Existen tres posibles casos a estudiar
Caso 1. Si w > 0 entonces z
h
(t) = c
1
cos (

wt) + c
2
sin (

wt).
Caso 2. Si w = 0 entonces z
h
(t) = c
1
+c
2
t.
Caso 3. Si w < 0 entonces z
h
(t) = c
1
e

wt
+ c
2
e


wt
, pero este caso es infactible
puesto que t cos (

wt) ser´ıa complejo.
Soluci´on Caso 1:
(D
2
+ w)z = t cos (

wt)
el anulador de la funci´on g(t) = t cos (

wt) es (D
2
+ w)
2
. Entonces:
(D
2
+ w)
3
z = 0.
93
Las ra´ıces del polinomio caracter´ıstico p(m) = (m
2
+w)
3
son m
1
= i

w con mul-
tiplicidad tres y m
2
= −i

w con multiplicidad tres. Luego la soluci´on particular
est´a dada por:
z
p
(t) = cos(

wt)(c
1
+ c
2
t + c
3
t
2
) + sin(

wt)(c
4
+ c
5
t + c
6
t
2
).
Sacando las soluciones que ya estan en la soluci´on homogenea, la soluci´on parti-
cular se reduce a:
z
p
(t) = cos(

wt)(c
2
t + c
3
t
2
) + sin(

wt)(c
5
t + c
6
t
2
).
Ahora se obtiene z

p
(t) para luego reemplazar en la EDO y as´ı calcular los coefi-
cientes indeterminados:
z
p
(t)

= (2c
2
+ 2c
5

w + 4c
6

wt −c
2
wt −c
3
wt
2
) cos(

wt)
+(−2c
2

w + 2c
6
−4c
3

wt + c
5
wt −c
6
wt
2
) sin(

wt)
Entonces al reemplazar z
p
(t)

y z
p
(t) en la EDO:
z
p
(t)

+wz
p
(t) = (2c
2
+2c
5

w+4c
6

wt) cos(

wt)+(−2c
2

w+2c
6
−4c
3

wt) sin(

wt)
z
p
(t)

+ wz
p
(t) = t cos (

wt)
igualando los coeficientes respectivos se llega al sistema:
2c
3
+ 2c
5

w = 0, −2c
2

w + 2c
6
= 0, 4c
6

w = 1, −4c
3

w = 0,
cuya soluci´on es c
2
=
1
4w
, c
3
= 0, c
5
= 0, c
6
=
1
4

w
.
Entonces la soluci´on general del caso w > 0 es :
z(t) = c
1
cos(

wt) + c
2
sin(

wt) +
1
4w
t cos(

wt) +
1
4

w
t
2
sin(

wt).
Soluci´on caso 2:
La ecuaci´on con w = 0 es:
z(t)

= t
94
Integrando dos veces z(t)

se obtiene la soluci´on general
z(t)

=
t
2
2
+ c
1
z(t) =
t
3
6
+ c
1
t + c
2
.
Ejercicio 3.12. Encuentre la soluci´on de la ecuaci´on
sin(x)
2
y

−3 sin(x) cos(x)y

+ (1 + 2 cos(x)
2
)y = 3 cos(x).
Soluci´on:
En primer lugar resolvemos la ecuaci´on homogenea:
sin(x)
2
y

−3 sin(x) cos(x)y

+ (1 + 2 cos(x)
2
)y = 0
Se prueba con una funci´on trigonom´etrica,
y
h
(x) = cos(x) ⇒ y
h
(x)

= −sin(x), y
h
(x)

= −cos(x)
Se reemplaza en la ecuaci´on:
−sin(x)
2
cos(x) + 3 sin(x)
2
cos(x) + cos(x) + 2 cos(x)
3
= 0,
2 cos(x)(sin(x)
2
+ cos(x)
2
) + cos(x) = 0 ⇒ 3 cos(x) = 0,
luego y(t) = cos(x) no es base de la soluci´on homogenea, pero es soluci´on de la
particular. Entonces y
p
(x) = cos(x).
Se intenta ahora con y
h
(x) = sin(x), y
h
(x)

= cos(x), y
h
(x)

= −sin(x). Se
reemplaza en la EDO:
−sin(x)
3
−3 sin(x) cos(x)
2
+ sin(x) + 2 cos(x)
2
sin x = 0
−sin(x)
3
−sin(x) cos
2
+sin(x) = 0 ⇒ −sin(x)[sin(x)
2
+cos(x)
2
] +sin(x) = 0
y entonces y
1
(x) = sin(x) es soluci´on de la homogenea. Para obtener y
2
(x) se
aplica la f´ormula de Abel:
y(x)

−3
cos(x)
sin(x)
y(x)

+
_
1
sin(x)
2
+ 2
cos(x)
2
sin(x)
2
_
y(x) = 0
95
⇒ y
2
(x) = sin(x)
_
1
sin(x)
2
e
3

cot(x)dx
dx
_
cos(x)
sin(x)
dx =
_
1
u
du = ln(u) = ln[sin(x)]
u = sin(x) ⇒ du = cos(x)dx
y
2
(x) = sin(x)
_
1
sin(x)
2
e
3 ln[sin(x)]
dx = sin(x)
_
sin(x)
3
sin(x)
2
dx = sin
_
sin(x)dx
y
2
(x) = −sin(x) cos(x).
La soluci´on general de la EDO es:
y(x) = c
1
sin(x) + c
2
sin(x) cos(x) + cos(x).
Ejercicio 3.13. Resuelva la siguiente EDO:
a(t)y

+b(t)y

+ y = c(t)
3
+ e
3c(t)
+ cos(c(t))
donde las funciones a(t), b(t) y c(t) son:
a(t) = (1 + t
2
)
2
, b(t) = 2t(1 + t
2
), c(t) = arc tg(t).
Soluci´on:
Se realiza el cambio de variable u = arc tg(t) ⇒ du =
1
1+t
2
dt. Las derivadas
quedan:
dy
dt
=
dy
du
du
dt
=
dy
du
1
1 + t
2
= ¯ y

1
1 + t
2
d
2
y
dt
2
=
d(
dy
du
1
1+t
2
)
dt
=
1
(1 + t
2
)
2
_
d
2
y
du
2
−2t
dy
du
_
=
1
(1 + t
2
)
2
(¯ y

−2t¯ y)
Al reemplazar en la EDO este cambio de variable, resulta:
¯ y

+ ¯ y = u
3
+ e
3u
+ cos(u).
La soluci´on homogenea de la EDO es:
¯ y
h
(u) = c
1
cos(u) + c
2
sen(u).
96
Aplicando el m´etodo de coeficientes indeterminados, la forma que tiene la soluci´on
particular es:
¯ y
p
(u) = A + Bu +Cu
2
+ Du
3
+ Ee
3u
+ Fu cos(u) + Gusen(u)
Derivando:
¯ y
p
(u)

= B+2Cu+3Du
2
+3Ee
3u
+F cos(u) +Gsen(u) +u(−F sen(u) +Gcos(u))
¯ y
p
(u)

= 2C + 6Du + 9Ee
3u
−2F sen(u) + 2Gcos(u) + u(−F sen(u) −Gcos(u))
Al reemplazar la soluci´on particular en la EDO resulta:
¯ y

p
+ ¯ y
p
= A + 2C + (B + 6D)u + Cu
2
+ Du
3
+ 10Ee
3u
−2F sen(u) + 2Gcos(u)
= u
3
+ e
3u
+ cos(u).
Para que ambas funciones sean iguales, debe cumplirse que los coeficientes sean
iguales:
C = 0, D = 1, A+2C = 0 ⇒A = 0, B +6D = 0 ⇒B = −6, 10E = 1 ⇒E =
1
10
, 2G = 1 ⇒G =
1
2
y −2F = 0 ⇒F = 0.
Entonces la soluci´on particular es:
¯ y
p
(u) = −6u + u
3
+
1
10
e
3u
+
1
2
usen(u).
Por lo tanto la soluci´on general es:
¯ y(u) = ¯ y
h
(u) + ¯ y
p
(u) = c
1
cos(u) + c
2
sen(u) −6u + u
3
+
1
10
e
3u
+
1
2
usen(u).
Regresando a la variable inicial t,
¯ y(t) = c
1
cos(arc tg(t)) + c
2
sen(arc tg(t)) −6 arc tg(t) + arc tg(t)
3
+
1
10
e
3 arc tg(t)
+
1
2
arc tg(t) sen(arc tg(t)).
97
Ejercicio 3.14. Resuelva las siguientes ecuaciones diferenciales:
(a) y

−y

+ 25y

−25y = e
t
+ sen(5t).
(b) t
2
y

+ (2a + 1)ty

+ a
2
y = ln(t)t
−a
, t > 0, y donde a > 0 es una constante
dada.
Soluci´on:
(a) Se resuelve la homogenea, encontrando las ra´ıces del polinomio caracter´ıstico:
p(m) = m
3
−m
2
+ 25m−25 = m
2
(m−1) + 25(m−1) = (m
2
+ 25)(m−1) = 0
Entonces la soluci´on homogenea es:
y
h
(t) = c
1
e
t
+c
2
cos(5t) + c
3
sen(5t).
Aplicando el m´etodo de coeficientes indeterminados, la forma de la soluci´on par-
ticular es:
y
p
(t) = d
1
te
t
+ d
2
t cos(5t) + d
3
t sen(5t).
Reemplazado la particular en la EDO resulta:
y

p
−y

p
+25y

p
−25y
p
= 26d
1
e
t
+(−50d
2
−10d
3
) cos(5t) +(−50d
3
+10d
2
) sen(5t)
= e
t
+ sen(5t).
Igualando los coeficientes de las funciones (para mantener la igualdad), se obtiene
la soluci´on particular:
y
p
(t) =
1
26
te
t
+
1
260
t cos(5t) −
1
52
t sen(5t).
Finalmente la soluci´on general es la suma de la homogenea mas particular:
y(t) = c
1
e
t
+ c
2
cos(5t) + c
3
sen(5t) +
1
26
te
t
+
1
260
t cos(5t) −
1
52
t sen(5t).
(b) Se realiza el cambio de variable u = ln(t), du =
1
t
dt. Las derivadas quedan:
98
dy
dt
=
dy
du
du
dt
=
dy
du
1
t
= ¯ y

1
t
d
2
y
dt
2
=
d(
dy
du
1
t
)
dt
=
1
t
2
_
d
2
y
du
2

dy
du
_
=
1
t
2
(¯ y

− ¯ y)
Al aplicar el cambio de variable:
¯ y

+ 2a¯ y

+ a
2
¯ y = ue
−au
.
Se resuelve la homogenea, calculando las ra´ıces del polinomio caracter´ıstico:
p(m) = m
2
+ 2am+ a
2
= (m+ a)
2
Por lo tanto la soluci´on homogenea es:
¯ y
h
(u) = c
1
e
−au
+ c
2
ue
−au
.
Aplicando el m´etodo de coeficientes indeterminados, la forma de la soluci´on par-
ticular es:
¯ y
p
(u) = e
−au
(d
1
u
2
+ d
2
u
3
)
Al reemplazar la particular en la EDO, queda:
¯ y

p
+ 2a¯ y
p
+ a
2
¯ y
p
= e
−au
(2d
1
+ 6d
2
u) = ue
−au
y por lo tanto la soluci´on particular es:
¯ y
p
=
1
6
u
3
e
−au
Finalmente la soluci´on general es la suma de la homogenea y particular:
¯ y(u) = c
1
e
−au
+ c
2
ue
−au
+
1
6
u
3
e
−au
Regresando a la variable inicial t, la soluci´on de la EDO es:
y(t) = c
1
t
−a
+ c
2
ln(t)t
−a
+
1
6
(ln(t))
3
t
−a
99
Ejercicio 3.15. Considere la ecuaci´on diferencial:
y

+ b(t)y = sen(t),
con las condiciones iniciales
y(t
0
) = c
1
, y

(t
0
) = c
2
, y

(t
0
) = c
3
.
La funci´on b : I →R es definida y continua en un intervalo I. Demuestre que el
problema con condiciones iniciales tiene una ´ unica soluci´on.
Soluci´on:
Por contradicci´on. Supongo que existen dos soluciones al problema con condiciones
iniciales y
1
e y
2
. Ambas soluciones deben satisfacer la EDO y las condiciones
iniciales.
Sea la variable z = y
1
−y
2
. Esta variable cumple con la EDO:
z

+b(t)z = 0
y las condiciones iniciales:
z(t
0
) = 0, z

(t
0
) = 0, z

(t
0
) = 0.
Escribiendo la EDO en la forma de un sistema de EDOS de primer orden:
z

= u, u

= v, v

= −b(t)z
Se cumple para t ≥ t
0
:
z(t) =
_
t
t
0
u(s)ds, u(t) =
_
t
t
0
v(s)ds, v(t) =
_
t
t
0
−b(s)z(s)ds
Acotando:
[z(t)[ ≤
_
t
t
0
[u(s)[ds, [u(t)[ ≤
_
t
t
0
[v(s)[ds, [v(t)[ ≤
_
t
t
0
[−b(s)z(s)[ds ≤ C
_
t
t
0
[z(s)[ds
C es el m´aximo de la funci´on b(t).
Sea r(t) = [z(t)[ +[v(t)[ +[u(t)[. Se cumple que:
100
0 ≤ r(t) ≤
_
t
t
0
[z(s)[ds +
_
t
t
0
[v(s)[ds +
_
t
t
0
[u(s)[ds
Entonces:
r(t) ≤ C
__
t
t
0
([u(s)[ +[z(s)[ +[v(s)[)ds
_
≤ C
_
t
t
0
r(s)ds
Sea γ(t) :=
_
t
t
0
r(s)ds. Entonces:
r(t) = γ

(t) ≤ Cγ(t).
Multiplicando por e
−Ct
(factor integrante), se puede escribir:
(γ(t)e
−Ct
)

≤ 0.
Integrando entre t
0
y t:
γ(t)e
−Ct
≤ γ(t
0
)e
−Ct
,
pero γ(t
0
) = 0, entonces
γ(t) = 0 ⇒r(t) = 0 ⇒z(t) = y
1
−y
2
= 0 ⇒y
1
= y
2
Lo cual es una contradicci´ on.
101
3.7. Ejercicios Propuestos.
Propuesto 3.1. Sea la ecuaci´on diferencial homog´enea:
y

+P(x)y

+Q(x)y

+ R(x)y = 0
donde suponemos que P, Q, R : I → R son tres funciones continuas definidas en
un intervalo real I:
(a) Suponiendo que y
1
(t), y
2
(t), y
3
(t) forman una base de soluciones determine las
funciones coeficientes P, Q, R en t´ermino de y
1
, y
2
, y
3
.
(b) De los resultados de (a) determine la ecuaci´on diferencial que tiene como base
de soluciones a y
1
= sin(t), y
2
= cos(t), y
3
= e
t
.
Soluciones:
(a) Se debe resolver:
_
_
y

1
y

1
y

1
y

2
y

2
y

2
y

3
y

3
y

3
_
_
_
_
P
Q
R
_
_
=
_
_
y

1
y

2
y

3
_
_
(b) P(x) = −1, Q(x) = 1, R(x) = −1.
Propuesto 3.2. Considere la ecuaci´on en m(∗):
m
2
+ me
αt
+e
2t
−1 = 0, (∗)
donde α y t son n´ umeros reales.
(a) Demuestre que para α ,= 2 no existe m real que satisface (∗) para todo t,
pero que un tal m si existe α = 2.
(b) Usando (a) encuentre α tal que la ecuaci´on diferencial:
y

+ e
αt
y

+ (e
2t
−1)y = 0
tenga una soluci´on expl´ıcita.
(c) Complete entonces la base de soluciones y encuentre la soluci´on general de
la ecuaci´on .
Soluciones:
(a) m = −1,
(b) α = 2, y
1
(t) = e
−t
,
(c) y(t) = C
1
e
−t
+ C
2
e



t +
1
2
e
2t


102
Propuesto 3.3. (a) Sea y : R →R una soluci´on no trivial de la EDO:
y

−2by

+ cy = 0,
donde b y c son constantes. Si la soluci´on es tal que y(0) = y(1) = 0, demuestre
que:
∀n ∈ N, y(n) = 0.
(b) Sea k ∈ N, encontrar los valores de c tal que la ecuaci´on diferencial:
y

−2cy

+y = 0,
tiene una soluci´on no trivial que satisface y(0) = y(2πk) = 0.
Soluciones:
(a) Se prueba que la soluci´on tiene la forma y(t) = c
2
e
bt
sin (K π t) con c
2
distinto de cero pues y(t) es no trivial y luego se concluye lo pedido.
(b) Se llega a que c = ±
_
1 −
n
2
4K
2
, n ∈ Z. Por ejemplo si n = 2, K = 1
entonces c = 0.
Propuesto 3.4. Resuelva las siguientes ecuaciones diferenciales:
(a) t
2
x

+tx

+ x = t.
(b) 4y

−4y

−y =
e
x
2

1 −x
2
, x ∈ (−1, 1).
(c) y

+ y = 4 cos x −sin x.
(d) y


2
y

= cos(ϕt) + sen(ϕt), ω ,= 0, ϕ ,= 0.
(e) x
4
y

+ 2x
3
y

+ y = tan
1
x
.
Sugerencia: Haga u = x
m
con m adecuado.
(g) xy

−2(1 + 6x
3
)y

+ 36x
5
y = 9x
8
e
2x
3
.
Sugerencia: Haga u = x
m
con m adecuado.
Soluciones:
(a) x(t) = c
1
cos(ln(t)) +c
2
sin(ln(t)) +
t
2
.
103
(b) y(x) = c
1
e
x
2
+ c
2
xe
x
2
+ e
x
2
_
1
4

1 −x
2
+
x arcsin x
4
_
.
(c) y(x) = c
1
cos(x) + c
2
sin(x) +
1
2
x(sin(x) + cos(x)).
(d) (ω ,= ϕ) y(t) = c
1
cos(ωt) + c
2
sin(ωt) + c
3
+
cos(ϕt) −sin(ϕt)
ϕ(ϕ
2
−ω
2
)
.
(ω = ϕ) y(t) = c
1
cos(ωt) + c
2
sin(ωt) + c
3
+
t
ω
2
_
sin(ωt) −
1
2
cos(ωt)
_
.
(e) y(x) = c
1
cos(x
−1
) + c
2
sin(x
−1
) −cos(x
−1
) ln
_
1 + sin(x
−1
)
cos(x
−1
)
_
.
(f) y(x) = c
1
e
2x
3
+ c
2
x
3
e
2x
3
+
1
6
x
9
e
2x
3
.
Propuesto 3.5. Resuelva las siguientes ecuaciones diferenciales homogeneas:
(a) t
2
y

−7ty

+ 16y = 0,
(b) t
2
y

−ty

+ 2y = 0.
Soluciones:
(a) y(t) = c
1
t
4
+ c
2
t
4
ln(t),
(b) y(t) = c
1
t cos(ln(t)) + c
2
t sin(ln(t)).
Propuesto 3.6. Considere la ecuaci´on diferencial:
t
3
y

+ 3(a + 1)t
2
y

+ (3a(a + 1) −3bc + 1)ty

+ (a
3
+ b
3
+ c
3
−3abc)y = 0,
donde a, b, c son par´ametros constantes distintos y la variable t se interpreta como
el tiempo.
(a) Resuelva la ecuaci´on en funci´on de t, a, b y c tomando en cuenta que:
(1) m = −(a + b + c) es soluci´on de la ecuaci´on c´ ubica:
m
3
+ 3am
2
+ 3
_
a
2
−bc
_
m+ a
3
+ b
3
+ c
3
−3abc = 0,
(2) a
3
+b
3
+ c
3
−3abc = (a + b + c) (a
2
+ b
2
+ c
2
−ab −ac −bc) .
(b) Si b = c = −µ < 0, determine la soluci´on en t´erminos de t, a y µ.
(c) Si 2µ − a > 0, a > 0 y b = c = −µ < 0. Determine la soluci´on y(t) que
satisface y(1) =
1
a +µ
, y

(1) = 0 y tal que y(t) tiende a cero cuando t tiende a
infinito.
Soluciones:
104
(a) y(t) = C
1
t
−(a+b+c)
+t
−2a+b+c
2
_
C
2
cos
_√
3(b−c)
2
ln [t[
_
+ C
3
sin
_√
3(b−c)
2
ln [t[
__
.
(b) y(t) = C
1
t
−a+2µ)
+t
−a−µ
[C
2
+ C
3
ln(t)] .
(c) y(t) = t
−(a+µ)

_
1
a + µ
+ ln(t)
_
.
Propuesto 3.7. Resuelva las ecuaciones:
(a) y

+ ω
2
y = sin γt, ω ,= γ ,= 0.
(b) 2y

−3y

−3y

+ 2y = (e
x
+ e
−x
)
2
.
Soluciones:
(a) y(t) = C
1
cos(ωt) + C
2
sin(ωt) +
sin γt
(ω −γ)(ω + γ)
,
(b) y(x) = C
1
e
−x
+ C
2
e
2x
+ C
3
e
1
2
x
+
1
9
xe
2x

1
20
e
−2x
+ 1.
Propuesto 3.8. Determine la forma de una soluci´on particular (en funci´on de
coeficientes indeterminados) para la ecuaci´on:
a
n
y
(n)
+ . . . + a
1
y

+ a
0
y = g(t),
donde a
n
,= 0, . . . , a
0
son constantes, para los siguientes casos:
(a) g(t) = e
t
, y se sabe que m = 1 es una ra´ız de multiplicidad, exactamente
igual a 5, del polinomio caracter´ıstico de la ecuaci´on homog´enea asociada.
(b) g(t) = cos t, y se sabe que una ra´ız del polinomio caracter´ıstico de la ecua-
ci´on homog´enea asociada es m = i con multiplicidad exactamente igual a 3.
Soluciones:
(a) y
p
(t) = d
1
t
5
e
t
,
(b) y
p
(t) = d
1
t
3
cos t + d
2
t
3
sin t.
Propuesto 3.9. Resuelva las ecuaciones:
(a) y

−2y

+ y = e
t
,
(b) y

−ky

= e
kt
.
(c) y

−ky

= e
−kt
donde k es un n´ umero positivo.
105
Soluciones:
(a) y(t) = C
1
e
t
+ C
2
te
t
+
1
2
t
2
e
t
,
(b) y(t) = C
1
+ C
2
t + C
3
e
kt
+
te
kt
k
2
,
(c) y(t) = C
1
+C
2
t + C
3
e
kt
+
te
−kt
k
2
.
Propuesto 3.10. Considere la ecuaci´on diferencial de orden n:
P(D)y = a
n
y
n
+ . . . + a
1
y

+ a
o
y = g(t)
donde g(t) = a cos(β t) +b sin(β t), β ,= 0. Encuentre la forma de la soluci´on
particular de la ecuaci´on diferencial.
Sugerencia: considere primero el caso en que el anulador de g no es factor de
P(D).
Soluciones:
Caso 1 no es factor: y
p
(t) = d
1
cos(βt) + d
2
sin(βt),
Caso 2 es factor: y
p
(t) = d
1
t
l
cos(βt) + d
2
t
l
sin(βt), donde l es la multiplicidad
de la ra´ız compleja iβ.
Propuesto 3.11. Encuentre la soluci´on general de:
(a) y

−3y

+ 4y = te
2t
−sin(t),
(b) y
iv
+ 8y

+ 16y = cos
2
t.
Soluciones:
(a) y(t) = C
1
e
−t
+C
2
e
2t
+C
3
te
2t

1
42
t
2
e
2t
+
1
21
t
3
e
2t

1
50
cos t −
7
50
sin t,
(b) y(t) = (C
1
+C
2
t) sin 2t + (C
3
+ C
4
t) cos 2t −
1
64
t
2
cos 2t +
1
32
.
Propuesto 3.12. Considere la ecuaci´on diferencial de orden n:
P(D)y = a
n
y
n
+ . . . + a
1
y

+ a
o
y = g(t)
donde a
i
, i = 0, . . . , n son constantes con a
n
,= 0. Suponga que
g(t) = t
2ab−1
e
abt
(a cos bt + b sin at)
con a y b enteros positivos.
106
Encuentre la forma de la soluci´on particular considerando separadamente el caso
en que el anulador de g(t) no es un factor de P(D) y el caso en que si lo es y con
multiplicidades.
Soluciones:
Caso 1: Anulador no es factor de P(D):
y
p
(t) = e
abt
t
2ab−1
[cos(bt)p
1
(t) + sin(bt)p
2
(t) + cos(at)p
3
(t) + sin(at)p
4
(t)] ,
Caso 2: Anulador es factor de P(D):
y
p
(t) = e
abt
t
2ab−1

_
(cos(bt)p
1
(t) + sin(bt)p
2
(t)) t
l
+ (cos(at)p
3
(t) + sin(at)p
4
(t)) t
m
¸
l y m seg´ un multiplicidad. En ambos casos p
1
(t), p
2
(t), p
3
(t), p
4
(t) son polinomios
de grado 2ab −1 (con coeficientes indeterminados).
Propuesto 3.13. Use el m´etodo de los coeficientes indeterminados para resolver
las siguientes ecuaciones diferenciales
(a) y
iv
−y

= x + e
x
, con y(0) = y

(0) = y

(0) = y

(0) = 0
(b) t
3
y

+ 3t
2
y

+ (1 −3αβ) ty

+ (α
3
+ β
3
) y = t
−(α+β)
+ ln t
α+β
sabiendo que a
3
+ b
3
+ c
3
−3abc = (a +b +c) (a
2
+ b
2
+ c
2
−bc −ac −ab) .
Soluciones:
(a) y(x) = 2 + x −2e
x

1
6
x
3

1
24
x
4
+ xe
x
,
(b) y(t) = C
1
t
−(α+β)
+ t
2
α+β
_
C
2
cos
_
(α+β)

3
2
ln(t)
_
+ C
3
sin
_
(α+β)

3
2
ln(t)
__
+
3αβ(α + β)

3

3
)
2
+
ln(t)
α
2
−αβ + β
2
+
t
−(α+β)
ln(t)
3 (α
2
+ αβ + β
2
)
.
Propuesto 3.14. Resuelva
(a) y

+ 4y = sin
2
x
(b)Encuentre la forma de la soluci´on particular para la ecuaci´on:
(D −I)
3
_
D
2
−4I
_
y = xe
x
+ e
2x
+e
−2x
.
Soluciones:
107
(a) y(x) = C
1
cos(2x) + C
2
sin(2x) +
1
8
(1 −x sin 2x) ,
(b) y
p
(x) = d
1
x
3
e
x
+d
2
x
4
e
x
+ d
3
xe
2x
+ d
4
xe
−2x
.
Propuesto 3.15. Resuelva la ecuaci´on diferencial:
(1 + t
2
)y

+ 4ty

+ (2 + ω(1 + t
2
))y = t cos(

ω t)
Indicaci´on: Aplique el cambio de variable z(t) = (1 + h(t))y(t) para alg´ un h(t).
Soluci´on:
h(t) = t
2
, y(t) =
1
1 + t
2
_
C
1
cos(

ωt) + C
2
sin(

ωt)
_
+y
p
(t).
Propuesto 3.16. Resuelva la ecuaci´on diferencial:
t
2
y

−3ty

+ 4y =
_
1 + ln(t) + 2(ln(t))
3
1 + 2(ln(t))
2
_
t
2
Soluci´on:
Con el cambio de variable u = ln(t) se llegar´a a la EDO
y

−4y

+ 4y = ue
2u
+
e
2u
1 + 2u
2
,
que se resuelve con variaci´on de par´ametros y el resultado final es:
y(t) = t
2
_
c
1
+ c
2
ln(t) −
1
4
(2 ln(t)
2
+ ln(1 + 2 ln(t)
2
)) +
1
2
ln(t)(ln(t)
2
+

2 arctan(

2 ln(t))))
_
Propuesto 3.17. Resuelva la siguiente ecuaci´on diferencial:
y

+
2
x
y

+ y =
1
x
.
Sugerencia: Haga el cambio de variable z = xy.
Soluci´on:
y(t) =
1
x
[C
1
cos x + C
2
sin x + 1].
Propuesto 3.18. Resuelva la siguiente ecuaci´on diferencial:
y

−4y

+ 4y =
_
e
2t
+ 1
_
(cos(t) + 1)
108
Soluci´on:
y(t) = C
1
e
2t
+C
2
te
2t
+
1
2
t
2
e
2t
+
3
25
cos t −
4
25
sin t −e
2t
cos t +
1
4
.
Propuesto 3.19. Considere la ecuaci´on diferencial:
t
2
y

+ ty

+
_
t
2

1
4
_
y = t
3
2
, t > 0.
(a) Demuestre que y
1
(t) = t

1
2
cos t es una soluci´on de la ecuaci´on homog´enea
correspondiente.
(b)Encuentre otra soluci´on l.i. con y
1
.
(c)Encuentre la soluci´on general.
Soluciones:
(a) Basta con reemplazar en la homogenea.
(b) y
2
(t) = t

1
2
sin t,
(c) y(t) = t

1
2
(c
1
cos t + c
2
sin t) + t
3
2
−2t

1
2
.
Propuesto 3.20. Considere la ecuaci´on diferencial:
y

+ p(t)y

+ q(t)y = f(t), (1)
donde p(t), q(t), y f(t) son funciones definidas en R continuas.
(a) Suponiendo que y
1
(t), y
2
(t) son dos soluciones l.i. de la ecuaci´on homog´enea
asociada demuestre que la soluci´on general de (1) se puede escribir de la forma
y(t) = c
1
y
1
(t) + c
2
y
2
(t) +
_
t
0
G(t, s)f(s)ds
donde se pide determinar esta funci´on G.
(b)Eval´ ue a partir de (a) la soluci´on general de la ecuaci´on y

+k
2
y = f(t), k > 0.
Soluciones:
(a) G(t, s) =
y
2
(t)y
1
(s) −y
1
(t)y
2
(s)
W(y
1
, y
2
)(s)
,
(b) y(t) = c
1
cos(kt) + c
2
sin(kt) +
_
t
0
f(s) sin(k(t −s))ds
Propuesto 3.21. Considere la ecuaci´on diferencial:
xy

+
_
4x
2
−1
_
y

+ 4x
3
y = x
3
e
x−x
2
, x > 0.
109
(a)Encuentre la soluci´on de la ecuaci´on homog´enea correspondiente. Hint: Reduzca
esta ecuaci´on a una de coeficientes constantes mediante un cambio de la forma
t = x
α
, para un cierto α.
(b)Encuentre la soluci´on general usando variaci´on de par´ametros.
Soluciones:
(a) y
h
(x) = e
−x
2
(c
1
+ c
2
x
2
),
(b) y(x) = e
−x
2
(c
1
+ c
2
x
2
) +
1
2
e
x−x
2
_
3x
2
−6x + 5
_
.
Propuesto 3.22. Resuelva la siguiente ecuaci´on diferencial:
y

+
t
1 −t
y


1
1 −t
y = 1 −t.
Soluci´on:
y(t) = c
1
e
t
+c
2
t + 1 + t
2
.
Propuesto 3.23. Resolver las siguientes ecuaciones diferenciales:
(a) (t
2
−1) y

−2ty

+ 2y = t
2
−1.
(b) ty

+ (2t + 3)y

+ (t + 3)y = ae
−t
, t > 0.
Soluciones:
(a) y(t) = C
1
t + C
2
(t
2
+ 1) + t
_
ln
_
t + 1
t −1
_
−t
_
+
1
2
_
t
2
+ 1
_
ln
_
t
2
−1
_
(b) y(t) = C
1
e
−t
+ C
2
e
−t
t
2
+
a
3
te
−t
.
Propuesto 3.24. Resolver las siguientes ecuaciones diferenciales:
(a) y

+ 2y

+ 2y

= e
−t
(cos t + 2 sen t).
(b) y

+
1
4t
2
y

= t

1
2
, t > 0.
Soluciones:
(a) y(t) = c
1
+ e
−t
(c
2
cos(t) + c
3
sin(t)) + e
−t
(
1
4
t cos(t) −
3
4
t sin(t)).
(b) y(t) = d
1
t
3
2
+ d
2
t
3
2
ln(t) + d
3
+ t
5
2
_
4
5
ln(t) −
18
25
_
.
110
4. Transformada de Laplace
Sea f : [0, ∞) → R, decimos que f es continua a trozos (continua por tramos)
en [0, ∞), si en cualquier intervalo [a, b] ⊂ [0, ∞) hay a lo m´as un n´ umero finito de
puntos de discontinuidades t
1
, . . . , t
l
de salto finito, esto significa que f es continua
en cada intervalo (t
k
, t
k+1
), y f(t), t ∈ (t
k
, t
k+1
), tiende a un limite finito cuando
t tiende a t
k
o t
k+1
, para todo k = 1, .., l −1.
Definici´on 4.1. Decimos que una funci´on f : [0, ∞) →R es de orden exponencial
si existen constantes C > 0, M > 0 y T > 0 tales que:
[f(t)[ ≤ Me
Ct
para todo t ≥ T
Ejemplo 4.1. (1) Para f(t) = t, t ≥ 0, se tiene [f(t)[ = t ≤ e
t
, por lo tanto es
de orden exponencial con M = 1, C = 1 y T cualquier n´ umero positivo.
(2) Para f(t) = cos t, t ≥ 0, se tiene [f(t)[ = [ cos t[ ≤ e
t
, por lo tanto es de orden
exponencial con M = 1, C = 1 y T cualquier n´ umero positivo.
(3) Para f(t) = t
n
sin t, t ≥ 0, se tiene [f(t)[ ≤ t
n
≤ (e
t
)
n
= e
nt
, por lo tanto es
de orden exponencial con M = 1, C = n y T cualquier n´ umero positivo.
Comencemos a continuaci´ on con la definici´on de la Transformada de Laplace.
Sea f : [0, ∞) →R y consideremos la expresi´on,
_
τ
0
e
−st
f(t)dt
donde s > 0 y τ > 0. Supongamos que
l´ım
τ→∞
_
τ
0
e
−st
f(t)dt =
_

0
e
−st
f(t)dt
existe, entonces
111
F(s) :=
_

0
e
−st
f(t)dt
la llamaremos la transformada de Laplace de f. Es costumbre tambi´en denotar la
transformada de Laplace por L(f(t)). As´ı,
L(f(t)) = F(s) =
_

0
e
−st
f(t)dt
Notamos que el dominio de definici´on de esta transformada depende de la fun-
ci´on f. En este respecto se tiene
Teorema 4.1. Sea f : [0, ∞) → R continua por trozos y de orden exponencial,
i.e. existen constantes M > 0, C > 0 y T > 0 tales que
[f(t)[ ≤ Me
Ct
para todo t ≥ T,
entonces F(s) existe para todo s > C.
Demostraci´on 1. Se tiene
F(s) = l´ım
τ→∞
_
τ
0
e
−st
f(t)dt
=
_
T
0
e
−st
f(t)dt + l´ım
τ→∞
_
τ
T
e
−st
f(t)dt
Ahora, de los cursos de c´alculo se sabe que
l´ım
τ→∞
_
τ
T
e
−st
f(t)dt
existe, si
l´ım
τ→∞
_
τ
T
e
−st
[f(t)[dt =
_

T
e
−st
[f(t)[dt < ∞, (4.1)
as´ı que estudiaremos este ultimo limite. Se tiene
_
τ
T
e
−st
[f(t)[dt ≤ M
_
τ
T
e
−st
e
Ct
dt = M
_
τ
T
e
−(s−C)t
dt
112
=
M
s −C
[e
−(s−C)T
−e
−(s−C)τ
]
por lo tanto,
l´ım
τ→∞
_
τ
T
e
−st
[f(t)[dt ≤
M
s −C
e
−(s−C)T
, para todo s > C.
Luego,
_

T
e
−st
[f(t)[dt < ∞, para todo s > C.
lo que implica que
F(s) =
_

0
e
−st
f(t)dt
existe para todo s > C, que es lo que se quer´ıa demostrar
El siguiente teorema nos dice que la transformada es continua.
Teorema 4.2. Supongamos que la funci´on f satisface las condiciones del teorema
anterior, entonces la transformada de Laplace, F(s), es continua en el intervalo
(C, ∞).
Demostraci´on 2. Sean s
1
, s
2
∈ (C, ∞). Queremos demostrar que si s
1
→ s
2
,
entonces F(s
1
) →F(s
2
). Se tiene
F(s
1
) =
_

0
e
−s
1
t
f(t)dt
F(s
2
) =
_

0
e
−s
2
t
f(t)dt
entonces,
[F(s
1
) −F(s
2
)[ ≤
_

0
[e
−s
1
t
−e
−s
2
t
[[f(t)[dt.
Suponiendo, sin perder generalidad que s
1
< s
2
, lo cual implica que e
−s
1
t
>
e
−s
2
t
, se tiene
113
[F(s
1
) −F(s
2
)[ ≤
_

0
(e
−s
1
t
−e
−s
2
t
)[f(t)[dt
=
_
T
0
(e
−s
1
t
−e
−s
2
t
)[f(t)[dt +
_

T
(e
−s
1
t
−e
−s
2
t
)[f(t)[dt
≤ c
1
_
T
0
(e
−s
1
t
−e
−s
2
t
)dt +M
_

T
(e
−s
1
t
−e
−s
2
t
)e
Ct
dt,
donde c
1
= sup
t∈[0,T]
[f(t)[. Notando que
_
T
0
e
−s
1
t
dt →
_
T
0
e
−s
2
t
dt cuando s
1
→s
2
y que
_

T
(e
−s
1
t
−e
−s
2
t
)e
Ct
dt =
_

T
(e
−(s
1
−C)t
−e
−(s
2
−C)t
)dt
=
1
s
1
−C
e
−(s
1
−C)T

1
s
2
−C
e
−(s
2
−C)T
→0, cuando s
1
→s
2
,
se obtiene que
[F(s
1
) −F(s
2
)[ →0, cuando s
1
→s
2
.
Esto implica que F(s) es una funci´on continua en (C, ∞).
En el siguiente teorema evaluamos la transformada de Laplace de algunas fun-
ciones elementales.
Teorema 4.3. Se tiene lo siguiente
(a) L(1) =
1
s
, s > 0
(b) L(t
n
) =
n!
s
n+1
, s > 0, n ≥ 1
(c) L(e
at
) =
1
s −a
, s > a
114
(d) L(sin kt) =
k
s
2
+ k
2
(e) L(cos kt) =
s
s
2
+ k
2
(f) L(sinh kt) =
k
s
2
−k
2
(g) L(cosh kt) =
s
s
2
−k
2
.
Demostraci´on 3. (a) es inmediato. (b) por inducci´on, para n = 1, se debe tener
L(t) =
1!
s
2
Probemos esto.
L(t) =
_

0
te
−st
dt = l´ım
τ→∞
_
τ
0
te
−st
dt,
y se tiene
_
τ
0
te
−st
dt =
te
−st
−s
¸
¸
¸
τ
0
+
1
s
_
τ
0
e
−st
dt
= −
τe
−sτ
s
+
1
s
e
−sτ
−s
¸
¸
¸
τ
0
= −
e
−sτ
s
+
1
s
2
[1 −e
−sτ
]−→
1
s
2
cuando τ →∞.
Luego
L(t) = l´ım
τ→∞
_
τ
0
te
−st
dt =
_

0
te
−st
dt =
1
s
2
.
Suponemos ahora el resultado para n y queremos probarlo para n + 1. Por
definici´on
L(t
n+1
) = l´ım
τ→∞
_
τ
0
t
n+1
e
−st
dt
115
y
_
τ
0
t
n+1
e
−st
dt =
t
n+1
e
−st
−s
¸
¸
¸
τ
0
+
(n + 1)
s
_
τ
0
t
n
e
−st
dt.
Haciendo que τ →∞ se obtiene
L(t
n+1
) =
(n + 1)
s
_

0
t
n
e
−st
dt =
(n + 1)
s
L(t
n
) =
(n + 1)
s
n!
s
n+1
=
(n + 1)!
s
n+2
.
Para demostrar (c), por definici´on se tiene
L(e
at
) =
_

0
e
−st
e
at
dt =
_

0
e
−(s−a)t
dt =
1
s −a
Finalmente vamos a demostrar (d), el resto queda de ejercicio. Se tiene
L(sin kt) = l´ım
τ→∞
_
τ
0
e
−st
sin kt dt
y
_
τ
0
e
−st
sin kt dt
. ¸¸ .
I(τ)
=
sin kt
−s
e
−st
¸
¸
¸
τ
0
+
k
s
_
τ
0
e
−st
cos kt dt
. ¸¸ .
J(τ)
de donde
I(τ) =
sin kτ
−s
e
−sτ
+
k
s
J(τ).
Por otro lado
116
J(τ) =
cos kt
−s
e
−st
¸
¸
¸
τ
0

k
s
_
τ
0
e
−st
sin kt dt
=
_
1
s

cos kτ e
−sτ
s
_

k
s
I(τ).
Haciendo que τ →∞ se obtiene primero que
I(τ) →L(sin kt) y J(τ) →L(cos kt)
y de las expresiones anteriores se obtiene entonces que
L(sin kt) =
k
s
L(cos kt)
L(cos kt) =
1
s

k
s
L(sin kt).
Resolviendo
L(sin kt) =
k
s
_
1
s

k
s
L(sin kt)
_
que implica
L(sin kt) =
k
s
2
+ k
2
y an´alogamente,
L(cos kt) =
s
k
L(sin kt) =
s
s
2
+k
2
Notemos ahora que la T. de L. es un operador lineal. De la definici´on se tiene
que si f, g : [0, ∞) →R admiten de la T. de L. entonces
L(αf(t) + βg(t)) = αL(f(t)) + βL(g(t))
para α y β ∈ R cualesquiera. Esto se debe a que
117
L(αf(t) + βg(t)) =
_

0
e
−st
(αf(t) + βg(t))dt
= α
_

0
e
−st
f(t)dt + β
_

0
e
−st
g(t)dt.
Esto nos simplifica la evaluaci´ on de la T. de L.
Ejemplo 4.2. Evaluar la T. de L. de 5 cos 3t + 10 sinh 6t.
L(5 cos 3t + 10 sinh 6t) = 5L(cos 3t) + 10L(sinh 6t) =
5s
s
2
+ 9
+
60
s
2
−36
.
4.1. Transformada Inversa. Vamos a comenzar con un ejemplo. Sabemos que
L(cos kt) =
s
s
2
+k
2
= F(s)
Supongamos ahora que tenemos dada la expresi´on,
F(s) =
s
s
2
+ k
2
y queremos saber si existe una funci´on f(t) tal que,
F(s) =
s
s
2
+ k
2
= L(f(t))
En este caso, sabemos la respuesta, evidentemente f(t) = cos kt.
M´as generalmente dada una funci´on F : (C, ∞) → R con C ≥ 0, queremos
saber si existe una funci´on f(t) tal que,
F(s) = L(f(t)).
Si una tal f existe, entonces usaremos la siguiente notaci´on,
f(t) = L
−1
(F(s))
118
y la llamaremos la transformada inversa de F(s).
Como consecuencia inmediata del teorema 4.3 se tiene el siguiente resultado
Teorema 4.4. Se tiene los siguientes resultados:
(a) L
−1
_
1
s
_
= 1, s > 0
(b) L
−1
_
n!
s
n+1
_
= t
n
, n ≥ 1 entero
(c) L
−1
_
1
s −a
_
= e
at
, s > a
(d) L
−1
_
k
s
2
+ k
2
_
= sin kt
(e) L
−1
_
s
s
2
+ k
2
_
= cos kt
(f) L
−1
_
k
s
2
−k
2
_
= sinh kt s > [k[
(g) L
−1
_
s
s
2
−k
2
_
= cosh kt s > [k[
Nota 4.1. Tenemos que la T. de L. de una funci´on f esta definida por una integral
L(f(t)) =
_

0
e
−st
f(t)dt = F(s).
Si g es una funci´on que difiere de f en un n´ umero finito de puntos aislados entonces
obviamente se tendr´a que
L(g(t)) =
_

0
e
−st
g(t)dt = F(s).
Este simple ejemplo demuestra que la ecuaci´on
119
L(f(t)) = F(s) (4.2)
no tiene soluci´on ´ unica. Sin embargo, se puede demostrar que si dos funciones
tienen la misma T. de L. entonces solo una de ellas puede ser continua.
En cuanto a propiedades de linealidad de la transformada inversa se tiene el
siguiente resultado. Supongamos que
L
−1
(F(s)) y L
−1
(G(s))
son funciones continuas (y de orden exponencial), entonces para α y β constantes
cualesquiera
L
−1
(αF(s) + βG(s)) = αL
−1
(F(s)) + βL
−1
(G(s)).
En efecto, si
L
−1
(F(s)) = f(t) y L
−1
(G(s)) = g(t)
donde f y g son funciones continuas, y si
Z(s) = L(αf(t) + βg(t)) = αL(f(t)) + βL(g(t)) = αF(s) + βG(s),
entonces
αf(t) + βg(t) = L
−1
(αF(s) + βG(s)),
que implica
αL
−1
(F(s)) + βL
−1
(G(s)) = L
−1
(αF(s) + βG(s)).
Ejemplo 4.3. Calcule la transformada inversa de la funci´on
F(s) =
s + 6
s
2
+ 4
.
Escribimos
s + 6
s
2
+ 4
=
s
s
2
+ 4
+ 3
2
s
2
+ 4
,
entonces
120
L
−1
_
s + 6
s
2
+ 4
_
= L
−1
_
s
s
2
+ 4
_
+ 3L
−1
_
2
s
2
+ 4
_
= cos 2t + 3 sin 2t.
4.2. Propiedades operacionales.
Teorema 4.5. (Primer teorema de traslaci´on.) Sea a ∈ R, y f : [0, ∞) →R una
funci´on que admite transformada de Laplace. Entonces
L(e
at
f(t)) = F(s −a),
donde F(s) = L(f(t)).
Demostraci´on 4. Se tiene que
L(f(t)) =
_

0
e
−st
f(t)dt = F(s),
entonces
L(e
at
f(t)) =
_

0
e
−st
e
at
f(t)dt
=
_

0
e
−(s−a)t
f(t)dt = F(s −a)
Ejemplo 4.4. Evaluemos L(e
−2t
cos(4t)). Se tiene que f(t) = cos(4t) y a = −2.
F(s) = L(cos(4t)) =
s
s
2
+ 16
F(s + 2) = L(e
−2t
cos(4t)) =
s + 2
(s + 2)
2
+ 16
=
s + 2
s
2
+ 4s + 20
Del teorema anterior se tiene que
121
L
−1
(F(s −a)) = e
at
f(t)
con L
−1
(F(s)) = f(t).
Ejemplo 4.5. Encuentre f(t) tal que f(t) = L
−1
_
s
s
2
+ 6s + 11
_
.
Completando el cuadrado del binomio en el denominador
s
s
2
+ 6s + 11
=
s
(s + 3)
2
+ 2
y descomponiendo para identificar transformadas conocidas
=
s + 3
(s + 3)
2
+ (

2)
2

3
(s + 3)
2
+ (

2)
2
=
s + 3
(s + 3)
2
+ (

2)
2

3

2

2
(s + 3)
2
+ (

2)
2
que tienen respectivamente la forma
s
s
2
+k
2
y
k
s
2
+ k
2
(con k =

2) pero despla-
zadas.
Sabemos que
L
−1
_
s
s
2
+ (

2)
2
_
= cos(

2t)
y utilizando el teorema anterior,
L
−1
_
s + 3
(s + 3)
2
+ (

2)
2
_
= (cos(

2t))e
−3t
De la misma forma
L
−1
_

2
(s + 3)
2
+ (

2)
2
_
= (sin(

2t))e
−3t
ya que L
−1
(

2
s
2
+(

2)
2
) = sin(

2t).
Finalmente usando la linealidad de la transformada inversa, se concluye que
f(t) = cos(

2t)e
−3t

3

2
sin(

2t)e
−3t
.
122
En el segundo teorema de traslaci´on vamos a usar la siguiente funci´on, que
llamaremos funci´on escal´on unitario o simplemente funci´on escal´on.
U(t −a) =
_
0 si 0 ≤ t < a,
1 si t ≥ a.
donde a ≥ 0. Notemos que esta funci´on est´a definida para t ≥ 0, es continua a
trozos, y de orden exponencial. En particular la funci´on U(t) es igual a 1 para
todo t ≥ 0.
Teorema 4.6. (Segundo teorema de traslaci´on) Sea a ≥ 0 y f : [0, ∞) → R una
funci´on que admite transformada de Laplace. Entonces
L(f(t −a)U(t −a)) = e
−as
F(s)
con F(s) = L(f(t)).
Demostraci´on 5. De la definici´on de T. de L.
L(f(t −a)U(t −a)) =
_

0
f(t −a)U(t −a)e
−st
dt =
_

a
f(t −a)e
−st
dt.
Haciendo el cambio de variable de integraci´on t −a = u, nos queda
L(f(t −a)U(t −a)) =
_

0
f(u)e
−s(a+u)
du = e
−sa
_

0
f(u)e
−su
du
= e
−sa
F(s).
Nota. La forma inversa del teorema es
L
−1
(e
−sa
F(s)) = f(t −a)U(t −a).
Veamos algunos ejemplos.
Ejemplo 4.6. Consideremos la funci´on f definida por
123
f(t) =
_
¸
_
¸
_
2 si 0 ≤ t < 2
−1 si 2 ≤ t < 3
0 si t ≥ 3.
Con la ayuda de la funci´on escal´on la podemos escribir como
f(t) = 2U(t) −3U(t −2) + U(t −3).
Evaluando su T. de L., obtenemos
L(f(t)) = 2L(U(t)) −3L(U(t −2)) +L(U(t −3)) =
2
s

3
s
e
−2s
+
e
−3s
s
.
Ejemplo 4.7. Calculemos L(sin(t) U(t −2π)). Notamos que esta funci´on aparen-
temente no tiene la forma L(f(t − a)U(t − a)). Sin embargo se puede reducir a
dicha forma usando que sin(t) es 2π peri´odica, esto es sin t = sin(t−2π) para todo
t ∈ R. Entonces sin(t) U(t −2π) = sin(t −2π)U(t −2π), con lo cual
L(sin(t) U(t −2π)) = L(sin(t −2π)U(t −2π) = e
−2πs
L(sin t) =
e
−2πs
s
2
+ 1
Teorema 4.7. (Derivadas de una transformada) Sea f : [0, ∞) → R continua a
trozos y de orden exponencial ([f(t)[ ≤ Me
Ct
para todo t ≥ T). Entonces para
todo n ∈ N y s > C + 1, se tiene que
d
n
ds
n
F(s) = (−1)
n
L(t
n
f(t)) (4.3)
donde F(s) = L(f(t)).
Nota. Este teorema se usa muchas veces en la forma
L(t
n
f(t)) = (−1)
n
d
n
ds
n
F(s).
Demostraci´on 6. Se tiene, por definici´on, que
F(s) =
_

0
e
−st
f(t)dt,
124
donde vamos a suponer de ahora en adelante que s > C +1. Notamos que (4.3) se
puede obtener derivando formalmente bajo la integral con respecto a s. Se obtiene
dF(s)
ds
= −
_

0
te
−st
f(t)dt (4.4)
que corresponde al caso n = 1 en (4.3),
d
2
F(s)
ds
2
=
_

0
t
2
e
−st
f(t)dt,
etc. Justifiquemos este proceso. Formemos
F(s +h) −F(s) =
_

0
(e
−(s+h)t
−e
−st
)f(t)dt =
_

0
(e
−ht
−1)e
−st
f(t)dt. (4.5)
Definamos
I(h) :=
F(s +h) −F(s)
h
+
_

0
tf(t)e
−st
dt.
(4.4) ser´a cierta si l´ım
h→0
I(h) = 0. Probemos esto. De (4.5) se tiene
I(h) =
_

0
__
e
−ht
−1
h
_
+t
_
f(t)e
−st
dt. (4.6)
Usamos desarrollo en series para acotar la funci´on (
e
−ht
−1
h
) + t, se tiene
e
−ht
−1
h
+ t =
ht
2
2!

h
2
t
3
3!
±. . . = h
_
t
2
2!

ht
3
3!
±. . .
_
.
Con lo cual
125
[
e
−ht
−1
h
+ t[ ≤ [h[
_
t
2
2!
+
t
2
3!
+ . . .
_
,
donde sin p´erdida de generalidad tomamos [h[ ≤ 1. Entonces
[
e
−ht
−1
h
+ t[ ≤ [h[e
t
Tomando valor absoluto en (4.6), reemplazando la ultima expresi´on, y usando que
f es de orden exponencial, obtenemos
[I(h)[ ≤ [h[
_

0
e
t
[f(t)[e
−st
dt ≤ [h[
_
_
T
0
e
(1−s)t
f(t)dt + M
_

T
e
−(s−C−1)t
dt
_
,
donde recordamos que hemos tomado s > C + 1. Por lo tanto
[I(h)[ ≤ [h[
_
_
T
0
e
(1−s)t
f(t)dt +
Me
−(s−C−1)T
s −C −1
_
,
de donde l´ım
h→0
I(h) = 0.
Ahora vamos a probar el caso general. Lo hacemos por inducci´on, notamos que
la demostraci´on reci´en hecha corresponde al caso n = 1. Supongamos entonces
(4.3) para n y probemos el caso n + 1. De la definici´on de T. de L.
L(t
n+1
f(t)) =
_

0
t
n+1
f(t)e
−st
dt
=
_

0
t
n
(tf(t))e
−st
dt = (−1)
n
d
n
ds
n
G(s)
donde G(s) = L(tf(t)). Pero
L(tf(t)) = (−1)
d
ds
F(s),
126
por lo que
L(t
n+1
f(t)) = (−1)
n+1
d
n+1
ds
n+1
F(s).
Nota. La forma inversa de este Teorema es
t
n
f(t) = (−1)
n
L
−1
(
d
n
ds
n
F(s)).
Algunos ejemplos.
Ejemplo 4.8. Se pide evaluar L(t
2
sin(kt)).
Vamos a aplicar el teorema anterior. Tomamos f(t) = sin(kt), entonces
F(s) = L(sin(kt)) =
k
s
2
+ k
2
.
Del teorema anterior, con n = 2, se tiene
L(t
2
sin(kt)) = (−1)
2
d
2
ds
2
F(s) =
d
2
ds
2
k
s
2
+ k
2
.
Derivando
dF(s)
ds
=
−2ks
(s
2
+ k
2
)
2
y
d
2
F(s)
ds
2
=
2k(3s
2
−k
2
)
(s
2
+ k
2
)
3
.
Por lo tanto
L(t
2
sin(kt)) = 2k
3s
2
−k
2
(s
2
+ k
2
)
3
.
Notemos que tambi´en se tiene
t
2
sin(kt) = 2kL
−1
_
3s
2
−k
2
(s
2
+ k
2
)
3
_
.
127
Ejemplo 4.9. Se quiere calcular L(te
−t
cos t). Usamos el teorema anterior, con
f(t) = e
−t
cos t. Se tiene
F(s) = L(e
−t
cos t) =
s + 1
(s + 1)
2
+ 1
.
Derivando
dF(s)
ds
=
−(s
2
+ 2s)
(s
2
+ 2s + 2)
2
,
y aplicando el teorema anterior, se obtiene
L(te
−t
cos t) =
s
2
+ 2s
(s
2
+ 2s + 2)
2
.
4.3. Aplicaciones a EDO. A continuaci´on vamos a aplicar la T. de L. para
resolver ecuaciones diferenciales lineales de orden n de la forma
a
n
y
(n)
+ a
n−1
y
(n−1)
+ . . . + a
1
y

+ a
0
y = g(t),
donde los coeficientes a
0
, , a
n
son constantes. El m´etodo consitir´a en aplicar T.
de L. a ambos miembros de esta ecuaci´on. De aqu´ı se ve la necesidad de saber
calcular la T. de L. de derivadas de y. Esto lo hacemos en el siguiente teorema.
Recordemos primero que h : [0, ∞) → R es de orden exponencial si existen
constantes positivas C, M, T tal que
[h(t)[ ≤ Me
Ct
para todo t ≥ T. (4.7)
Teorema 4.8. (Transformada de derivadas.) Sea f : [0, +∞) →R que satisface la
siguiente condici´on. f, f

, . . . , f
(n)
son continuas a trozos y de orden exponencial,
suponemos que todas estas funciones satisfacen (4.7), con las mismas constantes.
Entonces, si F(s) = L(f(t)), se tiene
L(f
(n)
(t)) = s
n
F(s) −s
n−1
f(0) −s
n−2
f

(0) − −sf
(n−2)
(0) −f
(n−1)
(0), s > C.
Notemos que f, f

, . . . , f
(n)
son continuas excepto en un conjunto numerable de
puntos en [0, ∞).
128
Demostraci´on 7. Por inducci´on. Primero el caso n = 1. Queremos demostrar
L(f

(t)) = sF(s) −f(0).
Se tiene:
L(f

(t)) =
_

0
f

(t)e
−st
dt = l´ım
τ→∞
_
τ
0
f

(t)e
−st
dt
= l´ım
τ→∞
_
f(t)e
−st
[
τ
0
+ s
_
τ
0
f(t)e
−st
dt
_
= l´ım
τ→∞
_
f(τ)e
−sτ
−f(0) + s
_
τ
0
f(t)e
−st
dt
_
= s
_

0
f(t)e
−st
dt = sL(f(t)) −f(0),
ya que
[f(τ)e
−sτ
[ ≤ Me

e
−sτ
= Me
−(s−C)τ
, s > C,
y por lo tanto
l´ım
τ→∞
f(τ)e
−sτ
= 0.
Queda entonces demostrado el caso n = 1. Supongamos a continuaci´ on el resultado
cierto para n y queremos probarlo para n + 1. Se tiene:
L(f
(n+1)
(t)) =
_

0
f
(n+1)
(t)e
−st
dt
= l´ım
τ→∞
_
f
(n)
(t)e
−st
[
τ
0
+ s
_
τ
0
f
(n)
(t)e
−st
dt
_
= sL(f
(n)
(t)) −f
(n)
(0).
129
Esto es
L(f
(n+1)
(t)) = sL(f
(n)
(t)) −f
(n)
(0).
Reemplazando en esta expresi´on
L(f
(n)
(t)) = s
n
F(s) −s
n−1
f(0) −s
n−2
f

(0) − −sf
(n−2)
(0) −f
(n−1)
(0),
que es la hip´otesis de inducci´on, nos queda finalmente
L(f
(n+1)
(t)) = s
n+1
F(s) −s
n
f(0) . . . −sf
(n−1)
(0) −f
(n)
(0),
que es el caso n + 1. Esto termina la demostraci´on
Consideremos
a
n
y
(n)
+a
n−1
y
(n−1)
+ . . . + a
1
y

+a
0
y = g(t)
con las condiciones iniciales
y(0) = c
1
, y

(0) = c
2
, . . . , y
(n−1)
(0) = c
n
,
donde g es una funci´on que admite T. de L. y
a
0
, a
1
, . . . , a
n
y c
0
, . . . , c
n
son constantes reales.
Vamos a aplicar T. de L. a ambos miembros. Sea
Y (s) = L(y(t)),
entonces, del teorema anterior
L(y
(i)
(t)) = s
i
Y (s) −s
i−1
y(0) −s
i−2
y

(0) − −sy
(i−2)
(0) −y
(i−1)
(0),
para i = 1, ..., n. Aplicando esto a la ecuaci´on diferencial, se obtiene
130
a
n
[s
n
Y (s) −s
n−1
y(0) −. . . −y
(n−1)
(0)] +
a
n−1
[s
n−1
Y (s) −s
n−2
y(0) −. . . −y
(n−2)
(0)] +
a
n−2
[s
n−2
Y (s) −s
n−3
y(0) −. . . −y
(n−3)
(0)] + + a
0
Y (s) = G(s)
donde G(s) = L(g(t)). Agrupando, se obtiene
P(s)Y (s) + Q(s) = G(s).
donde
P(s) = a
n
s
n
+a
n−1
s
n−1
+ . . . + a
1
s + a
0
(polinomio caracter´ıstico) y Q(s) es un polinomio de grado s
n−1
en s, funci´on de
las condiciones iniciales. Despejando Y (s), se obtiene
Y (s) =
G(s) −Q(s)
P(s)
=
G(s)
P(s)

Q(s)
P(s)
.
Para encontrar y(t) tenemos que aplicar transformada inversa a esta ultima
expresi´on, nos da
y(t) = L
−1
¦Y (s)¦ = L
−1
_
G(s)
P(s)
_
−L
−1
_
Q(s)
P(s)
_
.
Ejemplo 4.10. Resuelva usando T. de L.
y

−3y = e
2t
, y(0) = 1.
Aplicando T. de L. y con la notaci´on anterior
131
sY (s) − y(0)
.¸¸.
1
−3Y (s) =
1
s −2
(s −3)Y (s) = 1 +
1
s −2
=
s −1
s −2
Y (s) =
s −1
(s −2)(s −3)
,
usamos fracciones parciales, (repasar), para lo cual escribimos:
Y (s) =
A
s −2
+
B
s −3
calculando, obtenemos
A = −1 B = 2.
y por lo tanto
Y (s) = −
1
s −2
+
2
s −3
.
Aplicando T. I., resulta
y(t) = L
−1
¦Y (s)¦ = −L
−1
(
1
s −2
) + 2L
−1
(
1
s −3
) = −e
2t
+ 2e
3t
.
Ejemplo 4.11. Resuelva usando T. de L. (ecuaci´on del p´endulo en resonancia)
y

+ k
2
y = cos kt, k > 0,
con las condiciones iniciales
y(0) = c
1
, y

(0) = c
2
.
132
Aplicando T. de L. en ´ambos lados de la ecuaci´on, se obtiene:
s
2
Y (s) −sc
1
−c
2
+ k
2
Y (s) =
s
s
2
+ k
2
Y (s) =
s
(s
2
+ k
2
)
2
+
sc
1
+ c
2
s
2
+ k
2
=
s
(s
2
+k
2
)
2
+c
1
s
s
2
+k
2
+ c
2
1
s
2
+ k
2
.
Aplicando T. I.,
y(t) = L
−1
¦Y (s)¦ = L
−1
¦
s
(s
2
+ k
2
)
2
¦ +c
1
L
−1
¦
s
s
2
+ k
2
¦ + c
2
L
−1
¦
1
s
2
+ k
2
¦
= L
−1
¦
s
(s
2
+ k
2
)
2
¦ +c
1
cos kt +
c
2
k
sin kt.
Para evaluar L
−1
_
s
(s
2
+ k
2
)
2
_
vamos a usar la f´ormula
d
ds
F(s) = −L¦tf(t)¦, o
mejor tf(t) = −L
−1
(
d
ds
F(s)). Identificando F(s) =
1
s
2
+k
2
, se tiene primero que
f(t) = L
−1
¦F(s)¦ =
1
k
sin kt.
A continuaci´on notando que
s
(s
2
+ k
2
)
2
=
1
2
_
2s
(s
2
+k
2
)
2
_
= −
1
2
d
ds
_
1
s
2
+ k
2
_
.
se tiene que

d
ds
_
1
s
2
+ k
2
_
= −
d
ds
F(s) = L¦tf(t)¦ = L
_
t
sin kt
k
_
,
133
y entonces
s
(s
2
+ k
2
)
2
=
1
2k
L¦t sin kt¦
L
−1
_
s
(s
2
+k
2
)
2
_
=
1
2k
t sin kt. (4.8)
Finalmente
y(t) =
t sin kt
2k
+ c
1
cos kt +
c
2
k
sin kt
Ejemplo 4.12. Resuelva la ecuaci´on con condiciones iniciales
y

+ 16y = f(t), y(0) = 0 y

(0) = 1.
donde f(t) = cos 4t (U(t) − U(t − π)). Poniendo L(y(t)) = Y (s), y aplicando T.
de L.
s
2
Y (s) −1 + 16Y (s) = L¦f(t)¦. (4.9)
pero
f(t) = cos 4t (U(t) −U(t −π)) = cos 4t −cos 4t U(t −π)
= cos 4t −cos 4(t −π)U(t −π),
de donde
L¦f(t)¦ =
s
s
2
+ 16
−e
−πs
s
s
2
+ 16
.
Substituyendo en (6.29) y despejando Y (s),
Y (s) =
s
(s
2
+ 16)
2
−e
−πs
s
(s
2
+ 16)
2
+
1
s
2
+ 16
. (4.10)
Ahora de (4.8), se tiene que
134
L
−1
(
s
(s
2
+ 16)
2
) =
1
8
t sin 4t.
Por lo tanto
L
−1
_
e
−πs
s
(s
2
+ 16)
2
_
=
1
8
U(t −π)(t −π) sin 4(t −π).
Finalmente tomando T.I en (6.30), nos queda
y(t) =
1
8
t sin 4t −
1
8
U(t −π)(t −π) sin 4(t −π)
. ¸¸ .
sin 4t
+
1
4
sin 4t
=
sin 4t
4
_
t
2

U(t −π)(t −π)
2
+ 1
_
,
que se puede escribir como,
y(t) =
_
¸
¸
¸
_
¸
¸
¸
_
1
4
sin 4t +
1
8
t sin 4t 0 ≤ t < π
2 +π
8
sin 4t t ≥ π.
4.4. Producto de Convoluci´ on. Sean f, g : [0, +∞) → R dos funciones que
admiten T. de L. Definimos el producto de convoluci´on de f y g, que denotamos
por f ∗ g, de la forma siguiente:
(f ∗ g)(t) =
_
t
0
f(τ)g(t −τ)dτ
Es inmediato ver que este producto satisface
f ∗ g = g ∗ f.
135
En efecto, haciendo el cambio de variable t −τ = s en la definici´on, se tiene
(f ∗ g)(t) = −
_
0
t
f(t −s)g(s)ds =
_
t
0
f(t −s)g(s)ds = (g ∗ f)(t)
El teorema principal respecto del producto de convoluci´on es el siguiente.
Teorema 4.9. Sean f, g : [0, +∞) → R dos funciones continuas a trozos y de
orden exponencial tal que ambas satisfacen (4.7), entonces
L¦(f ∗ g)(t)¦ = F(s)G(s),
donde F(s) = L(f(t)) y G(s) = L(g(t)).
Forma inversa del teorema:
L
−1
(F(s)G(s)) = (f ∗ g)(t)
Demostraci´on 8 (del Teorema 4.9). Vamos a redefinir f y g agregando la con-
dici´on que f(t) = g(t) = 0 para todo t < 0. Del segundo teorema de traslaci´on se
tiene que
L(g(t −τ)) =
_

0
g(t −τ)e
−st
dt =
_

0
U(t −τ)g(t −τ)e
−st
dt = e
−sτ
G(s),
donde s > C. De aqu´ı
F(s)G(s) =
_

0
f(τ)G(s)e
−sτ
dτ =
_

0
f(τ)(
_

0
g(t −τ)e
−st
dt)dτ
= l´ım
R→∞
_
R
0
_

0
f(τ)g(t −τ)e
−st
dtdτ.
Se puede demostrar que se puede intercambiar los limites de integraci´ on (Ej.), de
donde
136
F(s)G(s) = l´ım
R→∞
_

0
e
−st
_
R
0
f(τ)g(t −τ)dτdt = l´ım
R→∞
(I
1
(R) + I
2
(R)),
donde
I
1
(R) =
_
R
0
e
−st
_
R
0
f(τ)g(t −τ)dτdt
I
2
(R) =
_

R
e
−st
_
R
0
f(τ)g(t −τ)dτdt.
Afirmaci´on. De la condici´on f y g satisfacen (4.7), se tiene que existe una constante
N > 0 tal que
[e
−st
f(τ)g(t −τ)[ ≤ Ne
−sτ
e

e
C(t−τ)
= Ne
−(s−C)t
. (4.11)
En efecto de (4.7)
[h(t)[ ≤ Me
Ct
para todo t ≥ T > 0,
y donde h = f o h = g. Como f, g son continuas a trozos existe una constante
M
0
> 0 tal que para todo t ∈ [0, T] se tiene que f(t) ≤ M
0
y g(t) ≤ M
0
, entonces
[h(t)[ ≤ M
0
+Me
Ct

˜
Ne
Ct
para todo t ≥ 0,
y donde
˜
N = M
0
+M. De aqu´ı (4.11) se sigue inmediatamente, definiendo N =
˜
N
2
.
Usando (4.11) en I
2
se tiene
[I
2
(R)[ ≤ N
_

R
e
−(s−C)t
_
R
0
dτdt =
NR
s −C
e
−(s−C)R
→0
cuando R →∞. Por otro lado la regi´on de integraci´ on en la integral de I
1
es
0 ≤ t ≤ R 0 ≤ τ ≤ R,
por lo que se tiene que
I
1
(R) =
_
R
0
e
−st
_
t
0
f(τ)g(t −τ)dτdt.
Entonces
137
F(s)G(s) = l´ım
R→∞
_
R
0
e
−st
_
t
0
f(τ)g(t −τ)dτdt
=
_

0
e
−st
_
t
0
f(τ)g(t −τ)dτdt = L((f ∗ g)(t)).
Nota. Un caso particular interesante es cuando f = g, en este caso se tiene
(F(s))
2
= L((f ∗ f)(t)).
Ejemplo 4.13. Encuentre L
−1
_
1
(s
2
+ k
2
)
2
_
. Aplicando la forma inversa del teo-
rema, se tiene
L
−1
_
1
(s
2
+ k
2
)
2
_
=
1
k
2
(sin k() ∗ sin k())(t)
=
1
k
2
_
t
0
sin kτ sin k(t −τ)dτ =
1
2k
3
(sin kt −kt cos kt),
donde hemos usado las identidades trigonom´etricas:
cos(A +B) = cos Acos B −sin Asin B, (4.12)
cos(A −B) = cos Acos B + sin Asin B. (4.13)
Corolario 1. Transformada de una integral. Sea f : [0, +∞) → R continua a
trozos y de orden exponencial. Entonces

_
t
0
f(τ)dτ¦ =
1
s
F(s),
donde
F(s) = L(f(t)).
Forma inversa del teorema.
L
−1
(
1
s
F(s)) =
_
t
0
f(τ)dτ.
138
Demostraci´on 9 (del Corolario 1). Se tiene
_
t
0
f(τ)dτ = −
_
0
t
f(t −s)ds =
_
t
0
f(t −s)ds
donde hemos hecho el cambio de variable τ = t −s. Mirando la ultima expresi´on
como la integral de 1 por f(t −s) y recordando que L(1) =
1
s
, del ultimo teorema
se sigue inmediatamente que

_
t
0
f(τ)dτ¦ =
1
s
F(s).
Ejemplo 4.14. Encuentre L
−1
_
1
(s
2
+ 1)(s
2
+ 4)
_
Definiendo F(s) =
1
s
2
+ 1
y G(s) =
1
s
2
+ 4
, se tiene que
f(t) = L
−1
(F(s)) = L
−1
_
1
s
2
+ 1
_
= sin t
y
g(t) = L
−1
(G(s)) = L
−1
_
1
s
2
+ 4
_
=
1
2
sin 2t.
Entonces del teorema anterior, se sigue que
L
−1
_
1
(s
2
+ 1)(s
2
+ 4)
_
=
_
t
0
f(τ)g(t −τ)dτ =
1
2
_
t
0
sin τ sin 2(t −τ)dτ.
Usando las identidades trigonom´etricas (4.12), (4.13), se obtiene que
2 sin τ sin 2(t −τ) = cos (3t −2τ) −cos (2t −τ).
Reemplazando esta expresi´on en la integral e integrando, resulta:
L
−1
_
1
(s
2
+ 1)(s
2
+ 4)
_
=
1
3
sin t −
1
6
sin 2t
139
Ejemplo 4.15. Encuentre L
−1
_
s
(s
2
+ k
2
)
2
_
.
Definiendo F(s) =
s
s
2
+ k
2
y G(s) =
1
s
2
+ k
2
, se tiene que
f(t) = L
−1
(F(s)) = L
−1
_
s
s
2
+ k
2
_
= cos kt
y
g(t) = L
−1
(G(s)) = L
−1
_
1
s
2
+k
2
_
=
1
k
sin kt.
Del teorema del producto de convoluci´on
L
−1
_
s
(s
2
+k
2
)
2
_
=
1
k
_
t
0
cos kτ sin k(t −τ)dτ =
t sin(kt)
2k
,
que es el mismo valor que conseguimos por otro m´etodo.
4.5. Transformada de Laplace de funciones peri´odicas.
Teorema 4.10. Sea f : [0, ∞) → R continua a tramos y de orden exponencial
([f(t)[ ≤ Me
Ct
, t ≥ T). Supongamos que existe una constante a > 0 tal que
f(t +a) = f(t), para todo t ≥ 0. Entonces
F(s) =
_
a
0
e
−st
f(t)dt
1 −e
−sa
,
donde como siempre F(s) = L(f(t).
En este caso diremos que la funci´on f(t) es a− peri´odica para t ≥ 0.
Demostraci´on 10. Se tiene, por definici´on de la T. de L.
F(s) =
_

0
e
−st
f(t)dt =
_
a
0
e
−st
f(t)dt +
_

a
e
−st
f(t)dt.
140
Haciendo el cambio de variable de integraci´ on τ = t −a en la ultima integral, se
obtiene
_

a
e
−st
f(t)dt =
_

0
e
−s(τ+a)
f(τ + a)dτ = e
−sa
_

0
e
−sτ
f(τ)dτ = e
−sa
F(s),
por lo que
F(s) =
_
a
0
e
−st
f(t)dt +e
−sa
F(s),
que implica el resultado.
Ejemplo 4.16. Encuentre la T. de L. de la funci´on M
b
(t) definida por
M
b
(t) =
_
1 si 0 ≤ t < b
−1 si b ≤ t < 2b,
M
b
(t + 2b) = M
b
(t).
Se tiene
_
2b
0
e
−st
M
b
(t)dt =
_
b
0
e
−st
dt −
_
2b
b
e
−st
dt =
1
s
(1 −e
−bs
)
2
.
Entonces
L(M
b
(t)) =
(1 −e
−bs
)
2
s(1 −e
−2bs
)
=
(1 −e
−bs
)
s(1 + e
−bs
)
=
1
s
tanh
bs
2
. (4.14)
Ejemplo 4.17. Se quiere encontrar la T. de L. de H
b
(t), dado por
H
b
(t) =
_
t si 0 ≤ t < b
2b −t si b ≤ t < 2b,
H
b
(t + 2b) = H
b
(t).
141
Para resolver este problema notamos que H
b
satisface H
b
(t) =
_
t
0
M
b
(τ)dτ. Esto
es claro si t ∈ [0, 2b). Si t ≥ 2b se tiene
H
b
(t + 2b) =
_
t+2b
0
M
b
(τ)dτ =
_
t
0
M
b
(τ)dτ +
_
t+2b
t
M
b
(τ)dτ
= H
b
(t) +
_
t+2b
t
M
b
(τ)dτ.
Por lo que hay que probar que
_
t+2b
t
M
b
(τ)dτ = 0,
lo cual queda de ejercicio.
Aplicando la formula L¦
_
t
0
f(τ)dτ¦ =
1
s
F(s), se obtiene de inmediato que
L(H
b
(t)) =
1
s
2
tanh
bs
2
.
A continuaci´on por aplicaci´on directa de (4.14) se tiene que
L
_
1
2
+
1
2
M
b
(t)
_
=
1
2
_
1
s
+
(1 −e
−bs
)
s(1 + e
−bs
)
_
=
1
s(1 +e
−bs
)
.
Notemos que la funci´on R
b
(t) :=
1
2
+
1
2
M
b
(t) queda dada por la siguiente expresi´on:
R
b
(t) =
_
1 si 0 ≤ t < b
0 si b ≤ t < 2b,
R
b
(t + 2b) = R
b
(t).
Usando terminologia de Ingenieria el´ectrica decimos que R
b
(t) es una rectifica-
ci´on de media onda de la funci´on M
b
(t).
M´as generalmente consideremos una funci´on f : [0, ∞) → R continua a trozos
en el intervalo [0, 2b] y que satisface f(t +b) = −f(t) para t ∈ [0, b) y f(t +2b) =
f(t) para todo t > 0. Calculemos la T. de L. de esta funci´on. Se tiene primero lo
siguiente.
142
_
2b
0
e
−st
f(t)dt =
_
b
0
e
−st
f(t)dt +
_
2b
b
e
−st
f(t)dt
=
_
b
0
e
−st
f(t)dt +
_
b
0
e
−s(τ+b)
f(τ +b)dτ =
_
b
0
e
−st
f(t)dt −e
−sb
_
b
0
e
−st
f(t)dt
= (1 −e
−bs
)
_
b
0
e
−st
f(t)dt.
A continuaci´ on aplicando la formula para la transformada de una funci´on pe-
ri´odica, obtenemos
F(s) =
_

0
e
−st
f(t)dt =
1
(1 −e
−2sb
)
_
2b
0
e
−st
f(t)dt =
(1 −e
−bs
)
(1 −e
−2sb
)
_
b
0
e
−st
f(t)dt,
de donde finalmente obtenemos
F(s) =
1
(1 + e
−sb
)
_
b
0
e
−st
f(t)dt.
Sea ahora f
1
(t) la rectificaci´on de media onda de f(t). Evaluemos su T. de L.
Tenemos que esta funci´on es 2b peri´odica, aplicando entonces la formula para la
transformada de una funci´on peri´odica, obtenemos
F
1
(s) =
_

0
e
−st
f
1
(t)dt =
1
(1 −e
−2sb
)
_
2b
0
e
−st
f
1
(t)dt
=
1
(1 −e
−2sb
)
_
b
0
e
−st
f(t)dt =
(1 +e
−sb
)
(1 −e
−2sb
)
F(s) =
F(s)
(1 −e
−sb
)
.
Definamos a continuaci´ on la funci´on f
2
(t) = f
1
(t−b), donde suponemos f
1
(τ) =
0 para τ < 0. Entonces se tiene
143
F
2
(s) := L(f
2
(t)) = L(f
1
(t −b)) = L(U(t −b)(f
1
(t −b)) = e
−bs
F
1
(s) =
e
−bs
F(s)
(1 −e
−sb
)
.
Supongamos finalmente que f
3
(t) = f
1
(t) + f
2
(t). Entonces
F
3
(s) := L(f
3
(t)) = L(f
1
(t)) +L(f
2
(t)) =
F(s)
(1 −e
−sb
)
+
e
−bs
F(s)
(1 −e
−sb
)
=
(1 + e
−bs
)F(s)
(1 −e
−sb
)
= coth
_
bs
2
_
F(s).
La funci´on f
3
se llama la rectificaci´on de onda completa de la funci´on f.
Ejemplo 4.18. Consideremos f(t) = sin t. Sabemos que F(s) =
1
s
2
+ 1
. A mo-
do de ejercicio vamos a calcular esta transformada asi como otras aplicando las
formulas anteriores.
Se tiene que f(t) = sin t satisface las condiciones f(t+π) = −f(t) para t ∈ [0, π)
y f(t + 2π) = f(t) para todo t > 0. Podemos calcular su transformada por la
f´ormula
F(s) =
1
(1 + e
−sπ
)
_
π
0
e
−st
sin tdt.
Como se tiene que
_
π
0
e
−st
sin tdt = (e
πs
+ 1)
e
−πs
s
2
+ 1
,
se obtiene
F(s) =
1
(1 + e
−sπ
)
(e
−πs
+ 1)
1
s
2
+ 1
=
1
s
2
+ 1
.
Ejemplo 4.19. La rectificaci´on de media onda de sin t es la funci´on
f
1
(t) =
_
sin t si 0 ≤ t < π
0 si π ≤ t < 2π,
f
1
(t + 2π) = f
1
(t).
Su transformada es dada por
F
1
(s) =
F(s)
(1 −e
−sπ
)
=
1
(1 −e
−sπ
)(s
2
+ 1)
.
144
Evaluemos la T. de L. de la funci´on f
2
(t) = f
1
(t−π), donde suponemos f
1
(τ) =
0 para τ < 0. Notamos primero que
f
2
(t) =
_
0 si 0 ≤ t < π
[ sin t[ si π ≤ t < 2π,
f
2
(t + 2π) = f
2
(t).
Entonces se tiene
F
2
(s) := L(f
2
(t)) =
e
−πs
F(s)
(1 −e
−sπ
)
=
e
−πs
(1 −e
−sπ
)(s
2
+ 1)
.
Supongamos finalmente que f
3
(t) = f
1
(t) + f
2
(t). Entonces es claro que f
3
(t) =
[ sin t[, para todo t ≥ 0. Se tiene de las formulas anteriores que
F
3
(s) = coth(
πs
2
)F(s) =
coth(
πs
2
)
s
2
+ 1
.
La funci´on f
3
se llama la rectificaci´on de onda completa de sin t.
Por otro lado como la funci´on [ sin t[ es π periodica su transformada se puede
calcular directamente por medio de
F
3
(s) = L([ sin t[) =
1
(1 −e
−sπ
)
_
π
0
e
−st
[ sin t[dt,
lo que nos da el mismo resultado.
4.6. Delta de Dirac. Vamos a estudiar ahora una condici´on que debe cumplir
una funci´on F : [C, ∞) → R, C > 0, para ser la T. de L. de una funci´on f :
[0, ∞) →R continua a trozos y de orden exponencial, esto es
[f(t)[ ≤ Me
Ct
para todo t ≥ T.
Como antes, existe una constante N > 0 tal que
[f(t)[ ≤ Ne
Ct
para todo t ≥ 0.
Entonces se tiene
145
[F(s)[ = [L(f(t))[ ≤
_

0
e
−st
[f(t)[dt ≤ N
_

0
e
−(s−C)t
dt ≤
N
s −C
,
de donde
l´ım
s→∞
F(s) = 0.
En particular , la funci´on
s
s + 1
no es la T. de L . de ninguna funci´on continua a
trozos y de orden exponencial.
A continuaci´ on vamos a estudiar las funciones delta de Dirac. Consideremos pri-
mero el siguiente ejemplo. Sea h
a
n
: [0, ∞) →R definida por
h
a
n
(t) =
_
n si a ≤ t < a +
1
n
0 si t / ∈ [a, a +
1
n
).
donde a ≥ 0. Entonces para todo b ≥ a +
1
n
, se tiene
_
b
0
h
a
n
(t)dt =
_
a+
1
n
a
h
a
n
(t)dt = 1,
y de aqu´ı
_

0
h
a
n
(t)dt = 1.
Notamos que tomando el l´ımite
l´ım
n→∞
_
b
0
h
a
n
(t)dt = 1 y l´ım
n→∞
_

0
h
a
n
(t)dt = 1.
Supongamos que se pudiera intercambiar el l´ımite con la integral y llamemos δ
a
(t)
la funci´on l´ımite bajo el signo integral, esto es
l´ım
n→∞
_
b
0
h
a
n
(t)dt =
_
b
0
l´ım
n→∞
h
a
n
(t)dt =
_
b
0
δ
a
(t)dt = 1,
146
l´ım
n→∞
_

0
h
a
n
(t)dt =
_

0
l´ım
n→∞
h
a
n
(t)dt =
_

0
δ
a
(t)dt = 1.
Mostremos a continuaci´on que tal funci´on δ
a
(t) no puede existir. En efecto, como
es inmediato de ver, se tiene que l´ım
n→∞
h
a
n
(t) = 0 excepto en el punto a. De la
teor´ıa de integraci´on se sigue entonces que
_

0
l´ım
n→∞
h
a
n
(t)dt = 0, lo que nos da una
contradicci´on.
Vamos a introducir a continuaci´ on las funciones δ. Sea g : [0, ∞) → R una
funci´on continua. Entonces, para n grande, por el teorema del valor medio, se
tiene que
_
a+
1
n
a
g(t)dt =
1
n
g(t

),
para alg´ un t

∈ [a, a +
1
n
]. De aqu´ı, usando la continuidad de g, se tiene
l´ım
n→∞
_

0
h
a
n
(t)g(t)dt = l´ım
n→∞
_
a+
1
n
a
h
a
n
(t)g(t)dt = l´ım
n→∞
n
_
a+
1
n
a
g(t)dt = g(a).
Sabemos por lo visto antes que no podemos pasar el l´ımite bajo el signo integral.
Sin embargo podemos pensar as´ı, el proceso que hemos hecho asigna a cada g
continua su valor g(a). LLamemos ∆
a
el operador que manda las funciones g en
su valor en el punto a, esto es ∆
a
(g) = g(a). Es f´acil ver que para α y β reales:

a
(αg + βh) = (αg + βh)(a) = αg(a) + βh(a) = α∆
a
(g) + β∆
a
(h).
esto es el operador ∆
a
es lineal. Es costumbre escribir

a
(g) =
_

0
δ
a
(t)g(t)dt,
con lo que la acci´on del operador ∆
a
, queda como
_

0
δ
a
(t)g(t)dt = g(a).
147
Por abuso de lenguaje vamos a llamar al s´ımbolo δ
a
. una funci´on δ. El operador

a
es lo que se conoce como una distribuci´on, llamada la distribuci´on de Dirac.
Notemos que si tomamos g(t) = e
−st
entonces
_

0
δ
a
(t)e
−st
dt = e
−sa
.
Debido a esto vamos a decir que la T. de L. de la funci´on δ
a
es e
−sa
, esto es
L(δ
a
) = e
−sa
. En particular si a = 0 entonces denotando δ(t) := δ
0
(t) se tiene
L(δ(t)) = 1. Se tiene tambi´en que δ
a
(t) = δ(t −a).
Nosotros queremos resolver ecuaciones diferenciales a coeficientes constantes
con segundo miembro que contiene funciones δ. Consideremos primero el caso de
la ecuaci´on
a
2
y

+ a
1
y

+a
0
y = δ
a
(t). (4.15)
A una ecuaci´on como esta le vamos dar el siguiente sentido. Consideramos el
problema
a
2
y

+ a
1
y

+ a
0
y = h
a
n
(t),
y llamaremos y
a
n
su soluci´on. Entonces por soluci´on de (4.15) vamos a entender
l´ım
n→∞
y
a
n
(t) = y(t). Calculemos entonces y
a
n
. Como
h
a
n
(t) = n(U(t −a) −U(t −a −
1
n
)),
tenemos que resolver
a
2
y

+a
1
y

+ a
0
y = n(U(t −a) −U(t −a −
1
n
)).
Para simplificar el an´alisis vamos a suponer adem´as que la soluci´on que buscamos
satisface y(0) = 0, y

(0) = 0. Llamando Y
n
(s) = L(y(t)) y tomando T. de L. en
ambos lados de la ecuaci´on se obtiene
148
(a
2
s
2
+ a
1
s + a
0
)Y
n
(s) = n
e
−sa
−e
−s(a+
1
n
)
s
= e
−sa
(1 −e

s
n
)
s
n
.
de donde
Y
n
(s) =
e
−sa
(a
2
s
2
+ a
1
s + a
0
)
(1 −e

s
n
)
s
n
.
Como
l´ım
n→∞
(1 −e

s
n
)
s
n
= 1,
haciendo tender n →∞ en la ultima ecuaci´on, se obtiene
Y

(s) =
e
−sa
(a
2
s
2
+ a
1
s + a
0
)
. (4.16)
Notamos que este resultado se puede obtener tambi´en si tomamos T. de L. en
ambos lados de (4.15), usamos que L(δ
a
) = e
−sa
, y suponemos que la igualdad se
mantiene, se obtiene
(a
2
s
2
+ a
1
s + a
0
)Y (s) = e
−sa
,
de donde se sigue (4.16). Esto nos da un m´etodo formal para calcular el correspon-
diente Y

en otros problemas de ecuaciones diferenciales con segundos miembros
que contienen funciones δ, este m´etodo consiste en tratar esta funci´on δ como una
funci´on ordinaria cuando se aplica T. de L. Aplicando Transformada inversa ob-
tenemos y(t) = L
−1
(Y

(s)). Finalmente hay que demostrar que l´ım
n→∞
y
a
n
(t) = y(t).
Ejemplo 4.20. Resolvamos
y

+ay = 4δ(t −2π), y(0) = 1, y

(0) = 0.
Aplicando T. de L.:
s
2
Y (s) −sy(0) −y

(0) + 4Y (s) = 4e
−2sπ
149
s
2
Y (s) + 4Y (s) = s + 4e
−2sπ
Y (s) =
s + 4e
−2sπ
s
2
+ 4
=
s
s
2
+ 4
+
4
s
2
+ 4
e
−2sπ
y(t) = L
−1
_
s
s
2
+ 4
_
+ 4L
−1
_
e
−2sπ
s
2
+ 4
_
L
−1
_
s
s
2
+ 4
_
= cos 2t
L
−1
_
e
−2sπ
s
2
+ 4
_
=
1
2
sin 2(t −2π)U(t −2π),
de donde
y(t) = cos 2t + 2 sin 2t U(t −2π).
Ejemplo 4.21. Consideremos los dos problemas
my

+ k
2
y = 0
y(0) = 0 y

(0) = v
0
y
my

+ k
2
y = p
0
δ(t)
y(0) = 0 y

(0) = 0.
Vamos a probar que ambos problemas tienen la misma soluci´on si p
0
= mv
0
. La
soluci´on del primer problema es inmediata
y(t) = Asin
k

m
t + Bcos
k

m
t
que aplicando las condiciones iniciales nos da
y(t) =
v
0

m
k
sin
k

m
t.
Para encontrar la soluci´on del segundo problema aplicamos T. de L.
ms
2
Y (s) + k
2
Y (s) = p
0
Y (s) =
p
0
ms
2
+ k
2
=
p
0
k

m
k

m
s
2
+ (
k

m
)
2
. (4.17)
150
De aqui, usando que p
0
= mv
0
, obtenemos
y(t) =
p
0
k

m
sin
_
k

m
t
_
=
v
0

m
k
sin
_
k

m
t
_
.
4.7. Funci´ on de Transferencia. Volvamos ahora al problema
a
n
y
(n)
+a
n−1
y
(n−1)
+ . . . + a
1
y

+a
0
y = g(t) (4.18)
con las condiciones iniciales
y(0) = c
1
, y

(0) = c
2
, . . . , y
(n−1)
(0) = c
n
,
y donde g es una funci´on que admite T. de L. , con
a
0
, a
1
, . . . , a
n
y c
0
, . . . , c
n
constantes reales.
Vimos que aplicando la T. L. a ambos miembros nos daba
P(s)Y (s) + Q(s) = G(s).
donde
P(s) = a
n
s
n
+a
n−1
s
n−1
+ . . . + a
1
s + a
0
(polinomio caracter´ıstico) y Q(s) es un polinomio de grado s
n−1
en s, funci´on de
las condiciones iniciales. Despejando Y (s), se obtiene
Y (s) =
G(s) −Q(s)
P(s)
=
G(s)
P(s)

Q(s)
P(s)
.
Vamos a suponer que las condiciones iniciales son todas cero, esto implica que
Q(s) = 0, por lo que
151
Y (s) = W(s)G(s),
donde W(s) =
1
P(s)
. La funci´on W se llama funci´on de transferencia. Si ponemos
w(t) = L
−1
(W(s))
entonces
y(t) = L
−1
(Y (s)) = (w ∗ g)(t) =
_
t
0
w(τ)g(t −τ)dτ. (4.19)
Una notaci´on corriente en Ingenieria es llamar a la funci´on g(t), funci´on de
entrada del sistema e y(t) respuesta o salida del sistema. La funci´on w(t) se llama
funci´on peso del sistema y depende solamente de los coeficientes a
0
, . . . , a
n
. En
este contexto (4.19) se llama la formula de Duhamel.
Volvamos ahora a la formula
Y (s) = W(s)G(s),
y supongamos que G(s) = 1, entonces
Y (s) = W(s), (4.20)
que corresponde a la T. de L. de la respuesta y(t) = w(t) = L
−1
(W(s)) del
siguiente problema
a
n
y
(n)
+ a
n−1
y
(n−1)
+ . . . + a
1
y

+a
0
y = δ(t) (4.21)
y(0) = 0, y

(0) = 0, . . . , y
(n−1)
(0) = 0. (4.22)
Es por esto que w(s) tambi´en se le llama la respuesta a un impulso unitario.
152
Miremos ahora el siguiente problema. Supongamos que sabemos que un fen´omeno
de Ingenieria es modelado por una ecuaci´on de la forma (4.18), pero no conocemos
las constantes a
0
, , a
n
. La pregunta es si se puede determinar la funci´on peso
del sistema por medio de excitaciones convenientes. Procedemos de la siguiente
forma: tomamos g(t) = U(t), y consideremos el siguiente problema
a
n
y
(n)
+ a
n−1
y
(n−1)
+. . . +a
1
y

+ a
0
y = U(t)
y(0) = 0, y

(0) = 0, . . . , y
(n−1)
(0) = 0.
Sabemos que en este caso G(s) = L(U(t)) =
1
s
y por lo tanto
Y
U
(s) =
W(s)
s
.
Tomando transformada inversa y llamando h(t) = L
−1
(Y
U
(s)) la respuesta a la
excitaci´on U(t) se tiene
h(t) =
_
t
0
w(τ)dτ,
y por lo tanto w(t) = h

(t), quedando entonces determinada la funci´on peso si se
conoce h

(t).
Con esto, de (4.19), la respuesta a una funci´on g general es dada por
y(t) =
_
t
0
h

(τ)g(t −τ)dτ.
Ejemplo 4.22. Sea f : [0, ∞) →∞ definida por
f(t) = n si n −1 < t ≤ n, n ∈ N.
Encuentre la T. de L. de esta funci´on y despu´es resuelva la ecuaci´on
y

+ k
2
y = f(t), y(0) = 0, y

(0) = 0.
153
Empecemos evaluando la T. de L. de f. Se tiene que esta funci´on se puede
escribir como
f(t) =

n=0
U(t −n).
Aplicando T. de L. se tiene
L(f(t)) =

n=0
L(U(t −n)) =

n=0
e
−sn
s
=
1
s

n=0
e
−sn
.
Sea S =


n=0
e
−sn
, entonces
e
−s
S =

n=0
e
−s(n+1)
,
y por lo tanto
S −e
−s
S = 1,
de donde
S =
1
1 −e
−s
,
y finalmente
L(f(t)) =
1
s(1 −e
−s
)
.
Para resolver la ecuaci´on diferencial usamos T. de L.. Se tiene
(s
2
+ k
2
)Y (s) =
1
s(1 −e
−s
)
,
de donde
154
Y (s) =
1
s(s
2
+ k
2
)(1 −e
−s
)
=
1
(s
2
+ k
2
)
1
s(1 −e
−s
)
=
1
k
L(sin kt)L(f(t)).
Tomando transformada inversa
y(t) = L
−1
(Y (s)) =
1
k
_
t
0
f(τ) sin(k(t −τ))dτ.
Reemplazando la serie para f(t)
y(t) = L
−1
(Y (s)) =
1
k
_
t
0
sin(k(t −τ))

n=0
U(τ −n)dτ
=
1
k

n=0
_
t
0
sin(k(t −τ))U(τ −n)dτ.
Termine este problema evaluando la integral y dando una formula para y(t).
Vamos a resolver este problema de otra forma, para ilustrar nuestros m´etodos.
Considerando el problema
w

+ k
2
w = δ(t), w(0) = 0, w

(0) = 0,
sabemos de (4.17) que la T. de L. es
W(s) =
1
s
2
+ k
2
,
de donde
w(t) =
1
k
sin kt.
De aqu´ı y de la formula de Duhamel
y(t) =
1
k
_
t
0
sin kτf(t −τ)dτ =
1
k
_
t
0
sin k(t −τ)f(τ)dτ,
y hemos vuelto a la formula obtenida antes.
155
Ejemplo 4.23. Consideremos el siguiente problema
y

= δ(t −a), y(0) = 0, a ≥ 0.
Aplicando T. de L.
sY (s) = e
−sa
,
de donde
Y (s) =
e
−sa
s
.
Tomando transformada inversa
y(t) = U(t −a).
Formalmente
d
dt
U(t −a) = δ(t −a).
Esta formula no tiene sentido aqu´ı, pero si en teor´ıa de distribuciones. Sin embargo
si uno aplica T. de L. a ambos miembros obtiene una identidad.
A manera de introducci´on a nuestra pr´oxima secci´on consideremos el siguiente
problema.
Ejemplo 4.24. Resuelva, usando T. de L., el sistema de ecuaciones
x

1
= 10x
1
−5x
2
x

2
= 8x
1
−12x
2
.
Aplicamos T. de L. a cada ecuaci´on
L(x

1
(t)) = sX
1
(s) −x
1
(0) = 10X
1
(s) −5X
2
(s)
156
L(x

2
(t)) = sX
2
(s) −x
2
(0) = 8X
1
(s) −12X
2
(s),
que se escribe como
(s −10)X
1
(s) + 5X
2
(s) = x
1
(0)
−8X
1
(s) + (s + 12)X
2
(s) = x
2
(0).
Resolviendo este sistema, obtenemos
X
1
(s) =
(s + 12)x
1
(0) −5x
2
(0)
(s −10)(s + 12) + 40
,
X
2
(s) =
8x
1
(0) + (s −10)x
2
(0)
(s −10)(s + 12) + 40
.
Notando que (s −10)(s + 12) + 40 = s
2
+ 2s −80 = (s −8)(s + 10) el sistema lo
podemos escribir como
X
1
(s) =
x
1
(0)(s + 12)
(s −8)(s + 10)

5x
2
(0)
(s −8)(s + 10)
,
X
2
(s) =
8x
1
(0)
(s −8)(s + 10)
+
x
2
(0)(s −10)
(s −8)(s + 10)
.
Usando fracciones parciales
X
1
(s) = x
1
(0)(
10
9(s −8)

1
9(s + 10)
) −
5x
2
(0)
18
(
1
s −8

1
s + 10
),
y agrupando
X
1
(s) =
_
10x
1
(0)
9

5x
2
(0)
18
_
1
s −8

_
x
1
(0)
9

5x
2
(0)
18
_
1
s + 10
.
Tomando transformada inversa
157
x
1
(t) =
_
10x
1
(0)
9

5x
2
(0)
18
_
e
8t

_
x
1
(0)
9

5x
2
(0)
18
_
e
−10t
.
El resto de ejercicio.
4.8. Funcion Gama. La funci´on Gama se define para x > 0 por
Γ(x) =
_

0
t
x−1
e
−t
dt.
No es muy dificil ver que esta funci´on esta bien definida en el sentido que el l´ımite
Γ(x) = l´ım
τ→∞
_
τ
0
t
x−1
e
−t
dt,
existe para cada x > 0, y se deja de ejercicio.
Vamos a ver que la funci´on Γ generaliza a n! para n ∈ N. En efecto se tiene que
satisface
Γ(x + 1) = xΓ(x), x > 0.
Demostremos esto. Por definici´on
Γ(x + 1) =
_

0
t
x
e
−t
dt = l´ım
τ→∞
_
τ
0
t
x
e
−t
dt.
Integrando por partes la expresi´on
_
τ
0
t
x
e
−t
dt = −e
−t
t
x
¸
¸
¸
τ
0
+
_
τ
0
xt
x−1
e
−t
dt,
por lo que
Γ(x + 1) = l´ım
τ→∞
_
τ
0
t
x
e
−t
dt = x l´ım
τ→∞
_
τ
0
t
x−1
e
−t
dt = xΓ(x).
Notando que
158
Γ(1) =
_

0
e
−t
dt = l´ım
τ→∞
_
τ
0
e
−t
dt = 1,
se sigue que
Γ(2) = 1 Γ(1) = 1, Γ(3) = 2 Γ(2) = 2 1, Γ(4) = 3 Γ(3) = 3 2 1, .... ,
y por lo tanto
Γ(n + 1) = n!, para todo entero n > 0.
Hay algunos valores importantes de la funci´on Γ.
Γ
_
1
2
_
=
_

0
t

1
2
e
−t
dt = 2
_

0
e
−u
2
du =

π,
ya que se sabe que
_

0
e
−u
2
du =

π
2
.
De aqu´ı
Γ
_
3
2
_
=
1
2
Γ
_
1
2
_
=
1
2

π, Γ
_
5
2
_
=
3
2
Γ
_
3
2
_
=
3
2
1
2

π, etc.
Notemos ahora que si en la definici´on de la funci´on Γ hacemos el cambio t = sτ,
entonces
Γ(x) = s
x
_

0
τ
x−1
e
−sτ
dτ,
de donde para x > 0,
L(t
x−1
) =
1
s
x
Γ(x).
159
En particular, si x =
1
2
se tiene
L(t

1
2
) =
1
s
1
2
Γ
_
1
2
_
=

π

s
.
Finalmente aunque la funci´on Γ la definimos solamente para x > 0, la pode-
mos extender a valores de x que no sean enteros negativos o cero, de la manera
siguiente. Para x ∈ (−1, 0) definimos
Γ(x) =
Γ(x + 1)
x
,
donde el lado derecho esta bien definido. Por esta misma f´ormula definimos a
continuaci´ on Γ(x) para x ∈ (−2, −1), y as´ı sucesivamente para cada intervalo de
la forma (−n − 1, −n), con n entero no negativo. En la Figura 10 se muestra el
gr´afico de la funci´on Γ.
2
y
3
16
8
0
20
−8
−3
−16
12
0
4
−4
−2 6
−12
−1
−20
−5 −6 4 5 −4 1
t
Figura 10. Funci´ on Gama
4.9. Ejercicios Resueltos.
Ejercicio 4.1. Calcule f(t) si F(s) =
s
2
+ 1
s
3
−2s
2
−8s
.
160
Soluci´on:
Por fracciones parciales resulta:
F(s) =
s
2
+ 1
s(s
2
−2s −8)
=
s
2
+ 1
s(s −4)(s + 2)
=
A
s
+
B
s −4
+
C
s + 2
F(s) =
A(s
2
−2s −8) + B(s
2
+ 2s) + C(s
2
−4s)
s(s −4)(s + 2)
⇒ s
2
(A +B + C) + s(−2A + 2B −4C) −8A = s
2
+ 1
Se obtiene el siguiente sistema de ecuaciones:
(1) −8A = 1
(2) A −B + 2C = 0
(3) A +B + C = 1
Cuya soluci´on es:
A = −
1
8
; B =
17
24
; C =
5
12
.
Entonces:
F(s) = −
1
8s
+
17
24(s −4)
+
5
12(s + 2)
.
Aplicando transformada inversa de Laplace:
f(t) = −
1
8
L
−1
_
1
s
_
+
17
24
L
−1
_
1
s −4
_
+
5
12
L
−1
_
1
s + 2
_
f(t) =
_

1
8
+
17
24
e
4t
+
5
12
e
−2t
_
U(t).
Ejercicio 4.2. Calcule las siguientes transformadas inversas de Laplace:
(a) L
−1
_
s
(s
2
+ a
2
)(s
2
+ b
2
)
_
, a
2
,= b
2
.
161
(b) L
−1
_
5s + 3
(s −1)(s
2
+ 2s + 5)
_
.
Soluci´on:
(a) Por fracciones parciales:
F(s) =
As + B
(s
2
+ a
2
)
+
Cs + D
(s
2
+b
2
)
=
(As +B)(s
2
+ b
2
) + (Cs + D)(s
2
+ a
2
)
(s
2
+ a
2
)(s
2
+ b
2
)
(1) A +C = 0
(2) Asb
2
+ Csa
2
= s ⇔ Ab
2
+ Ca
2
= 1
(3) Bs
2
+ Ds
2
= 0
(4) Bb
2
+ Da
2
= 0
A =
1
(b
2
−a
2
)
; B = 0 ; C =
1
(a
2
−b
2
)
; D = 0
L
−1
_
s
(s
2
+ a
2
)(s
2
+ b
2
)
_
= L
−1
_
s
(b
2
−a
2
)(s
2
+ a
2
)
_
+ L
−1
_
s
(a
2
−b
2
)(s
2
+ b
2
)
_
L
−1
_
s
(s
2
+ a
2
)(s
2
+ b
2
)
_
=
1
(b
2
−a
2
)
L
−1
_
s
(s
2
+ a
2
)
_
+
1
(a
2
−b
2
)
L
−1
_
s
(s
2
+ b
2
)
_
finalmente
L
−1
_
s
(s
2
+ a
2
)(s
2
+ b
2
)
_
=
1
(b
2
−a
2
)
cos(at) +
1
(a
2
−b
2
)
cos(bt).
(b) Por fracciones parciales:
5s + 3
(s −1)(s
2
+ 2s + 5)
=
A
(s −1)
+
Bs + C
(s
2
+ 2s + 5)
⇒A(s
2
+ 2s + 5) + (Bs + C)(s −1) = 5s + 3,
(1) A +B = 0
(2) 2A −B + C = 5
162
(3) 5A −C = 3.
A = 1 B = −1 C = 2.
al reemplazar:
L
−1
_
1
s −1
+
2 −s
s
2
+ 2s + 5
_
= L
−1
_
1
s −1
+
2
s
2
+ 2s + 5

s
s
2
+ 2s + 5
_
= L
−1
_
1
s −1
+
2
(s + 1)
2
+ 2
2

s + 1 −1
(s + 1)
2
+ 2
2
_
= L
−1
_
1
s −1
+
2
(s + 1)
2
+ 2
2

s + 1
(s + 1)
2
+ 2
2
+
1
2
2
(s + 1)
2
+ 2
2
_
= e
t
+ e
−t
sin(2t) −e
−t
cos(2t) +
1
2
e
−t
sin(2t) = e
t
+
3
2
e
−t
sin(2t) −e
−t
cos(2t).
Ejercicio 4.3. Sea H(t) una funci´on igual a t cuando 0 < t ≤ 4 e igual a 5
cuando t > 4. Obtenga L¦H(t)¦ por definici´on y usando escal´on unitario.
Soluci´on:
(1) Aplicando la definici´on de transformada de Laplace:
L¦H(t)¦ =
_

0
H(t)e
−st
dt =
_
4
0
te
−st
dt +
_

4
5e
−st
dt
_
te
−st
dt = −
te
−st
s
+
_
e
−st
s
dt = −
te
−st
s

e
−st
s
2
u = t ⇒ du = dt; dv = e
−st
dt ⇒ v = −
e
−st
s
L¦H(t)¦ =
_

te
−st
s

e
−st
s
2
_
4
0
+ 5
_

e
−st
s
2
_

4
=
1
s
2
+
e
−4s
s

e
−4s
s
2
(2) Usando escal´on unitario:
H(t) = tU(t) −(t −5)U(t −4) + U(t −4)
H(s) = L¦H(t)¦ = L¦tU(t)¦− L¦(t −4)U(t −4)¦+ L¦U(t −4)¦ =
1
s
2
+
e
−4s
s

e
−4s
s
2
.
163
Ejercicio 4.4. (i) Calcule las transformadas inversas de Laplace en los siguien-
tes casos:
(a) L
−1
_
1
s
2
+ s −20
_
.
(b) L
−1
_
s −1
s
2
(s
2
+ 1)
_
.
(ii) Calcule las siguientes transformadas de Laplace:
(a) L¦e
t
cos(3t)¦.
(b) L¦t
2
cos
2
(t)¦.
Soluci´on:
(i) (a)
L
−1
_
1
s
2
+ s −20
_
= L
−1
_
A
s + 5
+
B
s −4
_
= AL
−1
_
1
s + 5
_
+ BL
−1
_
1
s −4
_
= −
1
9
L
−1
_
1
s + 5
_
+
1
9
L
−1
_
1
s −4
_
= −
1
9
e
−5t
+
1
9
e
4t
(i) (b)
L
−1
_
s −1
s
2
(s
2
+ 1)
_
= L
−1
_
A
s
+
B
s
2
+
Cs + D
s
2
+ 1
_
= AL
−1
_
1
s
_
+ BL
−1
_
1
s
2
_
+ CL
−1
_
s
s
2
+ 1
_
+ DL
−1
_
s
s
2
+ 1
_
= 1 −t −cos(t) + sin(t)
A = 1, B = −1, C = −1, D = 1.
(ii) (a)
Por trigonometria
cos
2
(x) =
cos 2x + 1
2
=⇒L
_
e
t
cos(3t)
_
= L
_
e
t
(cos6t + 1)
1
2
_
=
1
2
_
L¦e
t
cos6t¦ + L¦e
t
¦
_
L¦e
t
cos(3t)¦ =
1
2
_
s −1
(s −1)
2
+ 36
+
1
s −1
_
164
(ii) (b)
L
_
t
2
cos
2
(t)
_
= L
_
t
2
(cos2t + 1)
1
2
_
=
1
2
_
L¦t
2
cos2t¦ + L¦t
2
¦
_
=
1
2
_
(−1
2
)
d
2
ds
2
_
s
s
2
+ 4
_
+
2
s
3
_
=
1
2
_
d
ds
_
s
2
+ 4 −2s
2
(s
2
+ 4)
2
_
+
2
s
3
_
=
1
2
_
−2s(s
2
+ 4)
2
−4s(s
2
+ 4)(4 −s
2
)
(s
2
+ 4)
4
+
2
s
3
_
=
−s(s
2
+ 4 + 8 −2s
2
)
(s
2
+ 4)
3
+
1
s
3
L¦t
2
cos
2
(t)¦ = s
(s
2
−12)
(s
2
+ 4)
3
+
1
s
3
Ejercicio 4.5. Ocupando transformada de Laplace resuelva la siguiente ecuaci´on
diferencial:
x

+k
2
x = f(t), k > 0, x(0) = x

(0) = 0
f(t) =

i=0
U(t −i).
Soluci´on:
Se asume que la transformada de Laplace de la Serie es la Serie de las transfor-
madas de Laplace:
L¦f(t)¦ = L
_

i=0
U(t −i)
_
=

i=0
e
−is
s
=
1
s

i=0
_
e
−s
_
i
Recordando la suma geom´etrica:
S
T
= a
0
+ a
1
+ a
2
+ . . . + a
n
aS
T
= a
1
+ a
2
+ a
3
+ . . . + a
n+1
luego
S
T
=
1 −a
n+1
1 −a

1
s

i=0
_
e
−s
_
i
=
1
s
l´ım
n→∞
1 −(e
−s
)
n+1
1 −e
−s
⇒ L¦f(t)¦ =
1
s(1 −e
−s
)
165
Ahora se aplica transformada de Laplace a la ecuaci´on diferencial
L¦x

¦ + k
2
L¦x¦ = L¦f(t)¦
sea X(s) = L¦x(t)¦, luego
s
2
X(s) −sx(0) −x

(0) + k
2
X(s) =
1
s(1 −e
−s
)
X(s) =
1
(s
2
+ k
2
)s(1 −e
−s
)
=
1
k
k
(s
2
+k
2
)s(1 −e
−s
)
.
Se conocen las transformadas de Laplace:
L
−1
_
1
s(1 −e
−s)
_
= f(t) =

0
U(t −i)
L
−1
_
k
s
2
+ k
2
_
= sin(kt)
Ahora se aplica el teorema de Convoluci´on:
L
−1
¦F(s)G(s)¦ =
_
t
0
f(τ)g(t −τ)dτ
x(t) =
1
k
_
t
0

i=0
U(τ −i) sin(k(t −τ))dτ =
1
k

i=0
_
t
0
U(τ −i) sin(k(t −τ))dτ
x(t) =
1
k

i=0
__
t
i
sin(k(t −τ))dτ
_
U(t −i) =
1
k
2

i=0
(−1 + cos(k(t −i)))U(t −i)
x(t) =
1
k
2

i=0
(−1 + cos(k(t −i)))U(t −i).
Ejercicio 4.6. Usando transformada de Laplace resuelva el siguiente sistema de
ecuaciones diferenciales ordinarias.
x

1
= x
1
−x
2
+ e
t
cos(t)
x

2
= x
1
+ x
2
+e
t
sin(t)
x
1
(0) = 0 x
2
(0) = 0
166
Soluci´on:
Se aplica transformada de Laplace a ambas ecuaciones. Sea X
1
(s) = L¦x
1
(t)¦ y
X
2
(s) = L¦x
2
(t)¦. Entonces se cumple:
sX
1
(s) −x
1
(0) = X
1
(s) −X
2
(s) +
(s −1)
(s −1)
2
+ 1
sX
2
(s) −x
2
(0) = X
1
(s) + X
2
(s) +
1
(s −1)
2
+ 1
Aplicando las condiciones iniciales y escribiendo el problema como un sistema de
ecuaciones algebraicas resulta:
_
s −1 1
−1 s −1
_ _
X
1
(s)
X
2
(s)
_
=
_
(s−1)
(s−1)
2
+1
1
(s−1)
2
+1
_
_
X
1
(s)
X
2
(s)
_
=
1
((s −1)
2
+ 1)
2
_
s −1 −1
1 s −1
_ _
(s −1)
1
_
=
1
((s −1)
2
+ 1)
2
_
(s −1)
2
−1
2(s −1)
_
Entonces:
X
1
(s) =
(s −1)
2
−1
((s −1)
2
+ 1)
2
, X
2
(s) =
2(s −1)
((s −1)
2
+ 1)
2
Ahora se calculan las transformadas inversas:
x
1
(t) = L
−1
_
(s −1)
2
−1
((s −1)
2
+ 1)
2
_
= e
t
L
−1
_
s
2
−1
(s
2
+ 1)
2
_
= e
t
L
−1
_
−d(
s
(s
2
+1)
)
ds
_
x
1
(t) = e
t
t L
−1
_
s
(s
2
+ 1)
_
= e
t
t cos(t).
Lo mismo para x
2
(t)
x
2
(t) = L
−1
_
2(s −1)
((s −1)
2
+ 1)
2
_
= e
t
L
−1
_
2s
(s
2
+ 1)
2
_
= e
t
L
−1
_
_
_
−d
_
1
(s
2
+1)
_
ds
_
_
_
x
2
(t) = e
t
t L
−1
_
1
(s
2
+ 1)
_
= e
t
t sin(t).
Finalmente la soluci´on del sistema de ecuaciones diferenciales es:
167
x(t) =
_
x
1
(t)
x
2
(t)
_
=
_
e
t
t cos(t)
e
t
t sin(t)
_
Ejercicio 4.7. Resuelva el siguiente sistema con condiciones iniciales.
X

=
_
0 ω
−ω 0
_
X +
_
δ(t −ω) + U(t −2ω) −U(t −3ω)
0
_
X(0) = 0
Soluci´on:
Se aplica transformada de Laplace a ambas ecuaciones. Sea X
1
(s) = L¦x
1
(t)¦ y
X
2
(s) = L¦x
2
(t)¦. Entonces se cumple:
sX
1
(s) −x
1
(0) = ωX
2
(s) + e
−ωs
+
1
s
e
−2ωs

1
s
e
−3ωs
sX
2
(s) −x
2
(0) = −ωX
1
(s)
Aplicando las condiciones iniciales y escribiendo el problema como un sistema de
ecuaciones algebraicas resulta:
_
s −ω
ω s
_ _
X
1
(s)
X
2
(s)
_
=
_
e
−ωs
+
1
s
e
−2ωs

1
s
e
−3ωs
0
_
_
X
1
(s)
X
2
(s)
_
=
1
s
2
+ ω
2
_
s ω
−ω s
_ _
e
−ωs
+
1
s
e
−2ωs

1
s
e
−3ωs
0
_
_
X
1
(s)
X
2
(s)
_
=
1
s
2
+ ω
2
_
se
−ωs
+e
−2ωs
−e
−3ωs
−ωe
−ωs
+
−ω
s
(e
−2ωs
−e
−3ωs
)
_
Entonces:
X
1
(s) =
se
−ωs
s
2
+ ω
2
+
e
−2ωs
−e
−3ωs
s
2
+ ω
2
X
2
(s) =
−ωe
−ωs
s
2
+ ω
2

ω(e
−2ωs
−e
−3ωs
)
s(s
2

2
)
L
−1
_
se
ωs
s
2

2
_
= U(t −ω)f(t −ω) = U(t −ω) cos(ω(t −ω))
F(s) =
s
s
2
+ ω
2
→f(t) = cos ωt
168
L
−1
_
ω(e
−2ωs
−e
−3ωs
)
(s
2
+ ω
2
)
_
1
ω
=
1
ω
[U(t −2ω) sin(ω(t −2ω)) −U(t −3ω) sin(ω(t −3ω))]
L
−1
_
ωe
−ωs
s
2
+ ω
2
_
= −U(t −ω) sin(ω(t −ω))
L
−1
_
ω
s(s
2
+ ω
2
)
_
= L
−1
_
A
s
+
Bs + C
s
2
+ ω
2
_
= L
−1
_
As
2
+ Aω
2
+ Bs
2
+ Cs
s(s
2
+ ω
2
)
_
C = 0 −→A =
1
ω
−→A +B = 0 −→B = −
1
ω
L
−1
_
1
ωs

1
ω
s
s
2
+ ω
2
_
=
1
ω

1
ω
cos ωt = f(t)
L
−1
_
ω(e
−2ωs
−e
−3ωs
)
(s(s
2
+ ω
2
))
_
= U(t−2ω)
_
1
ω

1
ω
cos ω(t −2ω)
_
−U(t−3ω)
_
1
ω

1
ω
cos(ω(t −3ω))
_
Finalmente las soluciones son:
x(t) = U(t−ω) cos(ω(t−ω))+
1
ω
[U(t −2ω) sin(ω(t −2ω)) −U(t −3ω) sin(ω(t −3ω))]
y(t) = −U(t−ω) sin(ω(t−ω))+
1
ω
[U(t −2ω)(1 −cos(ω(t −2ω)) −U(t −3ω)(1 −cos(ω(t −3ω)))] .
Ejercicio 4.8. (i) Dibuje la funci´on e(t)dada por:
e(t) = t −j , para j ≤ t < j + 1, j ∈ ¦0¦ ∪ N
Demuestre que su transformada de Laplace es dada por:
1
s
_
1
s
+
e
−s
e
−s
−1
_
(ii) Considere ahora el circuito electrico RLC en serie
El voltaje v(t) en el condensador C satisface la ecuaci´on diferencial
C
d
2
v
dt
2
+
RC
L
dv
dt
+
1
L
v =
e(t)
L
169
Calcule el voltaje v(t)por el condensador de la corriente i(t) = C
dv
dt
(t), si la entrada
de voltaje e(t) esta dado por la funci´on de la parte (i), y las condiciones iniciales
son v(0) = v
0
, i(0) = i
0
Las constantes quedan dadas por LC = 1, RC = 2.
Soluci´on:
(i)
V
i
(t) = t −U(t −1) −U(t −2) −. . . −U(t −i) −. . .
V
i
(t) = t −

i=1
U(t −i)
L¦V
i
(t)¦ = L¦t¦ −L
_

i=1
U(t −i)
_
=
1
s
2

i=1
e
−si
1
s
=
1
s
2

1
s

i=1
(e
−s
)
i
=
1
s
2

1
s
e
−s
1 −e
−s
=
1
s
_
1
s

e
−s
1 −e
−s
_
(ii)
LCv

+RCv

+ v = v
i
v

+ 2v

+ v = v
i
¸ L
s
2
V (s) −sv(0) −v

(0) + 2sV (s) −2v(0) + V (s) = V
i
(s)
V (s) =
v
0
s + 1
+
v
0
+ v

(0)
(s + 1)
2
+
v
i
(s)
(s + 1)
2
v

(0) =
1
C
i
0
L
−1
_
1
s + 1
_
= e
−t
; L
−1
_
1
(s + 1)
2
_
= e
−t
t
L
−1
_
V
i
s + 1
_
=
_
t
0
V
i
(τ)e
−(t−τ)
(t −τ)dτ = V
3
(t)
⇒v(t) = v
0
e
−t
+
_
v
0
+
1
C
i
0
_
te
−t
+
_
t
0
V
i
(τ)e
−(t−τ)
(t −τ)dτ
. ¸¸ .
⇒v(t) = v
0
e
−t
+
_
v
0
+
1
C
i
0
_
te
−t
+V
3
(t)
170
i(t) = C
dv
dt
i(t) = i
0
e
−t
−(C v
0
+i
0
)te
−t
+
dV
3
dt
dV
3
dt
=
d
dt
_
e
−t
_
−t
_
t
0
V
i
(τ)e
τ
dτ −
_
t
0
V
i
(τ)e
τ
τdτ
__
dV
3
dt
= e
−t
_
−t
_
t
0
V
i
(τ)e
τ
dτ +
_
t
0
(1 −τ)e
τ
V
i
(τ)dτ
_
i(t) = i
0
e
−t
−(C v
0
+ i
0
)te
−t
+e
−t
__
t
0
(1 −τ)e
τ
V
i
(τ)dτ −t
_
t
0
V
i
(τ)e
τ

_
Otra forma:
L¦V
i
(t)¦ =
1
s
2

1
s

i=1
(e
−s
)
i
L
−1
_
V
i
(s)
(s + 1)
2
_
= L
−1
_
1
s
2
(s + 1)
2

1
(s + 1)
2

i=1
e
−si
_
L
−1
_
−2
s
+
1
s
2
+
2
(s + 1)
+
1
(s + 1)
2

i=1
_
1
s

1
(s + 1)

1
(s + 1)
2
_
e
−si
_
=
_
−2 +t + 2e
−t
+ te
−t
_

i=1
_
1 −e
−(t−i)
−(t −i)e
−(t−i)
_
U(t −i)
v(t) = −2+t+(2+v
0
)e
−t
+
_
1 + v
0
+
i
0
C
_
te
−t

i=1
_
1 −e
−(t−i)
−(t −i)e
−(t−i)
_
U(t−i)
i(t) = C + (i
0
−2C)e
−t
−(C + v
0
C + i
0
)te
−t

i=1
_
(t −i)e
−(t−i)
U(t −i) +
_
1 + (t + 1 −i)e
−(t−i)
δ(t −i)

171
Ejercicio 4.9. Encuentre la transformada inversa de las siguientes funciones:
(a) L
−1
_
(s + 1)
2
(s + 2)
4
_
(b) L
−1
_
ln
_
s
2
+ 1
s
2
+ 4
__
(c) L
−1
_
sF(s)
s
2
+ 4
_
Suponga que f(t) = L
−1
(F(s)).
Soluci´on:
(a) Fracciones Parciales :
(s + 1)
2
(s + 2)
4
=
A
s + 2
+
B
(s + 2)
2
+
C
(s + 2)
3
+
D
(s + 2)
4
A(s + 2)
3
+B(s + 2)
2
+ C(s + 2) + D = s
2
+ 2s + 1
A(s
3
+ 6s
2
+ 12s + 8) + B(s
2
+ 4s + 4) + C(s + 2) + D = s
2
+ 2s + 1
A = 0 −→B = 1 −→C = −2 −→D = 1
L
−1
_
(s + 1)
2
(s + 2)
4
_
= L
−1
_
1
(s + 2)
2
_
−2L
−1
_
1
(s + 2)
3
_
+ L
−1
_
1
(s + 2)
4
_
= te
−2t
−2t
2
e
−2t
2
+ t
3
e
−2t
6
L
−1
_
(s + 1)
2
(s + 2)
4
_
= te
−2t
_
1 −t +
t
2
6
_
(b)
L
−1
_
ln
_
s
2
+ 1
s
2
+ 4
__
= L
−1
_
ln
_
s
2
+ 1
__
−L
−1
_
ln
_
s
2
+ 4
__
172
L(f(t)) = F(s) =
_
ln
_
s
2
+ 1
__
L(g(t)) = G(s) =
_
ln
_
s
2
+ 4
__
dF(s)
ds
=
2s
s
2
+ 1
dG(s)
ds
=
2s
s
2
+ 4
→2L
−1
¦F

(s)¦ = 2 cos t →2L
−1
¦G

(s)¦ = 2 cos 2t
Adem´as que:
−L¦tf(s)¦ =
2s
s
2
+ 1
/L
−1
()
−tf(t) = 2 cos t ⇒ f(t) = −
2
t
cos t
−L¦tg(s)¦ =
2s
s
2
+ 4
/L
−1
()
f(t) = −
2
t
cos 2t
⇒L
−1
_
ln
_
s
2
+ 1
s
2
+ 4
__
=
2
t
[cos(2t) −cos(t)]
(c)
L
−1
_
sF(s)
s
2
+ 4
_
L
−1
_
s
s
2
+ 4
_
= cos 2t
L
−1
¦F(s)¦ = f(t)
Por teorema de convoluci´ on
⇒L
−1
_
sF(s)
s
2
+ 4
_
=
_
t
o
f(t −β) cos 2βdβ
Ejercicio 4.10. Usando transformada de Laplace resuelva los siguientes pro-
blemas.
(i) Encuentre la soluci´on de:
EI
d
4
y
dx
4
= ω
0
_
1 −U
_
x −
L
2
__
que satisface y(0) = y

(0) = 0 , y(L) = y

(L) = 0.
173
Aqui E, I, ω
0
son constantes positivas y L > 0.
(ii) Encuentre la soluci´on de:
y

−7y

+ 6y = e

+ δ(t −10π) + δ(t −20π)
y(0) = y

(0) = 0
Soluci´on:
(i)
EI
d
4
y
dx
4
= ω
0
_
1 −U
_
x −
L
2
__
/L()
EIL(y
(iv)
) = ω
0
L(1) −ω
0
L
_
U
_
x −
L
2
__
Sea F(s) = L(y(x))
EI
_
s
4
F(s) −s
3
y(0) −s
2
y

(0) −sy

(0) −y

(0)
¸
=
ω
0
s
−ω
0
e

L
2
s
s
Sea y

(0) = C
1
y

(0) = C
2
s
4
F(s) −sC
1
−C
2
=
ω
0
EIs
_
1 −e

L
2
s
_
s
4
F(s) =
ω
0
EI
_
1
s

e

L
2
s
s
_
+ sC
1
+ C
2
F(s) =
ω
0
EI
_
1
s
5

e

L
2
s
s
5
_
+
C
1
s
3
+
C
2
s
4
/L
−1
()
y(x) =
ω
0
EI
_
L
−1
_
1
s
5
_
−L
−1
_
e

L
2
s
s
5
__
+ C
1
L
−1
_
1
s
3
_
+ C
2
L
−1
_
1
s
4
_
→L
−1
_
1
s
5
_
=
1
4!
L
−1
_
4!
s
5
_
=
x
4
24
→L
−1
_
e

L
2
s
1
s
5
_
= U
_
x −
L
2
_
G
_
x −
L
2
_
= U
_
x −
L
2
_
_
x −
L
2
_
4
24
→L
−1
_
1
s
3
_
=
1
3!
L
−1
_
2
s
3
_
=
x
2
2
174
→L
−1
_
1
s
4
_
=
1
6
L
−1
_
3!
s
4
_
=
x
3
6
⇒y(x) =
ω
0
EI
_
x
4
24

_
x −
L
2
_
4
24
U
_
x −
L
2
_
_
+ C
1
x
2
2
+ C
2
x
3
6
Evaluando en L:
y(L) = 0 =
ω
0
EI
_
L
4
24

L
4
16 24
_
+ C
1
L
2
2
+C
2
L
3
6
0 =
ω
0
EI
_
L
2
12

L
2
16 12
_
+ C
1
+
C
2
L
3
0 =
5
64
ω
0
EI
L
2
+ C
1
+
C
2
L
3
y

(x) =
ω
0
EI
_
x
3
6

1
24
_
4
_
x −
L
2
_
3
U
_
x −
L
2
_
+
_
x −
L
2
_
4
δ
_
L
2
−x
_
__
+C
1
x+C
2
x
2
2
y

(x) =
ω
0
EI
_
x
2
2

1
24
_
12
_
x −
L
2
_
2
U
_
x −
L
2
_
+ 4
_
x −
L
2
_
3
δ
_
L
2
−x
_
__
+
ω
0
EI
_
x
2
2

1
24
_
4
_
x −
L
2
_
3
δ
_
L
2
−x
_
+
_
x −
L
2
_
4
_
δ
_
L
2
−x
__

__
+C
1
x + C
2
x
2
2
y

(L) =
ω
0
EI
_
L
2
2

1
24
_
12
_
L
2
_
2
__
+ C
1
+ C
2
L = 0
Tomando en cuenta que:
δ
_
L
2
−x
_
= 0 para x = L
Se comportan igual:
_
δ
_
L
2
−x
__

= 0 para x = L
_
U
_
x −
L
2
__

= δ
_
L
2
−x
_
175

3
8
ω
0
EI
L
2
+ C
1
+ C
2
L = 0

5
64
ω
0
EI
L
2
+ C
1
+ C
2
L
3
= 0
19
64
ω
0
EI
L
2
+
2
3
C
2
L = 0
C
2
= −
57
128
ω
0
EI
L, C
1
=
9
128
ω
0
EI
L
2
.
⇒y(x) =
ω
0
EI
_
x
4
24

_
x −
L
2
_
2
24
U
_
x −
L
2
_
+
9
256
L
2
x
2

19
256
Lx
3
_
(ii)
y

−7y

+ 6y = e

+ δ(t −10π) + δ(t −20π) /L
L(y

) −7L(y

) + 6L(y) = L(e

) + L(δ(t −10π)) + L(δ(t −20π))
Sea F(s) = L(y)
s
2
F(s) + sy(0) + y

(0) −7sF(s) −7y(0) + 6F(s) =
1
s −1
+ e
−10πs
+ e
−20πs
F(s)(s −1)(s −6) =
1
s −1
+ e
−10πs
+ e
−20πs
F(s) =
1
(s −1)
2
(s −6)
+
e
−10πs
(s −1)(s −6)
+
e
−20πs
(s −1)(s −6)
/L
−1
()
Fracciones Parciales :
1
(s −1)
2
(s −6)
=
A
s −1
+
B
(s −1)
2
+
C
s −6
A(s
2
+ 7s + 6) + B(s −6) + C(s
2
−2s + 1) = 1
176
A + C = 0 → A = −C
−7A + B −2C = 0 → 5A = B
6A −6B +C = 1 → 6A −30A −A = 1
A = −
1
25
−→B = −
1
5
−→C =
1
25
⇒L
−1
_
1
(s −1)
2
(s −6)
_
= −
1
25
L
−1
_
1
(s −1)
_

1
5
L
−1
_
1
(s + 1)
2
_
+
1
25
L
−1
_
1
s −6
_
= −
1
25
e
t

1
5
te
t
+
1
25
e
6t
Fracciones Parciales :
1
(s −1)(s −6)
=
A
s −1
+
B
s −6
A = −
1
5
−→B =
1
5
L
−1
_
1
(s −1)(s −6)
_
= −
1
5
L
−1
_
1
s −1
_
+
1
5
L
−1
_
1
s −6
_
= −
1
5
e
t
+
1
5
e
6t
L
−1
_
e
−10πs
(s −1)(s −6)
_
= −
1
5
L
−1
_
e
−10πs
s −1
_
+
1
5
L
−1
_
e
−10πs
s −6
_
= −
1
5
U(t −10π)e
t−10π
+
1
5
U(t −10π)e
6(t−10π)
L
−1
_
e
−20πs
(s −1)(s −6)
_
= −
1
5
L
−1
_
e
−20πs
s −1
_
+
1
5
L
−1
_
e
−20πs
s −6
_
= −
1
5
U(t −20π)e
t−20π
+
1
5
U(t −20π)e
6(t−20π)
y(t) = e
t
_

1
5
t −
1
25
_
+
1
25
e
6t
+
1
5
U(t−10π)
_
e
6(t−10π)
−e
t−10π
_
+
1
5
U(t−20π)
_
e
6(t−20π)
−e
t−20π
_
177
Ejercicio 4.11. Resuelva por medio de la transformada de Laplace el siguiente
problema con condici´on:
y

−4y

+ 3y = 1 −U(t −2) −U(t −4) + U(t −6)
y(0) = 0 , y

(0) = 0
Soluci´on:
y

−4y

+ 3y = 1 −U(t −2) −U(t −4) + U(t −6) /L()
L(y

) −4L(y

) + 3L(y) = L(1) −L(U(t −2)) −L(U(t −4)) + L(U(t −6))
Sea F(s) = L(y)
s
2
F(s) −sy(0) −y

(0) + 4(sF(s) −y(0)) + 3F(s) =
1
s

e
−2s
s

e
−4s
s
+
e
−6s
s
F(s)
_
s
2
+ 4s + 3
¸
=
1
s
_
1 −e
−2s
−e
−4s
+e
−6s
¸
Calculemos
L
−1
_
1
s

1
(s + 3)

1
(s + 1)
_
AL
−1
_
1
s
_
+ BL
−1
_
1
(s + 3)
_
+CL
−1
_
1
(s + 1)
_
A + Be
−3t
+ Ce
−t
A(s + 3)(s + 1) + Bs(s + 1) + Cs(s + 3) = 1
A =
1
3
−→B =
1
6
−→C = −
1
2
f(t) = L
−1
_
1
s

1
(s + 3)

1
(s + 1)
_
=
1
3
+
1
6
e
−3t

1
2
e
−t
⇒L
−1
_
e
−2s
s(s + 3)(s + 1)
_
= f(t−2)U(t−2) = −
_
1
3
+
1
6
e
−3(t−2)

1
2
e
−(t−2)
_
U(t−2)
178
⇒L
−1
_
e
−4s
s(s + 3)(s + 1)
_
= −
_
1
3
+
1
6
e
−3(t−4)

1
2
e
−(t−4)
_
U(t −4)
⇒L
−1
_
e
−6s
s(s + 3)(s + 1)
_
=
_
1
3
+
1
6
e
−3(t−6)

1
2
e
−(t−6)
_
U(t −6).
Ejercicio 4.12. Resuelva la siguiente edo:
y

+ 4y

+ 13y = δ(x −π) + δ(x −3π)
y(0) = 1 , y

(0) = 0.
Soluci´on:
s
2
Y (s) −sy(0) −y

(0) + 4(sY (s) −y(0)) + 13Y (s) = e
−πs
+ e
−3πs
Y (s) =
(s + 2)
(s + 2)
2
+ 9
+
2
3

3
(s + 2)
2
+ 9
+
1
3

3
(s + 2)
2
+ 9
_
e
−πs
+ e
−3πs
_
y(t) = e
−2t
cos 3t+
2
3
e
−2t
sin 3t+
1
3
_
U(t −π)e
−2(t−π)
sin(3(t −π)) + U(t −3π) sin(3(t −3π))
_
Ejercicio 4.13. Considere el sistema de ecuaciones diferenciales:
dr
dt
= a m(t) −b r(t) + b h(t)
dh
dt
= c r(t) −d h(t)
dm
dt
= e q(t) −e m(t)
dq
dt
= −f q(t) + f g(t)
a, b, c, d, e, y f son constantes positivas.
(a) Encuentre la funci´on de transferencia W(s) =
H(s)
G(s)
.
(Observaci´on: las condiciones iniciales son cero).
(b) Si se aplica g(t) = 4U(t), obtenga una salida del sistema h(t).
179
Para la parte (b) use a = b = c = d = e = f = 1.
Soluci´on:
(a) Se aplica transformada de Laplace a todas las ecuaciones del sistema, y se
busca despejar H(s) en funci´on de G(s), haciendo todas las condiciones iniciales
nulas por tratarse de una funci´on de transferencia.
(1) SR(s) = aM(s) −bR(s) + bH(s)
(2) SH(s) = cR(s) −dH(s)
(3) SM(s) = eQ(s) −eM(s)
(4) SQ(s) = −fQ(s) + fG(s)
(4) ⇒ Q(s) =
fG(s)
s + f
.
(3) ⇒ M(s) =
eQ(s)
s + e
=
e f G(s)
(s + e)(s + f)
.
(1) ⇒R(s) =
a e f G(s)
(s + b)(s + e)(s + f)
+
bH(s)
s + b
.
Entonces la funci´on de transferencia es:
H(s)
G(s)
=
a e f c
(s + e)(s + f)((s + d)(s + b) −c b)
(b) Se tiene que:
g(t) = 4U(t) ⇒G(s) =
4
s
H(s) =
G(s)
(s + 1)
2
(s
2
+ 2s)
=
4
(s + 1)
2
(s + 2)s
2
=
A
(s + 1)
+
B
(s + 1)
2
+
C
(s + 2)
+
D
s
+
E
s
2
H(s) =
4
s + 1
+
4
(s + 1)
2
+
1
s + 2
+
−5
s
+
2
s
2
h(t) = 4(1 + t)e
−t
+ e
−2t
+ 2t −5.
Ejercicio 4.14. Encuentre la soluci´on del problema con condiciones iniciales
nulas x(0) = 0, x

(0) = 0.
180
x

+k
2
x = k

n=0
(−1)
n
δ
_
t −

k
_
.
A continuaci´on, encontrar la soluci´on si t ∈
_
(n−1)π
k
,

k
_
.
Soluci´on:
x(s) =

n=0
(−1)
n
k
s
2
+ k
2
e


k
s
⇒x(t) =

n=0
(−1)
n
U
_
t −

k
_
sin
_
k
_
t −

k
__
si t ∈
_
(i−1)π
k
,

k
_
⇒U
_
t −

k
_
= 1 , n = 0, 1, . . . , j −1
U
_
t −

k
_
= 0 , n = j, . . . , ∞
⇒x(t) =
j−1

n=0
sin(kt −nπ)
Ejercicio 4.15. Considere la ecuaci´on diferencial:
ay

+y = b f(t −c)
y(0) = 0
a > 0 , b > 0 , c > 0 , c ¸1 constantes
(a) Sea f(t) = δ(t) la funci´on delta de Dirac. Encuentre y(t) y grafique.
(b) Sea f(t) =


i=0
δ(t −i). Encuentre y(t) y grafique.
(c) Para la soluci´on de la parte (b) eval´ ue y(N + c) con N ∈ N. Indique las
condiciones necesarias para que y(N + c) converja cuando N →∞, y demuestre
que cuando converje:
l´ım
N→∞
y(N + c) = b
_
1 +
1
e
1
a
−1
_
(d) Sea f(t) = U(t) el escal´on unitario. Encuentre y(t) y bosqueje.
181
(e) Sea f(t) =


i=0
U(t −i). Encuentre y(t) y bosqueje.
Soluci´on:
(a) ay

+ y = b f(t −c) , y(0) = 0 ⇒ Y (s) =
be
−cs
as + 1
F(s).
f(t) = δ(t) ⇒F(s) = 1
Y (s) =
be
−cs
as + 1
=
b
a
e
−cs
s +
1
a
⇒y(t) =
b
a
e

1
a
(t−c)
U(t −c)
pues
L
−1
_
b
a

1
s +
1
a
_
=
b
a
e

1
a
t
⇒L
−1
_
b
a

1
s +
1
a
e
−cs
_
=
b
a
e

1
a
(t−c)
U(t −c).
(b) f(t) =


i=0
δ(t −i) ⇒F(s) =


i=0
e
−is
.
Y (s) =

i=0
b e
−(i+c)s
as + 1
⇒y(t) =

i=0
b
a
e

1
a
(t−i−c)
U(t −i −c).
(c)
y(N + c) =

i=0
b
a
e

1
a
(N−i)
U(N −i) =
N

i=0
b
a
e

1
a
(N−i)
=
b
a
e

N
a
N

i=0
_
e
1
a
_
i
y(N + c) =
b
a
e

N
a
_
1 −e
(N+1)
a
1 −e
1
a
_
=
b
a

_
e

N
a
−e
1
a
1 −e
1
a
_
l´ım
N→∞
y(N + c) =
b
a

_
l´ım
N→∞
(e

1
a
)
N
−e
1
a
1 −e
1
a
_
=
b
a

e
1
a
e
1
a
−1
⇔e
1
a
< 1

1
a
< 0 ⇒a > 0
Dado que a > 0 ⇒ siempre converje.
(d)
182
F(s) =
1
s
, f(t) = U(t), ⇒Y (s) =
be
−cs
s(as + 1)
=
_
b
s

ab
(as + 1)
_
e
−cs
L
−1
_
b
s(as + 1)
_
= L
−1
_
A
s
+
b
as + 1
_
= L
−1
_
Aas +A + Bs
s(as + 1)
_
⇒A = b →B = −ab
_
A +
B
a
e

1
a
t
_
U(t) ⇒y(t) = b
_
1 −e

1
a
(t−c)
_
U(t)
(e)
f(t) =

i=0
U(t −i) ⇒F(s) =

i=0
1
s
e
−is
⇒Y (s) =

i=0
b e
−(c+i)s
s(as + 1)
⇒y(t) =

i=0
b
_
1 −e

1
a
(t−c−i)
_
U(t −c −i).
Ejercicio 4.16. La funci´on de transferencia que caracteriza a un motor de
corriente continua y que relaciona la frecuencia que gira el motor y(t) y el voltaje
de armadura v(t) viene dada por:
H(s) =
Y (s)
V (s)
=
k
(R
a
+ L
a
s)(Js + b) + k
2
y(0) = y

(0) = 0 , k = i
f
G
i
f
es la corriente de campo constante caracteristica del motor,J es la inercia del
motor,b es el coeficiente de fricci´on viscosa y R
a
, L
a
resistencia e inductancia de
armadura respectivamente.
Calcular y(t) ocupando el teorema de convoluci´on.
Soluci´on:
Y (s) = H(s) V (s) ⇒y(t) =
_
t
0
v(τ)h(t −τ)dτ
183
H(s) =
Y (s)
V (s)
=
k
JL
a
s
2
+ (JR
a
+ bL
a
)s + sR
a
+k
2
=
k
JLa
s
2
+
_
Ra
L
a
+
b
J
_
s +
bRa+k
2
JL
a
a =
k
JL
a
, b =
_
R
a
L
a
+
b
J
_
1
2
, c =
bR
a
+ k
2
JL
a
H(s) =
Y (s)
V (s)
=
a
s
2
+ 2bs + c
=
a
(s + b)
2
+c −b
2
Caso 1: c −b
2
= 0
h(t) = L
−1
_
a
(s + b)
2
_
= e
−bt
L
−1
_
a
s
2
_
= a e
−bt
t
⇒y(t) =
_
t
0
v(τ)a e
−b(t−τ)
(t −τ)dτ
Caso 2: c −b
2
= w
2
> 0
h(t) = L
−1
_
a
(s + b)
2
+w
2
_
=
a
w
2
e
−bt
L
−1
_
w
s
2
+w
2
_
=
a

c −b
2
e
−bt
sin
_

c −b
2
t
_
⇒y(t) =
_
t
0
v(τ)
a

c −b
2
e
−b(t−τ)
sin
_

c −b
2
(t −τ)
_

Caso 3: c −b
2
= −w
2
< 0
h(t) = L
−1
_
a
(s + b)
2
−w
2
_
= ae
−bt
L
−1
_
1
(s −w)(s + w)
_
=
ae
−bt
2w
L
−1
_
1
(s −w)

1
(s +w)
_
=
a e
−bt
2

b
2
−c

_
e
wt
−e
−wt
_
=
a e
−bt

b
2
−c
cos h(

b
2
−c t)
⇒y(t) =
_
t
0
v(τ)
a

b
2
−c
e
−b(t−τ)
cos h
_

b
2
−c (t −τ)
_

184
Ejercicio 4.17. Sea f(t) una funci´on continua a tramos y de orden exponencial.
Si F(s) es la transformada de Laplace de f(t), demuestre las propiedades del valor
inicial y final:
l´ım
s→0
sF(s) = l´ım
t→∞
f(t).
l´ım
s→∞
sF(s) = f(0).
Soluci´on:
Se sabe que la transformada de una derivada cumple la siguiente propiedad:
L(f

(t)) = sF(s) −f(0)
Tomando l´ımite cuando s →∞
l´ım
s→∞
L(f

(t)) = l´ım
s→∞
(sF(s) −f(0))
El lado izquierdo de la igualdad tiende a cero por ser la tranformada de una
funci´on. De aqu´ı se concluye. Ahora la propiedad del valor final:
l´ım
s→0
(sF(s) −f(0)) = l´ım
s→0
_

0
e
−st
f

dt =
_

0
f

dt = l´ım
t→∞
f(t) −f(0)
Entonces l´ım
s→0
sF(s) = l´ım
t→∞
f(t).
185
4.10. Ejercicios Planteados.
Propuesto 4.1. Sea f : [0, ∞) → ' funci´on continua a trozos y de orden expo-
nencial. Demuestre que si F(s) denota la transformada de Laplace de f, entonces:
l´ım
s→∞
F(s) = 0
Propuesto 4.2. Sea f : (0, ∞) → ' continua en (0, ∞) y de orden exponencial
y tal que
l´ım
t→0
+
f(t) = +∞
(a) Si l´ım
t→0
+ t
α
f(t) = 1, α ∈ (0, 1), demuestre que la transformada de laplace
de la funci´on existe.
(b) La transformada de Laplace de la funci´on t

1
2
cosh(t) tiene la forma
I = h(s)
_
s +
_
(s
2
−1)
Encuentre h(s) y de aqu´ı la expresi´on final de la transformada.
Propuesto 4.3. (a) Considere el problema con valores iniciales:
x

+ 2x

+ x =

n=0
δ

(t) ; x(0) = x

(0) = 0
Determine la soluci´on usando transformada de Laplace, para esto suponga que la
transformada de la serie es la serie de las transformadas y similarmente para la
transformada inversa.
(b) Si t ∈ [jπ, (j + 1)π] demuestre que x(t) = e
−t
(tα
j
+ β
j
), para ciertas
constantes α
j
y β
j
.
Soluci´on:
(a) x(t) = L
−1
¦X(s)¦ =


n=0
U(t −nπ)[t −nπ]e
−(t−nπ)
.
(b) α
j
=

j
n=0
e

, β
j
=

j
n=0
nπe

.
Propuesto 4.4. Encuentre las siguientes transformadas de Laplace:
186
(a) L¦e
2t
(t −1)
2
¦
(b) L¦e
t
U(t −5)¦
(c) L¦te
−3t
cos(3t)¦
(en (b) U es la funci´on Escal´on Unitario).
Soluci´on:
(a)
2
(s −2)
3

2
(s −2)
2
+
1
(s −2)
.
(b)
e
−5(s−1)
s −1
.
(c) −
(s + 2)
2
−9
((s + 2)
2
+ 9
2
)
.
Propuesto 4.5. Resuelva el sistema de ecuaciones diferenciales:
x

=
_
a b
−b a
_
x +
_
U(t −a)
δ(t −b)
_
a, b ∈ '
+
x(0) = 0
Soluci´on:
x(t) = U(t−b)e
a(t−b)
sin(b(t−b))+U(t−a)
_
1
b
e
a(t−a)
sin(b(t −a)) −a
_
A +
B
b
e
a(t−a)
sin(b(t −a))
__
y(t) = −bU(t −a)
_
A +
B
b
e
a(t−a)
sin(b(t −a))
_
+U(t −b)
_
e
a(t−b)
cos(b(t −b))
_
.
Propuesto 4.6. Usando transformada de Laplace encuentre la soluci´on de la
ecuaci´on integral:
y(t) = cos t +
_
t
o
e
−s
y(t −s)ds
Soluci´on:
y(t) = cos(t) + sin(t).
187
Propuesto 4.7. Calcule la transformada de Laplace de la onda cuadrada:
w(x) =
_
1 si 2n ≤ t < 2n + 1, n ∈ N
−1 si 2n + 1 ≤ t < 2n + 2, n ∈ N.
Soluci´on:
L¦w(x)¦ =
1
s
tan h
_
s
2
_
.
Propuesto 4.8. Resuelva el siguiente sistema de ecuaciones diferenciales:
x

−2y = δ(t −1)
y

−8x = δ(t −2)
y(0) = x(0) = 0
Soluci´on:
x(t) =
1
8
cosh 4(t −2)U(t −2) +
1
8
sinh 4(t −1)U(t −1)
y(t) = cosh 4(t −2)U(t −2) + sinh 4(t −1)U(t −1)
.
188
5. Sistemas de Ecuaciones Diferenciales
5.1. Introducci´on. Comencemos considerando la ecuaci´on escalar de orden n
a
n
(t)y
(n)
+ + a
1
(t)y

+ a
0
(t)y = g(t), (5.1)
con las condiciones iniciales
y(t
0
) = d
1
, y

(t
0
) = d
2
, , y
(n−1)
(t
0
) = d
n
, (5.2)
donde suponemos que t
0
∈ I, I ⊂ R es un intervalo y las funciones coeficientes
a
i
(t), i = 0, , n, y g(t), t ∈ I, son continuas, con a
n
(t) ,= 0 para todo t ∈ I.
Mostraremos que este problema se puede escribir equivalentemente como un
sistema de ecuaciones diferenciales con condici´on inicial. Definamos
x
1
= y, x
2
= y

, , x
n
= y
(n−1)
.
Obtenemos entonces el siguiente sistema de n −1 ecuaciones
x

1
= x
2
x

2
= x
3
.
.
.
x

n−1
= x
n
.
Como tenemos n incognitas x
1
, , x
n
y n −1 ecuaciones nos falta una ecuaci´on
que se obtiene de la siguiente manera. De (5.1) dividiendo por a
n
y reemplazando
las definiciones anteriores nos queda
x

n
= b
1
(t)x
1
+ + b
n
(t)x
n
+
g(t)
a
n
(t)
,
donde
189
b
i
(t) = −
a
i−1
(t)
a
n
(t)
, i = 1, , n.
Estas n ecuaciones se pueden escribir como el sistema matricial
x

= A(t)x + f(t),
donde
x =
_
_
x
1
.
.
.
x
n
_
_
, f(t) =
_
¸
_
0
.
.
.
g(t)
an(t)
_
¸
_
. (5.3)
y
A(t) =
_
¸
¸
¸
¸
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
. 0
0 0 0 0 1
b
1
(t) b
2
(t) b
3
(t) b
n
(t)
_
¸
¸
¸
¸
_
. (5.4)
De las condiciones iniciales (5.2) se tiene que
y(t
0
) = d
1
= x
1
(t
0
), , y
(n−1)
(t
0
) = d
n
= x
n
(t
0
).
De esta forma el problema con condiciones iniciales (5.1)-(5.2) se transforma en
el sistema con condiciones iniciales
x

= A(t)x + f(t) x(t
0
) = d = [d
1
d
n
]
t
. (5.5)
Si ahora partimos del sistema (5.5) donde A(t) y f(t) son como en (5.4), (5.3),
entonces uno puede demostrar que si x(t) es una soluci´on y hacemos y(t) = x
1
(t)
190
entonces y(t) es soluci´on de la ecuaci´on escalar
y
(n)
−b
n
(t)y
(n−1)
− −b
1
(t)y =
g(t)
a
n
(t)
.
En efecto, se satisface que
x
2
= x

1
= y

, x
3
= x

2
= y

, , x
n
= y
(n−1)
, x

n
= y
(n)
.
De aqu´ı se consigue facilmente que y(t) satisface la ecuaci´on escalar (5.1) y las
condiciones iniciales (5.2).
En forma m´as general consideremos la ecuaci´on diferencial lineal vectorial de
primer orden,
x

= A(t)x + f(t) (5.6)
donde ahora
A(t) =
_
_
a
11
(t) a
1n
(t)
.
.
.
.
.
.
a
n1
(t) a
nn
(t)
_
_
y f(t) =
_
_
f
1
(t)
.
.
.
f
n
(t)
_
_
. (5.7)
Supondremos de ahora en adelante:
(H
2
) las funciones A : I → M
n
2
y f : I → M
n×1
, son continuas en un intervalo
I ⊂ R. Equivalentemente las funciones a
ij
: I → R, y f
i
: I → R, i, j = 1, , n
son continuas en I.
Decimos que esta ecuaci´on es homogenea si f(t) ≡ 0 y no homogenea en caso
contrario. De esta forma la ecuaci´on homogenea correspondiente a (5.6) es
x

= A(t)x.
Un caso particular de estos sistemas es cuando la matriz A(t) es de coeficientes
constantes, este caso se estudiar´a con bastante detalle en este curso.
Para motivar los resultados de esta secci´on vamos a comenzar con un ejemplo.
Sea
191
x

= Ax,
donde
A =
_
2 3
2 1
_
.
Imitando el caso escalar visto anteriormente vamos a suponer soluciones de la
forma x(t) = Ke
λt
. Reemplazando en la ecuaci´on se obtiene que el vector K y λ
deben satisfacer
(A −λI)K = 0,
para tener soluciones de esta forma. Es decir λ debe ser valor propio y K vector
propio de la matriz A. Calculando el polinomio caracteristico, se tiene
det(A −λI) = (2 −λ)(1 −λ) −6 = λ
2
−3λ −4,
de donde det(A − λI) = 0 nos da como raices λ
1
= 4, y λ
2
= −1. Evaluando los
correspondientes vectores propios se tiene, para λ
1
[A −4I]K =
_
−2K
1
+ 3K
2
2K
1
−3K
2
_
=
_
0
0
_
donde
K =
_
K
1
K
2
_
.
Se obtiene K
2
=
2
3
K
1
por lo que
K = K
1
_
1
2
3
_
.
192
Normalizando tal que K
1
= 1 se obtiene el vector propio (que genera un subespacio
propio de dimensi´on uno)
K
1
=
_
1
2
3
_
.
En forma similar para λ
2
se tiene
K = K
1
_
1
−1
_
,
y normalizando se obtiene el vector propio
K
2
=
_
1
−1
_
.
De esta manera hemos encontrado las dos soluciones del sistema,
x
1
(t) = K
1
e
4t
y x
2
(t) = K
2
e
−t
.
Es inmediato que la expresi´on
x(t) = c
1
x
1
(t) + c
2
x
2
(t) = c
1
K
1
e
4t
+ c
2
K
2
e
−t
,
donde c
1
y c
2
son constantes arbitrarias es tambi´en soluci´on del sistema. Veremos
m´as tarde que la soluci´on general de este sistema se puede representar en esta
forma.
Notemos que x(t) se puede escribir como
x(t) = /
_
e
4t
0
0 e
−t
_ _
c
1
c
2
_
, (5.8)
donde / es la matriz / = [K
1
, K
2
] =
_
1 1
2
3
−1
_
cuyas columnas son los vectores
propios de A. De aqu´ı se tiene
193
x(t) =
_
1 1
2
3
−1
_ _
e
4t
0
0 e
−t
_ _
c
1
c
2
_
=
_
e
4t
e
−t
2
3
e
4t
−e
−t
_ _
c
1
c
2
_
.
Para t = 0, se tiene
x(0) =
_
x
1
(0)
x
2
(0)
_
=
_
1 1
2
3
−1
_ _
c
1
c
2
_
,
de donde
c
1
=
3
5
(x
1
(0) + x
2
(0))
c
2
=
2
5
x
1
(0) −
3
5
x
2
(0),
que se puede escribir como
_
c
1
c
2
_
=
_
3
5
3
5
2
5
−3
5
_ _
x
1
(0)
x
2
(0)
_
.
Por lo tanto
x(t) =
_
e
4t
e
−t
2
3
e
4t
−e
−t
_ _
c
1
c
2
_
=
_
e
4t
e
−t
2
3
e
4t
−e
−t
_ _
3
5
3
5
2
5
−3
5
_ _
x
1
(0)
x
2
(0)
_
.
que nos da
x(t) =
_
3
5
e
4t
+
2
5
e
−t 3
5
e
4t

3
5
e
−t
2
5
e
4t

2
5
e
−t 2
5
e
4t
+
3
5
e
−t
_ _
x
1
(0)
x
2
(0)
_
.
Definiendo la matriz
e
At
:=
_
3
5
e
4t
+
2
5
e
−t 3
5
e
4t

3
5
e
−t
2
5
e
4t

2
5
e
−t 2
5
e
4t
+
3
5
e
−t
_
(5.9)
podemos escribir la soluci´on como
194
x(t) = e
At
x(0).
La matriz (5.9), como la notaci´on lo sugiere, se llama la matriz exponencial de
tA. Notamos que e
0·A
= I.
Notemos a continuaci´ on que de algebra lineal se tiene que la matriz
Λ := /
−1
A/ =
_
4 0
0 −1
_
.
Hagamos a continuaci´ on el cambio de variable
y = /
−1
x con y =
_
y
1
y
2
_
.
De aqui que
x(t) = /y(t), (5.10)
y reemplazando en la ecuaci´on diferencial se tiene
y

= /
−1
x

= /
−1
Ax(t) = /
−1
A/y = Λy(t),
que nos da el sistema equivalente
y

1
= 4y
1
y

2
= −y
2
.
Este es un sistema de dos ecuaciones escalares de primer orden (sistema esta
desacoplado) que resolvemos obteniendo
y
1
(t) = y
1
(0)e
4t
y
2
(t) = y
2
(0)e
−t
.
195
Podemos entonces escribir
y(t) =
_
e
4t
0
0 e
−t
_
y(0),
que nos da la soluci´on en las coordenadas y. Como antes la matriz exponencial de
tΛ es
e

=
_
e
4t
0
0 e
−t
_
(5.11)
La ecuaci´on escrita en las coordenadas y, la llamaremos la representaci´on can´oni-
ca de la ecuaci´on. Consideremos su soluci´on (y
1
(t), y
2
(t)), eliminando t de y
1
(t) =
e
4t
y
1
(0) e y
2
(t) = e
−t
y
2
(0), tenemos que y
1
(t), y
2
(t) satisfacen el lugar geom´etrico
y
1
y
4
2
= C. Se deja como ejercicio dibujar estos lugares geom´etricos para distintas
condiciones iniciales de la soluci´on.
Vamos a generalizar el ejemplo considerando ahora la ecuaci´on m´as general
x

= Ax con A = [a
ij
]
n×n
una matriz de coeficientes reales. Basados en el ejemplo anterior vamos a inten-
tar soluciones de la forma x(t) = Ke
λt
. Derivando se tiene, x

(t) = AKe
λt
, y
reemplazando en la ecuaci´on se observa que esta expresi´on ser´a soluci´on si
(A −λI)K = 0.
Supongamos para continuar que det(A−λI) = 0 tiene n valores propios reales y
distintos, λ
1
, , λ
n
, con correspondientes vectores propios K
1
, , K
n
. Entonces
x
i
(t) = e
λ
i
t
K
i
i = 1, , n
son n soluciones que afirmamos son linealmente independientes. En efecto, supon-
gamos que
196
n

i=1
c
i
x
i
(t) = 0 para todo t ∈ R.
Entonces para t = 0,
n

i=1
c
i
K
i
= 0.
Como K
i
son vectores propios correspondientes a valores propios reales y distintos,
son linealmente independientes ( forman una base en R
n
). As´ı necesariamente
c
i
= 0 para i = 1, . . . , n.
M´as adelante vamos a ver que la soluci´on general de esta ecuaci´on tiene la forma
x(t) =
n

i=1
c
i
x
i
(t)
donde x
1
(t), . . . , x
n
(t) son n soluciones linealmente independientes y c
i
, i = 1, . . . , n
constantes arbitrarias.
Ejemplo 5.1. Como aplicaci´on consideremos la ecuaci´on
x

= Ax
donde
A =
_
_
−4 1 1
1 5 −1
0 1 −3
_
_
.
Para evaluar valores y vectores propios, formamos
(A −λI) =
_
_
−4 −λ 1 1
1 5 −λ −1
0 1 −3 −λ
_
_
,
de donde det(A−λI) = 0, nos da los valores propios λ
1
= −3, λ
2
= −4 y λ
3
= 5.
Evaluando los correspondientes vectores propios y normalizando, obtenemos
197
K
1
=
_
_
1
0
1
_
_
, K
2
=
_
_
10
−1
1
_
_
, K
3
=
_
_
1
8
1
_
_
.
De esta manera las expresiones
x
1
(t) =
_
_
1
0
1
_
_
e
−3t
, x
2
(t) =
_
_
10
−1
1
_
_
e
−4t
, y x
3
(t) =
_
_
1
8
1
_
_
e
5t
son tres soluciones (linealmente independientes) de la ecuaci´on diferencial. De
aqu´ı que la soluci´on general se puede representar como
x(t) = c
1
_
_
1
0
1
_
_
e
−3t
+c
2
_
_
10
−1
1
_
_
e
−4t
+ c
3
_
_
1
8
1
_
_
e
5t
,
donde c
1
, c
2
y c
3
son constantes arbitrarias.
5.2. Propiedades generales de sistemas. Consideremos la ecuaci´on no ho-
mogenea
x

= A(t)x + f(t), (5.12)
donde I es un intervalo real A : I →M
n×n
, f : I →M
n×1
son funciones continuas.
Por una soluci´on a este problema entendemos una funci´on x : I → M
n×1
,
de clase C
1
, que satisface (5.12). En esta secci´on daremos algunas propiedades
generales que satisfacen estas soluciones y para eso vamos primero a estudiar el
problema con condiciones iniciales,
(CI)
_
x

= A(t)x + f(t)
x(t
0
) = c, t
0
∈ I.
El teorema fundamental para este problema es el siguiente.
Teorema 5.1. El problema (CI) tiene una ´ unica soluci´on definida en el intervalo
I.
198
Este teorema nos dice que hay existencia y unicidad de soluciones para el pro-
blema (CI). La demostraci´on del Teorema 5.1 ser´a consecuencia de dos lemas que
demostramos primero.
Lema 5.1 (Unicidad). El problema (CI) tiene a lo m´as una soluci´on.
Demostraci´on. Supongamos que x(t), y(t) son dos soluciones del problema (CI) y
sea T ∈ I tal que T > t
0
. (Si T < t
0
la demostraci´on es similar). Sea I
T
= [t
0
, T].
Entonces para t ∈ I
T
, integrando se tiene
x(t) = c +
_
t
t
0
A(s)x(s)ds +
_
t
t
0
f(s)ds,
y(t) = c +
_
t
t
0
A(s)y(s)ds +
_
t
t
0
f(s)ds.
Sea z(t) = x(t) −y(t), entonces z satisface
z(t) =
_
t
t
0
A(s)z(s)ds, z(t
0
) = 0.
Tomando norma (euclideana),
[ z(t) [=[
_
t
t
0
A(s)z(s)ds [≤
_
t
t
0
[ A(s)z(s) [ ds ≤
_
t
t
0
[ A(s) [[ z(s) [ ds.
Notando que la funci´on s ∈ I →[ A(s) [ es cont´ınua, podemos poner
m
1
= m´ax
s∈I
T
[ A(s) [ . Entonces para todo t ∈ I
T
, se tiene
[ z(t) [≤ m
1
_
t
t
0
[ z(s) [ ds.
Sea r(t) =
_
t
t
0
[ z(s) [ ds. Derivando, se obtiene
r

(t) =[ z(t) [≤ m
1
r(t),
que escribimos como
199
r

(t) −m
1
r(t) ≤ 0.
Multiplicando por e
−m
1
t
obtenemos
d
dt
(e
−m
1
t
r(t)) ≤ 0.
Integrando
_
t
t
0
nos da
e
−m
1
t
r(t) ≤ e
−m
1
t
r(t
0
) = 0,
que nos dice que r(t) = 0 para todo t ∈ I
T
, y por lo tanto [z(t)[ = 0 o equivalen-
temente x(t) = y(t) para todo t ∈ I
T
, en particular se tiene x(T) = y(T). Como
T ∈ I es cualquiera se tiene el resultado. Ya que una demostraci´on similar vale
para el caso en que T < t
0
, esto termina la demostraci´on del lema.
Lema 5.2. Para cualquier intervalo [α, β] ⊂ I, tal que, t
0
∈ [α, β] el problema
(CI) tiene una soluci´on (que es ´ unica).
Demostraci´on. Empezamos notando que el problema (CI) tiene una soluci´on,
x(t), si y solo si
x(t) = c +
_
t
t
0
A(s)x(s)ds +
_
t
t
0
f(s)ds.
En lo que sigue denotaremos I
αβ
= [α, β]. Definamos una sucesi´on de funciones
¦φ
k
¦ : I
αβ
→M
n×1
, k ∈ N ∪ ¦0¦, de la siguiente manera
φ
0
(t) = 0 para todo t ∈ I
αβ
,
φ
k+1
= c +
_
t
t
0
[A(s)φ
k
(s) + f(s)]ds para todo t ∈ I
αβ
.
Es claro que estas funciones φ
k
son cont´ınuas en [α, β]. Definamos tambi´en la
sucesi´on de funciones ¦ψ
k
¦ : I
αβ
→M
n×1
, k ∈ N ∪ ¦0¦, por
200
ψ
k
(t) = φ
k+1
(t) −φ
k
(t).
Sumando telesc´opicamente, se tiene que
N

k=0
ψ
k
(t) = φ
N+1
(t) −φ
0
(t)
de donde
φ
N+1
(t) =
N

k=0
ψ
k
(t).
As´ı se tiene que l´ım
N→∞
φ
N+1
(t) existe si y solo si l´ım
N→∞

N
k=0
ψ
k
(t) existe. Esto es, si
la serie


k=0
ψ
k
(t) es convergente para cada t. Vamos a mostrar que en realidad
la sucesi´on ¦φ
k
¦ converge uniformemente en I
αβ
.
Se tiene
ψ
0
(t) = φ
1
(t)
y para k ∈ N,
ψ
k
(t) = φ
k+1
(t) −φ
k
(t) =
_
t
t
0
A(s)[φ
k
(s) −φ
k−1
(s)]ds,
de donde
ψ
k
(t) =
_
t
t
0
A(s)ψ
k−1
(s)ds,
para todo k ∈ N. Sea ahora K = m´ax
s∈[α,β]
[ A(s) [ . Entonces
[ ψ
k
(t) [≤
¸
¸
¸
_
t
t
0
[ A(s) [ [ ψ
k−1
(s) [ ds
¸
¸
¸ ≤ K
¸
¸
¸
_
t
t
0
[ ψ
k−1
(s) [ ds
¸
¸
¸.
201
De aqu´ı, tenemos
[ ψ
1
(t) [≤ K
¸
¸
¸
_
t
t
0
[ ψ
0
(s) [ ds
¸
¸
¸ = K
¸
¸
¸
_
t
t
0
[ φ
1
(s) [ ds
¸
¸
¸.
Como
φ
1
(t) = c +
_
t
t
0
f(s)ds,
si hacemos T = m´ax¦β − t
0
, t
0
− α)¦ y M =[ c [ + sup
s∈[α,β]
[ f(s) [ T, entonces
[ φ
1
(t) [≤ M. Se sigue que
[ ψ
1
(t) [≤ KM[t −t
0
[
para todo t ∈ I
α,β
, y por lo tanto
[ ψ
2
(t) [≤ MK
2
[t −t
0
[
2
2!
.
Continuamos por inducci´on. As´ı suponemos que
[ ψ
i
(t) [≤ M
K
i
i!
[t −t
0
[
i
y queremos probarlo para i + 1. Se tiene
[ ψ
i+1
(t) [≤ K
¸
¸
¸
_
t
t
0
[ ψ
i
(s) [ ds
¸
¸
¸ ≤ M
K
i+1
(i + 1)!
[t −t
0
[
i+1
,
que termina la inducci´on.
Recordemos en este punto que estamos estudiando l´ım
N→∞
φ
N
(t) y que este
existe si y solo si


j=1
ψ
j
(t) es convergente. Vamos a ver que esta convergencia
es en realidad convergencia uniforme. Para l, m en N con l > m, se tiene
202

l
(t) −φ
m
(t)[ ≤
l−1

j=m

j
(t)[ ≤ M
l−1

j=m
K
j
j!
[t −t
0
[
j
. (5.13)
para todo t ∈ I
α,β
. Como e
KT
=


j=0
K
j
j!
T
j
, es entonces claro que dado ε > 0,
existe m
0
> 0 tal que para todo l, m ≥ m
0
, l > m, se tiene que
l−1

j=m
K
j
j!
[t −t
0
[
j
<
ε
M
.
As´ı de (5.13),

l
(t) −φ
m
(t)[ < ε,
que implica
sup
t∈I
α,β

l
(t) −φ
m
(t)[ < ε.
Esto nos dice que la sucesi´on ¦φ
j
¦ es de Cauchy en el espacio C(I
α,β
, M
n×1
), y
por lo tanto converge uniformemente en I
α,β
a una funci´on continua φ.
Volvamos ahora a
φ
k+1
(t) = c +
_
t
t
0
[A(s)φ
k
(s) + f(s)]ds
que escribimos como
φ(t) + φ
k+1
(t) −φ(t) = c +
_
t
t
0
A(s)[φ
k
(s) −φ(s)]ds +
_
t
t
0
[A(s)φ(s) + f(s)]ds.
203
De aqu´ı
[ φ(t) −c −
_
t
t
0
[A(s)φ(s) + f(s)]ds [ ≤
≤ [ φ(t) −φ
k+1
(t) [ +
¸
¸
¸
_
t
t
0
A(s)[φ
k
(s) −φ(s)]ds
¸
¸
¸
≤ [ φ(t) −φ
k+1
(t) [ +
¸
¸
¸
_
t
t
0
[A(s)[ [φ
k
(s) −φ(s)[ds
¸
¸
¸.
De la convergencia uniforme de la sucesi´on ¦φ
j
(t)¦ se tiene que el lado derecho de
esta desigualdad tiende a cero cuando k → ∞. Por lo tanto tomando k → ∞ en
esta desigualdad se obtiene que
φ(t) = c +
_
t
t
0
A(s)φ(s)ds +
_
t
t
0
f(s)ds.
Derivando esta expresi´on se obtiene que la funci´on φ satisface
_
φ

(t) = A(t)φ(t) + f(t), t ∈ I
αβ
,
φ(t
0
) = c
que es lo que quer´ıamos.
Ahora estamos en condiciones de demostrar el Teorema 5.1.
Demostraci´on del Teorema 5.1. Sabemos de los dos lemas anteriores que para
cualquier intervalo de la forma [α, β] ⊂ I, tal que t
0
∈ [α, β], el problema (CI)
tiene una ´ unica soluci´on. La demostraci´on del teorema consiste entonces en lo
siguiente: dado el intervalo I fijamos un intervalo de la forma [α, β] ⊂ I y exten-
demos la soluci´on correspondiente a este intervalo a todo el intervalo I.
Para mostrar como se hace esta extensi´on vamos a considerar distintas situa-
ciones para I.
-Si I = [a, b], t
0
∈ I, fijamos a = α, b = β e inmediatamente tenemos el resultado.
- Si I = (a, b), con t
0
∈ I, −∞ < a, b < ∞, entonces definimos la sucesi´on de
intervalos ¦I
j
¦, I
j
= [a +
1
j
, b −
1
j
], j ∈ N. Es claro que I
j
⊂ I y que existe un j
0
tal que para todo j > j
0
, se tendr´a que t
0
∈ I
j
y que
I = ∪

j≥j
0
[a +
1
j
, b −
1
j
].
Por los dos lemas anteriores el problema
204
_
x

= A(t)x + f(t)
x(t
0
) = c
(5.14)
tiene una ´ unica soluci´on x
j
0
(t) definida en el intervalo I
j
0
, tal que, x
j
0
(t
0
) = c.
Consideremos a continuaci´on el problema (5.14) en el intervalo I
j
0
+1
. Nuevamen-
te por los dos lemas anteriores este problema tiene una ´ unica soluci´on x
j
0
+1
(t)
definida en I
j
0
+1
, tal que, x
j
0
+1
(t) = c. Del Lemma 5.1 se tiene adem´as que
x
j
0
(t) = x
j
0
+1
(t) para todo t ∈ I
j
0
As´ı que x
j
0
+1
extiende x
j
0
al intervalo I
j
0
+1
⊃ I
j
0
. De esta manera, por recurrencia,
si tenemos extendida en forma ´ unica la soluci´on al problema 5.14 al intervalo
I
j
, j > j
0
entonces la podemos extender en forma ´ unica al intervalo I
j+1
=
[a +
1
j+1
, b −
1
j+1
], usando como antes los lemas anteriores. As´ı el problema
5.14 tiene definida una soluci´on, x
j
(t), en cada intervalo I
j
, j ≥ j
0
, y tal que
x
j
(t) = x
j+1
(t), para todo t ∈ I
j
.
Sea t ∈ (a, b), vamos a asignar a este t un ´ unico vector x(t). Para t ∈ (a, b) sea
l ∈ N, l ≥ j
0
, tal que t ∈ I
l
= [a +
1
l
, b −
1
l
] y donde suponemos que l es el m´ınimo
de los j tales que t ∈ I
j
= [a +
1
j
, b −
1
j
].
Definimos entonces x(t) = x
l
(t), donde x
l
es la soluci´on del problema (5.14) de-
finida en I
l
. Notando que x
j
(t) = x
l
(t) = x(t), para todo j ≥ l, vemos que para
cada t ∈ (a, b) podemos asignar un ´ unico vector x(t). Definimos de esta forma
una funci´on x : (a, b) →M
n×1
que por construccci´on satisface el problema (5.14),
para cada t ∈ (a, b). Adem´as por Lema 5.1 esta soluci´on es ´ unica.
- Si ahora I = [a, b) o I = (a, b] tomamos respectivamente I = ∪
j≥j
0
[a, b −
1
j
] o
I = ∪
j≥j
0
[a +
1
j
, b], y procedemos similarmente al caso anterior.
-Finalmente, si por ejemplo, I = [a, ∞), tomamos una sucesi´on de conjuntos ¦I
j
¦
de la forma I
j
= [a, b + j], j ∈ N. Se tiene I = ∪

j=j
0
I
j
donde como antes j
0
es
tal que t
0
∈ I
j
0
, para todo j ≥ j
0
, y procedemos igual que antes para extender la
soluci´on a todo I.
Ya que en todos los casos la extensi´on de la soluci´on es ´ unica se termina la
demostraci´on del teorema.

205
Nos encaminamos a continuaci´ on a estudiar varias propiedades de la ecuaci´on
homogenea
x

= A(t)x, (5.15)
que van a juegar un papel fundamental en demostrar que el conjunto de sus
soluciones tiene una estructura de espacio vectorial con dimensi´on finita. Como
siempre suponemos que la funci´on A esta definida en un intervalo I donde es
continua.
Lema 5.3 (Principio de superposici´on). Si x
i
(t), i = 1, , k, son k soluciones de
(5.15) entonces x(t) =

k
i=1
c
i
x
i
(t), es tambien soluci´on, donde c
i
son constantes
arbitrarias.
Demostraci´on. Se tiene
x

(t) =
k

i=1
c
i
(x
i
)

(t) =
k

i=1
c
i
A(t)x
i
(t) = A(t)
k

i=1
c
i
x
i
(t) = A(t)x(t).

De este lema se tiene en particular que si x(t) es una soluci´on de (5.15) entonces
cx(t) tambi´en lo es, para cualquier constante c.
Definici´on 5.1. Decimos que las funciones x
i
: I → M
n×1
, i = 1, , k, son
linealmente dependientes en I si existen constantes c
i
, i = 1, , k no toda nulas
tal que:
c
1
x
1
(t) + + c
k
x
k
(t) = 0, para todo t ∈ I.
Si el conjunto no es linealmente dependientes entonces decimos que es linealmente
independientes esto es la expresi´on
k

i=1
c
i
x
i
(t) = 0, para todo t ∈ I
implica que c
i
= 0, i = 1, , k.
206
Definici´on 5.2. El wronskiano W(x
1
, , x
n
)(t) de las n funciones x
i
: I →
M
n×1
, i = 1, , n, es el siguiente determinante.
W(x
1
, , x
n
)(t) = det[x
1
(t) x
i
(t) x
n
(t)] = det
_
_
x
11
(t) x
1n
(t)
.
.
.
.
.
.
x
n1
(t) x
nn
(t)
_
_
,
donde
x
i
(t) =
_
_
x
1i
(t)
.
.
.
x
ni
(t)
_
_
, t ∈ I.
Lema 5.4. Sean x
i
(t), i = 1, , n, n soluciones del sistema (5.15) definidas
en el intervalo I. Estas soluciones son linealmente independientes, si y solo si, el
wronskiano
W(x
1
, , x
n
)(t) ,= 0,
para todo t ∈ I.
Demostraci´on. Mostremos primero que si x
i
(t), i = 1, , n, son n soluciones del
sistema (5.15) tales que W(x
1
, , x
n
)(t) ,= 0 para todo t ∈ I entonces estas solu-
ciones son linealmente independientes en I. En efecto si ellas fueran linealmente de-
pendientes existirian constantes c
1
, , c
n
no todas cero tal que

k
i=1
c
i
x
i
(t) = 0,
para todo t ∈ I. En particular, en t
0
∈ I fijo, se tiene

n
i=1
c
i
x
i
(t
0
) = 0, que se
escribe en forma matricial como
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
= 0.
Como el determinante de los coeficientes es W(x
1
, , x
n
)(t
0
) ,= 0,, la matriz es
invertible, entonces este sistema tiene la ´ unica soluci´on c
1
= c
2
= c
n
= 0, que
es una contradicci´ on. As´ı las soluci´on son linealmente independientes.
Ahora vamos a suponer que las n soluciones ¦x
1
, , x
n
¦ son linealmente in-
dependientes en I y queremos probar que W(x
1
, , x
n
)(t) ,= 0 para todo t ∈ I.
207
Equivalentemente vamos a probar que si W(x
1
, , x
n
)(t
0
) = 0, alg´ un t
0
∈ I,
entonces ¦x
1
, , x
n
¦ son linealmente dependientes en I.
Se tiene que W(x
1
, , x
n
)(t
0
) = 0 implica que existen constantes c
1
, , c
n
no todas nulas tales que
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
= 0.
Definamos
z(t) =
n

i=1
c
i
x
i
(t),
entonces z es soluci´on del sistema (5.15) que en t = t
0
satisface
z(t
0
) =
_
_
z
1
(t
0
)
.
.
.
z
n
(t
0
)
_
_
=
n

i=1
c
i
x
i
(t
0
) =
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
= 0.
Esto implica que z es soluci´on del problema
z

= A(t)z, z(t
0
) = 0.
Del Teorema 5.1 se tiene entonces que z(t) = 0, para todo t ∈ I. Es decir

n
i=1
c
i
x
i
(t
0
) = 0, donde no todas las constantes son nulas, por lo que las soluci´on
son linealmente dependientes en I, que es lo que quer´ıamos probar.
Notemos que en realidad hemos probado lo siguiente. Sean x
1
, , x
n
n solu-
ciones de la ecuaci´on (5.15). Se tiene que W(x
1
, , x
n
)(t
0
) ,= 0, t
0
∈ I, impli-
ca que la soluci´ones ¦x
1
, , x
n
¦ son linealmente independientes en I. Si ahora
W(x
1
, , x
n
)(t
0
) = 0, t
0
∈ I, entonces ¦x
1
, , x
n
¦ son linealmente dependien-
tes en I.
Lema 5.5. Sean ¦x
1
, , x
n
¦ n soluciones linealmente independientes de (5.15).
Sea
208
z(t) =
_
_
z
1
(t)
.
.
.
z
n
(t)
_
_
otra soluci´on cualquiera de esta ecuaci´on, entonces existen constantes c
1
, , c
n
,
tal que
z(t) =
n

i=1
c
i
x
i
(t) i = 1, , n.
Demostraci´on. Para t
0
∈ I, formemos el sistema algebraico
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
=
_
_
z
1
(t
0
)
.
.
.
z
n
(t
0
).
_
_
Como el determinante de los coeficientes es distinto de 0 (soluciones son lineal-
mente independientes) se tiene que existe una ´ unica soluci´on de este sistema que
llamamos [c
1
c
n
]
t
. Formemos ahora
G(t) =
n

i=1
c
i
x
i
(t) t ∈ I,
entonces G(t) es soluci´on de (5.15) tal que en t
0
satisface
G(t
0
) =
n

i=1
c
i
x
i
(t
0
) =
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
_
_
c
1
.
.
.
c
n
_
_
=
_
_
z
1
(t
0
)
.
.
.
z
n
(t
0
)
_
_
= z(t
0
).
Por el Teorema 5.1, de existencia y unicidad, se debe tener que
z(t) = G(t) =
n

i=1
c
i
x
i
(t), para todo t ∈ I.
209

Lema 5.6. La ecuaci´on homogenea (5.15) tiene un conjunto de n soluciones que
son linealmente independientes en I.
Demostraci´on. Basta considerar el problema
(P
i
)
_
x

= A(t)x
x(t
0
) = [0 1 0]
t
,
donde el 1 va en la posici´on i, i = 1, , n, y t
0
∈ I.
Por el Teorema 5.1 se tiene que (P
i
) posee una ´ unica soluci´on que llamaremos
x
i
(t), para cada i = 1, , n. Adem´as
det[x
1
(t
0
), , x
n
(t
0
)] = det
_
_
x
11
(t
0
) x
1n
(t
0
)
.
.
.
.
.
.
x
n1
(t
0
) x
nn
(t
0
)
_
_
= det I = 1,
por lo que ¦x
1
, , x
n
¦ es un conjunto de n soluciones que son linealmente inde-
pendientes.
Tenemos el siguiente
Teorema 5.2. Sea S el conjunto de todas las funciones x : I → M
n×1
que son
soluci´on de la ecuaci´on (5.15), esto es:
S = ¦x : I →M
n×1
[ x

(t) −A(t)x(t) = 0, para todo t ∈ I¦.
Entonces S es un espacio vectorial real de dimension finita igual a n.
Demostraci´on 11. Del Lema 5.3, se tiene que si x, z son dos soluciones de (5.15)
y α, β son escalares reales, entonces αx + βz, es tambi´en soluci´on de (5.15). De
aqu´ı que S es un espacio vectorial real. Adem´as de los Lemas 5.5 y 5.6 se tiene
que dimS = n.
Definici´on 5.3. Una base de soluciones del espacio vectorial S de soluciones de
la ecuaci´on (5.15) est´a formada por cualquier conjunto de soluciones linealmente
independientes (en I) de esta ecuaci´on.
Dada una base de soluciones de la ecuaci´on homogenea
210
x

= A(t)x
una soluci´on cualquiera x se expresa seg´ un esta base por una expresi´on de la forma
x(t) = c
1
x
1
(t) + + c
n
x
n
(t),
donde c
i
, i = 1, , n son constantes. Esta expresi´on la vamos a llamar la soluci´on
general de la ecuaci´on.
Escribiendo
x
j
(t) =
_
x
1j
(t) x
nj
(t)
¸
t
, j = 1, , n,
y denotando por
X(t) =
_
_
x
11
(t) x
1n
(t)
.
.
.
.
.
.
x
n1
(t) x
nn
(t)
_
_
la expresi´on anterior se se puede escribir como
x(t) = X(t)c,
donde
X(t) =
_
x
1
(t) x
n
(t)
¸
t
y c =
_
c
1
c
n
¸
t
.
Una matriz X(t) cuyas columnas son soluciones linealmente independientes de
la ecuaci´on homogenea, se llama una matriz fundamental.
Estudiemos ahora como encontrar la soluci´on general de la ecuaci´on no homo-
genea
x

= A(t)x + f(t). (5.16)
Sea x(t) una soluci´on cualquiera de esta ecuaci´on y supongamos que por alg´ un
m´etodo conocemos una soluci´on particular x
p
(t) de esta ecuaci´on. Se tiene
x

−x

p
= A(t)x(t) + f(t) −A(t)x
p
(t) −f(t) = A(t)(x(t) −x
p
(t)).
Entonces si x
h
(t) = x(t) −x
p
(t) se tiene que
x

h
= A(t)x
h
(t).
211
Por lo tanto si ¦x
1
, , x
n
¦ es una base de soluciones de la ecuaci´on homogenea
asociada, podemos escribir
x
h
(t) =
n

i=1
c
i
x
i
(t).
As´ı
x(t) = x
h
(t) + x
p
(t) =
n

i=1
c
i
x
i
(t) + x
p
(t).
Consideremos ahora el problema de encontrar una soluci´on particular x
p
(t) de
la ecuaci´on no-homogenea (5.16). Suponemos que conocemos una base de solu-
ciones ¦x
1
, , x
n
¦ de la ecuaci´on homogenea asociada x

= A(t)x. Para esto
consideramos
x(t) =
n

i=1
c
i
(t)x
i
(t), (5.17)
que viene de la expresi´on de la soluci´on x
h
(t) donde reemplazamos las constantes
por funciones c
i
: I →R, i = 1, , n. Para determinar estas funciones substitui-
mos esta expresi´on en la ecuaci´on no-homogenea. Se obtiene,
x

(t) =
n

i=1
c

i
(t)x
i
(t) +
n

i=1
c
i
(t)(x
i
)

(t)
y por lo tanto
x

(t) =
n

i=1
c

i
(t)x
i
(t) +
n

i=1
c
i
(t)A(t)x
i
(t).
Reemplazando en la ecuaci´on no-homogenea x

= A(t)x + f(t), se obtiene
x

(t) =
n

i=1
c

i
(t)x
i
(t) +
n

i=1
c
i
(t)A(t)x
i
(t)
212
= A(t)x(t) + f(t) = A(t)
n

i=1
c
i
(t)x
i
(t) + f(t) =
n

i=1
c
i
(t)A(t)x
i
(t) + f(t),
de donde
n

i=1
c

i
(t)x
i
(t) = f(t).
Poniendo
x
j
(t) =
_
x
1j
(t) x
nj
(t)
¸
t
, j = 1, , n, f(t) =
_
f
1
(t) f
n
(t)
¸
t
,
el ultimo sistema se puede escribir equivalentemente como
_
_
x
11
(t) x
1n
(t)
.
.
.
.
.
.
x
n1
(t) x
nn
(t)
_
_
_
_
c

1
(t)
.
.
.
c

n
(t)
_
_
=
_
_
f
1
(t)
.
.
.
f
n
(t)
_
_
,
de donde, aplicando la regla de Cramer, obtenemos
c

i
(t) =
det
_
_
x
11
(t) f
1
(t) x
1n
(t)
.
.
.
.
.
.
.
.
.
x
n1
(t) f
n
(t) x
nn
(t)
_
_
W(x
1
, , x
n
)(t)
, i = 1, , n,
note que f(t) reemplaza la columna i en el numerador. Integrando se determinan
estas funciones c
i
que reemplazadas en (5.17) nos da la soluci´on particular buscada.
En t´erminos de matrices fundamentales, para buscar la soluci´on particular de
(5.16) procedemos de la manera siguiente. La soluci´on general de la ecuaci´on
homog´enea x

= A(t)x se puede escribir como
x
h
(t) = X(t)c,
donde X(t) es una matriz fundamental y c un vector arbitrario en M
n
. Ponemos
entonces
213
x(t) = X(t)c(t),
y lo reemplazamos en (5.16). Se obtiene
x

(t) = X

(t)c(t) + X(t)c

(t) = A(t)X(t)c(t) + f(t).
y como X(t) es una matriz fundamental, se tiene
X(t)c

(t) = f(t).
de donde
c

(t) = X(t)
−1
f(t).
Integrando entre τ ∈ I y t ∈ I,
c(t) = c(τ) +
_
t
τ
X(s)
−1
f(s)ds,
por lo que la soluci´on general de (5.16) queda como
x(t) = X(t)c(τ) + X(t)
_
t
τ
X(s)
−1
f(s)ds.
La soluci´on x
p
(t) = X(t)
_
t
τ
X(s)
−1
f(s)ds la llamamos la soluci´on particular de la
ecuaci´on La f´ormula anterior se puede escribir tambi´en como
x(t) = X(t)c(τ) +
_
t
τ
G(t, s)f(s)ds,
donde G(t, s) = X(t)X(s)
−1
. Notamos que G(s, s) = I.
Estas f´ormulas son particularmente ´ util cuando la matriz A es de constantes, como
veremos m´as adelante. En este caso vamos a tomar como matriz fundamental
X(t) = e
tA
. Con esto la soluci´on particular se escribe
x
p
(t) = X(t)
_
t
τ
X(s)
−1
f(s)ds = e
tA
_
t
τ
e
−sA
f(s)ds =
_
t
τ
e
(t−s)A
f(s)ds,
que nos dice que para calcular la soluci´on particular tenemos que conocer la matriz
exponencial y evaluarla en (t −s).
214
5.3. Matriz exponencial. Comencemos con una definici´on. Sea ¦A
n
¦
n∈N
una
sucesi´on de matrices nn de n´ umeros complejos, los n´ umeros reales los miramos
como n´ umeros complejos con parte imaginaria cero. El espacio vectorial de las
matrices n n lo denotaremos por M
n×n
C
.
Consideremos la serie asociada

l=1
A
l
= A
1
+ A
2
+
Diremos que esta serie es convergente si la sucesi´on de sus sumas parciales ¦S
k
¦
k∈N
,
S
k
=

k
l=1
A
l
, es convergente. As´ı si S = l´ım
k→∞
S
k
entonces ponemos

l=1
A
l
= S,
y S lo llamamos la suma de la serie. Si el termino general de la serie se escribe
A
l
= [a
ij
]
n×n
entonces es f´acil ver que la serie converge si y solo si cada termino
a
ij
es convergente.
Sea ahora A una matriz n n de numeros complejos y consideremos la serie
I +
A
1!
+
A
2
2!
+ +
A
l
l!
+ =

l=0
A
l
l!
. (5.18)
Proposici´on 5.1. La serie


l=0
A
l
l!
es convergente.
Demostraci´on 12. Tenemos que probar que la sucesi´on ¦S
k
¦
k∈N
, S
k
=

k
l=0
A
l
l!
,
es convergente. Para esto miramos a M
n×n
C
como un espacio normado completo,
donde para A ∈ M
n×n
C
tomamos la norma [[A[[ = (

n
i,j=1
[a
ij
[
2
)
1/2
. Se tiene, para
p, q ∈ N, p > q
[[S
p
−S
q
[[ ≤
p

l=q+1
[[A
l
[[
l!

p

l=q+1
[[A[[
l
l!
.
En vista de esto consideramos la serie
e
||A||
=

l=0
[[A[[
l
l!
.
215
Como esta serie es convergente se tiene que dado ε > 0 existe n
0
∈ N tal que para
todo p, q ∈ N, p > n
0
, q > n
0
(p > q), se tiene
p

l=q+1
[[A[[
l
l!
< ε.
Pero entonces dado ε > 0 existe n
0
∈ N tal que para todo p, q ∈ N, p > n
0
, q > n
0
(p > q), se tiene
[[S
p
−S
q
[[ < ε,
que dice que la sucesi´on ¦S
k
¦, es de Cauchy en M
n×n
C
y por lo tanto convergente.
De aqui que la serie en (5.18) sea convergente.
Es costumbre llamar a este limite la exponencial de A y se escribe
e
A
=

l=0
A
l
l!
= I +
A
1!
+
A
2
2!
+ +
A
l
l!
+ (5.19)
La matriz exponencial conserva algunas de las propiedades de la funci´on exponen-
cial (m´as adelante). En particular e
0
= I, e
(t+s)A
= e
tA
e
sA
para s, t ∈ R. De aqui
(e
A
)
−1
= e
−A
(tome t = 1, s = −1).
Por otro lado de lo que hemos probado notamos que se tiene lo siguiente
Proposici´on 5.2.
[[e
A
[[ ≤ e
||A||
.
Demostraci´on 13. En efecto
[[e
A
[[ = [[

l=0
A
l
l!
[[ = l´ım
j→∞
[[
j

l=0
A
l
l!
[[ ≤ l´ım
j→∞
j

l=0
[[A[[
l
l!
= e
||A||
.
Nos encaminamos ahora a considerar como la matriz exponencial esta relacio-
nada con el problema
x

= Ax,
donde A ∈ M
n×n
. Para esta matriz A sea t ∈ R y formemos e
tA
. Definimos as´ı una
funci´on de los reales en M
n×n
. Se tiene
Proposici´on 5.3. La funci´on e
tA
es diferenciable (por lo tanto continua) para
cada t ∈ R, y se tiene
d
dt
e
tA
= Ae
tA
= e
tA
A.
Demostraci´on 14. Por definici´on
d
dt
e
tA
= l´ım
s→0
e
(t+s)A
−e
tA
s
. Se tiene
e
(t+s)A
−e
tA
s
= e
tA
(e
sA
−I)
s
216
Ahora
e
sA
−I =
sA
1!
+
s
2
A
2
2!
+ +
s
l
A
l
l!
+ =

l=1
s
l
A
l
l!
,
por lo que
(e
sA
−I)
s
−A =

l=2
s
l−1
A
l
l!
,
y por lo tanto
[[
(e
sA
−I)
s
−A[[ ≤ [s[

l=2
[s[
l−2
[[A[[
l
l!
≤ [s[

l=2
[[A[[
l
l!
,
si 0 < [s[ ≤ 1, lo cual asumimos sin p´erdida de generalidad. Pero entonces
[[
(e
sA
−I)
s
−A[[ ≤ [s[e
||A||
,
de donde l´ım
s→0
[[
(e
sA
−I)
s
−A[[ = 0. Se tiene entonces
[[
e
(t+s)A
−e
tA
s
−e
tA
A[[ = [[e
tA
(
e
sA
−I
s
−A)[[
≤ [[e
tA
[[ [[(
e
sA
−I
s
−A)[[ ≤ [s[e
||A||
[[e
tA
[[,
que finalmente implica
l´ım
s→0
[[
e
(t+s)A
−e
tA
s
−e
tA
A[[ = 0.
Hemos probado entonces que
d
dt
e
tA
= e
tA
A, en forma enteramente similar se
demuestra que
d
dt
e
tA
= Ae
tA
.
Teorema 5.3. La soluci´on de la ecuaci´on diferencial vectorial con condici´on ini-
cial
x

= Ax x(t
0
) = c,
es
x(t) = e
(t−t
0
)A
c.
Demostraci´on 15. Es claro que x(t
0
) = e
0A
c = c y derivando
x

(t) = Ae
(t−t
0
)A
c = Ax(t),
que termina la demostraci´on
217
De esta forma vemos que por medio de la matriz exponencial podemos escri-
bir la soluci´on general de la ecuaci´on diferencial. En efecto escribamos la matriz
e
(t−t
0
)A
= [x
1
(t), , x
n
(t)]. Entonces x
i
(t) = e
(t−t
0
)A
c
i
, con c
i
= [0, , 1, , 0]
t
y donde el uno va en la posici´on i, i = 1, , n. Se tiene entonces que cada
vector columna x
i
(t) es soluci´on de la ecuaci´on diferencial x

= Ax, y las solucio-
nes ¦x
1
, , x
n
¦ son linealmente independientes en R (en t = t
0
el Wronskiano
correspondiente es 1). Si ahora c = [c
1
, , c
n
]
t
, entonces se tiene
e
(t−t
0
)A
c = c
1
x
1
(t) + + c
n
x
n
(t),
que es la forma de la soluci´on general.
Si t
0
= 0, la soluci´on de la ecuaci´on diferencial vectorial con condici´on inicial
x

= Ax x(0) = c,
es dada por
x(t) = e
tA
c = c
1
x
1
(t) + + c
n
x
n
(t).
Para una matriz general A puede ser dificil calcular su exponencial por medio de
la serie que la define. Vamos ver entonces algunos m´etodos para evaluar la matriz
exponencial.
Un primer caso donde esta exponencial es simple de evaluar es cuando A ∈ M
n×n
es diagonal, en efecto si
A =
_
¸
¸
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
¸
¸
_
,
A
2
=
_
¸
¸
_
a
2
11
0 0
0 a
2
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
2
nn
_
¸
¸
_
A
j
=
_
¸
¸
¸
_
a
j
11
0 0
0 a
j
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
j
nn
_
¸
¸
¸
_
,
de donde aplicando (5.19) es inmediato ver que
e
tA
=
_
¸
¸
_
e
a
11
t
0 0
0 e
a
22
t
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
annt
_
¸
¸
_
.
218
De aqu´ı que en este caso la soluci´on de
x

= Ax x(0) = c,
es dada por x
i
(t) = c
i
e
a
ii
t
, i = 1, , n, donde x(t) = [x
1
(t), , x
n
(t)]
t
y c =
[c
1
, , c
n
]
t
.
El caso siguiente en dificultad es cuando A ∈ M
n×n
es diagonalizable. Nosotros
vimos anteriormente el caso cuando A tiene n tiene n valores propios reales y
distintos, λ
1
, , λ
n
, con correspondientes vectores propios K
1
, , K
n
.
Vimos que en este caso la soluci´on de
x

= Ax
se puede escribir como
x(t) =
n

i=1
c
i
x
i
(t)
donde x
1
(t), , x
n
(t) son las n soluciones linealmente independientes dadas por
x
i
(t) = e
λ
i
t
K
i
, i = 1, , n, y c
i
, i = 1, , n son constantes arbitrarias.
Vamos a generalizar ahora esta situaci´on al caso cuando A ∈ M
n×n
es diagona-
lizable. De Algebra Lineal se tiene
Teorema 5.4. Una matriz A n n de n´ umeros reales (o complejos) es similar
sobre R (o C) a una matriz diagonal si y solo si A tiene n vectores propios lineal-
mente independientes en M
n×n
(respectivamente en M
n×n
C
). En este caso la matriz
Λ = /
−1
A/ es diagonal donde / es la matriz cuyas columnas est´an formadas por
los n vectores propios de A.
Teorema 5.5. Sea A ∈ M
n×n
una matriz diagonalizable sobre sobre R (o C) y sea
Λ = /
−1
A/, donde / y Λ tienen el mismo significado que en el teorema anterior.
Entonces
e
A
= e
KΛK
−1
= /e
Λ
/
−1
,
Demostraci´on 16. Como A = /Λ/
−1
, se sigue que A
2
= /Λ
2
/
−1
y que A
l
=

l
/
−1
, l ∈ N. Entonces de (5.19), se tiene
219
e
A
=

l=0
A
l
l!
=

l=0

l
/
−1
l!
= /

l=0
Λ
l
l!
/
−1
= /e
Λ
/
−1
.
Para esta matriz A diagonalizable consideremos ahora el correspondiente problema
x

= Ax x(0) = c.
Llamemos λ
i
, i = 1, , n los valores propios (no necesariamente distintos) y K
i
los correspondientes vectores propios. Entonces / = [K
1
K
n
] y
Λ =
_
¸
¸
_
λ
1
0 0
0 λ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
_
¸
¸
_
.
Se tiene
e
tA
= /e

/
−1
= /
_
¸
¸
_
e
λ
1
t
0 0
0 e
λ
2
t
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
λ
n
t
_
¸
¸
_
/
−1
y por lo tanto la soluci´on del problema es
x(t) = e
tA
c = /e

/
−1
c = /
_
¸
¸
_
e
λ
1
t
0 0
0 e
λ
2
t
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
λnt
_
¸
¸
_
/
−1
c.
Notemos de aqu´ı que si ponemos d = /
−1
c, se tiene
x(t) = /e

d = [K
1
K
n
]e

d = [K
1
K
n
]
_
¸
¸
_
e
λ
1
t
0 0
0 e
λ
2
t
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
λnt
_
¸
¸
_
d,
y si d = [d
1
, , d
n
]
t
, la soluci´on se puede escribir como
220
x(t) = [K
1
K
n
]
_
¸
¸
_
d
1
e
λ
1
t
d
2
e
λ
2
t
.
.
.
d
n
e
λ
n
t
_
¸
¸
_
= d
1
K
1
e
λ
1
t
+ + d
n
K
n
e
λ
n
t
.
de donde
x(t) = d
1
K
1
e
λ
1
t
+ +d
n
K
n
e
λ
n
t
,
que es la forma de la soluci´on general que obtuvimos antes.
Ejemplo 5.2. Consideremos la ecuaci´on diferencial x

= Ax donde
A =
_
_
3 −1 −1
1 1 −1
1 −1 1
_
_
.
En primer lugar estudiamos sus valores propios y resolvemos det(A − λI) = 0.
Usando Maple se obtiene:
λ
1
= 1, λ
2
= 2 con multiplicidad dos,
con correspondientes vectores propios
K
1
= [1, 1, 1]
t
, K
2
= [1, 1, 0]
t
, K
3
= [1, 0, 1]
t
,
donde K
1
corresponde a λ
1
y K
2
, K
3
a λ
2
. Como estos vectores propios son li-
nealmente independientes la matriz A es diagonalizable. Podemos entonces escribir
inmediatamente la soluci´on general como
x(t) =
_
_
x
1
(t)
x
2
(t)
x
3
(t)
_
_
= d
1
_
_
1
1
1
_
_
e
t
+ d
2
_
_
1
1
0
_
_
e
2t
+ d
3
_
_
1
0
1
_
_
e
2t
=
_
_
d
1
e
t
+ d
2
e
2t
+ d
3
e
2t
d
1
e
t
+ d
2
e
2t
d
1
e
t
+ d
3
e
2t
_
_
.
Evaluemos ahora la exponencial e
tA
. Usamos la f´ormula
e
tA
= /e

/
−1
.
Se tiene
221
Λ =
_
_
1 0 0
0 2 0
0 0 2
_
_
,
y por lo tanto
e

=
_
_
e
t
0 0
0 e
2t
0
0 0 e
2t
_
_
.
Tambi´en
/ =
_
_
1 1 1
1 1 0
1 0 1
_
_
.
Usando Maple
/
−1
=
_
_
−1 1 1
1 0 −1
1 −1 0
_
_
.
y
e
tA
=
_
_
−e
t
+ 2e
2t
e
t
−e
2t
e
t
−e
2t
−e
t
+ e
2t
e
t
e
t
−e
2t
−e
t
+ e
2t
e
t
−e
2t
e
t
_
_
,
y la soluci´on es
x(t) = e
tA
c.
Estudiemos ahora el caso en hay valores propios complejos. M´as espec´ıficamente
supongamos que queremos resolver
x

= Ax, (5.20)
donde la matriz constante A n n tiene componentes reales. Suponemos que A
tiene valores propios reales y valores propios complejos (conjugados). Notamos
primero
222
Proposici´on 5.4. Si w(t) es una soluci´on compleja de (5.20) entonces la funci´on
vectorial compleja conjugada w(t) es tambi´en soluci´on.
Demostraci´on 17. Se tiene que w satisface
w

(t) = Aw(t),
y como w

(t) = w(t)

se tiene que
w(t)

= Aw(t),
que implica el resultado
El siguiente es un resultado importante.
Teorema 5.6. Sea A una matriz real de n n y supongamos que
[x
1
(t), , x
p
(t), w
1
(t), w
1
(t), , w
q
(t), w
q
(t)], (5.21)
es una base de soluciones compleja de (5.20), donde p + 2q = n, y donde x
j
(t),
j = 1, , p. son vectores soluciones reales y w
j
(t), w
j
(t), j = 1, , q, son
vectores soluciones complejas conjugadas.
Si w
j
(t) = u
j
(t) + iv
j
(t), donde u
j
(t), v
j
(t) denotan la parte real e imaginaria
de w
j
(t), j = 1, , q, entonces
[x
1
(t), , x
p
(t), u
1
(t), v
1
(t), , u
q
(t), v
q
(t)] (5.22)
es una base real de soluciones para (5.20).
Demostraci´on 18. Se tiene que
u
j
(t) =
w
j
(t) + w
j
(t)
2
, v
j
(t) =
w
j
(t) −w
j
(t)
2i
,
por lo que u
j
y v
j
son soluciones reales de la ecuaci´on. Lo que resta es probar que
las soluciones de (5.22) son L.I. Para esto usamos que las soluciones de (5.21) son
L. I. Razonamos se la siguiente manera, formamos
a
1
x
1
(t) + a
2
x
2
(t) + + a
p
x
p
(t) + b
1
u
1
(t) + c
1
v
1
(t)
223
+ + b
q
u
q
(t) + c
q
v
q
(t) = 0, (5.23)
donde a
1
, , a
p
, b
1
, , b
q
, y c
1
, , c
q
, son constantes reales. Definamos
β
j
=
b
j
−ic
j
2
, γ
j
=
b
j
+ ic
j
2
, j = 1, , q,
entonces
b
j
u
j
(t) + c
j
v
j
(t) = (β
j
+ γ
j
)u
j
−i(γ
j
−β
j
)v
j
= β
j
(u
j
(t) + iv
j
(t)) +γ
j
(u
j
(t) −iv
j
(t)) = β
j
w
j
(t) + γ
j
w
j
(t).
Reemplazando en (5.23),
a
1
x
1
(t) +a
2
x
2
(t) + +a
p
x
p
(t) +β
1
w
1
(t) +γ
1
w
1
(t) + +β
q
w
q
(t) +γ
q
w
q
(t) = 0,
que implica a
j
= 0, j = 1, , p, y β
j
= γ
j
= 0, j = 1, , q. Como esto tambi´en
implica b
j
= c
j
= 0, j = 1, , q, se termina la demostraci´on
Ejercicio. Haga todos los detalles de c´alculo.
En lo que sigue vamos a necesitar el siguiente resultado.
Proposici´on 5.5. Sean A y B dos matrices reales o complejas n n, tal que
AB = BA. Entonces
(i) Be
tA
= e
tA
B,
(ii) e
t(A+B)
= e
tA
e
tB
= e
tB
e
tA
.
Demostraci´on 19. (i) Se tiene que
Be
tA
= B

l=0
A
l
l!
=

l=0
BA
l
l!
=

l=0
A
l
B
l!
=

l=0
A
l
l!
B = e
tA
B.
(ii) Usamos el Teorema de existencia y unicidad. Definamos las dos funciones
u(t) = e
t(A+B)
c v(t) = e
tA
e
tB
c,
224
donde c es un vector arbitrario pero fijo. Es inmediato ver que u y v satisfacen el
problema con condici´on inicial
z

= (A + B)z, z(0) = c.
Por el Teorema de existencia y unicidad ( admitido valido para el caso en que las
matrices sean complejas, es elemental extenderlo!) se debe tener entonces que
(e
t(A+B)
−e
tA
e
tB
)c = 0,
para todo vector c. Se sigue que (ii) es cierto.
Vamos a comenzar a considerar el problema (5.20) cuando la matriz A no es
diagonalizable. Ser´a conveniente mirar la matriz real A como en M
n×n
C
.
Recordemos primero algunos resultados de Algebra Lineal, sean λ
1
, , λ
s
los
valores propios distintos de A. Entonces para cada i = 1, , s
Ker(A −λ
i
I), Ker(A −λ
i
I)
2
, ,
forman una cadena creciente de subespacios de M
n
C
. M´as aun existe un entero
positivo p
i
, el ´ındice correspondiente a λ
i
, tal que
Ker(A −λ
i
I) ⊂ Ker(A −λ
i
I)
2

⊂ Ker(A −λ
i
I)
p
i
= Ker(A −λ
i
I)
p
i
+1
= Ker(A −λ
i
I)
p
i
+2
=
Es costumbre poner
M
λ
i
= Ker(A −λ
i
I)
p
i
,
el cual se llama el subespacio propio generalizado de λ
i
. De Algebra Lineal se tiene
el siguiente resultado importante
M
n
C
= M
λ
1
⊕M
λ
2
⊕ ⊕M
λ
s
.
De esta forma si c ∈ M
n
C
entonces
c =
s

i=1
c
i
donde c
i
∈ M
λ
i
, (5.24)
y entonces
225
e
tA
c =
s

i=1
e
tA
c
i
,
y por lo tanto solo tenemos que calcular e
tA
c
i
, i = 1, , s. Eliminando por
conveniencia de notaci´on los subindices evaluemos e
tA
c donde suponemos c ∈ M
λ
,
λ valor propio de A. Se tiene
e
tA
c = e
t(A−λI)+tλI
c = e
t(A−λI)
e
tλI
c = e
tλI
e
t(A−λI)
c = e

e
t(A−λI)
c.
Ahora
e
t(A−λI)
c =

l=0
t
l
(A −λI)
l
l!
c =
p−1

l=0
t
l
(A −λI)
l
l!
c,
donde p es ´ındice de λ, por lo que se cumple
Ker(A −λI) ⊂ Ker(A −λI)
2

⊂ Ker(A −λI)
p
= Ker(A −λI)
p+1
= Ker(A −λ
i
I)
p+2
= .
La serie se vuelve una sumatoria finita porque c ∈ M
λ
= Ker(A − λI)
p
, lo cual
implica
0 = (A −λI)
p
c = (A −λI)
p+1
c = = (A −λ
i
I)
j
c,
para todo j ≥ p. De estos resultados se tiene
e
tA
c = e

e
t(A−λI)
c = e

p−1

l=0
t
l
(A −λI)
l
l!
c
= e

(I +
t(A −λI)
1!
+
t
2
(A −λI)
2
2!
+ +
t
p−1
(A −λI)
p−1
(p −1)!
)c.
Hemos entonces demostrado el siguiente teorema.
Teorema 5.7. Sean λ
1
, , λ
s
los valores propios distintos de una matriz A, nn,
M
λ
1
, , M
λs
los correspondientes espacios propios generalizados y p
1
, , p
s
los
respectivos indices.
Entonces la soluci´on del problema con condici´on inicial
226
x

= Ax, x(0) = c,
es dada por
x(t) =
s

i=1
e

i
p
i
−1

j=0
t
j
(A −λ
i
I)
j
j!
c
i
, (5.25)
donde c
i
∈ M
λ
i
son determinados por la descomposici´on de c dada en (5.24).
Un resultado importante de Algebra Lineal dice que dimM
λ
i
= m
i
donde m
i
es la
multiplicidad de λ
i
en el polinomio caracter´ıstico de A.
Vamos ahora a estudiar mas en detalle la aplicaci´on de la f´ormula (5.25). Supon-
gamos que tenemos dada una matriz A nn que tiene s valores propios λ
1
, , λ
s
con multiplicidades m
1
, , m
s
(en el polinomio caracter´ıstico). Para aplicar la
f´ormula (5.25) vemos que tenemos que conocer los indices p
i
as´ı como una base de
M
λ
i
, i = 1, , s. Una forma de hacer esto, que lo vamos a explicar para el caso
del valor propio λ
i
, es la siguiente.
Comenzamos determinando una base para Ker(A −λ
i
I). Supongamos que
dimKer(A−λ
i
I) = q
i
1
. Entonces A tiene q
i
1
vectores propios. Si q
i
1
= m
i
estamos
listos, ya que en este caso M
λ
i
= Ker(A − λ
i
I). Si q
i
1
< m
i
, entonces Ker(A −
λ
i
I) ⊂ M
λ
i
con contenci´ on estricta y por lo tanto tenemos que completar la base
de M
λ
i
.
Estudiamos entonces Ker(A − λ
i
I)
2
y hecho esto supongamos que dimKer(A −
λ
i
I)
2
= q
i
2
. Notamos aqu´ı que los vectores de la base de Ker(A − λ
i
) que hemos
determinado son tambi´en parte de Ker(A−λ
i
I)
2
. As´ı que para determinar la base
de este ultimo espacio hay que determinar solamente q
i
2
−q
i
1
vectores linealmente
independientes adicionales.
Continuando de esta forma tenemos que encontrar una base para Ker(A−λ
i
I)
j
.
Supongamos que hemos encontrado que la dimensi´on de este espacio es q
i
j
. Como
antes para la determinaci´on de la correspondiente base solo necesitamos deter-
minar q
i
j
− q
i
j−1
vectores linealmente independientes adicionales , por la misma
raz´on anterior. Encontrados estos vectores, se tiene que en este paso conocemos
q
i
j
vectores linealmente independientes que son elementos de Ker(A−λ
i
)
p
i
, y que
por lo tanto son todos vectores propios generalizados.
El proceso termina cuando q
i
j
= m
i
. De esta forma se ha determinado la base de
M
λ
i
y al mismo tiempo el ´ındice p
i
, ya que p
i
= j.
227
¿C´omo se genera entonces la base correspondiente de soluciones de la ecuaci´on
diferencial?
Supongamos que c =

s
m=1
c
m
con c
m
∈ M
λ
m
es tal que c = h
l
1
∈ Ker(A −λ
i
I),
l = 1, , q
i
1
. Entonces c
m
= 0, m ,= i y c
i
= h
l
1
. Reemplazando en (5.25) se
obtienen las siguientes soluciones
x
l
1
(t) =
s

m=1
e

m
p
i
−1

j=0
t
j
(A −λ
m
I)
j
j!
c
m
= e

i
p
i
−1

j=0
t
j
(A −λ
i
I)
j
j!
h
l
1
= h
l
1
e

i
, l = 1, , q
i
1
.
Sean ahora c = h
l
2
∈ Ker(A − λ
i
)
2
, l = q
i
1
+ 1, , q
i
2
, los vectores propios
generalizados linealmente independientes adicionales que no son vectores propios.
Reemplazando en (5.25), se obtiene
x
l
2
(t) =
s

m=1
e
tλm
p
i
−1

j=0
t
j
(A −λ
m
I)
j
j!
c
m
= e

i
p
i
−1

j=0
t
j
(A −λ
i
I)
j
j!
h
l
2
= e

i
(I +
t(A −λ
i
I)
1!
)h
l
2
, l = q
i
1
+ 1, , q
i
2
.
Seguimos de esta forma hasta que llegamos al paso k donde q
i
k
= m
i
, con lo
que k = p
i
y nos falta por determinar m
i
− q
i
k−1
soluciones. Sean entonces
h
l
k
∈ Ker(A − λ
i
)
k
, l = q
i
k−1
+ 1, , q
i
k
, los vectores propios generalizados li-
nealmente independientes que no est´an en Ker(A − λ
i
)
k−1
. Reemplazando en
(5.25), se obtienen las soluciones faltantes siguientes
x
l
k
(t) =
s

i=1
e

i
p
i
−1

j=0
t
j
(A −λ
i
I)
j
j!
h
l
k
= e

i
(I +
t(A −λ
i
I)
1!
+
+
t
p
i
−1
(A −λ
i
I)
p
i
−1
(p
i
−1)!
)h
l
k
, l = q
i
k−1
+ 1, , q
i
k
.
Ejercicio. Demuestre que todas estas soluciones encontradas son linealmente in-
dependientes.
Hagamos algunos problemas.
228
Ejemplo 5.3. Queremos estudiar el caso en que la matriz A, 3 3 tiene valores
propios reales λ
1
= λ
2
y λ
3
, pero asociados a λ = λ
1
= λ
2
hay un solo vector
propio.
En este caso tenemos inmediatamente las dos soluciones linealmente indepen-
dientes dadas por x
1
(t) = K
1
e
λ
1
t
y x
3
(t) = K
3
e
λ
3
t
donde K
1
y K
3
son vectores
propios correspondientes a λ
1
y a λ
3
, respectivamente.
Para completar la base de soluciones, que sabemos tiene dimensi´on 3, razonamos
como antes. Tenemos que estudiar M
λ
1
= Ker(A − λ
1
I)
2
que sabemos que tiene
dimensi´on 2. Sabemos tambi´en que K
1
∈ Ker(A − λ
1
I) ⊂ Ker(A − λ
1
I)
2
. Asi
que nos falta un vector P ∈ Ker(A−λ
1
I)
2
que sea linealmente independiente con
K
1
, que por lo dem´as sabemos que existe.
Formemos entonces
(A −λ
1
I)
2
P = 0.
Pongamos
V = (A −λ
1
I)P,
entonces
(A −λ
1
I)V = (A −λ
1
I)
2
P = 0,
con lo que V es un vector propio y por lo tanto V = CK
1
. Asi P satisface
(A −λ
1
I)P = CK
1
.
Claramente podemos tomar C = 1 redefiniendo P. Se tiene
(A −λ
1
I)P = K
1
.
Esta ultima ecuaci´on la miramos entonces como una ecuaci´on para P. Conocido
este P la correspondiente soluci´on ser´a
x
2
(t) = e

1
(I +
t(A −λ
i
I)
1!
)P = e

1
P + e

1
t(A −λ
i
I)P = e

1
P + te

1
K
1
.
Se tiene entonces que la soluci´on general de la ecuaci´on es
x(t) = c
1
x
1
(t) + c
2
x
2
(t) + c
3
x
3
(t) = c
1
K
1
e
λ
1
t
+ c
2
(e

1
P + te

1
K
1
) + c
3
K
3
e
λ
3
t
,
donde c
1
, c
2
, c
3
son constantes arbitrarias.
En algunos libros y basado en lo que hicimos anteriormente, para encontrar la
segunda soluci´on para λ
1
se intenta una soluci´on de la forma:
x(t) = Kte
λ
1
t
+ Pe
λ
1
t
con
K =
_
_
K
1
K
2
K
3
_
_
P =
_
_
P
1
P
2
P
3
_
_
.
Sustituyendo en la ecuaci´on x

= Ax, se tendr´a una soluci´on de esta forma si K
y P satisfacen respectivamente
(A −λ
1
I)K = 0,
229
(A −λ
1
I)P = K.
As´ı K debe ser un vector propio (que tomamos como K
1
) y P es soluci´on de la
segunda ecuaci´on. Claramente esto conduce a lo mismo que hemos hecho antes.
Ejemplo 5.4. Consideremos el sistema
x

=
_
_
5 −4 0
1 0 2
0 2 5
_
_
x.
Se tiene que det(A − λI) = 0, nos da los valores propios λ
1
= 0 y λ
2
= λ
3
=
5. Evaluando los vectores propios correspondientes a λ
1
, obtenemos que K
1
=
[1,
5
4
,
−1
2
]
t
es un vector propio (normalizado). Mientras que para λ
2
= λ
3
existe un
solo vector propio K
2
= [2, 0, −1]
t
(normalizado).
Resolviendo ahora P de la ecuaci´on
(A −5I)P =
_
_
0 −4 0
1 −5 2
0 2 0
_
_
_
_
P
1
P
2
P
3
_
_
=
_
_
2
0
−1
_
_
.
se obtiene que P
2
=
−1
2
y P
1
= 5P
2
−2P
3
=
−5
2
−2P
3
. Tomamos P
3
= −1 se tiene
P
1
=
−1
2
, por lo que P = [
−1
2
,
−1
2
, −1]
t
.
De esta forma obtenemos la soluci´on
x
3
(t) =
_
_
2
0
−1
_
_
te
5t
+
_
_

1
2

1
2
−1
_
_
e
5t
.
Finalmente la soluci´on general es
x(t) = c
1
_
_
1
5
4
−1
2
_
_
+ c
2
_
_
2
0
−1
_
_
e
5t
+ c
3
[
_
_
2
0
−1
_
_
te
5t
+
_
_

1
2

1
2
−1
_
_
e
5t
],
donde c
1
, c
2
, c
3
y c
4
con constantes arbitrarias.
A continuaci´on suponemos que en la ecuaci´on x

= AX A es una matriz real
4 4. Como siempre estudiamos primero las raices de det(A − λI) = 0 y vamos
a considerar en cierto detalle los distintos casos posibles. En lo que sigue y hasta
nuevo aviso vamos a suponer que los valores propios son reales.
CASO 1. det(A−λI) = 0 tiene cuatro valores propios reales y distintos λ
1
, . . . , λ
4
.
Estos dan origen respectivamente a los 4 vectores propios K
1
, . . . , K
4
, con lo que
230
podemos generar las 4 soluciones linealmente independientes
x
i
= K
i
e
λ
i
t
i = 1, . . . , 4,
de donde la soluci´on general de la ecuaci´on es
x(t) =
4

i=1
c
i
K
i
e
λ
i
t
con c
1
, . . . , c
4
constantes arbitrarias.
CASO 2. det(A −λI) = 0 tiene como valores propios (reales) λ
1
= λ
2
, λ
3
,= λ
4
.
Denotando por K
3
Y K
4
los vectores propios correspondientes respectivamente a
λ
3
y λ
4
, tenemos dos casos a considerar.
-(2i) El espacio propio correspondiente a λ
1
= λ
2
, tiene dimensi´on 2, por lo que
hay 2 vectores K
1
, K
2
que generan este espacio propio. La soluci´on general es
entonces dada por
x(t) = c
1
K
1
e
λ
1
t
+ c
2
K
2
e
λ
2
t
+c
3
K
3
e
λ
3
t
+ c
4
K
4
e
λ
4
t
.
-(2ii) El espacio propio de λ
1
tiene dimensi´on uno. Tenemos entonces inmedia-
tamente las soluciones x
1
(t) = K
1
e
λ
1
t
, x
3
(t) = K
3
e
λ
3
t
y x
4
(t) = K
4
e
λ
4
t
. Por lo
que para completar la base de soluciones nos falta una soluci´on. Pero este caso es
exactamente como en el ejemplo anterior asi que sabemos que esta soluci´on tiene
la forma
x
2
(t) = K
1
te
λ
1
t
+ Pe
λ
1
t
,
donde P es una soluci´on de la ecuaci´on
(A −λ
1
I)P = K
1
Se obtiene as´ı la soluci´on
x
2
(t) = K
1
te
λ
1
t
+ Pe
λ
1
t
,
que completa la base de soluciones.
CASO 3. det(A − λI) = 0 tiene dos valores propios con multiplicidad dos, que
son λ
1
= λ
2
y λ
3
= λ
4
Aqu´ı de nuevo hay subcasos.
-(3i) Los espacios propios correspondientes a λ
1
y λ
3
tienen dimensi´on 2. En este
caso hay 4 vectores linealmente independientes con lo que la soluci´on general se
construye inmediatamente.
-(3ii) El espacio propio correspondiente a λ
1
es de dimensi´on 1 y el correspon-
diente a λ
3
tiene dimensi´on 2. En este caso conocemos 3 vectores propios : K
1
231
correspondiente a λ
1
, K
3
y K
4
correspondiente respectivamente a λ
3
= λ
4
. En-
tonces K
1
e
λ
1
t
, K
3
e
λ
3
t
y K
4
e
λ
3
t
son tres soluciones linealmente independientes del
problema. La otra soluci´on la generamos por medio de
x
2
(t) = K
1
te
λ
1
t
+ Pe
λ
1
t
donde P es soluci´on de
(A −λ
1
I)P = K
1
,
y hemos completado la base de soluciones.
-(3iii) Los espacios propios correspondiente a λ
1
= λ
2
y a λ
3
= λ
4
tienen di-
mensi´on 1. En este caso tenemos inmediatamente las soluciones x
1
(t) = K
1
e
λ
1
t
y x
3
(t) = K
3
e
λ
3
t
, donde K
1
y K
3
vectores propios correspondientes a λ
1
y λ
3
respectivamente, a los que agregamos, en la forma usual, las soluciones
x
2
(t) =K
1
te
λ
1
t
+ P
1
e
λ
1
t
con (A −λ
1
I)P
1
= K
1
x
4
(t) =K
3
te
λ
3
t
+ P
3
e
λ
3
t
con (A −λ
3
I)P
3
= K
3
,
las cuales completan la base.
CASO 4. det(A − λI) = 0 tiene los valores propios λ
1
con multiplicidad 3 y
λ
4
con multiplicidad 1. De esta manera podemos formar inmediatamente las dos
soluciones x
1
(t) = K
1
e
λ
1
t
y x
4
(t) = K
4
e
λ
4
t
, con K
1
y K
4
vectores propios corres-
pondientes a λ
1
y λ
4
respectivamente.
Para generar las otras dos soluciones consideramos distintos casos.
(4i) Supongamos que el espacio propio de λ
1
tiene dimensi´on 1, entonces tenemos
que mirar por M
λ
1
= Ker(A − λ
1
I)
p
1
donde p
1
es el indice de λ
1
. Es claro que
p
1
= 2 o 3.
Si p
1
= 2 entonces dimKer(A−λ
1
I)
2
= 3 y tal como antes los dos vectores propios
generalizados que faltan se encuentran de resolver
(A −λ
1
I)P = K
1
.
De aqui se obtienen P
1
, P
2
tal que ¦K
1
, P
1
, P
2
¦ forman una base de Ker(A −
λ
1
I)
2
. Las soluciones faltantes son entonces
x
2
(t) = K
1
te
λ
1
t
+ P
1
e
λ
1
t
, x
3
(t) = K
1
te
λ
1
t
+P
2
e
λ
1
t
.
Si ahora p
1
= 3 entonces dimKer(A−λ
1
I)
2
= 2 y podemos encontrar una soluci´on
tal como antes resolviendo
(A −λ
1
I)P = K
1
,
que nos va a dar un vector propio generalizado P linealmente independiente con
K
1
. Esto nos da una tercera soluci´on
232
x
2
(t) = K
1
te
λ
1
t
+ Pe
λ
1
t
.
Para obtener la otra soluci´on uno puede proceder de la siguiente forma. (Ej. Jus-
tifique rigurosamente estos pasos por la teoria desarrollada). Suponemos que la
soluci´on tiene la forma
x(t) = L
1
t
2
2
e
λ
1
t
+ L
2
te
λ
1
t
+ L
3
e
λ
1
t
,
y reemplazamos esta expresi´on en x

= Ax. Se obtiene que va a existir una soluci´on
de esta forma si los vectores L
1
, L
2
, y L
3
satisfacen las siguientes ecuaciones.
(A −λ
1
I)L
1
= 0,
(A −λ
1
I)L
2
= L
1
,
(A −λ
1
I)L
3
= L
2
.
Como es usual tomamos L
1
= K
1
, L
2
= P
1
, ya determinados en el paso previo, y
resolvemos la tercera ecuaci´on para L
3
Sea L
3
= Q, la soluci´on. De esta forma la
soluci´on faltante queda entonces
x
3
(t) = K
1
t
2
2
e
λ
1
t
+ P
1
te
λ
1
t
+Qe
λ
1
t
.
(4ii) Dimensi´on del Ker(A − λ
1
I) = 2. En este caso hay otro vector propio K
2
linealmente independiente con K
1
, y que da origen a la soluci´on x
2
(t) = K
2
e
λ
2
t
.
Notamos que en este caso se debe tener que dimKer(A −λ
1
I)
2
= 3. Como antes
miramos por una soluci´on de
(A −λ
1
I)
2
P = 0,
que sea linealmente independiente con K
1
, K
2
. Haciendo V = (A − λ
1
I)P, se
obtiene que existen constantes reales µ
1
, µ
2
tales que V = µ
1
K
1
+ µ
2
k
2
. Por
supuesto en esta etapa µ
1
, µ
2
no son conocidos, sin embargo se resuelve la ecuaci´on
(A −λ
1
I)P = µ
1
K
1
+ µ
2
K
2
.
y µ
1
, µ
2
se fijan tales que P, K
1
, K
2
sean vectores linealmente independientes.
La soluci´on que falta para completar la base viene dada entonces por
x
3
(t) = (µ
1
K
1
+ µ
2
K
2
)te
λ
1
t
+Pe
λ
1
t
.
(4iii) Dimensi´on del Ker(A − λ
1
I) = 3, entonces existen 3 vectores propios K
1
,
K
2
, K
3
. Este caso se deja al lector ya que es muy simple
233
CASO 5. det(A−λI) = 0 tiene un solo valor propio real de multiplicidad 4, por
lo que una soluci´on de la base de soluciones es dada por
x
1
(t) = K
1
e
λ
1
t
,
donde K
1
en vector propio (normalizado) correspondiente a λ
1
.
Este caso se deja de ejercicio.
Pasamos ahora a examinar algunos ejemplos donde el polinomio caracter´ıstico
tiene valores propios complejos.
Ejemplo. Consideremos la ecuaci´on x

= Ax donde A es una matriz real 2 2
que suponemos tiene dos valores propios complejos conjugados λ
1
= α + iβ y
λ
2
= α −iβ, con β ,= 0.
Para λ
1
evaluamos su correspondiente vector propio K a partir de
(A −λ
1
I)K = 0.
Como la matriz A es real se tiene que K, vector complejo conjugado de K, es
un vector propio correspondiente a λ
1
= λ
2
. Note que K y K, son dos vectores
linealmente independientes para los escalares complejos. Pongamos K = K
1
+iK
2
donde K
1
y K
2
son respectivamente la parte real e imaginaria de K, de aqu´ı K =
K
1
−iK
2
. Correspondiente a λ
1
y λ
2
tenemos respectivamente las soluciones
w
1
(t) = e
λ
1
t
K w
2
(t) = e
λ
2
t
K = w
1
(t),
que son dos soluciones complejas conjugadas. Entonces por Teorema 5.6 se tiene
que la base real de soluciones est´a formada por la parte real e imaginaria de w
1
(t),
que procedemos a evaluar. Se tiene
w
1
(t) = e
αt
(K
1
+ iK
2
)(cos βt + i sin βt),
= e
αt
[K
1
cos βt −K
2
sin βt)] + ie
αt
[K
1
sin βt +K
2
cos βt].
As´ı
x
1
(t) = e
αt
[K
1
cos βt −K
2
sin βt] (5.26)
y
x
2
(t) = e
αt
[K
1
sin βt + K
2
cos βt]. (5.27)
La soluci´on general de la ecuaci´on diferencial es entonces
x(t) = c
1
x
1
(t)+c
2
x
2
(t) = c
1
e
αt
[K
1
cos βt−K
2
sin βt] +c
2
e
αt
[K
1
sin βt+K
2
cos βt],
donde c
1
y c
2
son constantes reales arbitrarias.
234
Vamos a considerar ahora el problema de la ecuaci´on x

= Ax donde A es una
matriz real 4 4 que tiene cuatro valores propios complejos (con parte imagina-
ria no nula) λ
1
, λ
2
, λ
3
, y λ
4
, donde notamos que necesariamente debemos tener
(excepto por notaci´on de los valores propios) que λ
1
= λ
2
y λ
3
= λ
4
.
Los casos a considerar se reducen a solo dos: (i) cuando λ
1
,= λ
3
, y (ii) cuando
λ
1
= λ
3
.
En el caso (i) tendremos 4 valores propios complejos que escribimos como λ
1
=
α
1
+ iβ
1
, λ
2
= α
1
−iβ
1
, λ
3
= α
3
+ iβ
3
y λ
4
= α
3
−iβ
3
.
Asociado con λ
1
tenemos el vector propio H
1
, con λ
2
el vector propio H
2
= H
1
,
con λ
3
el vector propio H
3
, y con λ
4
el vector propio H
4
= H
3
.
Las correspondientes soluciones (complejas) son w
1
(t) = H
1
e
λ
1
t
, w
2
(t) = H
2
e
λ
2
t
=
H
1
e
λ
1
t
= w
1
(t), w
3
(t) = H
3
e
λ
3
t
, y w
4
(t) = H
3
e
λ
3
t
= w
3
(t).
Escribamos H
1
= K
1
+ iK
2
y H
3
= K
3
+ iK
4
, donde K
1
y K
2
son la parte
real e imaginaria respectivamente de H
1
y K
3
, K
4
son la parte real e imaginaria
respectivamente de H
3
.
Como antes para calcular la base de soluciones tenemos que calcular la parte real
e imaginaria de w
1
(t) y w
3
(t). Estas quedan dadas respectivamente por
x
1
(t) =
w
1
(t) + w
1
(t)
2
, x
2
(t) =
w
1
(t) −w
1
(t)
2i
,
y
x
3
(t) =
w
3
(t) + w
3
(t)
2
, x
4
(t) =
w
3
(t) −w
3
(t)
2i
.
Se tiene que la soluci´on general es
x(t) = c
1
x
1
(t) + c
2
x
2
(t) + c
3
x
3
(t) + c
4
x
4
(t),
donde c
1
, c
2
c
3
y c
4
son constantes reales arbitrarias.
Consideremos finalmente el caso (ii). Suponemos entonces que λ
1
= λ
3
por lo que
λ
2
= λ
4
. De esta forma λ
1
y λ
2
son valores propios complejos conjugados con
multiplicidad dos.
Hay que considerar dos casos: (a) dimKer(A−λ
1
I) = 1 y por lo tanto dimKer(A−
λ
2
I) = 1 y (b) dimKer(A −λ
1
I) = 2 y por lo tanto dimKer(A −λ
2
I) = 2.
235
En el caso (b) hay dos vectores propios asociados con λ
1
= α+iβ, que escribimos
como H
1
= K
1
+iK
2
y H
2
= K
3
+iK
4
. De aqu´ı que asociados con λ
2
= α −iβ,
tengamos los vectores propios H
1
= K
1
−iK
2
y H
2
= K
3
−iK
4
.
Correspondiendo a λ
1
y λ
2
= λ
1
tenemos respectivamente las soluciones
w
1
(t) = H
1
e
λ
1
t
y w
2
(t) = H
1
e
λ
1
t
,
y
w
3
(t) = H
2
e
λ
1
t
y w
4
(t) = H
2
e
λ
1
t
.
Como antes, tomando parte real e imaginaria de w
1
(t) y w
3
(t), obtenemos la base
de soluciones formada por las siguientes cuatro soluciones reales
x
1
(t) = [(cos βt)K
1
−(sin βt)K
2
]e
αt
,
x
2
(t) = [(sin βt)K
1
+ (cos βt)K
2
]e
αt
,
x
3
(t) = [(cos βt)K
3
−(sin βt)K
4
]e
αt
,
x
4
(t) = [(sin βt)K
3
+ (cos βt)K
4
]e
αt
.
Ejercicio. Demuestre directamente que estas cuatro soluciones son linealmente
independientes.
Consideremos finalmente el caso (a) donde tenemos que λ
1
= α +iβ y λ
2
= λ
1
son valores propios de multiplicidad dos y correspondientes a cada uno de ellos
hay un solo vector propio asociado. Si como siempre H
1
= K
1
+ iK
2
y H
2
=
H
1
= K
1
− iK
2
denotan respectivamente estos vectores propios, entonces las
funciones w
1
(t) = H
1
e
λ
1
t
y w
2
(t) = H
2
e
λ
2
t
= H
1
e
λ
1
t
son soluciones complejas de
x

= Ax. Estas soluciones complejas dan origen, en la forma acostumbrada, a las
dos soluciones reales, parte de la base de soluciones:
x
1
(t) = (K
1
cos βt −K
2
sin βt)e
αt
y
x
2
(t) = (K
1
sin βt + K
2
cos βt)e
αt
.
Continuamos evaluando el resto de las soluciones complejas. Para esto tenemos
que encontrar un vector propio generalizado que sea linealmente independiente
con H
1
y que este en Ker(A − λ
1
I)
2
. Tal como en el caso de valores propios
reales, esto se puede hacer suponiendo la soluci´on faltante tiene la forma
w
2
(t) = H
1
te
λ
1
t
+ Pe
λ
1
t
.
236
Reemplazando en x

= Ax tendremos una soluci´on de esta forma si P es una
soluci´on de la ecuaci´on
(A −λ
1
I)P = H
1
,
que esta vez nos da un vector complejo. Poniendo P = P
1
+ iP
2
se tiene que las
soluciones compleja faltantes son
w
3
(t) = (K
1
+ iK
2
)te
λ
1
t
+ (P
1
+ iP
2
)e
λ
1
t
y
w
4
(t) = (K
1
−iK
2
)te
λ
1
t
+ (P
1
−iP
2
)e
λ
1
t
= w
3
(t).
Razonando como antes, es decir tomamos la parte real e imaginaria de w
3
(t), se
obtiene
w
3
(t) =(K
1
+iK
2
)(cos βt +i sin βt)te
αt
+ (P
1
+ iP
2
)(cos βt + i sin βt)e
αt
=(K
1
cos βt −K
2
sin βt)te
αt
+ (P
1
cos βt −P
2
sin βt)e
αt
+ i(K
1
sin βt + K
2
cos βt)te
αt
+ i(P
1
sin βt +P
2
cos βt)e
αt
de donde las soluciones reales faltantes son
x
3
(t) = (K
1
cos βt −K
2
sin βt)te
αt
+ (P
1
cos βt −P
2
sin βt)e
αt
y
x
4
(t) = (K
1
sin βt + K
2
cos βt)te
αt
+ (P
1
sin βt + P
2
cos βt)e
αt
.
Finalmente la soluci´on general es dada por
x(t) =
4

i=1
c
1
x
i
(t),
donde c
1
, . . . , c
4
son constantes reales arbitrarias.
A continuaci´ on queremos estudiar lo siguiente. Conocida una base de soluci´on
de
x

= Ax (5.28)
se quiere encontrar la matriz exponencial correspondiente.
Sea ¦x
1
, . . . , x
n
¦ esta base. Entonces toda soluci´on de (5.28) se escribe como
x(t) =
n

i=1
c
i
x
i
(t).
237
En particular si y
l
es la soluci´on de (5.28) correspondiente a la condici´on inicial
d
l
= [0 . . . 1 . . . 0]
t
, l = 1, . . . , n, donde el uno va en la posici´on l, van a existir
constantes c
l
i
, i = 1, . . . , n, tal que
y
l
(t) =
n

i=1
c
l
i
x
i
(t).
Para cada l = 1, . . . , n, usando la condici´on inicial, podemos formar un sistema
de ecuaci´on algebraicas para determinar las constantes c
l
i
, i = 1, . . . , n. Este es
y
l
(0) = d
l
=
n

i=1
c
l
i
x
i
(0). (5.29)
Si n es peque˜ no es mejor calcular las constantes directamente, sino se puede usar
por ejemplo Maple. De esta forma conocemos las soluciones y
l
, l = 1, . . . , n.
Vamos probar que la matriz
Y (t) = [y
1
(t) . . . y
n
(t)]
es la matriz exponencial. Se tiene
Y

(t) = [(y
1
)

(t) . . . (y
n
)

(t)] = [Ay
1
(t) . . . Ay
n
(t)]
= A[y
1
(t) . . . y
n
(t)] = AY (t).
As´ı Y satisface una ecuaci´on diferencial matricial, con la condici´on inicial Y (0) =
[d
1
. . . d
n
] = I, y por lo tanto es soluci´on del problema
X

= AX, X(0) = I. (5.30)
donde para cada t ∈ R, X(t) es una matriz n n. Por otro lado si podemos
demostrar que la matriz exponencial es soluci´on de este mismo problema, entonces
por el teorema de unicidad de soluciones generalizado a ecuaci´on diferenciales
matriciales, vamos a tener que e
tA
= Y (t).
Pero hemos demostrado que (e
tA
)

= Ae
tA
y e
0A
= I por lo que es claro que e
tA
es soluci´on de (5.30). Esto nos da un m´etodo para calcular la matriz exponencial.
Nos falta extender el teorema de existencia y unicidad a ecuaci´on diferenciales
matriciales.
238
Se tiene
Teorema 5.8. Sea I ⊂ R un intervalo y sean A : I → M
n×n
y F : I → M
n×n
dos funciones continuas. El problema diferencial matricial
(CI
m
)
_
X

= A(t)X + F(t)
X(t
0
) = C, t
0
∈ I,
tiene una ´ unica soluci´on definida en el intervalo I.
Demostraci´on 20. Es consecuencia directa del teorema similar para ecuaciones
diferenciales vectoriales. En efecto poniendo
X(t) = [x
1
(t) . . . x
n
(t)] F(t) = [f
1
(t) . . . f
n
(t)]
el problema (CI
m
) se puede escribir como
X

(t) = [(x
1
)

(t) (x
n
)

(t)] = A(t)[x
1
(t) x
n
(t)] + [f
1
(t) f
n
(t)]
= [A(t)x
1
(t) + f
1
(t) A(t)x
n
(t) + f
n
(t)],
X(t
0
) = [x
1
(t
0
) x
n
(t
0
)] = C = [c
1
(t) c
n
(t)],
donde c
l
, l = 1, . . . , n son las columnas de la matriz C. Es claro entonces que
el problema (CI
m
) es equivalente a las n ecuaciones diferenciales vectoriales con
condici´on inicial
(x
l
(t))

= A(t)x
l
(t) + f
l
(t), x
l
(t
0
) = c
l
, l = 1, . . . , n. (5.31)
Por el teorema usual de existencia y unicidad, para cada l = 1, . . . , n, el proble-
ma (5.31) tiene una ´ unica soluci´on definida en I lo que implica obviamente la
existencia y unicidad para el sistema (CI
m
).
Vamos a aprovechar de dar una definici´on. Consideremos nuevamente la ecuaci´on
diferencial vectorial.
x

= A(t)x
y formemos la ecuaci´on matricial asociada
X

= A(t)X. (5.32)
239
Entonces toda soluci´on de esta ultima ecuaci´on cuyas columnas sean soluciones
linealmente independientes la vamos a llamar una matriz fundamental. Para esto
basta que X(t) sea una soluci´on con una condici´on inicial X(t
0
) = C donde C es
una matriz de constantes reales nn con sus columnas linealmente independientes.
La raz´on es la siguiente. Sean como antes d
l
= [0, . . . , 1, . . . , 0]
t
, l = 1, . . . , n,
donde el uno va en la posici´on l, los elementos de la base can´onica y formemos
x
l
(t)) = X(t)d
l
, que forman las columnas de X(t). Se tiene que
(x
l
)

(t) = X

(t)d
l
= A(t)X(t)d
l
= A(t)x
l
(t), x
l
(0) = X(0)d
l
= c
l
,
donde c
l
, l = 1, . . . , n son las columnas de C que las hemos supuesto linealmente
independientes Entonces x
l
, l = 1, . . . , n, forman un conjunto de soluciones de
x

= A(t)x que son linealmente independientes. De aqu´ı encontrar una matriz
fundamental es equivalente a encontrar n soluciones linealmente independientes
de x

= A(t)x. Si X(t) es una matriz fundamental de x

= Ax entonces la soluci´on
general se escribe
x(t) = X(t)c,
donde c es un vector columna arbitrario, c = [c
1
c
n
]
t
.
Sigamos un poco con matrices fundamentales. Sea X(t) una matriz fundamental
de la ecuaci´on (5.32) tal que X(τ) = I. Entonces Y (t) = X(t)Y (τ) es una soluci´on
de (5.32) que es una matriz fundamental si Y (τ) es una matriz no singular. De-
rivando Y

(t) = X

(t)Y (τ) = AX(t)Y (τ) = AY (t), por lo que es soluci´on. Ahora
X(τ)Y (τ) = IY (τ) = Y (τ), por lo que si esta matriz es no singular entonces Y (t)
es una matriz fundamental.
Ejercicios adicionales.
Ejemplo 5.5. Sea X(t) una matriz fundamental de (5.32) y sea W(t) = det X(t) =
det[x
1
(t) x
n
(t)]. Demuestre que
det X(t) = e

t
τ
trA(s)ds
det X(τ)
para todo t, τ ∈ R.
Soluci´on. Sea τ ∈ I arbitrario, que mantenemos fijo al comienzo. Sea Y (t) =
X(t)X
−1
(τ). Entonces
Y

(t) = X

(t)X
−1
(τ) = A(t)X(t)X
−1
(τ) = A(t)Y (t) con Y (τ) = I.
Se tiene
240
W(t) = W(τ) det(Y (t)).
Derivando
W

(t) = W(τ)

i=1
det[y
1
(t) (y
i
)

(t) y
n
(t)].
Como y
i
(τ) = d
i
, (d
1
, , d
n
), representa la base can´onica, entonces (y
i
)

(τ) =
A(τ)d
i
. As´ı
W

(τ) = W(τ)
n

i=1
det[y
1
(τ) (y
i
)

(τ) y
n
(τ)]
= W(τ)
n

i=1
det[d
1
A(τ)d
i
d
n
] =
n

i=1
a
ii
(τ) = W(τ)tr(A(τ)),
que tomando en cuenta que τ es arbitrario, se puede escribir como
W

(t) = W(t)tr(A(t)).
Integrando entre t y τ se obtiene
W(t) = e

t
τ
trA(s)ds
W(τ).
que es lo quer´ıamos demostrar.
En particular, si A es una matriz constante, podemos tomar e
tA
como la matriz
fundamental, se tiene
det e
tA
= e
t trA
para todo t ∈ R.
Ejemplo 5.6. Considere la ecuaci´on no homog´enea x

= Ax + be
µt
, donde A es
una matriz real nn, b es un vector constante y µ es una constante que no es un
valor propio de A. Se pide determinar la soluci´on general.
Se tiene que la soluci´on general se puede escribir como x(t) = e
tA
c + x
p
(t),
donde x
p
(t) denota una soluci´on particular de la ecuaci´on. Para determinar esta
soluci´on intentamos una soluci´on de la forma x
p
(t) = ve
µt
, donde v es un vector
que queremos determinar. Se tiene
x

p
(t) = µve
µt
= Ave
µt
+ be
µt
,
241
de donde
(A −µI)v = −b que implica v = −(A −µI)
−1
b,
y la soluci´on general es entonces x(t) = e
tA
c −e
µt
(A −µI)
−1
b,
donde lo ´ ultimo se tiene pues µ no es valor propio de A, y la soluci´on general es
entonces x(t) = e
tA
c −e
µt
(A −µI)
−1
b.
Ejemplo 5.7. Supongamos que la matriz A, n n, tiene la forma
A =
_
¸
¸
_
J
1
0 0
0 J
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 J
k
_
¸
¸
_
,
donde los J
i
i = 1, , k son bloques. Se pide demostrar que
e
tA
=
_
¸
¸
_
e
tJ
1
0 0
0 e
tJ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
tJ
k
_
¸
¸
_
.
Vamos a dar una demostraci´on distinta a la com´ un , pero interesante. Sea
H(t) =
_
¸
¸
_
e
tJ
1
0 0
0 e
tJ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
tJ
k
_
¸
¸
_
,
y queremos probar que H(t) = e
tA
. Para esto derivamos H(t), nos da
H

(t) =
_
¸
¸
_
J
1
e
tJ
1
0 0
0 J
2
e
tJ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 J
k
e
tJ
k
_
¸
¸
_
=
_
¸
¸
_
J
1
0 0
0 J
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 J
k
_
¸
¸
_
_
¸
¸
_
e
tJ
1
0 0
0 e
tJ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 e
tJ
k
_
¸
¸
_
= AH(t).
242
Adem´as H(0) =
_
¸
¸
_
I
1
0 0
0 I
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 I
k
_
¸
¸
_
= I. As´ı por el teorema de unicidad para
ecuaciones matriciales debemos tener que efectivamente H(t) = e
tA
.
5.4. Sistemas Lineales Planos. Pasemos a estudiar sistemas lineales planos,
los cuales corresponden a n = 2, y tienen la forma:
x

= Ax, (5.33)
con A una matriz real dada por A =
_
a
11
a
12
a
21
a
22
_
. Vamos a suponer que det A ,= 0,
lo que nos dice que la ´ unica soluci´on de la ecuaci´on Ax = 0, es x = 0. Esto implica
que la soluci´on trivial es la ´ unica soluci´on constante de la ecuaci´on y que λ = 0
no es un valor propio de A.
Por otro lado esto tambi´en implica la consecuencia importante que ninguna otra
soluci´on de la ecuaci´on puede pasar por el origen en M
2
, porque si por ejemplo
x(t) es una soluci´on que satisface x(t
0
) = 0 y x(t
1
) ,= 0, alg´ un t
0
, t
1
∈ R entonces
la parte de unicidad del Teorema de Existencia y Unicidad nos dice que x(t) debe
ser la soluci´on trivial y por lo tanto x(t
1
) = 0 lo que no puede ser.
M´as generalmente si escribimos x(t) = [x
1
(t), x
2
(t)]
t
y dibujamos la curva corres-
pondiente (t es el par´ametro de la curva), en el plano (x
1
, x
2
), llamado plano de fa-
se, afirmamos que dos soluciones distinta no se pueden intersectar transversalmen-
te en el plano de fase. La raz´on de esto es la misma que antes y se basa en una apli-
caci´on de la parte de unicidad del Teorema de Existencia y Unicidad. El argumento
es sin embargo un poco m´as sutil y se basa en la siguiente propiedad. Sea x(t) una
soluci´on que satisface x(t
0
) = c alg´ un t
0
∈ R y sea y(t) una soluci´on que satisface
y(t
1
) = c alg´ un t
1
∈ R. Definamos z(t) = y(t+(t
1
−t
0
)). Entonces es claro que z es
tambi´en soluci´on de (5.33). Adem´as z(t
0
) = y(t
0
+ (t
1
−t
0
)) = y(t
1
) = c = x(t
0
),
entonces el Teorema de Existencia y Unicidad nos dice que x(t) = z(t) = y(t+∆),
para todo t ∈ R, con ∆ = t
1
−t
0
. Es claro entonces que en el plano de fase, cuando
t va de −∞a +∞, tanto x(t) como y(t) nos van a dar los mismos puntos, porque
son dos parametrizaciones distintas (si ∆ ,= 0) de la misma curva. Las curvas
soluci´on en el plano de fase la vamos a llamar trayectorias.
Si ahora se tiene que x(t) e y(t) son dos soluciones de (5.33) cuyas trayectorias
se intersectan en el plano de fase, esto es existen t
0
, t
1
∈ R tal que x(t
0
) = y(t
1
)
243
entonces el argumento de arriba nos dice que en el plano de fase estas soluciones
representan dos parametrizaciones distintas de la misma curva, por lo que no
puede haber intersecci´on transversal de estas soluciones en el plano de fase.
Los puntos que satisfacen Ax = 0 los vamos a llamar puntos cr´ıticos. Recordando
que la ecuaci´on Ax = 0 (con det A ,= 0) tiene como ´ unica soluci´on el punto (0, 0),
se tiene que el origen es el ´ unico punto cr´ıtico en caso que estamos considerando.
Vamos a decir que el origen (punto cr´ıtico) es estable si todas las soluciones de la
ecuaci´on son acotadas; asint´oticamente estable si todas las soluciones tienden al
origen cuando t →∞; inestable si hay la menos una soluci´on que no es acotada.
Esta definici´on depende del intervalo donde estudiemos las soluciones , por ejemplo
una trayectoria positiva es definida para t ∈ [0, ∞), una negativa para t ∈ (−∞, 0],
etc.
Notemos tambi´en que las trayectorias se mueven en el plano de fase en lugares
geom´etricos que quedan definidas por la ecuaci´on
dx
2
dx
1
=
a
11
x
1
+ a
12
x
2
a
21
x
1
+ a
22
x
2
,
o
dx
1
dx
2
=
a
21
x
1
+ a
22
x
2
a
11
x
1
+ a
12
x
2
.
La pendiente de la recta tangente a la trayectoria en el punto (x
1
(t), x
2
(t)) esta
dada por
dx
2
dx
1
=
dx
2
dt
dx
1
dt
. En cada punto de la trayectoria vamos a asociar una direcc-
ci´on (flecha) por medio del vector (
dx
1
dt
,
dx
2
dt
), que nos va a indicar como se mueve
la soluci´on a lo largo de la trayectoria cuando t crece.
El polinomio caracter´ıstico de la matriz A es
p(λ) = det(A −λI) = λ
2
−trAλ + det A.
donde trA = a
11
+ a
22
. Los valores propios son dados por
λ
1
=
1
2
(trA +
_
(trA)
2
−4 det A) y λ
2
=
1
2
(trA −
_
(trA)
2
−4 det A).
244
Tendremos distintos casos dependiendo si (1) (trA)
2
− 4 det A > 0, (2) (trA)
2

4 det A < 0 y si (3) (trA)
2
− 4 det A = 0. En el caso (2) vamos a tener valores
propios complejos.
Caso (1). En este caso λ
1
y λ
2
son valores propios reales y distintos. Sean respecti-
vamente K
1
y K
2
los vectores propios correspondientes, que sabemos forman una
base en M
2
. La soluci´on general queda dada por
x(t) = c
1
K
1
e

1
+c
2
K
2
e

2
.
Formemos, como antes, la matriz / = [K
1
, K
2
]. Sabemos que poniendo x(t) =
/y(t), entonces se tiene
x

(t) = /y

(t) = Ax(t) = A/y(t),
de donde
y

(t) = Λy(t),
con
Λ = (/)
−1
A/ =
_
λ
1
0
0 λ
2
_
,
ya que
A/ = [AK
1
, AK
2
] = [λ
1
K
1
, λ
2
K
2
] = /
_
λ
1
0
0 λ
2
_
.
As´ı si y(t) = [y
1
(t), y
2
(t)]
t
se obtiene el sistema en forma can´onica
y

1
(t) = λ
1
y
1
(t)
y

2
(t) = λ
2
y
2
(t).
La soluci´on de este sistema es
y
1
(t) = c
1
e

1
, y
2
(t) = c
2
e

2
,
donde c
1
= y
1
(0), c
2
= y
2
(0), son constantes arbitrarias.
245
Queremos ahora dibujar las curvas soluciones en el plano de fase (y
1
, y
2
). Hay tres
casos: (i) los valores propios son negativos, (ii) los valores propios son positivos,
(iii) un valor propio es positivo y el otro es negativo. En el caso (i) el punto critico
se llama nodo estable; en el caso (ii) el punto critico se llama nodo inestable y en
el caso (ii) el punto critico se llama punto silla.
Para y
1
(0) ,= 0 y y
2
(0) ,= 0 las trayectorias describen el lugar geom´etrico
[
y
1
y
1
(0)
[
λ
2
= [
y
2
y
2
(0)
[
λ
1
. (5.34)
Si y
1
(0) = 0, las trayectorias se mueven en el eje y
2
mientras que si y
2
(0) = 0, las
trayectorias se mueven en el eje y
1
.
En los casos (i) y (ii), para y
1
(0) ,= 0 y y
2
(0) ,= 0 podemos despejar como y
2
como
[y
2
[ = [y
2
(0)[[
y
1
y
1
(0)
[
λ
2
λ
1
, (5.35)
as´ı que las trayectorias est´an sobre lugares geom´etricos en forma de par´abolas que
tienden al origen en caso (i) o se alejan del origen en caso (ii) cuando t tiende a
infinito.
En el caso (iii), para para y
1
(0) ,= 0 y y
2
(0) ,= 0 podemos despejar como y
2
como
[y
2
[ = [y
2
(0)[[
y
1
(0)
y
1
[
|
λ
2
λ
1
|
, (5.36)
las trayectorias est´an sobre lugares geom´etricos en forma de hip´erbolas. El punto
critico (0, 0) es inestable.
Caso (2). En este caso los valores propios son complejos conjugados, λ
1
= α +iβ,
λ
2
= α−iβ. Si H
1
= K
1
+iK
2
es el vector propio correspondiente a λ
1
= α+iβ,
entonces sabemos que una base soluciones esta dada por
x
1
(t) = (K
1
cos βt −K
2
sin βt)e
αt
y
x
2
(t) = (K
1
sin βt + K
2
cos βt)e
αt
,
con lo que la soluci´on general queda
x(t) = [x
1
(t), x
2
(t)]
t
= c
1
x
1
(t) + c
2
x
2
(t),
246
donde c
1
, c
2
son constantes arbitrarias.
Recordemos a continuaci´on que para encontrar la forma can´onica de A se procede
como sigue. De
A(K
1
+iK
2
) = (α + iβ)(K
1
+iK
2
),
se tiene que
AK
1
+ iAK
2
= (αK
1
−βK
2
) + i(βK
1
+ αK
2
),
y por lo tanto
AK
1
= αK
1
−βK
2
AK
2
= βK
1
+ αK
2
.
De aqu´ı la matriz Λ que representa a A seg´ un la base ¦K
1
, K
2
¦ , es
Λ =
_
α β
−β α
_
.
Notemos que
[AK
1
, AK
2
] = [αK
1
−βK
2
, βK
1
+ αK
2
],
que poniendo / = [K
1
, K
2
] se puede escribir como
A/ = /
_
α β
−β α
_
= /Λ,
y despejando
Λ = /
−1
A/.
Hagamos el cambio de variable x = /y con lo que
x

= /y

= A/y.
Se tiene
y

= /
−1
A/y = Λy,
247
equivalente si y = [y
1
, y
2
]
t
,
_
y

1
y

2
_
=
_
α β
−β α
_ _
y
1
y
2
_
,
que es la forma can´onica del sistema inicial, cuando A tiene valores propios com-
plejos. Sabemos que la soluci´on de este sistema es dada por
_
y
1
(t)
y
2
(t)
_
= e
t


α β
−β α


_
y
1
(0)
y
2
(0)
_
= e

_
cos βt sin βt
−sin βt cos βt
_ _
y
1
(0)
y
2
(0)
_
.
Equivalentemente
y
1
(t) = e

(cos βt y
1
(0) + sin βt y
2
(0))
y
2
(t) = e

(−sin βt y
1
(0) + cos βt y
2
(0)).
De aqu´ı
_
y
1
(t)
2
+y
2
(t)
2
= e

_
(y
1
(0)
2
+ y
2
(0)
2
).
Entonces si α > 0 las trayectorias tienden en forma espiral a ∞ cuando t → ∞,
decimos en este caso que el origen es un foco inestable, mientras que si α < 0 las
trayectorias tienden en forma espiral a 0 cuando t → ∞, y en este caso decimos
que el origen es un foco estable. Si α = 0 las trayectorias se mueven en c´ırculos,
cuyo radio queda fijado por las condiciones iniciales. En este caso decimos que el
origen es estable.
Caso 3. Se deja de ejercicio el encontrar las formas can´onicas de los distintos casos
as´ı como hacer un esquema de sus respectivos planos de fase.
248
5.5. Problemas Resueltos.
Ejercicio 5.1. Resuelva el siguiente sistemas de ecuaciones:
x

= Ax,
A =
_
_
a b 0
c a d
0 −
bc
d
a
_
_
donde a, b, c y d ,= 0 son costantes
Soluci´on:
Obtener los valores propios de la matriz A.
[A −λI[ = P(λ)
se obtienen los valores propios a partir de las raices del polinomio caracteristico
P(λ) = 0
¸
¸
¸
¸
¸
¸
a −λ b 0
c a −λ d
0 −
bc
d
a −λ
¸
¸
¸
¸
¸
¸
= (a −λ)
_
(a −λ)
2
+bc
¸
−bc(a −λ) = (a −λ)
3
= 0
λ = a, valor propio de A, con multipicidad 3.
se obtendran los vectores propios de la matriz A.
_
_
0 b 0
c 0 d
0 −
bc
d
0
_
_
_
_
v
1
v
2
v
3
_
_
=
_
_
0
0
0
_
_
v
2
= 0 v
1
= −
d
c
v
3
⇒v = v
3
_
_

d
c
0
1
_
_
luego
249
x
1
=
_
_
−d
0
c
_
_
e
at
Intento:
x
2
= vte
at
+

ke
at
se debe obtener el vector k.
_
_
0 b 0
c 0 d
0 −
bc
d
0
_
_
_
_
k
1
k
2
k
3
_
_
=
_
_
−d
0
c
_
_
k = −
d
b
k
1
= −
d
c
k
3

k = k
3
_
_

d
c
0
1
_
_
+
_
_
0

d
b
0
_
_
; ⇒k
3
= 0
luego
x
2
=
_
_
−d
0
c
_
_
te
at
+
_
_
0

d
b
0
_
_
e
at
intento:
x
3
= v
t
2
2
e
at
+

kte
at
+ pe
at
_
_
0 b 0
c 0 d
0 −
bc
d
0
_
_
_
_
p
1
p
2
p
3
_
_
=
_
_
0

d
b
0
_
_
p
2
= 0 p
1
= −
d
c
p
3

d
bc
⇒ p = p
3
_
_

d
c
0
1
_
_
+
_
_

d
bc
0
0
_
_
; ⇒p
3
= 0
250
luego
x
3
=
_
_
−d
0
c
_
_
t
2
2
e
at
+
_
_
0

d
b
0
_
_
te
at
+
_
_

d
bc
0
0
_
_
e
at
finalmente la soluci´on del sistema es:
x = c
1
x
1
+c
2
x
2
+ c
3
x
3
Ejercicio 5.2. Resuelva el siguiente sistema de ecuaciones, encontrando la matriz
exponencial:
x

= Ax,
A =
_
_
a 0 b
0 a 0
b 0 a
_
_
.
Soluci´on:
En primer lugar se obtendran los valores y vectores propios de la matriz A
Valores propios:
λ
1
= a + b λ
2
= a −b λ
3
= a
Vectores propios correspondientes a cada valor propio:
v
1
=
_
_
1
0
1
_
_
v
2
=
_
_
1
0
−1
_
_
v
3
=
_
_
0
1
0
_
_
.
M´etodo 1: Valores y vectores propios generalizado
251
x
1
(t) =
_
_
1
0
1
_
_
e
(a+b)t
x
2
(t) =
_
_
1
0
−1
_
_
e
(a−b)t
x
3
(t) =
_
_
0
1
0
_
_
e
at
luego
x =
_
_
e
(a+b)t
0 e
(a−b)t
0 e
at
0
e
(a+b)t
0 −e
(a−b)t
_
_
_
_
c
1
c
2
c
3
_
_
= Φ(t)c
Φ(0) =
_
_
1 0 1
0 1 0
1 0 −1
_
_
Φ
−1
(0) =
_
_
1
2
0
1
2
0 1 0
1
2
0 −
1
2
_
_
e
At
= Φ(t)Φ
−1
(0) =
_
_
e
(a+b)t
0 e
(a−b)t
0 e
at
0
e
(a+b)t
0 −e
(a−b)t
_
_
_
_
1
2
0
1
2
0 1 0
1
2
0 −
1
2
_
_
finalmente
e
At
=
_
_
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0 e
at
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
_
_
.
M´etodo 2: Ocupando forma can´onica de Jordan
D =
_
_
a + b 0 0
0 a 0
0 0 a −b
_
_
P =
_
_
1 0 1
0 1 0
1 0 −1
_
_
P
−1
=
_
_
1
2
0
1
2
0 1 0
1
2
0 −
1
2
_
_
e
At
= Pe
Dt
P
−1
=
_
_
1 0 1
0 1 0
1 0 −1
_
_
_
_
e
(a+b)t
0 0
0 e
at
0
0 0 e
(a−b)t
_
_
_
_
1
2
0
1
2
0 1 0
1
2
0 −
1
2
_
_
finalmente
252
e
At
=
_
_
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0 e
at
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
_
_
.
M´etodo 3: Despejando variables
(1) x

= ax + bz
(2) y

= ay
(3) z

= bx +az
De (2) y(t) = C
2
e
at
.
De (3) x =
z

−az
b
⇒ x

=
z

−az

b
,
En (1) ⇒
z

−2az

+ (a
2
−b
2
)z = 0
El polinomio caracter´ıstico es m
2
− 2am + (a
2
− b
2
) = 0 ⇒ m
1
= a − b
m
2
= a + b ⇒
z(t) = c
1
e
(a+b)t
+ c
3
e
(a−b)t
x(t) = c
1
e
(a+b)t
−c
3
e
(a−b)t

X =
_
_
x(t)
y(t)
z(t)
_
_
=
_
_
e
(a+b)t
0 −e
(a−b)t
0 e
at
0
e
(a+b)t
0 e
(a−b)t
_
_
_
_
c
1
c
2
c
3
_
_
Φ(0) =
_
_
1 0 −1
0 1 0
1 0 1
_
_
⇒ Φ
−1
(0) =
_
_
1
2
0
1
2
0 1 0

1
2
0
1
2
_
_
finalmente
253
e
At
= Φ(t)Φ
−1
(0) =
_
_
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0 e
at
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
_
_
M´etodo 4: Serie
e
At
=

k=0
(At)
k
k!
como A = PDP
−1
⇒ A
k
= PD
k
P
−1
A
k
=
_
_
1 0 1
0 1 0
1 0 −1
_
_
_
_
(a + b)
k
0 0
0 a
k
0
0 0 (a −b)
k
_
_
_
_
1
2
0
1
2
0 1 0
1
2
0 −
1
2
_
_
A
k
=
_
_
1
2
_
(a + b)
k
+ (a −b)
k
¸
0
1
2
_
(a + b)
k
−(a −b)
k
¸
0 a
k
0
1
2
_
(a + b)
k
−(a −b)
k
¸
0
1
2
_
(a + b)
k
+ (a −b)
k
¸
_
_
_
e
At
_
11
=
_
e
At
_
33
=
1
2
_

k=0
(a + t)
k
t
k
k!
+

k=0
(a −b)
k
t
k
k!
_
=
1
2
e
(a+b)t
+
1
2
e
(a−b)t
_
e
At
_
13
=
_
e
At
_
31
=
1
2
_

k=0
(a + t)
k
t
k
k!

k=0
(a −b)
k
t
k
k!
_
=
1
2
e
(a+b)t

1
2
e
(a−b)t
_
e
At
_
22
=

k=0
(a + t)
k
t
k
k!
= e
at
finalmente
254
e
At
= Φ(t)Φ
−1
(0) =
_
_
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0 e
at
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
_
_
M´etodo 5: Laplace
e
At
= L
−1
_
(sI −A)
−1
_
_
_
s −a 0 −b
0 s −a 0
−b 0 s −a
_
_
_
¸
_
(s−a)
(s−a)
2
−b
2
0
b
(s−a)
2
−b
2
0
1
s−a
0
b
(s−a)
2
−b
2
0
(s−a)
(s−a)
2
−b
2
_
¸
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
aplicamos Laplace a (sI −A)
−1
.
L
−1
_
s −a
(s −a)
2
−b
2
_
= e
at
L
−1
_
s
s
2
−b
2
_
=
e
at
2
L
−1
_
1
s + b
+
1
s −b
_
L
−1
_
s −a
(s −a)
2
−b
2
_
=
1
2
_
e
(a+b)t
+ e
(a−b)t
_
L
−1
_
b
(s −a)
2
−b
2
_
= e
at
L
−1
_
b
s
2
−b
2
_
=
e
at
2
L
−1
_
1
s −b

1
s + b
_
L
−1
_
b
(s −a)
2
−b
2
_
=
1
2
_
e
(a+b)t
−e
(a−b)t
_
finalmente
e
At
=
_
_
1
2
_
e
(a+b)t
+e
(a−b)t
¸
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0 e
at
0
1
2
_
e
(a+b)t
−e
(a−b)t
¸
0
1
2
_
e
(a+b)t
+ e
(a−b)t
¸
_
_
255
Ejercicio 5.3. Considere la ecuaci´on diferencial x

= Ax donde
A =
_
a
11
a
12
a
21
a
22
_
es una matriz real que satisface det(A) ,= 0. Vamos a suponer que el polinomio
caracteristico de A tiene un solo valor propio λ
1
real con multiplicidad dos y que
dimker(A − λ
1
I) = 1, y que K es el vector propio. Sabemos que para formar la
soluci´on general hay que encontrar un vector propio generalizado P linealmente
independiente de K.
(a) Demuestre que P se puede encontrar como soluci´on de la ecuaci´on
(A −λ
1
I) = K
(b) Demuestre que el representante Λ de A segun la base ¦K, P¦ es
Λ =
_
λ
1
1
0 λ
1
_
(c) Defina κ=[K,P]. Evalue primero κ
−1
K y κ
−1
P. Demuestre entonces que
Λ = κ
−1

(d) Defina x = κy con y = [y
1
, y
2
]
T
. Encuentre el sistema de ecuaciones dife-
renciales que satisface y (sistema can´onico ) y resuelva este sistema. Suponiendo
que λ
1
< 0, ¿Que puede decir de la estabilidad del origen?
Soluci´on:
(a) P ∈ ker(A−λ
1
I)
2
⇒ (A−λ
1
I)
2
P = 0, ⇒ (A−λ
1
I)(A−λ
1
I)P = 0.
Sea ∆ = (A −λ
1
I)P ⇒ (A −λ
1
)∆ = 0, ∆ es vector propio de A.
⇒ ∆ = K ⇒ (A −λ
1
I)P = K
(b) Base ¦K, P¦
256
⇒ AK = λ
1
K
⇒ AP = λ
1
P + K
Entonces
Λ =
_
λ
1
1
0 λ
1
_
(c) κ = [K, P]
⇒ κ
−1
κ = I

_
κ
−1
K[κ
−1
P
¸
=
_
1 0
0 1
_

κ
−1
K =
_
1
0
_
κ
−1
P =
_
0
1
_
Λ = κ
−1
Aκ = κ
−1
[AK AP] = κ
−1

1
K[λ
1
P + K]
Λ =
_
λ
1
κ
−1
k[λ
1
κ
−1
P +κ
−1
K
¸
= κ
−1

finalmente, como
Λ =
_
λ
1
1
0 λ
1
_
⇒Λ = κ
−1

parte (d):
x = κy ⇒ y

= Λy
_
y

1
y

2
_
=
_
λ
1
1
0 λ
1
_ _
y
1
y
2
_
257

y

1
= λ
1
y
1
+ y
2
y

2
= λ
1
y
2
⇒ y
2
= y
2
(0)e
λ
1
t
y

1
−λ
1
y
1
= y
2
(0)e
λ
1
t
_
e
−λ
1
t
y
1
_

= y
2
(0)

e
−λ
1
t
y
1
= y
1
(0) + ty
2
(0)
y
1
(t) = e
λ
1
t
y
1
(0) + te
λ
1
t
y
2
(0)
luego las soluciones son:
y
2
= y
2
(0)e
λ
1
t
y
1
(t) = e
λ
1
t
y
1
(0) + te
λ
1
t
y
2
(0)
si t →∞ ⇒ y
1
→0 e y
2
→0
⇒ el sistema es estable.
Ejercicio 5.4. Sea Φ(t), t ∈ R, una matriz real n n de clase (
1
(derivada
continua). Suponga que Φ(0) = I y que Φ(t + s) = Φ(t)Φ(s) para todo t, s ∈
R. Demuestre primero que existe una matriz A talque Φ(t) = e
At
. Demuestre a
continuaci´on que esta matriz A es ´ unica.
Soluci´on:
Existencia
Φ(t +s) = Φ(t)Φ(s) ⇒ Φ

(t + s) = Φ

(t)Φ(s)
luego en t = 0
258
Φ(0) = I
Φ

(s) = Φ

(0)Φ(s) ∀s

Φ(t) = Φ(0)e
Φ

(0)t
= e
Φ

(0)t
observaci´on:
Φ(0) = l´ım
h→0
Φ(h) −I
h
observaci´on: si Φ(t) = e
At
⇒ Φ

(t) = AΦ(t) ∀t
luego t = 0 Φ

(0) = AΦ(0) = A
Unicidad
Si tambien Φ(t) = e
Bt
⇒ Φ

(t) = Be
Bt
∀t
Adem´as Φ

(t) = Φ(0)e
Φ

(0)t
∀t
luego en t = 0 ⇒
Φ

(0) = B = A
Ejercicio 5.5. Responder las siguientes preguntas:
(a) x

= Ax A matriz de 3 3 cuyos valores propios satisfacen que:
λ
1
= λ
2
,= λ
3
se satisface adem´as que dim[ker(A − λ
1
I)] = 1, ¿Cual es la
soluci´on?
(b) x

= Ax A matriz de 3 3 cuyos valores propios satisfacen que:
λ
1
= λ
2
,= λ
3
se satisface adem´as que dim[ker(A − λ
1
I)] = 2, ¿Cual es la
soluci´on?
(c) x

= Ax A matriz de 3 3 cuyos valores propios satisfacen que:
λ
1
= λ
2
= λ
3
se satisface adem´as que dim[ker(A − λ
1
I)] = 2, ¿Cual es la
soluci´on?
259
Soluci´on:
(a) x

= Ax ; A ∈ R
3×3
λ
1
= λ
2
,= λ
3
dim[ker(A −λ
1
I)] = 2

X = c
1

K
1
e
λ
1
t
+ c
2

K
2
e
λ
1
t
+c
3

K
3
e
λ
3
t

K
1
y

K
2
vectores propios asociados a λ = λ
1
= λ
2

K
3
vectores propios asociados a
λ = λ
3
(b) x

= Ax ; A ∈ R
3×3
.
λ
1
= λ
2
= λ
3
dim[ker(A −λ
1
I)] = 1

X = c
1

K
1
e
λ
1
t
+ c
2
_

K
1
e
λ
1
t

P
1
e
λ
1
t
_
+ c
3

K
3
e
λ
3
t

K
1
vector asociado a λ = λ
1
= λ
2
_
A −λ
1
I

P
1
_
=

K
1

P
1
vector propio generalizado.

K
3
vector propio asociado a λ = λ
3
(c) x

= Ax ; A ∈ R
3×3
λ
1
= λ
2
= λ
3
dim[ker(A −λ
1
I)] = 2

X = c
1

K
1
e
λ
1
t
+ c
2

K
2
te
λ
1
t
c
3
_

Ke
λ
1
t
+

Pe
λ
1
t
_

K
1
y

K
2
vectores propios asociados a λ = λ
1
= λ
2
= λ
3

K = µ
1

K
1
+ µ
2

K
2
combinaci´ on lineal de los vectores propios.
260
(A −λ
1
I)

P =

K ⇒ ecuaci´on que determina µ
1
en funci´on de µ
2
y

P.
Ejercicio 5.6. Considere el problema con condici´ones iniciales
x

= Ax ; x(0) = x
0
donde A es una matriz de n n de numeros reales. Vimos en clases que la
soluci´on de este problema es x(t) = x
0
e
At
, donde e
At
es la matriz exponencial de
A. Recuerde que e
0A
= I, donde I es la matriz identidad de n n.
(i) Demuestre que la matriz exponencial satisface la siguiente la propiedad de
semigrupo:
e
(t+s)A
= e
At
e
sA
∀t, s ∈ R
Demuestre de aqui que
_
e
At
_
−1
= e
−At
(ii) Sean A, B dos matrices reales de n n. Demuestre que
Be
At
= e
At
B ∀t ∈ R
si y solo si AB = BA.
(iii) Demuestre que
e
(A+B)t
= e
At
e
Bt
∀t ∈ R
si y solo si AB = BA.
Soluci´on:
parte (i):
por demostrar que e
(t+s)A
= e
tA
e
sA
∀t, s ∈ R
Sean u(t) = e
(t+s)A
c ; v(t) = e
tA
e
sA
c

u

(t) = Ae
(t+s)A
c = Au(t) ⇒ u(0) = e
st
c
v

(t) = Ae
tA
e
sA
c = Av(t) ⇒ v(0) = e
sA
c
luego por teorema de existencia y unicidad ⇒ u(t) = v(t) ∀t
261

_
e
tA
e
sA
−e
(t+s)A
¸
c = 0 ∀t ∀c
luego
e
tA
e
sA
= e
(t+s)A
por demostrar que
_
e
tA
_
−1
= e
−tA
sea s = −t ⇒
e
(t−t)A
= e
tA
e
−tA

I = e
tA
e
−tA
= e
−tA
e
tA
luego multiplicando por el inverso de (e
tA
) que equivale a
_
e
tA
_
−1

_
e
tA
_
−1
= e
−tA
I

_
e
tA
_
−1
= e
−tA
parte (ii):
Por demostrar que
Be
At
= e
At
B ∀t ∈ R ⇔ AB = BA
(⇐)
sea BA = AB
Sean u(t) = e
tA
Bc ; v(t) = Be
tA
c

u

(t) = Ae
tA
Bc = Au(t) ⇒ u(0) = ABc
262
v

(t) = BAe
tA
c = ABe
tA
c = Av(t) ⇒ v(0) = ABc
luego por teorema de existencia y unicidad ⇒ u(t) = v(t) ∀t

_
e
tA
B −Be
tA
¸
c = 0 ∀t ∀c
luego
e
tA
B = Be
tA
(⇒)
sea e
tA
B = Be
tA

Ae
tA
Bc = BAe
tA
c
evaluando en t = 0

[AB −BA] c = 0 ∀c

AB = BA
parte (iii):
Por demostrar que
e
t(A+B)
= e
At
e
Bt
∀t ∈ R ⇔ AB = BA
(⇐)
sea BA = AB
Sean u(t) = e
t(A+B)
c ; v(t) = e
tA
e
tB
c

263
u

(t) = (A +B)e
t(A+B)
c = (A +B)u(t) ⇒ u(0) = c
v

(t) = Ae
tA
e
tB
c +e
tA
Be
tB
c

v

(t) = Ae
tA
e
tB
c +Be
tA
e
tB
c = (A + B)v(t) ⇒ v(0) = c
luego por teorema de existencia y unicidad ⇒ u(t) = v(t) ∀t

e
t(A+B)
= e
tA
e
tB
(⇒)
e
t(A+B)
= e
tA
e
tB

(A + B)e
t(A+B)
= Ae
tA
e
Bt
+e
At
Be
Bt

(A + B)e
t(A+B)
−Ae
tA
e
Bt
= e
At
Be
Bt
e
tA
Be
tB
= Be
tA
e
tB
multiplicando por e
−tB
e
tA
BI = Be
tA
I
e
tA
B = Be
tA
luego por parte (ii)
AB = BA
Ejercicio 5.7. Considere el sistema de ecuaciones
264
x

1
= 2x
1
−3x
2
; x

2
= −3x
1
+ 2x
2
(a) Encuentre la soluci´on de este sistema por medio de la matriz exponencial
de la matriz correspondiente.
(b) Reduzca el sistema a su forma can´onica (en las coordenadas (y
1
, y
2
)).
Encuentre los puntos cr´ıticos y clasifiquelos.
Soluci´on:
x

=
_
2 −3
−3 2
_
x
parte (a):
valores propios
¸
¸
¸
¸
2 −λ −3
−3 2 −λ
¸
¸
¸
¸
= (2 −λ)
2
−9 = 0
λ
1
= −1 ; λ
2
= 5
vector propio asociado a λ
1
_
3 −3
−3 3
_ _
v
1
v
2
_
=
_
0
0
_

v
2
=
_
1
1
_


X
(1)
=
_
1
1
_
e
−t
vector propio asociado a λ
2
_
−3 −3
−3 −3
_ _
v
1
v
2
_
=
_
0
0
_
265

v
1
=
_
−1
1
_


X
(1)
=
_
−1
1
_
e
5t

X =
_
e
5t
e
−t
e
5t
e
−t
_ _
c
1
c
2
_

X = Φ(t)Φ
−1
(0)x(0)

X =
_
−e
5t
e
−t
e
5t
e
−t
_ _

1
2
1
2
1
2
1
2
_ _
x
1
(0)
x
2
(0)
_

X = e
At
x(0)

X =
_
e
5t
+e
−t
2
e
−t
−e
5t
2
e
−t
−e
5t
2
e
5t
+e
−t
2
_ _
x
1
(0)
x
2
(0)
_
parte (b):
X = KY =
_
−1 1
1 1
_
Y

˙
Y = DY ⇒
_
˙ y
1
˙ y
2
_
=
_
5 0
0 −1
_ _
y
1
y
2
_
Puntos criticos:
˙
X = AX = 0 A es invertible ⇒ X = (0, 0)
T
es el ´ unico
punto critico.
˙ y
1
= 5y
1
⇒ y
1
= C
1
e
5t
˙ y
2
= −1y
1
⇒ y
1
= C
2
e
−t
266
El punto encontrado es un punto silla.
Ejercicio 5.8. (a) Sea A =
_
0 I
n
I
n
0
_
con I
n
la matriz identidad de n n.
Demuestre que se cumple:
cosh(t)I
2n
=
e
At
+ e
−At
2
sinh(t)A =
e
At
−e
−At
2
(b) Sea A =
_
0 I
n
−I
n
0
_
con I
n
la matriz identidad de n n.
Demuestre que se cumple:
cos(t)I
2n
=
e
At
+ e
−At
2
sin(t)A =
e
At
−e
−At
2
Soluci´on:
(a) Sea A
0
= I
2n
A
1
=
_
0 I
n
I
n
0
_
= A
A
2
=
_
I
n
0
0 I
n
_
= I
2n
A
3
=
_
0 I
n
I
n
0
_
= A
luego A
2n
= I
2n
; A
2n+1
= A n = ¦0, . . . , ∞¦
267
e
At
=

n=0
A
n
t
n
n!
=

n=0
A
2n
t
2n
(2n)!
+

n=0
A
2n+1
t
2n+1
(2n + 1)!
e
At
= I
2n

n=0
t
2n
(2n)!
+ A

n=0
t
2n+1
(2n + 1)!
se sabe que cosh(t) =


n=0
t
2n
(2n)!
, sinh(t) =


n=0
t
2n+1
(2n+1)!
, luego
e
At
= I
2n
cosh(t) + Asinh(t) (5.37)
e
−At
=

n=0
(−1)
n
A
n
t
n
n!
=

n=0
(−1)
2n
A
2n
t
2n
(2n)!
+

n=0
(−1)
2n+1
A
2n+1
t
2n+1
(2n + 1)!
e
−At
= I
2n

n=0
t
2n
(2n)!
−A

n=0
t
2n+1
(2n + 1)!
e
−At
= I
2n
cosh(t) −Asinh(t) (5.38)
luego sumando las igualdades (5.37) y (5.38) ⇒
cosh(t)I
2n
=
e
At
+ e
−At
2
restando las igualdades, (5.37) menos (5.38) ⇒
sinh(t)A =
e
At
−e
−At
2
parte (b):
Sea A
0
= I
2n
A
1
=
_
0 I
n
−I
n
0
_
= A ⇒ A
2
=
_
−I
n
0
0 −I
n
_
= −I
2n
268
A
3
=
_
0 −I
n
−I
n
0
_
= −A ⇒ A
4
=
_
I
n
0
0 I
n
_
= I
2n
A
5
=
_
0 I
n
−I
n
0
_
= A ⇒ A
6
=
_
−I
n
0
0 −I
n
_
= −I
2n
luego A
2n
= (−1)
n
I
2n
; A
2n+1
= (−1)
n
A n = ¦0, . . . , ∞¦
e
At
=

n=0
A
n
t
n
n!
=

n=0
A
2n
t
2n
(2n)!
+

n=0
A
2n+1
t
2n+1
(2n + 1)!
e
At
=

n=0
(−1)
n
I
2n
t
2n
(2n)!
+

n=0
(−1)
n
At
2n+1
(2n + 1)!
e
At
= I
2n

n=0
(−1)
n
t
2n
(2n)!
+ A

n=0
(−1)
n
t
2n+1
(2n + 1)!
se sabe que
cos(t) =


n=0
(−1)
n
t
2n
(2n)!
sin(t) =


n=0
(−1)
n
t
2n+1
(2n+1)!
luego
e
At
= I
2n
cos(t) + Asin(t) (5.39)
e
−At
=

n=0
(−1)
n
A
n
t
n
n!
=

n=0
(−1)
2n
A
2n
t
2n
(2n)!
+

n=0
(−1)
2n+1
A
2n+1
t
2n+1
(2n + 1)!
269
e
−At
=

n=0
A
2n
t
2n
(2n)!

n=0
A
2n+1
t
2n+1
(2n + 1)!
e
−At
=

n=0
I
2n
(−1)
n
t
2n
(2n)!

n=0
A(−1)
n
t
2n+1
(2n + 1)!
e
−At
= I
2n

n=0
(−1)
n
t
2n
(2n)!
−A

n=0
(−1)
n
t
2n+1
(2n + 1)!
e
At
= I
2n
cos(t) −Asin(t) (5.40)
luego sumando las igualdades (5.39) y (5.40) ⇒
cos(t)I
2n
=
e
At
+ e
−At
2
restando las igualdades, (5.39) menos (5.40) ⇒
sin(t)A =
e
At
−e
−At
2
Ejercicio 5.9. (a) Calcule la matriz exponencial e
tN
4
, donde la matriz N
4
est´a da-
da por:
N
4
=
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0
_
_
_
_
(b) Resuelva mediante la matriz exponencial e
tA
la ecuaci´on:
x

= Ax,
donde la matriz A es de n n y est´a dada por:
A =
_
_
_
_
_
a b . . . 0
0 a
.
.
.
0
.
.
.
.
.
.
b
0 . . . 0 a
_
_
_
_
_
con a y b n´ umeros reales no nulos.
270
Soluci´on:
Se debe mostrar que N
4
4
= 0. Entonces se aplica la definici´on de matriz exponen-
cial:
e
tN
4
=
3

k=0
t
k
k!
N
k
4
=
_
_
_
_
_
_
_
1 t
t
2
2!
t
3
3!
0 1 t
t
2
2!
0 0 1 t
0 0 0 1
_
_
_
_
_
_
_
.
Sea A = aI
n
+ bN
n
, con I
n
identidad de n n y N
n
tal que [N
n
]
i,i+1
= 1 con
i = 1, ..., n −1, y cero en el resto de la matriz.
Las matrices aI
n
y bN
n
conmutan, y entonces e
tA
= e
taIn
e
tbNn
.
e
taIn
= e
at
I
n
.
N
n
es triangular superior, y cumple que N
n
n
= 0
n
. Entonces utilizando la definici´on
por series:
e
tbN
n
=
n−1

k=0
(tb)
k
k!
N
k
n
=
_
_
_
_
_
_
_
_
_
_
_
_
1 bt
(bt)
2
2!
. . .
(bt)
n−1
(n −1)!
0 1 bt . . .
(bt)
n−2
(n −2)!
0 0 1 . . .
(bt)
n−3
(n −3)!
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Finalmente:
e
tA
= e
taI
n
e
tbN
n
=
_
_
_
_
_
_
_
_
_
_
_
_
e
at
bte
at
(bt)
2
e
at
2!
. . .
(bt)
n−1
e
at
(n −1)!
0 e
at
bte
at
. . .
(bt)
n−2
e
at
(n −2)!
0 0 e
at
. . .
(bt)
n−3
e
at
(n −3)!
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . . . . e
at
_
_
_
_
_
_
_
_
_
_
_
_
.
Ejercicio 5.10. Encuentre la base de soluciones y la matriz exponencial del si-
guiente sistema de ecuaciones diferenciales:
271
x

1
= 3x
1
−x
2
+ x
3
x

2
= 2x
1
+ x
3
x

3
= x
1
−x
2
+ 2x
3
Soluci´on:
La matriz A tiene el valor propio 1 con multiplicidad 1 asociado al vector propio
[0, 1, 1]
T
. Entonces x
(1)
=
_
_
0
e
t
e
t
_
_
.
La matriz A tiene el valor propio 2 con multiplicidad 2 asociado al vector propio
K = [1, 1, 0]
T
. Entonces x
(2)
= Ke
2t
=
_
_
e
2t
e
2t
0
_
_
.
Se calcula el vector propio generalizado P, usando (A − 2I)P = K, de donde
se obtiene P = [0, 0, 1]
T
. Entonces x
(3)
= Kte
2t
+ Pe
2t
=
_
_
te
2t
te
2t
e
2t
_
_
.
Con lo cual se tiene la base de soluciones. Para el calculo de la matriz exponen-
cial, se genera la fundamental:
Φ(t) = [x
(2)
x
(1)
x
(3)
] =
_
_
e
2t
0 te
2t
e
2t
e
t
te
2t
0 e
t
e
2t
_
_
.
e
tA
= Φ(t)Φ
−1
(0) =
_
_
e
2t
(t + 1) −te
2t
te
2t
e
2t
(t + 1) −e
t
e
t
−te
2t
te
2t
e
2t
−e
t
e
t
−e
2t
e
2t
_
_
.
Ejercicio 5.11. Sea A una matriz de nn con valores propios λ
1
, . . . λ
s
distintos,
con multiplicidad m
1
, . . . , m
s
respectivamente, donde

s
i=1
m
i
= n.
(a) Sea c ∈ R
n
cualquiera. Justifique que se tiene:
e
tA
c =
s

i=1
e

i
e
t(A−λ
i
I)
c
i
donde c = c
1
+. . . +c
s
es la descomposici´on de c seg´ un los espacios propios gene-
ralizados.
272
(b) A partir de (a) pruebe que:
[e
tA
c[ ≤
s

i=1
e
α
i
t
[P
i
(t)[
donde λ
i
= α
i
+jβ
i
i = 1, . . . , s, j =

−1. P
i
(t) es un polinomio con grado a lo
m´as m
i
.
(c) Demuestre que si α
i
< 0, ∀i = 1, . . . , s entonces toda soluci´on del sistema
x

= Ax es tal que:
[x(t)[ →0 si t →∞.
Soluci´on:
(a) Como en clases, A = A −λ
i
I + λ
i
I. A −λ
i
I conmuta con λ
i
I.
Se tiene entonces que
e
At
c =
s

i=1
e
At
c
i
=
s

i=1
e
(A−λ
i
I+λ
i
I)t
c
i
=
s

i=1
e
(A−λ
i
I)t
e
λ
i
It
c
i
Sabiendo que e
λ
i
It
= e
λ
i
t
I se concluye lo pedido.
(b) De la parte (a):
e
tA
c =
s

i=1
e

i
e
t(A−λ
i
I)
c
i
.
Ocupando desigualdad triangular:
[e
tA
c[ ≤
s

i=1
[e

i
[[e
t(A−λ
i
I)
c
i
[.
Como λ
i
= α
i
+ jβ
i
, entonces [e

i
[ = [e

i
[[e

i
[ = e

i
.
Adem´as (A −λ
i
I) se anula a lo m´as en el grado m
i
. Entonces
[e
t(A−λ
i
I)
c
i
[ = [
m
i

k=1
t
k
k!
(A −λ
i
I)
k
c
i
[ ≤
m
i

k=1
t
k
k!
[(A −λ
i
I)
k
c
i
[ = [P
i
(t)[.
Noten que (A − λ
i
I)
k
c
i
es un vector, y su norma un real, entonces el t´ermino
de la derecha es un polinomio P
i
(t).
Luego:
[e
tA
c[ ≤
s

i=1
e

i
[P
i
(t)[.
273
(c)
l´ım
t→∞
[x(t)[ = l´ım
t→∞
[e
tA
c[ ≤ l´ım
t→∞
s

i=1
e

i
[P
i
(t)[ =
s

i=1
l´ım
t→∞
e

i
[P
i
(t)[
Por hip´otesis α
i
< 0, entonces l´ım
t→∞
e

i
[P
i
(t)[ = 0 pues la exponencial decae m´as
r´apido a cero que cualquier polinomio. Entonces
l´ım
t→∞
[x(t)[ = 0
Ejercicio 5.12. Sea A una matriz real de 66 que tiene un valor propio complejo
λ = α + iβ, β ,= 0, con multiplicidad 3. Suponiendo que dim(Ker(A −λI)) = 1,
y haciendo un an´alisis como en clases, encontrar las distintas bases de soluciones
de la ecuaci´on
x

= Ax
correspondientes a las diferentes situaciones que puedan originarse.
Soluci´on:
Sea K
i
1
el vector propio complejo asociado a α+iβ. Entonces dos soluciones l.i.
son:
x
(1)
(t) = Re¦K
i
1
e
(α+iβ)t
¦, x
(2)
(t) = Im¦K
i
1
e
(α+iβ)t
¦
Faltan cuatro soluciones. Se calcula el vector propio generalizado P con la ecuaci´on
(A −(α + iβ)I)P = K
i
1
. Se presentan dos casos:
Caso 1: Si dim(Ker(A −λI)
2
) = 2, o sea dos vectores P asociados. Entonces,
sean P
i
1
y P
i
2
los vectores generalizados complejos.
Las soluciones que faltan para completar la base son:
x
(3)
(t) = Re¦K
i
1
te
(α+iβ)t
+ P
i
1
e
(α+iβ)t
¦, x
(4)
(t) = Im¦K
i
1
te
(α+iβ)t
+ P
i
1
e
(α+iβ)t
¦
x
(5)
(t) = Re¦K
i
1
te
(α+iβ)t
+ P
i
2
e
(α+iβ)t
¦, x
(6)
(t) = Im¦K
i
1
te
(α+iβ)t
+ P
i
2
e
(α+iβ)t
¦
Caso 2: Si dim(Ker(A −λI)
2
) = 1, o sea un vector generalizado complejo P
i
1
asociado. Entonces con este vector se generan dos soluciones mas:
x
(3)
(t) = Re¦K
i
1
te
(α+iβ)t
+ P
i
1
e
(α+iβ)t
¦, x
(4)
(t) = Im¦K
i
1
te
(α+iβ)t
+ P
i
1
e
(α+iβ)t
¦
Las otras dos soluciones que faltan se obtienen calculando el vector propio
generalizado Q
i
1
, resolviendo:
(A −(α + iβ)I)Q
i
1
= P
i
1
274
0 −5
5
5
0
10
−10
−10
x
y
−5
10
Figura 11. Diagrama de fase sistema linealizado, punto cr´ıtico (0,0)
y las soluciones que aporta son:
x
(5)
(t) = Re¦K
i
1
t
2
2
e
(α+iβ)t
+P
i
1
te
(α+iβ)t
+Q
i
1
e
(α+iβ)t
¦,
x
(6)
(t) = Im¦K
i
1
t
2
2
e
(α+iβ)t
+ P
i
1
te
(α+iβ)t
+Q
i
1
e
(α+iβ)t
¦
Ejercicio 5.13. Para el sistema plano
x

= A(a, b)x, A(a, b) =
_
14 −4a −b −a
−b 16 −4b −a
_
,
se pide determinar la naturaleza del punto cr´ıtico, y el diagrama de fases asociado
al sistema linealizado cuando (a, b) toma los valores (0, 0), (0, 8), (7, 0) y (4, 6).
Caso 1: (0,0).
El sistema linealizado es:
x

=
_
14 0
0 16
_
x.
Sus vectores propios son λ
1
= 14 > 0 y λ
2
= 16 > 0. Por lo tanto (0, 0) es un
NODO INESTABLE. El diagrama de fase se muestra en la Figura 11.
Caso 2: (0,8).
El sistema linealizado es:
x

=
_
6 0
−8 −16
_
x.
Sus vectores propios son λ
1
= 6 > 0 y λ
2
= −16 > 0. Por lo tanto (0, 8) es un
PUNTO SILLA. El sistema linealizado no est´a en forma can´onica. Los vectores
propios son: [−11, 4] y [0, 1]. El diagrama de fase se muestra en la Figura 12.
275
y
10 −5
x
5
−5
−10
0 −10
5
0
10
Figura 12. Diagrama de fase sistema linealizado, punto cr´ıtico (0,8)
Caso 3: (7,0).
El sistema linealizado es:
x

=
_
−14 −7
0 9
_
x.
Sus vectores propios son λ
1
= −14 > 0 y λ
2
= 9 > 0. Por lo tanto (0, 8) es un
PUNTO SILLA. El sistema linealizado no est´a en forma can´onica. Los vectores
propios son: [1, 0] y [7, −23]. El diagrama de fase se muestra en la Figura 13.
10
5
y
−10
0
0
−10
−5
5
10
−5
x
Figura 13. Diagrama de fase sistema linealizado, punto cr´ıtico (7,0)
Caso 4: (4,6).
El sistema linealizado es:
x

=
_
−8 −4
−6 −12
_
x.
Sus vectores propios son λ
1
= −10 + 2

7 < 0 y λ
2
= −10 − 2

7 < 0. Por
lo tanto (4, 6) es un NODO ESTABLE. El sistema linealizado no est´a en forma
can´onica. Los vectores propios son: [2, 1 −

7] y [2, 1 +

7]. El diagrama de fase
se muestra en la Figura 14.
276
10
x
−5
5
−10
−5 5
0
0 −10
10
y
Figura 14. Diagrama de fase sistema linealizado, punto cr´ıtico (4,6)
6. Resolucion de EDO por series de potencias
6.1. Breve repaso de series de potencias. Recordemos que una serie de
potencias en torno a ∈ R es una expresi´on de la forma:

n=0
c
n
(x −a)
n
(6.1)
donde los coeficientes c
n
son reales y x ∈ R.
Decimos que la serie converge en x ∈ R si la sucesi´on ¦S
j
(x)¦ es convergente,
donde
S
j
(x) =
j

n=0
c
n
(x −a)
n
,
si esta sucesi´on no converge decimos que la serie es divergente en x.
Decimos que la serie (6.1) converge absolutamente en x ∈ R si la serie

n=0
[c
n
[[(x −a)[
n
es convergente.
Ejercicio. Usando la desigualdad
[
k

n=j
c
n
(x −a)
n
[ ≤
k

n=j
[c
n
[[(x −a)[
n
demuestre que si la serie (6.1) converge absolutamente entonces es convergente.
Un n´ umero R tal que la serie (6.1) converge para todo x tal que [x − a[ < R y
diverge para todo x tal que [x − a[ > R se llama el radio de convergencia de la
277
serie. El intervalo (−R+a, a+R) se llama el intervalo de convergencia de la serie.
Recordemos que R puede ser 0, positivo o infinito. Si R > 0 se tiene que la serie
puede o no converger para x = a + R, x = a −R.
Se tiene el siguiente teorema.
Teorema 6.1. Si el radio de convergencia de la serie de potencias (6.1) es R en-
tonces la serie converge absolutamente para todo x tal que [x−a[ < R y divergente
para todo x tal que [x −a[ > R.
Usemos el criterio del cuociente para estudiar el radio de convergencia de la
serie (6.1). Supongamos que
l´ım
n→∞
¸
¸
¸
¸
c
n
c
n
+ 1
¸
¸
¸
¸
= R, (6.2)
existe. Para x ∈ R se tiene que
l´ım
n→∞
[
c
n+1
(x −a)
n+1
c
n
(x −a)
n
[ = l´ım
n→∞
[
c
n+1
c
n
[[x −a[ =
[x −a[
R
.
Entonces el criterio del cuociente nos dice que la serie (6.1) converge absolutamente
para todo x tal que
[x −a[
R
< 1 y es divergente para todo x tal que
[x −a[
R
> 1.
De aqu´ı que el radio de de convergencia de la serie es exactamente R. Esto es
cierto si el l´ımite (6.2) existe. Si no, hay que usar otros criterios (repasar).
Supongamos que la serie (6.1) es convergente con un radio de convergencia R > 0.
Entonces ella define una funci´on en su intervalo de convergencia
x ∈ (−R + a, R + a) →

n=0
c
n
(x −a)
n
= f(x)
(los extremos del intervalo de convergencia pueden estar incluidos). Las siguientes
propiedades son conocidas.
En (−R + a, R + a), f es cont´ınua, diferenciable e integrable y se tiene
f

(x) =

n=1
c
n
n(x −a)
n−1
,
278
_
f(x)dx = C +

n=0
c
n
(x −a)
n + 1
n+1
,
ambas series con el mismo radio de convergencia. Notemos sin embargo que al dife-
renciar se pueden perder los extremos del intervalo como puntos de convergencia,
similarmente al integrar se pueden ganar estos puntos.
Las series de potencias se pueden multiplicar por una constante sin cambiar su
intervalo de convergencia.
Dos series se pueden sumar en su intervalo com´ un de convergencia resultando una
serie convergente en ese intervalo. Esto es si
f(x) =

n=0
c
n
(x −a)
n
y g(x) =

n=0
d
n
(x −a)
n
son dos series con radios de convergencia R
f
y R
g
respectivamente entonces
f(x) + g(x) =

n=0
c
n
(x −a)
n
+

n=0
d
n
(x −a)
n
=

n=0
(c
n
+ d
n
)(x −a)
n
es una serie convergente en ese intervalo com´ un de convergencia.
Repase multiplicaci´ on y divisi´on de series de potencias.
Definici´on 6.1. Decimos que una funci´on f es anal´ıtica en un punto a de su
dominio s´ı puede ser representada por una serie de potencia de la forma

n=0
c
n
(x −a)
n
la cual tiene un radio de convergencia positivo.
Ejemplo. Partiendo de e
x
=

n=0
x
n
n!
, que sabemos converge para todo x ∈ R,
podemos escribir
279
e
x−a
=

n=0
(x −a)
n
n!
,
y por lo tanto
e
x
= e
a

n=0
(x −a)
n
n!
,
que converge para todo x ∈ R. Se tiene entonces que la funci´on e
x
es anal´ıtica
para cada a ∈ R.
Vamos a ver ahora una propiedad que usaremos frecuentemente m´as tarde. Con-
sideremos la serie (6.1) que suponemos convergente con un radio de convergencia
R > 0 y diferenciemos esta serie para obtener la serie
f

(x) =

n=1
c
n
n(x −a)
n−1
.
Como esta serie tiene el mismo intervalo de convergencia que la anterior, podemos
derivarla nuevamente dando como resultado
f

(x) =

n=2
c
n
n(n −1)(x −a)
n−2
,
que converge en el mismo intervalo de convergencia. Continuando de esta forma,
para k ∈ N se obtiene
f
(k)
(x) =

n=k
c
n
n(n −1) (n −k + 1)(x −a)
n−k
,
=

n=k
c
n
n!
(n −k)!
(x −a)
n−k
.
Esta serie converge absolutamente para [x −a[ < R. Poniendo x = a se obtiene
f
(k)
(a) = k!c
k
. (6.3)
280
Teorema 6.2 (Unicidad de series). Si las series

n=0
c
n
(x − a)
n
y

n=0
d
n
(x − a)
n
convergen a la misma funci´on f en un intervalo (−a + r, a + r), r > 0, entonces
se tiene que
c
n
= d
n
para todo n ∈ N.
Demostraci´on 21. De (6.3) se tiene
c
n
=
f
(n)
(a)
n!
= d
n
,
que termina la demostraci´on
Este teorema lo vamos a aplicar comunmente as´ı.
Corolario 2. Si

n=0
c
n
(x−a)
n
= 0, para todo x tal que [x−a[ < r, r > 0, entonces
c
n
= 0 para todo n ∈ N.
6.2. Aplicaciones a ecuaciones diferenciales. Consideremos la ecuaci´on di-
ferencial.
a
2
(x)y

+ a
1
(x)y

+ a
0
(x)y = 0 (6.4)
donde suponemos que a
i
: I → R, i = 0, 1, 2 son funciones continuas en un
intervalo I donde se satisface que a
2
(x) ,= 0. Dividiendo la ecuaci´on por a
2
se
obtiene
y

+ P(x)y

+Q(x)y = 0. (6.5)
con
P(x) =
a
1
(x)
a
2
(x)
Q(x) =
a
0
(x)
a
2
(x)
.
Definici´on.- Un punto x
0
∈ I se dice un punto ordinario de (6.5) si P y Q son
anal´ıticas en x
0
. Si esto no sucede entonces decimos que x
0
es un punto singular.
Como P y Q son continuas en I de la teor´ıa que hemos visto se tiene que en ese
intervalo existen dos soluciones linealmente independientes de la ecuaci´on diferen-
cial. Sin embargo ninguno de los m´etodos que hemos visto nos ayuda a encontrar
281
estas soluciones. Vamos a desarrollar aqu´ı un m´etodo usando series. Consideremos
primero unos ejemplos.
Ejemplo. Considere la ecuaci´on
y

+ e
x
y

+ sin(x)y = 0.
Sabemos que e
x
y sin(x) x son anal´ıticas para todo x
0
∈ R, por lo que todo punto
x
0
∈ R es un punto ordinario de esta ecuaci´on.
Ejemplo. Consideremos la ecuaci´on
(x
2
−1)y

+ 2x y

+ 6y = 0
que escribimos en la forma (6.5) con
P(x) =
2x
x
2
−1
Q(x) =
6
x
2
−1
Se tiene que P y Q son anal´ıticas para todo x ,= ±1, los puntos x = 1 y x = −1
son puntos singulares de la ecuaci´on.
Para explicar el m´etodo que vamos a usar consideremos un caso simple.
Ejemplo. Considere la ecuaci´on
y

−2xy = 0.
Entonces P(x) = 0 y Q(x) = −2x. Es claro entonces que estas funciones son
anal´ıticas en 0. Para encontrar la base de soluciones vamos a suponer que la
soluci´on y tiene la forma
y(x) =

n=0
c
n
x
n
,
con un radio de convergencia positivo. Derivando
y

(x) =

n=1
nc
n
x
n−1
,
282
y

(x) =

n=2
n(n −1)c
n
x
n−2
Reemplazando en la ecuaci´on diferencial, se obtiene
y

(x) −2xy =

n=2
n(n −1)c
n
x
n−2
−2

n=0
c
n
x
n+1
= 0,
que queremos escribir en la forma

n=0
d
n
x
n
= 0,
en un cierto intervalo centrado en 0. Para esto hacemos lo siguiente, en la serie

n=2
n(n − 1)c
n
x
n−2
hacemos el cambio de variable n = j + 2, equivalentemente
j = n −2. Nos queda

n=2
n(n −1)c
n
x
n−2
=

j=0
(j + 1)(j + 2)c
j+2
x
j
.
Haciendo tambi´en el cambio de variables n = j − 1 o j = n + 1 en la otra serie,
nos queda

n=0
c
n
x
n+1
=

j=1
c
j−1
x
j
Entonces la ecuaci´on diferencial nos queda como

j=0
(j + 1)(j + 2)c
j+2
x
j
−2

j=1
c
j−1
x
j
= 0
que se puede escribir como
1 2 c
2
+

j=1
[(j + 1)(j + 2)c
j+2
−2c
j−1
] x
j
= 0.
De aqu´ı c
2
= 0 y por el corolario del teorema de unicidad de series
(j + 1)(j + 2)c
j+2
−2c
j−1
= 0,
de donde
283
c
j+2
=
2
(j + 1)(j + 2)
c
j−1
. (6.6)
Dando valores a j resulta
j = 1, c
3
=
2
2 3
c
0
.
j = 2, c
4
=
2
3 4
c
1
.
j = 3, c
5
=
2
4 5
c
2
= 0.
j = 4, c
6
=
2
5 6
c
3
=
2
5 6

2
2 3
c
0
=
2
2
2 3 5 6
c
0
j = 5, c
7
=
2
6 7
c
4
=
2
2
3 4 6 7
c
1
.
Escribiendo los primeros t´erminos de la serie se tiene
y(x) = c
0
+ c
1
x + c
2
x
2
+ c
3
x
3
+ c
4
x
4
+ c
5
x
5
+ c
6
x
6
+ c
7
x
7
+
que se puede escribir agrupar como
y(x) = c
0
(1 +
2
2 3
x
3
+
2
2
2 3 5 6
x
6
+ )
+c
1
(x +
2
3 4
x
4
+
2
2
3 4 6 7
x
7
+ ).
Ejercicio.- Demuestre por inducci´on que se tiene:
y(x) = c
0
_
1 +

k=1
2
k
_
1 4 7....(3k −2)
(3k)!
_
x
3k
_
+c
1
_
x +

k=1
2
k
_
2 5 8... (3k −1)
(3k + 1)!
_
x
3k+1
_
Llamemos
284
y
1
(x) =
_
1 +

k=1
2
k
_
1 4 7....(3k −2)
(3k)!
_
x
3k
_
y
y
2
(x) =
_
x +

k=1
2
k
_
2 5 8... (3k −1)
(3k + 1)!
_
x
3k+1
_
.
Es f´acil ver que estas series convergen para todo x ∈ R. Adem´as las funciones y
1
e
y
2
son linealmente independientes en R ya que calculando el Wronskiano de estas
funciones en x = 0, se tiene
W(y
1
, y
2
)(0) = y
1
(0)y

2
(0) −y
2
(0)y

1
(0) = 1.
Finalmente revisemos que el t´ermino general de y
1
es
a
k
= 2
k
_
1 4 7....(3k −2)
(3k)!
_
.
Por inducci´on, para k = 1 se tiene que a
1
= 2
1
3!
=
2
2 3
, que es correcto. Lo
suponemos cierto para k y queremos probarlo para k + 1. Tenemos que obtener
a
k+1
= 2
k+1
_
1 4 7....(3k −2)(3k + 1)
(3(k + 1))!
_
.
Observamos que el t´ermino a
k+1
= c
3k+3
corresponde a j = 3k + 1 en la f´ormula
(6.6), ya que se debe tener j + 2 = 3k + 3. De esta f´ormula se tiene entonces que
a
k+1
= c
3k+3
=
2
(3k + 2)(3k + 3)
c
3k
=
2
(3k + 2)(3k + 3)
a
k
= 2
k+1
_
1 4 7....(3k −2)
(3k)!(3k + 2)(3k + 3)
_
= 2
k+1
_
1 4 7....(3k −2)(3k + 1)
(3k)!(3k + 1)(3k + 2)(3k + 3)
_
= a
k+1
.
Verificar el t´ermino general de y
2
se deja de ejercicio.
A continuaci´ on revisemos directamente que y
1
es soluci´on de la ecuaci´on diferen-
cial. Se tiene
y

1
(x) =

k=1
2
k
_
1 4 7....(3k −2)
(3k −2)!
_
x
3k−2
285
y
2xy
1
(x) = 2
_
x +

j=1
2
j
_
1 4 7....(3j −2)
(3j)!
_
x
3j+1
_
donde hemos reemplazado el ´ındice mudo k por j. Haciendo el cambio de variable
j = k −1 en esta ultima ecuaci´on nos queda
2xy
1
(x) = 2
_
x +

k=2
2
k−1
_
1 4 7....(3k −5)
(3k −3)!
_
x
3k−2
_
= 2
_
x +

k=2
2
k−1
_
1 4 7....(3k −5)(3k −2)
(3k −3)!(3k −2)
_
x
3k−2
_
=

k=1
2
k
_
1 4 7....(3k −2)
(3k −2)!
_
x
3k−2
,
por lo que se tiene que y
1
satisface
y

1
−2xy
1
= 0.
Notemos finalmente que y
1
es la soluci´on que satisface y
1
(0) = 1, y

1
(0) = 0.
Similarmente y
2
es la soluci´on que satisface y
2
(0) = 0, y

2
(0) = 1.
Volvamos a la ecuaci´on (6.4)
a
2
(x)y

+ a
1
(x)y

+ a
0
(x)y = 0,
que la escribimos como en (6.5), esto es,
y

+ P(x)y

+Q(x)y = 0.
donde
P(x) =
a
1
(x)
a
2
(x)
Q(x) =
a
0
(x)
a
2
(x)
.
Suponemos que x
0
es un punto ordinario de la ecuaci´on, se tiene el siguiente:
Teorema 6.3. Sea x
0
un punto ordinario de la ecuaci´on (6.5) y sean a
0
, a
1
dos
constantes arbitrarias. Entonces existe una ´ unica funci´on y(x) que es anal´ıtica
en x
0
, que es soluci´on de la ecuaci´on en un entorno de x
0
, y que satisface las
condiciones iniciales y(x
0
) = a
0
, y

(x
0
) = a
1
. Adem´as si P y Q tienen desarrollo
286
en series en torno a x
0
convergentes en el intervalo [x − x
0
[ < R entonces la
soluci´on y(x) tiene la misma propiedad.
Demostraci´on 22. Por conveniencia ponemos x
0
= 0. As´ı por hip´otesis P y Q
son anal´ıticas en 0. En consecuencia se tiene que los podemos desarrollar en serie
convergentes para [x[ < R. Se tiene
P(x) =

n=0
p
n
x
n
, Q(x) =

n=0
q
n
x
n
. (6.7)
Entonces intentamos encontrar una soluci´on en serie de potencias
y(x) =

n=0
a
n
x
n
.
Derivando se obtiene
y

(x) =

n=1
na
n
x
n−1
, y

(x) =

n=2
n(n −1)a
n
x
n−2
,
las cuales las podemos escribir como
y

(x) =

n=0
(n + 1)a
n+1
x
n
, y

(x) =

n=0
(n + 2)(n + 1)a
n+2
x
n
.
Usando el producto de series, se obtiene
P(x)y

(x) = [

n=0
p
n
x
n
][

n=0
(n + 1)a
n+1
x
n
] =

n=0
[
n

k=0
p
n−k
(k + 1)a
k+1
]x
n
(6.8)
y
Q(x)y(x) = [

n=0
q
n
x
n
][

n=0
a
n
x
n
] =

n=0
[
n

k=0
q
n−k
a
k
]x
n
. (6.9)
Substituyendo las expresiones para y

, (6.8) y (6.9) en la ecuaci´on diferencial se
obtiene
287

n=0
[(n + 1)(n + 2)a
n+2
+
n

k=0
p
n−k
(k + 1)a
k+1
+
n

k=0
q
n−k
a
k
]x
n
= 0,
que por el corolario del teorema de unicidad de series nos da la siguiente ley de
recurrencia para los coeficientes.
(n + 1)(n + 2)a
n+2
= −
n

k=0
[(k + 1)p
n−k
a
k+1
+ q
n−k
a
k
]. (6.10)
Sea 0 < r < R. Como las series en (6.7) son convergentes para x = r, los t´erminos
generales en ellas deben tender a cero. As´ı existe una constante M > 0 tal que
[p
n
[r
n
≤ M [q
n
[r
n
≤ M,
para todo n ∈ N. Usando estas acotaciones en (6.10), tenemos
(n + 1)(n + 2)[a
n+2
[ ≤
M
r
n
n

k=0
[(k + 1)[a
k+1
[ +[a
k
[]r
k

M
r
n
n

k=0
[(k + 1)[a
k+1
[ +[a
k
[]r
k
+ M[a
n+1
[r.
Pongamos b
0
= [a
0
[, b
1
= [a
1
[, y b
n+2
, n ≥ 0, por
(n + 1)(n + 2)b
n+2
=
M
r
n
n

k=0
[(k + 1)b
k+1
+ b
k
]r
k
+Mb
n+1
r. (6.11)
Entonces 0 ≤ [a
n
[ ≤ b
n
, para todo n ∈ N, propiedad que vamos a usar para
establecer la convergencia de la serie


n=0
a
n
x
n
por medio del criterio de com-
paraci´on de series. Para esto tenemos que estudiar primero la convergencia de la
serie


n=0
b
n
x
n
. Esto lo haremos estudiando el cuociente b
n+1
/b
n
. Substituyendo
n por n −1 y por n −2 en (6.11), se obtiene las siguientes ecuaciones.
n(n + 1)b
n+1
=
M
r
n−1
n−1

k=0
[(k + 1)b
k+1
+ b
k
]r
k
+ Mb
n
r. (6.12)
y
288
(n −1)nb
n
=
M
r
n−2
n−2

k=0
[(k + 1)b
k+1
+ b
k
]r
k
+ Mb
n−1
r. (6.13)
Multiplicando (6.12) por r y usando (6.13), se obtiene
rn(n + 1)b
n+1
=
M
r
n−2
n−1

k=0
[(k + 1)b
k+1
+ b
k
]r
k
+Mb
n
r
2
= (n −1)nb
n
−Mb
n−1
r +rM(nb
n
+b
n−1
) +Mb
n
r
2
= [(n −1)n +rMn +Mr
2
]b
n
,
de donde
b
n+1
b
n
=
(n −1)n + rMn +Mr
2
rn(n + 1)

1
r
cuando n →∞,
lo que nos dice que la serie


n=0
b
n
x
n
converge para todo [x[ < r. Pero entonces
como 0 ≤ [a
n
[ ≤ b
n
el criterio de comparaci´on de series nos dice que la serie


n=0
a
n
x
n
converge (absolutamente) para [x[ < r. Finalmente como r es cualquier
n´ umero menor que R se tiene que la serie converge para [x[ < R
Un ejemplo del uso de este teorema ya fue visto anteriormente. Vamos a aplicar
ahora este teorema a la ecuaci´on de Legendre. Esta tiene la forma
(1 −x
2
)y

−2xy

+ n(n + 1)y = 0 (6.14)
donde n es un entero no-negativo. Escribiendo esta ecuaci´on como
y


2x
1 −x
2
y

+
n(n + 1)
1 −x
2
y = 0,
se tiene que P(x) = −
2x
1 −x
2
y Q(x) =
n(n + 1)
1 −x
2
, por lo que ambas funciones
son anal´ıticas en 0 y admiten desarrollos en serie convergentes para [x[ < 1. Por
el teorema 6.3 se tiene que para a
0
, a
1
constantes arbitrarias el problema tiene
una ´ unica soluci´on y(x) que es anal´ıtica en 0, que es soluci´on de la ecuaci´on para
[x[ < 1 y que satisface las condiciones iniciales y(0) = a
0
, y

(0) = a
1
.
Intentamos
y(x) =

k=0
c
k
x
k
,
289
de donde
y

(x) =

k=1
kc
k
x
k−1
,
y

(x) =

k=2
k(k −1)c
k
x
k−2
.
Reemplazando en la ecuaci´on obtenemos
(1 −x
2
)

k=2
k(k −1)c
k
x
k−2
−2x

k=1
kc
k
x
k−1
+ n(n + 1)

k=0
c
k
x
k
= 0
que escribimos como

k=2
k(k −1)c
k
x
k−2
−2x

k=1
kc
k
x
k−1
+

k=0
_
n
2
+ n −k
2
+k
¸
c
k
x
k
= 0.
Esta ecuaci´on se puede a su vez escribir como

k=2
k(k −1)c
k
x
k−2
+

k=0
_
n
2
+ n −k
2
+ k −2k
¸
c
k
x
k
= 0.
Haciendo el cambio de variable k −2 →k en la primera serie, se obtiene

k=0
(k + 2)(k + 1)c
k+2
x
k
+

k=0
_
n
2
+ n −k
2
−k
¸
c
k
x
k
= 0
que se puede escribir como

k=0
_
(k + 2)(k + 1)c
k+2
+ (n
2
+ n −k
2
−k)c
k
¸
x
k
= 0.
Por la unicidad de series se debe tener que
(k + 2)(k + 1)c
k+2
+
_
n
2
+ n −k
2
−k
¸
c
k
= 0,
que nos da
c
k+2
= −
[n
2
+ n −k
2
−k]
(k + 2)(k + 1)
c
k
290
o
c
k+2
= −
(n −k)(n + k + 1)
(k + 2)(k + 1)
c
k
. (6.15)
Evaluemos algunos t´erminos
k = 0, c
2
= −
n(n + 1)
2 1
c
0
k = 1, c
3
= −
(n −1)(n + 2)
3 2
c
1
k = 2, c
4
= −
(n −2)(n + 3)
4 3
c
2
=
(n −2)(n + 3)n(n + 1)
4 3 2 1
c
0
,
de donde
c
4
=
(n −2)n(n + 1)(n + 3)
4!
c
0
.
k = 3, c
5
=
−(n −3)(n + 4)
5 4
c
3
=
(n −3)(n + 4)(n −1)(n + 2)
5 4 3 2
c
1
,
de donde
c
5
=
(n −3)(n −1)(n + 2)(n + 4)
5!
c
1
De la misma forma
k = 4, c
6
= −
(n −4)(n + 5)
6 5
c
4
= −
(n −4)(n −2)n(n + 1)(n + 3)(n + 5)
6!
c
0
y
k = 5, c
7
= −
(n −5)(n + 6)
7 6
c
5
= −
(n −5)(n −3)(n −1)(n + 2)(n + 4)(n + 6)
7!
c
1
.
Vemos que el t´ermino general depende de si j es par o impar. No es dif´ıcil ver que
c
2j
=
(−1)
j
(n −(2j −2))...(n −2)n(n + 1)(n + 3)...(n + 2j −1)
(2j)!
c
0
, (6.16)
y que
291
c
2j+1
= (−1)
j
[n −(2j −1)] ...(n −3)(n −1)(n + 2)(n + 4)...(n + 2j)
(2j + 1)!
c
1
. (6.17)
Estas f´ormulas hay que demostrarlas por inducci´on. Revisemos la expresi´on para
c
2j
. Para j = 1 de (6.16), se obtiene
c
2
= −
n(n + 1)
2!
c
0
que es lo que debemos tener. Suponemos ahora (6.16) v´alida para j y queremos
demostrarla para j + 1. De (6.15) se tiene que
c
2(j+1)
= c
2j+2
= −
(n −2j)(n + 2j + 1)
(2j + 2)(2j + 1)
c
2j
y usando la hip´otesis de inducci´on (6.16), nos da
c
2(j+1)
= (−1)
j+1
(n −2j)(n + 2j + 1)
(2j + 2)(2j + 1)

(n −(2j −2)) −(n −3)n(n + 1)(n + 3)..(n + 2j −1)
(2j)!
,
que se puede escribir
c
2j+2
= (−1)
j+1
(n −2j)(n −(2j −2))...(n −3)n(n + 1)(n + 3) (n + 2j −1)(n + 2j + 1)
(2j + 2)!
que corresponde a cambiar j por j + 1 en (6.16).
Ejercicio. Compruebe el coeficiente c
2j+1
, por un m´etodo similar.
Podemos entonces escribir la soluci´on de la ecuaci´on como
y(x) = c
0
y
1
(x) + c
1
y
2
(x)
donde
y
1
(x) = 1 +

j=1
(−1)
j
(n −2j + 2)...(n −2)n(n + 1)...(n + 2j −1)
(2j)!
x
2j
,
292
y
2
(x) = x +

j=1
(−1)
j
(n −2j + 1)...(n −3)(n −1)(n + 2)(n + 4)...(n + 2j)
(2j + 1)!
x
2j+1
.
Ejercicio. Aplicando el critero de cuociente demuestre directamente que ambas
series convergen para [x[ < 1, que esta de acuerdo con lo que dice el teorema 6.3.
Demuestre tambi´en que y
1
e y
2
son soluciones linealmente independientes de la
ecuaci´on (6.14).
Notemos a continuaci´ on que si n es par, entonces y
1
(x) tiene un n´ umero finito
de t´erminos y si n es impar entonces y
2
(x) tiene un n´ umero finito de t´erminos,
dando origen a polinomios. En ambos casos el polinomio resultante lo llamamos
polinomio de Legendre y lo denotamos por P
n
(x).
Se tiene que P
0
(x) = 1 es soluci´on de la ecuaci´on para n = 0, esto es
(1 −x
2
)y

−2xy

= 0,
P
1
(x) = x es soluci´on de la ecuaci´on para n = 1, esto es
(1 −x
2
)y

−2xy

+ 2y = 0,
P
2
(x) =
1
2
(3x
2
−1) es soluci´on de la ecuaci´on para n = 2, esto es
(1 −x
2
)y

−2xy

+ 6y = 0,
etc.
P
0
(x), P
1
(x), P
2
(x), , P
n
(x) son soluciones de distintas ecuaciones.
A continuaci´ on vamos a encontrar una f´ormula general para estos polinomios.
Partimos de
c
k+2
= −
(n −k)(n +k + 1)
(k + 2)(k + 1)
c
k
que escribimos como
c
k
= −
(k + 2)(k + 1)
(n −k)(n + k + 1)
c
k+2
.
En vez de expresar los coeficientes en funci´on de c
0
y c
1
los vamos a expresar en
t´erminos de c
n
. Haciendo el cambio de variable
293
k + 2 = j o k = j −2,
se tiene
c
j−2
=
−j(j −1)
(n −j + 2)(n + j −1)
c
j
.
Para el calculo de estos polinomios notamos que si n es par entonces
P
n
(x) = c
0
+ c
2
x
2
+ c
4
x
4
+ + c
n−2
x
n−2
+ c
n
x
n
y si n es impar entonces
P
n
(x) = c
1
x + c
3
x
3
+ + c
n−2
x
n−2
+c
n
x
n
.
Dando a j los valores n, n −2,..., tenemos que
c
n−2
= −
n(n −1)
2(2n −1)
c
n
c
n−4
= −
(n −2)(n −3)
2
2
(2n −3)
c
n−2
=
n(n −1)(n −2)(n −3)
2 2
2
(2n −1)(2n −3)
c
n
.
Ejercicio. Demuestre por inducci´on que
c
n−2k
=
(−1)
k
n(n −1) (n −2k + 1)
k!2
2k
(2n −1)(2n −3) (2n −2k + 1)
c
n
. (6.18)
As´ı, se obtiene:
P
n
(x) = c
n
[x
n

n(n −1)
2(2n −1)
x
n−2
+
n(n −1)(n −2)(n −3)
22
2
(2n −1)(2n −3)
x
n−4
+ + (−1)
k
n(n −1) (n −2k + 1)
k!2
k
(2n −1) (2n −2k + 1)
x
n−2k
+ ],
donde la sumatoria se extiende hasta k =
n
2
si n es par, y hasta n−2k = 1 si n es
impar. En este ´ ultimo caso k =
n−1
2
=
n
2

1
2
, y si n = 2l + 1 entonces k = l. Por
esto k es el mayor entero menor o igual a
n
2
, que denotamos por k =
_
n
2
¸
. As´ı para
ambos casos el limite de la suma es k =
_
n
2
¸
.
De esta forma se tiene que
294
P
n
(x) = c
n
[
n
2
]

k=0
(−1)
k
n(n −1) (n −2k + 1)
k!2
k
(2n −1) (2n −2k + 1)
x
n−2k
.
Notemos ahora que n(n −1) (n −2k + 1) =
n!
(n −2k)!
y que
(2n −2k + 1)(2n −2k + 3) (2n −3)(2n −1) =
=
(2n −2k + 1)(2n −2k + 2)(2n −2k + 3)(2n −2k + 4) (2n −1)2n
(2n −2k + 2)(2n −2k + 4) (2n −2)2n
=
(2n)!
1 2 (2n −2k) 2
k
(n −k + 1)(n −k + 2) (n −1)n
=
(2n)!
(2n −2k)!
(n −k)!
2
k
n!
.
As´ı se tiene que
n(n −1) (n −2k + 1)
k!2
k
(2n −1) (2n −2k + 1)
=
n!
(n −2k)!k!2
k

n!2
k
(2n −2k)!
(2n)!(n −k)!
=
(n!)
2
(2n −2k)!
k!(n −2k)!(2n)!(n −k)!
.
Normalizando de modo que
c
n
=
(2n)!
(n!)
2
2
n
obtenemos que
P
n
(x) =
[
n
2
]

k=0
(−1)
k
(2n −2k)!
2
n
k!(n −2k)!(n −k)!
x
n−2k
.
Esta expresi´on para los polinomios se puede compactar m´as todav´ıa hasta lle-
gar a la f´ormula para los polinomios de Legendre conocida como la formula de
Rodr´ıguez. Para esto notamos primero que
295
d
n
dx
n
x
2n−2k
=
(2n −2k)!
(n −2k)!
x
n−2k
por lo que
P
n
(x) =
[
n
2
]

k=0
(−1)
k
2
n
k!(n −k)!
d
n
dx
n
(x
2n−2k
)
=
d
n
dx
n
(
[
n
2
]

k=0
(−1)
k
2
n
k!(n −k)!
x
2n−2k
).
Notemos ahora que para k ≥
_
n
2
¸
+ 1, 2k ≥ 2
_
n
2
¸
+ 2, se tiene que
2n −2k ≤ 2n −2
_
n
2
_
−2 = 2 [n −[n/2] −1] < n.
Esto combinado con el hecho que
d
n
x
j
dx
n
= 0 si j < n
nos permite escribir
P
n
(x) =
d
n
dx
n
(
n

k=0
(−1)
k
2
n
k!(n −k)!
x
2n−2k
)
ya que todas las potencias que hemos agregado en la sumatoria son menores que
n. De aqu´ı
P
n
(x) =
1
2
n
n!
d
n
dx
n
n

k=0
n!
k!(n −k)!
(−1)
k
(x
2
)
n−k
,
de donde por la f´ormula de binomio obtenemos finalmente
P
n
(x) =
1
2
n
n!
d
n
dx
n
_
(x
2
−1)
n
¸
que es la f´ormula de Rodr´ıguez para los polinomios de Legendre.
296
Vamos a hacer aqu´ı un par´entesis para lo siguiente. Supongamos que ¦φ
n
¦ es una
sucesi´on de funciones (continuas) φ
n
: [a, b] →R que satisfacen la propiedad
_
b
a
φ
m
(x)φ
n
(x) dx =
_
0 si m ,= n
α
n
,= 0 si m = n,
entonces estas funciones se dice que son ortogonales o que forman un conjunto
ortogonal. Si adem´as α
n
= 1 se dicen que son ortonormales.
Vamos a probar a continuaci´ on que los polinomios de Legendre forman un conjunto
ortogonal.
Si ponemos u(x) = P
n
(x), v(x) = P
m
(x), se tiene que u y v satisfacen respectiva-
mente las ecuaciones diferenciales
(1 −x
2
)u

−2xu

+ n(n + 1)u = 0
y
(1 −x
2
)v

−2xv

+ m(m+ 1)v = 0.
Multiplicando la primera ecuaci´on por v y la segunda por u y restando las ecua-
ciones resultantes, se obtiene
(1 −x
2
)(u

v −v

u) −2x(u

v −v

u) =
= uv
_
m
2
+ m−n
2
−n
¸
= uv(m−n) [m + n + 1] .
Sea ahora w = u

v −v

u, entonces reemplazando en la ecuaci´on anterior
(1 −x
2
)w

−2xw = uv(m−n)(m+ n + 1)
e integrando esta ecuaci´on desde −1 a 1, se tiene
1
_
−1
[(1 −x
2
)w

−2xw]dx =
1
_
−1
d
dx
[(1 −x
2
)w]dx = (m−n)(m +n + 1)
1
_
−1
uvdx
de donde
0 = (m−n)(m+ n + 1)
1
_
−1
uvdx
297
que implica
1
_
−1
uvdx = 0 si m ,= n,
esto es
1
_
−1
P
n
(x)P
m
(x)dx = 0 si n ,= m.
As´ı los polinomios de Legendre son ortogonales en el intervalo [−1, 1].
Ejercicio. Demuestre que
1
_
−1
P
2
n
(x)dx =
2
2n + 1
(6.19)
Ejercicio. Demuestre que si P(x) es un polinomio cualquiera de grado k ≥ 0,
entonces
1
_
−1
P(x)P
n
(x)dx = 0 para todo n > k
Ten´ıamos de antes que
P
0
(x) = 1, P
1
(x) = x, P
2
(x) =
1
2
(3x
2
−1), P
3
(x) =
1
2
(5x
3
−3x).
A partir de estas f´ormulas se tiene que
1 = P
0
(x), x = P
1
(x), x
2
=
1
3
P
0
(x) +
2
3
P
2
(x), x
3
=
3
5
P
1
(x) +
2
5
P
3
(x).
De aqu´ı que todo polinomio de tercer grado p(x) = b
0
+b
1
x+b
2
x
2
+b
3
x
3
se pueda
escribir de la forma
p(x) =
3

n=0
a
n
P
n
(x).
Ejercicio. Encuentre los coeficientes a
0
, a
1
, a
2
, a
3
.
298
Es claro que podemos generalizar este caso y expresar x
n
como una combinaci´ on
lineal de P
0
(x), P
1
(x), , P
n
(x). De aqu´ı que todo polinomio p(x) de grado l
admita un desarrollo en t´ermino de los polinomios P
0
(x), P
1
(x), , P
l
(x) de la
forma
p(x) =
l

n=0
a
n
P
n
(x).
La pregunta relevante en este momento es saber cuando se puede desarrollar un
funci´on f : [−1, 1] →R en t´ermino de los polinomios de Legendre, en una expre-
si´on de la forma
f(x) =

n=0
a
n
P
n
(x). (6.20)
Actuando de manera informal, multipliquemos (6.20) por P
m
(x) e integrando
t´ermino a t´ermino se obtiene
_
1
−1
f(x)P
m
(x)dx =

n=0
a
n
_
1
−1
P
n
(x)P
m
(x)dx,
que en vista de la propiedad de ortogonalidad de los polinomios y de (6.19), nos
da
_
1
−1
f(x)P
m
(x)dx =
2a
m
2m+ 1
.
De aqu´ı obtenemos una f´ormula para a
n
a
n
=
2n + 1
2
_
1
−1
f(x)P
n
(x)dx. (6.21)
Todos estos c´alculos se pueden justificar rigurosamente para una cierta clase de
funciones f. Especificamente vamos a dar uno de estos resultados, sin demostra-
ci´on.
Teorema 6.4. Sea f : [−1, 1] →R tal que f, f

son cont´ınuas a trozos en [−1, 1],
entonces la serie
299

n=0
a
n
P
n
(x)
donde
a
n
= (n +
1
2
)
_
1
−1
f(x)P
n
(x)dx
converge a f(x) en cualquier punto x ∈ (−1, 1) de continuidad de f(x). Si ahora
x ∈ (−1, 1) es un punto de discontinuidad de f y f(x

), f(x
+
) denotan los l´ımites
laterales de f(x), entonces la serie converge a
1
2
[f(x

) + f (x
+
)] .
En x = ±1 la serie converge respectivamente a f(−1
+
) y f(1

). En particular
si f(x), f

(x) son cont´ınuas en [−1, 1], entonces
f(x) =

k=0
a
n
P
n
(x), x ∈ [−1, 1].
Vamos a estudiar otra propiedad de los polinomios de Legendre.
Sea f : [−1, 1] → R una funci´on tal que
_
1
−1
f(x)
2
(x)dx < ∞ (suponga que
f satisface las hip´otesis del teorema anterior). Se quiere aproximar f por un
polinomio p(x) de grado ≤ n de tal modo que
_
1
−1
[f(x) −p(x)[
2
dx
sea m´ınimo. Vamos a probar que este m´ınimo se alcanza y queda dado por la
suma de los primeros n + 1 t´erminos de (6.20)
p(x) =
n

k=0
a
k
P
k
(x), (6.22)
con los coeficientes a
k
dados por (6.21).
Para la demostraci´on partimos del hecho que todo polinomio de grado menor o
igual a n se puede expresar en la forma

n
k=0
b
k
P
k
(x). Sea entonces
300
I =
_
1
−1
(f(x) −
n

k=0
b
k
P
k
(x))
2
dx
=
_
1
−1
f(x)
2
dx +
n

k=0
2
2k + 1
b
2
k
−2
n

k=0
b
k
[
_
1
−1
f(x)P
k
(x)dx]
=
_
1
−1
f(x)
2
dx +
n

k=0
2
2k + 1
b
2
k
−2
n

k=0
b
k
2a
k
2k + 1
=
_
1
−1
f(x)
2
dx +
n

k=0
2
2k + 1
(b
k
−a
k
)
2

n

k=0
2
2k + 1
a
2
k
.
Los coeficientes a
k
est´an fijos ya que la funci´on f es dada. Entonces es claro que
I toma su valor m´ınimo cuando b
k
= a
k
, para k = 0, , n. Esto termina la
demostraci´on de la propiedad.
Vamos a introducir a continuaci´ on una herramienta poderosa para trabajar con
polinomios de Legendre, la funci´on generadora.
Definamos la funci´on
φ(x, t) =
1
(1 −2xt + t
2
)
1
2
, (6.23)
donde x ∈ (−1, 1) y [t[ < 1 es peque˜ no. Para cada x se tiene que podemos escribir
φ(x, t) =
1
(1 −2xt + t
2
)
1
2
=

n=0
q
n
(x)t
n
. (6.24)
No es muy dificil ver que podemos derivar parcialmente para obtener
(1 −x
2
)

2
φ
∂x
2
−2x
∂φ
∂x
+ t

2
(tφ)
∂t
2
= 0.
Substituyendo la serie de potencias nos queda
(1 −x
2
)

n=0
q

n
(x)t
n
−2x

n=0
q

n
(x)t
n
+

n=0
n(n + 1)q
n
(x)t
n
= 0,
301
que podemos escribir como

n=0
[(1 −x
2
)q

n
(x) −2xq

n
(x) + n(n + 1)q
n
(x)]t
n
= 0.
Se debe tener entonces que cada coeficiente es cero, esto es, q
n
(x) debe satisfacer
(1 −x
2
)q

n
(x) −2xq

n
(x) + n(n + 1)q
n
(x) = 0.
que es la ecuaci´on de Legendre. Como los q
n
son polinomios en x se debe tener
que q
n
(x) = P
n
(x), y se obtiene la relaci´on
1
(1 −2xt +t
2
)
1
2
=

n=0
P
n
(x)t
n
. (6.25)
Mostremos la utilidad de la funci´on generadora. Cambiemos t por −t y x por −x
en (6.25), se obtiene
1
(1 −2xt +t
2
)
1
2
=

n=0
P
n
(−x)(−1)
n
t
n
,
que comparando con (6.25), nos dice que se debe tener que
P
n
(−x) = (−1)
n
P
n
(x).
En particular de aqu´ı si n es impar se tiene que P
n
(0) = 0. Tambi´en P
n
(1) = 1 y
por lo tanto P
n
(−1) = (−1)
n
P
n
(1).
Finalmente vamos a probar una relaci´on de recurrencia para los polinomios de
Legendre. Partimos derivando (6.25) respecto de t con x fijo. Se tiene
x −t
(1 −2xt + t
2
)
3
2
=

n=1
nP
n
(x)t
n−1
,
que implica
x −t
(1 −2xt + t
2
)
1
2
= (1 −2xt +t
2
)

n=1
nP
n
(x)t
n−1
,
esto es
302
(1 −2xt +t
2
)

n=1
nP
n
(x)t
n−1
= (x −t)

n=0
P
n
(x)t
n
,
que se puede escribir como
(1 −2xt + t
2
)

n=0
(n + 1)P
n+1
(x)t
n
= (x −t)

n=0
P
n
(x)t
n
.
Expandiendo se obtiene

n=0
(n + 1)P
n+1
(x)t
n
−2x

n=0
(n + 1)P
n+1
(x)t
n+1
+

n=0
(n + 1)P
n+1
(x)t
n+2
= x

n=0
P
n
(x)t
n

n=0
P
n
(x)t
n+1
.
que se puede escribir como

n=0
(n + 1)P
n+1
(x)t
n
−2x

n=1
nP
n
(x)t
n
+

n=2
(n −1)P
n−1
(x)t
n
= x

n=0
P
n
(x)t
n

n=1
P
n−1
(x)t
n
.
Ordenando
P
1
(x) + 2P
2
(x)t −2xP
1
(x)t −xP
0
(x) −xP
1
(x)t +P
0
(x)t
+

n=2
(n + 1)P
n+1
(x)t
n
−2x

n=2
nP
n
(x)t
n
+

n=2
(n −1)P
n−1
(x)t
n
= x

n=2
P
n
(x)t
n

n=2
P
n−1
(x)t
n
.
Ejercicio. Demuestre que
P
1
(x) + 2P
2
(x)t −2xP
1
(x)t −xP
0
(x) −xP
1
(x)t +P
0
(x)t ≡ 0.
303
Con esto, se tiene

n=2
[(n + 1)P
n+1
(x) −2xnP
n
(x) + (n −1)P
n−1
(x) −xP
n
(x) + P
n−1
(x)]t
n
= 0.
Simplificando

n=2
[(n + 1)P
n+1
(x) −x(2n + 1)P
n
(x) + nP
n−1
(x)]t
n
= 0,
por lo que se obtiene la relaci´on
(n + 1)P
n+1
(x) −x(2n + 1)P
n
(x) + nP
n−1
(x) = 0,
o
(2n + 1)xP
n
(x) = nP
n−1
(x) + (n + 1)P
n+1
(x),
que vale para todo n ≥ 1.
6.3. Caso donde existen puntos singulares. Volvamos a la ecuaci´on (6.5)
y

+ P(x)y

+Q(x)y = 0, (6.26)
donde ahora suponemos que x
0
∈ I es un punto singular de la ecuaci´on.
Definici´on 6.2. Decimos que x
0
es un punto singular regular de la ecuaci´on si
(x −x
0
)P(x) y (x −x
0
)
2
Q(x)
son funciones anal´ıticas en x
0
. Es decir se pueden desarrollar en series de x − x
0
con un radio de convergencia positivo. Si el punto x
0
es singular pero no regular
decimos que es un punto singular irregular de la ecuaci´on
Ejemplo. Ecuaci´on de Bessel.
x
2
y

+ xy

+ (x
2
−ν
2
)y = 0,
donde ν es un n´ umero real. Escribiendo esta ecuaci´on en la forma (6.5) con
304
P(x) =
1
x
y Q(x) =
x
2
−ν
2
x
2
es claro que x
0
= 0 es un punto singular regular de la ecuaci´on.
En lo que sigue solo vamos a considerar el caso de puntos singulares regulares,
adem´as vamos a suponer por simplicidad de los c´alculos que este punto es el 0.
Consideramos entonces la ecuaci´on
y

+ P(x)y

+Q(x)y = 0,
donde suponemos que xP(x) y x
2
Q(x) son anal´ıticas en 0 y por lo tanto los
podemos desarrollar en serie en una vecindad del cero en la forma
xP(x) =

n=0
p
n
x
n
, x
2
Q(x) =

n=0
q
n
x
n
. (6.27)
que suponemos validos en un intervalo de la forma [x[ < R.
Esta vez vamos a intentar encontrar una soluci´on en la forma
y(x) = x
m

n=0
a
n
x
n
=

n=0
a
n
x
m+n
,
que se llaman series de Frobenius. El m´etodo que vamos a desarrollar se llama
m´etodo de Frobenius.
Vamos a suponer que x > 0 en nuestros c´alculos. Derivando se obtiene
y

(x) =

n=0
(m + n)a
n
x
m+n−1
, y

(x) =

n=0
(m+ n)(m+ n −1)a
n
x
m+n−2
,
que se pueden escribir como
y

(x) = x
m−1

n=0
(m+ n)a
n
x
n
, y

(x) = x
m−2

n=0
(m +n)(m+ n −1)a
n
x
n
,
Reemplazando en la ecuaci´on diferencial estos desarrollos en serie, usando produc-
to de series, despu´es de cierto trabajo se obtiene la siguiente f´ormula de recurrencia
305
a
n
(m+ n)(m+ n −1) +
n

k=0
a
k
[(m+ k)p
n−k
+ q
n−k
] = 0. (6.28)
Para n = 0, se tiene
a
0
m(m−1) + (mp
0
+ q
0
)a
0
= 0,
que definiendo
g(m) = m(m−1) + mp
0
+q
0
, (6.29)
se escribe como
a
0
g(m) = 0. (6.30)
Para n = 1, se obtiene
a
1
(m+ 1)m+ a
0
[mp
1
+ q
1
] + a
1
[(m+ 1)p
0
+ q
0
],
que se escribe
a
1
g(m+ 1) + a
0
[mp
1
+ q
1
] = 0. (6.31)
M´as generalmente de (6.28), para n ≥ 1, se obtiene
a
n
[(m+ n)(m+ n −1) + (m+ n)p
0
+ q
0
] +
n−1

k=0
a
k
[(m+ k)p
n−k
+ q
n−k
] = 0,
que se puede escribir como
a
n
g(m +n) +
n−1

k=0
a
k
[(m +k)p
n−k
+ q
n−k
] = 0. (6.32)
Como a
0
,= 0, de (6.30), se tiene que
g(m) = m(m−1) + mp
0
+ q
0
= 0, (6.33)
306
que se llama la ecuaci´on indicial. Las raices de esta ecuaci´on se llaman exponentes
de la ecuaci´on diferencial en el punto singular regular x = 0. Las siguientes ecua-
ciones (6.31) y (6.32) nos permiten evaluar el resto de los coeficientes a menos que
g(m + n) = 0 para alg´ un entero positivo n, en cuyo caso el proceso falla. As´ı si
m
1
= m
2
+ n para alg´ un entero n ≥ 1, la elecci´on m = m
1
en el proceso anterior
nos va a dar una soluci´on, pero si hacemos m = m
2
en general no obtendremos
otra soluci´on por este m´etodo. Si m
1
= m
2
nuevamente el procedimiento nos
dar´a una sola soluci´on. Si la ecuaci´on indicial tiene dos raices reales y distintas
m
1
, m
2
, y m
1
,= m
2
+ n ∀ n ≥ 1, el procedimiento nos dar´a dos series soluci´on.
Finalmente en este an´alisis, es posible que las raices de la ecuaci´on indicial sean
complejas. En lo que sigue vamos a suponer que las raices de la ecuaci´on indicial
son reales. Se tiene el siguiente teorema importante.
Teorema 6.5. Consideremos la ecuaci´on (6.26) para la cual suponemos que x = 0
es un punto singular regular. Suponemos tambi´en que los desarrollos en serie de
potencias de xP(x) y x
2
Q(x) son convergentes en el intervalo [x[ < R, con R > 0.
Sean m
1
, m
2
los exponentes de la ecuaci´on diferencial en x = 0, con m
2
≤ m
1
.
Entonces la ecuaci´on (6.26) tiene por lo menos una soluci´on
y
1
(x) = x
m
1

n=0
a
n
x
n
(a
0
,= 0),
en el intervalo 0 < x < R. Los coeficientes a
n
, n ≥ 1 se determinan de la f´ormula
(6.32), con m = m
1
. La serie


n=0
a
n
x
n
converge para [x[ < R. Si adem´as
m
1
− m
2
no es un entero positivo o cero, entonces la ecuaci´on (6.26) tiene una
segunda soluci´on linealmente independiente con la primera
y
2
(x) = x
m
2

n=0
a
n
x
n
(a
0
,= 0),
en ese mismo intervalo. Los nuevos coeficientes a
n
se determinan de la f´ormula
(6.32), con m = m
2
, la serie resultante


n=0
a
n
x
n
converge para [x[ < R.
Con este teorema no tenemos informaci´on cuando m
1
− m
2
es cero o una entero
positivo. Podemos distinguir tres casos. Si m
1
= m
2
es claro que no puede existir
una segunda soluci´on en serie de Frobenius. Supongamos m
1
− m
2
es un entero
positivo. Entonces reemplazando m = m
2
en (6.32) nos queda
a
n
g(m
2
+ n) = −
n−1

k=0
a
k
[(m
2
+ k)p
n−k
+ q
n−k
]. (6.34)
307
donde sabemos que la dificultad consiste en que g(m
2
+n) = 0 para alg´ un entero
positivo. Cuando esto pasa y el lado derecho (6.34) no es cero entonces no hay
forma de continuar el m´etodo de Frobenius para obtener una segunda serie. Sin
embargo si sucede que el lado derecho en (6.34) es cero cuando g(m
2
+ n) =
0 entonces a
n
queda arbitraria y en particular al podemos tomar igual a cero
y continuar calculando el resto de los coeficientes obteniendo as´ı una segunda
soluci´on en serie de Frobenius. Los tres casos expuestos suceden en las aplicaciones.
La pregunta aqu´ı es como se hace cuando estamos en la situaci´on en que m
1
−m
2
es un entero positivo o cero y NO podemos encontrar otra soluci´on por Frobenius.
Para examinar este caso sea k = m
1
−m
2
+1. La ecuaci´on indicial (6.33) se escribe
(m−m
1
)(m−m
2
) = m
2
−(m
1
+ m
2
)m+ m
1
m
2
= 0.
As´ı que comparando con (6.33) se debe tener p
0
− 1 = −(m
1
+ m
2
), que implica
m
2
= 1 −p
0
−m
1
, y por lo tanto k = 2m
1
+p
0
.
Para encontrar una segunda soluci´on linealmente independiente con y
1
recurrimos
a un m´etodo conocido. Ponemos primero y
2
(x) = y
1
(x)v(x) y recordamos que
entonces
v

(x) =
e

P(x)dx
y
2
1
=
e

P(x)dx
x
2m
1
(


n=0
a
n
x
n
)
2
=
e
(−p
0
log x−p
1
x−··· )
x
2m
1
(a
0
+ a
1
x + )
2
=
e
(−p
1
x−··· )
x
k
(a
0
+ a
1
x + )
2
=
g(x)
x
k
,
donde g(x) es claramente una funci´on anal´ıtica en 0 y por lo tanto en un entorno
de 0 tiene la forma
g(x) =

n=0
b
n
x
n
, (b
0
,= 0).
As´ı entonces
v

(x) =

n=0
b
n
x
n−k
= b
0
x
−k
+b
1
x
1−k
+ + b
k−1
x
−1
+ b
k
+ ..,
para x > 0, y de donde
v(x) =

n=0
b
n
x
n−k
=
b
0
x
−k+1
−k + 1
+
b
1
x
−k+2
−k + 2
+ + b
k−1
log x + b
k
x + .
308
Formando y
2
(x) = y
1
(x)v(x), resulta
y
2
(x) = y
1
(x)(
b
0
x
−k+1
−k + 1
+
b
1
x
−k+2
−k + 2
+ + b
k−1
log x +b
k
x + )
= y
1
(x)(
b
0
x
−k+1
−k + 1
+
b
1
x
−k+2
−k + 2
+ + b
k−1
log x +b
k
x + ),
que escribimos como
y
2
(x) = b
k−1
y
1
(x) log x+x
m
1
(a
0
+a
1
x+ )(
b
0
x
−k+1
−k + 1
+
b
1
x
−k+2
−k + 2
+ +b
k
x+ ).
Sacando el factor x
−k+1
fuera del ´ ultimo par´entesis y usando que k = m
1
−m
2
+1,
se obtiene que y
2
toma la forma
y
2
(x) = b
k−1
y
1
(x) log x + x
m
2

n=0
c
n
x
n
, (6.35)
para ciertos coeficientes c
n
.
Supongamos ahora que m
1
= m
2
. Entonces k = 1 y b
k−1
= b
0
,= 0. As´ı la segunda
soluci´on queda
y
2
(x) = y
1
(x) log x +x
m
1

n=1
c
n
x
n
,
para ciertos coeficientes c
n
y donde sin p´erdida de generalidad hemos supuesto
que b
0
= 1.
Si ahora k − 1 = m
1
− m
2
es un entero positivo, entonces b
k−1
puede o no ser 0,
lo que dice que el t´ermino con el logaritmo en (6.35) puede o no estar presente
en la segunda soluci´on. En un problema pr´actico es mejor encontrar la segunda
soluci´on directamente suponiendo la soluci´on en la forma (6.35).
Apliquemos estos resultados a la ecuaci´on de Bessel, donde de ahora en adelante
ν > 0,
x
2
y

+ xy

+ (x
2
−ν
2
)y = 0,
que escribimos
309
y

+
1
x
y

+
x
2
−ν
2
x
2
y = 0.
As´ı P(x) =
1
x
, y Q(x) =
x
2
−ν
2
x
2
. De aqu´ı vemos que xP(x) = 1 y x
2
Q(x) =
x
2
−ν
2
por lo que se tiene p
0
= 1, p
n
= 0, n ≥ 1. Tambi´en q
0
= −ν
2
, q
2
= 1 y el
resto de los q
n
son cero. Podemos entonces escribir la ecuaci´on indicial para este
caso, se tiene
g(m) = m(m−1) + mp
0
+ q
0
= m
2
−m+ m−ν
2
= 0,
de donde m = ±ν. De acuerdo al Teorema 6.5 suponemos una soluci´on en la forma
y(x) =

n=0
a
n
x
n+ν
Derivando
y

(x) =

n=0
a
n
(n + ν)x
n+ν−1
y

(x) =

n=0
a
n
(n + ν)(n + ν −1)x
n+ν−2
.
Reemplazando en la ecuaci´on:
x
2
y

+ xy

+ (x
2
−ν
2
)y =

n=0
a
n
(n + ν)(n + ν −1)x
n+ν
+

n=0
a
n
(n +ν)x
n+ν
+

n=0
a
n
x
n+ν+2
−ν
2

n=0
a
n
x
n+ν
= 0,
que se puede escribir como

n=0
a
n
_
(n + ν)(n + ν −1) + (n + ν) −ν
2
¸
x
n+ν
+

n=0
a
n
x
n+ν+2
= 0.
Notemos primero que
(n +ν)(n + ν −1) + (n + ν) −ν
2
= (n + ν)
2
−ν
2
,
310
as´ı la serie se puede escribir como

n=0
a
n
_
(n + ν)
2
−ν
2
¸
x
n+ν
+

n=0
a
n
x
n+ν+2
= 0.
Notando que el coeficiente de a
0
en la primera serie es cero, y que (n+ν)
2
−ν
2
=
n
2
+ 2nν, se tiene

n=1
a
n
_
n
2
+ 2nν
¸
x
n
+

n=0
a
n
x
n+2
= 0,
donde tambi´en hemos simplificado el t´ermino x
ν
.
Desarrollando obtenemos
a
1
(1 + 2ν)x +

n=2
a
n
(n
2
+ 2nν)x
n
+

n=0
a
n
x
n+2
= 0, (6.36)
de donde a
1
= 0, as´ı que se tiene

n=2
a
n
(n
2
+ 2nν)x
n
+

n=0
a
n
x
n+2
= 0.
Vamos a juntar ambas series, para eso hacemos el cambio de variable n por n +2
en la primera serie, para obtener

n=0
a
n+2
((n + 2)
2
+ 2(n + 2)ν)x
n+2
+

n=0
a
n
x
n+2
= 0,
que se puede escribir como

n=0
[a
n+2
(n + 2)(n + 2 + 2ν) + a
n
] x
n+2
= 0.
En la forma acostumbrada esto implica la ley de recurrencia
a
n+2
= −
a
n
(n + 2)(n + 2 + 2ν)
, n ∈ N.
311
Ya que a
1
= 0 esta ecuaci´on nos dice que todos los coeficientes a
j
con j impar son
nulos. Haciendo 2k = n + 2, se tiene
a
2k
= −
a
2k−2
2k(2k + 2ν)
= −
a
2k−2
2
2
k(k + ν)
.
De aqu´ı, para k = 1
a
2
= −
a
0
2
2
(1 + ν)
.
Ejercicio. Pruebe por inducci´on que
a
2k
=
(−1)
k
a
0
2
2k
k!(1 + ν)(2 + ν)..(k + ν)
,
para k ∈ N. Recordando a continuaci´on que para x > 0 la funci´on Γ(x) satisface
Γ(x + 1) = xΓ(x),
se tiene que
Γ(1 + k + ν) = (1 + ν)....(k +ν)Γ(1 + ν),
por lo que
(1 + ν)(2 + ν)(3 + ν)....(k + ν) =
Γ(1 + k + ν)
Γ(1 + ν)
,
as´ı
a
2k
=
(−1)
k
Γ(1 + ν)
2
2k
k!Γ(1 + k + ν)
a
0
.
Recordando ahora que
y(x) =

k=0
a
2k
x
2k+ν
se obtiene:
312
y(x) = a
0
Γ(1 + ν)

k=0
(−1)
k
x
2k+ν
2
2k
k!Γ(1 + k + ν)
.
Normalizando tal que
a
0
=
1
2
ν
Γ(1 + ν)
se tiene
J
ν
(x) := y(x) =

k=0
(−1)
k
k!Γ(1 + k + ν)
(
x
2
)
2k+ν
,
que se llama la funci´on de Bessel de primera clase (de orden ν).
Estudiemos la convergencia de la serie

k=0
(−1)
k
k!Γ(1 + k + ν)
(
x
2
)
2k
directamente. Llamando d
2k
=
(−1)
k
k!Γ(1 + k + ν)
, del criterio del cuociente se tiene
que la serie converge si
l´ım
k→∞
¸
¸
¸
¸
d
2k+2
d
2k
¸
¸
¸
¸
(
x
2
)
2
= l´ım
k→∞
¸
¸
¸
¸
(−1)
k+1
(k + 1)!Γ(2 + k + ν)
¸
¸
¸
¸
¸
¸
¸
¸
k!Γ(1 + k + ν)
(−1)
k
¸
¸
¸
¸
(
x
2
)
2
= l´ım
k→∞
¸
¸
¸
¸
1
(k + 1)(1 + k +ν)
¸
¸
¸
¸
(
x
2
)
2
< 1,
que es cierta para todo x ∈ R. Por lo tanto el radio de convergencia de la serie es
infinito. De aqui que
J
ν
(x) = (
x
2
)
ν

k=0
(−1)
k
k!Γ(1 + k + ν)
(
x
2
)
2k
,
est´a bien definida para todo x > 0.
Tenemos as´ı una soluci´on de la ecuaci´on de Bessel y queremos formar la soluci´on
general (en x > 0) por lo que necesitamos otra soluci´on linealmente independiente
con esta. Esta segunda soluci´on se llama funci´on de Bessel de segunda clase (de
orden ν).
De nuestros resultado sabemos como encontrar esta soluci´on si se tiene que m
1

m
2
= ν −(−ν) = 2ν no es un entero positivo o cero (recuerde que supusimos ν >
313
0), esto si ν es un entero positivo o un entero positivo dividido por 2. Supongamos
primero que ν no es un entero positivo. Entonces razonando como antes se obtiene
J
−ν
(x) =

k=0
(−1)
k
k!Γ(1 + k −ν)
(
x
2
)
2k−ν
.
El problema que podr´ıa suceder es en la ecuaci´on (6.36), que ahora toma la forma
a
1
(1 −2ν)x +

n=2
a
n
n(n −2ν)x
n
+

n=0
a
n
x
n+2
= 0.
En efecto si ν =
1
2
entonces a
1
no es necesariamente 0 como antes. Sin embargo
como lo que buscamos es una soluci´on distinta de J
ν
(x) podemos hacer a
1
= 0 y
proceder exactamente como antes para obtener la serie que define J
−ν
(x). Notamos
que un efecto similar se tiene si ν =
3
2
dificultad que resolvemos tomando a
1
=
a
3
= 0. Entonces es claro como proceder cuando ν es un entero positivo dividido
por 2.
Observamos que en J
−ν
(x) hay potencias negativas de x as´ı que nos hemos res-
tringido a x > 0, como lo hab´ıamos supuesto originalmente.
Observamos por otro lado que como los primeros t´erminos de J
ν
(x) y J
−ν
(x)
(dominantes cerca de cero) son respectivamente
1
Γ(1 + ν)
_
x
2
_
ν
y
1
Γ(1 −ν)
_
x
2
_
−ν
,
es claro que J
ν
y J
−ν
son linealmente independientes en (0, ∞).
Note tambi´en que J
−ν
es singular en 0, esto es l´ım
x→0
+
[J
−ν
(x)[ = ∞.
La soluci´on de la ecuaci´on de Bessel es entonces
y(x) = c
1
J
ν
(x) + c
2
J
−ν
(x),
si ν no es un entero positivo.
Ejemplo.- Encuentre la soluci´on de la ecuaci´on de Bessel
314
x
2
y

+ xy

+ (x
2

1
4
)y = 0.
Se tiene que ν =
1
2
por lo que la soluci´on es
y(x) = c
1
J1
2
(x) + c
2
J

1
2
(x).
Si ν = l, entero positivo, se tiene que
Ejercicio.
J
−l
(x) = (−1)
l
J
l
(x),
y las soluciones no son linealmente independientes as´ı que hay que usar otro
m´etodo.
Podemos intentar usar lo que expusimos anteriormente basados en una antiguo
conocido, sin embargo es costumbre usar otro camino. Para esto partimos del caso
del caso en que ν no es un entero y definimos
Y
ν
(x) =
J
ν
(x) cos νπ −J
−ν
(x)
sin νπ
. (6.37)
Entonces J
ν
(x) y Y
ν
(x) son soluciones linealmente independientes de la ecuaci´on
de Bessel (demostrarlo), por lo que toda soluci´on de esta ecuaci´on (para x > 0)
se puede escribir como
y(x) = c
1
J
ν
(x) + c
2
Y
ν
(x),
con c
1
y c
2
constantes arbitrarias. En particular, se tiene
J
−ν
(x) = J
ν
(x) cos νπ −Y
ν
(x) sin νπ.
Supongamos ahora que m es un entero positivo y queremos encontrar la segunda
soluci´on correspondiente a J
m
(x). La idea es partir de (6.37) con ν proximo a m
y hacerlo tender ν a m, esto es buscar el l´ım
ν→m
Y
ν
(x). Se puede demostrar que
J
ν
(x) →J
m
(x),
J
−ν
(x) →J
−m
(x) = (−1)
m
J
m
(x),
cos νπ →cos mπ = (−1)
m
,
por lo tanto
315
J
ν
(x) cos νπ −J
−ν
(x) →J
m
(x)(−1)
m
−(−1)
m
J
m
(x) = 0.
Como tambi´en el denominador
sen νπ →sin mπ = 0,
tenemos una indeterminaci´on y aplicamos L’Hopital. Tomando l´ımite en (6.37),
se tiene
l´ım
ν→m
Y
ν
(x) = l´ım
ν→m
∂Jν(x)
∂ν
cos νπ −πJ
ν
(x) sin νπ −
∂J
−ν
(x)
∂ν
π cos νπ
=
_
∂J
ν
(x)
∂ν
(−1)
m

∂J
−ν
(x)
∂ν
_
ν=m
π(−1)
m
,
y simplificando
Y
m
(x) =
_
∂J
ν
(x)
∂ν
−(−1)
m
∂J
−ν
(x)
∂ν
_
ν=m
π
.
Se puede demostrar que Y
m
(x) es una soluci´on linealmente independiente con
J
m
(x). Y
m
(x) es una funci´on de Bessel de segunda clase (de orden entero m ≥ 0.)
De esta forma la soluci´on de la ecuaci´on de Bessel cuando m es un entero positivo
se puede escribir como
y(x) = c
1
J
m
(x) + c
2
Y
m
(x).
Se puede demostrar que Y
m
(x) se puede escribir como
Y
m
(x) =
2
π
J
m
(x)(log
x
2
+ γ) −
1
π

n=0
(−1)
n
(H
n
+ H
n+m
)
n!(n + m)!
(
x
2
)
m+2n

1
π
m−1

n=0
2
m−2n
(m−n −1)!
n! x
m−2n
.
( Si m = 0 el ultimo t´ermino se considera como cero).
En esta expresi´on
316
H
n
= 1 +
1
2
+
1
3
+ +
1
n
y γ denota la constante de Euler dada por
γ = l´ım
n→∞
(H
n
−log n),
que vale aproximadamente 0.57722.
Ejercicio. Hay un conjunto de ecuaciones que a primera vista NO parecen ser
ecuaciones de Bessel, pero en realidad lo son. Vamos a obtener aqu´ı una familia
de ellas.
Partamos de la ecuaci´on de Bessel
x
2
y

+ xy

+ (x
2
−ν
2
)y = 0
y hagamos los siguientes cambios de variables
x = az
b
e y = wz
c
donde a, b, c son constantes y w se va a mirar como la nueva incognita en funci´on
de z. Se tiene
dx
dz
= abz
b−1
, de donde
z
dx
dz
= abz
b
= bx.
Por otro lado
dy
dz
=
dy
dx
dx
dz
=
dw
dz
z
c
+wcz
c−1
por lo que
dy
dx
bx
z
=
dw
dz
z
c
+ wcz
c−1
y
x
dy
dx
=
1
b
z
c+1
dw
dz
+
c
b
wz
c
,
lo que implica
317
x
dy
dx
=
1
b
z
c+1
dw
dz
+
c
b
y
Derivando esta ecuaci´on respecto de z, usando la ecuaci´on de Bessel, despu´es de
cierto trabajo que incluye algunas substituciones se encuentra la siguiente ecuaci´on
z
2
d
2
w
dz
2
+ (2c + 1)z
dw
dz
+
_
a
2
b
2
z
2b
+ (c
2
−b
2
ν
2
)
¸
w = 0. (6.38)
Ilustremos como se usa esta f´ormula mediante un
Ejemplo. Consideremos la ecuaci´on de Airy
w

+ zw = 0,
las derivadas son con respecto a z. Esta ecuaci´on no tiene la forma de una de
Bessel, veremos sin embargo que su soluci´on se puede expresar en t´erminos de
funciones de Bessel.
En (6.38) hagamos c = −
1
2
, b
2
ν
2
= c
2
=
1
4
que implica ν
2
=
1
4b
2
. Con esto (6.38)
se reduce a
z
2
d
2
w
dz
2
+ a
2
b
2
z
2b
w = 0
Haciendo entonces a
2
b
2
= 1, se obtiene
z
2
d
2
w
dz
2
+ z
2b
w = 0,
y finalmente haciendo 2b −2 = 1 se tiene
d
2
w
dz
2
+zw = 0,
que es la ecuaci´on que quer´ıamos. Veamos a continuaci´ on de que ecuaci´on de
Bessel viene. Tenemos que b =
3
2
y por lo tanto a =
2
3
. Tambi´en ν
2
=
1
4b
2
=
1
9
por lo que ν =
1
3
.
Entonces la ecuaci´on de Bessel es
318
x
2
y

+ xy

+ (x
2

1
3
2
)y = 0
donde x = az
b
=
2
3
z
3
2
e y = wz
c
= wz

1
2
. La soluci´on de la ecuaci´on de Bessel es
entonces
y(x) = c
1
J1
3
(x) + c
2
J

1
3
(x)
y reemplazando
w(z) = z
1/2
_
c
1
J1
3
_
2
3
z
3/2
_
+c
2
J

1
3
_
2
3
z
3/2
__
.
En esta parte final vamos a estudiar algunas propiedades de la funci´on de Bessel
J
ν
(x). Recordemos que para todo ν ∈ R se tiene
J
ν
(x) =

n=0
(−1)
n
n!Γ(1 + n + ν)
(
x
2
)
2n+ν
.
que es soluci´on de
x
2
y

+ xy

+ (x
2
−ν
2
)y = 0,
que para x > 0, se puede escribir como
y

+
1
x
y

+
x
2
−ν
2
x
2
y = 0.
Se puede demostrar que toda soluci´on (no trivial) de esta ecuaci´on tiene una
sucesi´on estrictamente creciente ¦λ
n
¦ de ceros positivos con λ
n
→ ∞ cuando
n →∞.
Sean ahora u(x) = J
ν
(ax) y v(x) = J
ν
(bx), donde a y b son constantes positivas
diferentes. Entonces es f´acil ver que u y v satisfacen respectivamente
u

+
1
x
u

+
a
2
x
2
−ν
2
x
2
u = 0,
y
v

+
1
x
v

+
b
2
x
2
−ν
2
x
2
v = 0.
319
Multiplicando la primera de estas ecuaciones por v y la segunda por u y restando
se obtiene
d
dx
(u

v −uv

) +
1
x
(u

v −uv

) = (b
2
−a
2
)uv,
que multiplicando por x se puede escribir como
d
dx
[x(u

v −uv

)] = (b
2
−a
2
)xuv.
Integrando de 0 a 1, resulta
(b
2
−a
2
)
_
1
0
xuvdx = [x(u

v −uv

)]
1
0
= (u

(1)v(1) −u(1)v

(1))
= aJ

ν
(a)J
ν
(b) −bJ
ν
(a)J

ν
(b),
que es cero si a y b son ceros distintos positivos de J
ν
(x). De aqu´ı se deduce
_
1
0
xJ
ν

m
x)J
ν

n
x)dx =
_
0 si m ,= n
1
2
[J
ν+1

n
)]
2
si m = n.
Esto nos dice que las funciones de Bessel J
ν
(x) son ortogonales con una funci´on
peso w(x) = x. De aqu´ı se sigue el siguiente teorema de desarrollo de funciones
en series de funciones de Bessel.
Teorema 6.6. Sea f : [0, 1] → R tal que f, f

son cont´ınuas a trozos en [0, 1].
Para 0 < x < 1 la serie

n=0
a
n
J
ν

n
x)
donde
a
n
=
2
[J
ν+1

n
)]
2
_
1
0
xf(x)J
ν

n
x)dx,
converge a f(x) en cualquier punto x ∈ (0, 1) de continuidad de f(x). Si ahora
x ∈ (0, 1) es un punto de discontinuidad de f y f(x

), f(x
+
) denotan los l´ımites
laterales de f(x), entonces la serie converge a
320
1
2
[f(x

) + f (x
+
)] .
En x = 1 la serie converge a 0, y tambi´en converge a cero en x = 0 si ν > 0. Si
ν = 0 entonces la serie converge a f(0+).
321
6.4. Ejercicios resueltos.
Ejercicio 6.1. Para la ecuaci´on diferencial:
xy

+ 4y

−xy = 0,
encuentre dos soluciones linealmente independientes en forma de series de poten-
cia en torno a x=0.
Soluci´on:
Se intenta encontrar una soluci´on en la forma
y(x) = x
m

n=0
a
n
x
n
=

n=0
a
n
x
m+n
,
Suponiendo que x > 0, derivando se obtiene
y

(x) =

n=0
(m + n)a
n
x
m+n−1
, y

(x) =

n=0
(m+ n)(m+ n −1)a
n
x
m+n−2
,
que se pueden escribir como
y

(x) = x
m−1

n=0
(m+ n)a
n
x
n
, y

(x) = x
m−2

n=0
(m +n)(m+ n −1)a
n
x
n
,
Reemplazando en la ecuaci´on diferencial estos desarrollos en serie, se obtiene
(m(m−1)+4m)a
0
x
m−1
+((m+1)m−4(1+m))a
1
x
m
+

n=2
((n+m)(n+m+3)a
k
−a
k−2
)x
n+r−1
= 0
Se asume que a
0
,= 0 y entonces la ecuaci´on indicial es:
m
2
+ 3m = 0.
Para m = 0, se calcula que a
1
= 0 y se obtiene la recurrencia:
a
n
=
a
n−2
n(n + 3)
.
Al resolver la recurrencia, resulta:
a
2n
=
a
0
(2n + 1)!(2n + 3)
, a
2n+1
= 0, n = 0, 1, 2, ..
322
Por lo tanto una soluci´on es la funci´on (serie):
y
1
(x) = a
0

n=0
x
2n
(2n + 1)!(2n + 3)
.
Para m = −3, se calcula que a
1
= 0, pero a
3
queda libre y se iguala a cero para
generar una soluci´on con a
0
. Se obtiene la recurrencia:
a
n
=
a
n−2
n(n −3)
.
Al resolver la recurrencia, resulta:
a
2n
= −
a
0
(2n −1)
(2n)!
, a
2n+1
= 0, n = 0, 1, 2, ..
Por lo tanto una soluci´on es la funci´on (serie):
y
2
(x) = −a
0
x
−3

n=0
(2n −1)x
2n
(2n)!
.
Finalmente la soluci´on general es:
y(x) = c
1

n=0
x
2n
(2n + 1)!(2n + 3)
+ c
2
x
−3

n=0
(2n −1)x
2n
(2n)!
.
Ejercicio 6.2. Considere la ecuaci´on de Hermite:
y

−2xy

+ 2py = 0,
donde p es una constante.
(a) Resuelva la ecuaci´on de Hermite mediante desarrollo en serie de potencias.
Demuestre que cuando p es un entero par una de las series soluci´on es un polino-
mio, y cuando p es un entero impar la otra serie es un polinomio.
(b) Se define como H
n
(x) el polinomio de Hermite de grado n ≥ 0, encontrado en
la parte (a), normalizado de modo que el factor de x
n
es igual a 2
n
. Calcule los
polinomios H
0
(x), H
1
(x), H
2
(x) y H
3
(x).
(c) La funci´on generadora de los polinomios de Hermite es:
323
φ(x, t) = e
2xt−t
2
=

n=0
H
n
(x)t
n
n!
.
Demuestre usando la funci´on generadora que los polinomios de Hermite santisfa-
cen la siguiente recurrencia:
H
n+1
(x) = 2xH
n
(x) −2nH
n−1
(x).
Soluci´on:
Se intenta encontrar soluciones de la forma
y(x) =

n=0
a
n
x
n
,
Suponiendo que x > 0, derivando se obtiene
y

(x) =

n=1
na
n
x
n−1
, y

(x) =

n=2
n(n −1)a
n
x
n−2
,
que se pueden escribir como
y

(x) =

n=1
na
n
x
n−1
, y

(x) =

n=0
(n + 2)(n + 1)a
n+2
x
n
,
Reemplazando en la ecuaci´on diferencial estos desarrollos en serie, se obtiene
2a
2
+ pa
0
+

n=1
((n + 2)(n + 1)a
n+2
−2na
n
+ 2pa
n
)x
n
= 0
Se obtiene que a
2
= −pa
0
y se obtiene la recurrencia:
a
n+2
=
2(n −p)a
n
(n + 2)(n + 1)
.
Al resolver la recurrencia para los terminos impares, resulta:
a
2n+1
=
2
n
((2n −1) −p)((2n −3) −p)....(1 −p)a
1
)
(2n + 1)!
=
a
1
2
n

n−1
i=0
(2i + 1 −p)
(2n + 1)!
, n = 0, 1, 2, ..
Al resolver la recurrencia para los terminos pares, resulta:
324
a
2n
=
2
n
(2(n −1) −p)(2(n −2) −p)....(−p)a
0
)
(2n)!
=
a
0
2
n

n−1
i=0
(2i −p)
(2n)!
, n = 0, 1, 2, ..
Entonces la soluci´on general es:
y(x) = c
1

n=0
2
n

n−1
i=0
(2i −p)x
2n
(2n)!
+ c
2

n=0
2
n

n−1
i=0
(2i + 1 −p)x
2n+1
(2n + 1)!
.
Los polinomios pedidos se obtienen de las series anteriores:
H
0
(x) = 1, H
1
(x) = 2x, H
2
(x) = 4x
2
−2, H
3
(x) = 8x
3
−12x.
Al derivar la funci´on generadora se obtiene:
(2x −2t)e
2xt−t
2
= (2x −2t)

n=0
H
n
(x)t
n
n!
= 2x

n=0
H
n
(x)t
n
n!
−2

n=0
H
n−1
(x)nt
n
n!
Esto es igual a a la derivada de la serie:

n=1
H
n
(x)nt
n−1
(n −1)!
=

n=0
H
n+1
(x)t
n
n!
Ahora se igualan coeficientes y se obtiene el resultado:
H
n+1
(x) = 2xH
n
(x) −2nH
n−1
(x).
325
7. Aspectos cualitativos de EDO No lineales
Consideremos el sistema de ecuaciones
x

= f(x), (7.1)
donde f : R
n
→R
n
, que supondremos de clase C
1
. Aqu´ı
x =
_
_
x
1
.
.
.
x
n
_
_
y f(x
1
x
n
) =
_
_
f
1
(x
1
x
n
)
.
.
.
f
n
(x
1
x
n
)
_
_
.
La matriz Jacobiana de f en x
0
∈ R
n
, la denotamos por:
Df(x
0
) = f

(x
0
) =
_
¸
_
∂f
1
∂x
1

∂f
1
∂xn
.
.
.
.
.
.
.
.
.
∂f
n
∂x
1

∂f
n
∂x
n
_
¸
_
(x
0
)
Teorema 7.1. El problema
x

= f(x) x(a) = c,
a ∈ R, c ∈ R
n
, tiene una ´ unica soluci´on definida en un cierto intervalo I que
contiene al punto a.
Definici´on 7.1. Diremos que x
0
∈ R
n
es un punto cr´ıtico o un punto de equilibrio
de la ecuaci´on (7.1) si f(x
0
) = 0.
Si x
0
es un punto cr´ıtico de (7.1), entonces x(t) = x
0
, para todo t ∈ R, es la
´ unica soluci´on de (7.1) que satisface x(τ) = x
0
, τ ∈ R fijo cualquiera. Para x
0
punto cr´ıtico de (7.1), vamos a asociar la ecuaci´on lineal:
x

= Df(x
0
)(x −x
0
), (7.2)
Respecto de la matriz Df(x
0
) definimos:
n
0
el n´ umero de valores propios de Df(x
0
) con parte real cero.
n
+
el n´ umero de valores propios de Df(x
0
) con parte real positiva.
n

el n´ umero de valores propios de Df(x
0
) con parte real negativa.
326
Definici´on 7.2. Un punto cr´ıtico se llama punto cr´ıtico hiperb´olico si n
0
= 0. En
este caso
si n
+
= 0 y n

= n, decimos que x
0
= 0 es un atractor.
Si n
+
= n y n

= 0, decimos que x
0
= 0 es un repulsor.
Si n
+
> 0 y n

> 0, decimos que x
0
= 0 es un punto silla.
Hemos visto varios ejemplos de este tipo en el caso lineal y n = 2, que toma la
forma
−→
x = (x, y),
_
x

y

_
=
_
a
11
a
12
a
21
a
22
_ _
x
y
_
= A
_
x
y
_
Los valores propios se calculan de:
det(λI −A) = λ
2
−tr(A)λ + det(A) = 0.
En la figura 1 (ver archivo aparte) se divide el plano en distintas regiones de
acuerdo a las raices de este polinomio. En la figura 2 (ver archivo aparte) se
muestran ejemplos t´ıpicos de acuerdo a las regiones de la figura 1. Por ejemplo
se tiene que en 1a y 2a los valores propios son complejos conjugados. En 1 y 1a
n

= 2 el origen es un atractor. En 2 y 2a n
+
= 2 el origen es un repulsor. En 3,
n
+
= n

= 1 entonces el origen es un punto silla.
Como se relacionan (7.1) y (7.2). En el caso hiperb´olico lo hacen por el siguiente
teorema importante.
Teorema 7.2 (Hartman y Grobmann). Si la ecuaci´on (7.1) tiene un punto cr´ıtico
hiperb´olico x
0
, entonces existe una vecindad U de x
0
y una vecindad V de x
0
, tal
que (7.1) y (7.2) son ”topol´ogicamente equivalentes”.
Esto significa que existe una aplicaci´on h : U → V , biyectiva, continua con
inversa continua que manda las ´orbitas de (7.1) en la vecindad U en ´orbitas de la
vecindad de V , respetando la direcci´on del tiempo.
Linealizaci´on en la vecindad de un punto cr´ıtico hiperb´olico y equivalencia to-
pol´ogica son resultados locales. Vamos a dar a continuaci´on conceptos m´as glo-
bales.
En lo que sigue suponemos n = 2 y que x
0
un punto silla de la ecuaci´on
x

= f(x).
Definici´on 7.3. Definimos:
W
S
(x
0
) = ¦a ∈ R
n
[ x(t, a) →x
0
si t →∞¦
327
donde x(t, a) es la soluci´on de la ecuaci´on tal que x(0, a) = a. W
S
(x
0
) se llama
la variedad estable de x
0
.
Similarmente:
Definici´on 7.4. La variedad inestable de x
0
se define como el conjunto
W
U
(x
0
) = ¦a ∈ R
n
[ x(t, a) →x
0
si t →−∞¦.
En R
2
, W
S
(x
0
) y W
U
(x
0
) son curvas.
Se tiene el siguiente teorema.
Teorema 7.3. Considerar la ecuaci´on x

= f(x), n = 2, y supongamos que x
0
es un punto silla de esta ecuaci´on. Entonces x
0
es un punto silla del sistema
linealizado:
x

= Df(x
0
)(x −x
0
)
Denotemos por E
S
(x
0
) y E
U
(x
0
) los espacios propios estables e inestables del
sistema linealizado y sea U una vecindad de x
0
. Si
W
S
loc
(x
0
) = U ∩ W
S
(x
0
),
entonces W
S
loc
(x
0
) es tangente a E
S
(x
0
) en x
0
. Similarmente, si
W
U
loc
(x
0
) = U ∩ W
U
(x
0
)
entonces W
U
loc
(x
0
) es tangente a E
U
(x
0
) en x
0
.

Sign up to vote on this title
UsefulNot useful