Está en la página 1de 52

Matemática C-C1

Algebra Lineal. Aplicaciones


Tema: Sistemas de Ecuaciones Diferenciales Lineales

Año 2007

1
Guia de clases:

Clase 1: Introducción. Sistemas de Ecuaciones Diferenciales Lineales homogéneos. Sis-


tema fundamental de soluciones.

Clase 2: Sistemas de Ec. Dif. Lineales inhomogéneos. Resolución.

Clase 3: Ecuaciones Diferenciales Lineales de orden n. Sistema equivalente. Ecuaciones


homogéneas de orden n.

Clase 4:Ecuaciones Diferenciales Lineales no Homogéneas. resolución.

Referencias
[1] E. Kreyszig, Matemáticas Avanzadas para Ingeniera (2do.vol), Limusa, 1997.

[2] R.K. Nagle, E.B. Saff, Fundamentos de Ecuaciones Diferenciales, Addison Wesley
Iberoamericana, 2003.

[3] M. R. Simmons, Ecuaciones Diferenciales con aplicaciones , McGrawHill, 2003.

[4] Dennis G. Zill , Ecuaciones Diferenciales con Aplicaciones, Grupo Editorial


Iberoamericana, México, 1986.

2
I. SISTEMAS DIFERENCIALES LINEALES
1. Introducción
Objetivo Estudiaremos en este módulo sistemas de ecuaciones diferenciales lineales.
Un sistema de ecuaciones diferenciales es un conjunto de ecuaciones diferenciales que
contienen varias funciones incógnitas y sus derivadas.
Los sistemas de ecuaciones diferenciales juegan un rol esencial en la descripción
matemática de fenómenos fı́sicos, ya que en general no resulta fácil hallar leyes que vin-
culen directamente las magnitudes que caracterizan dichos fenómenos, aunque si es posible
en muchos casos determinar la dependencia entre esas magnitudes y sus derivadas. Es-
to dará origen, en general, a un sistema de ecuaciones diferenciales, que determinará la
evolución del sistema fı́sico.

Ejemplo 1: El sistema de ecuaciones diferenciales


½ 0
x1 = ax1 + bx2
x02 = bx1 + ax2

donde x01 = dx1 /dt, x02 = dx2 /dt, constituye un sistema de dos ecuaciones diferencia-
les “acopladas”, que posee como funciones incógnitas x1 (t), x2 (t), siendo t la variable
independiente.
La velocidad de variación de x1 , dada por x01 , depende tanto de x1 como de x2 , y lo
mismo sucede con x2 .
El parámetro b controla el acoplamiento entre x1 y x2 .
Los parámetros a y b pueden en principio depender de t.
Soluciones: En el caso de a y b constantes, una solución del sistema está dada por el
par de funciones:
x1 (t) = e(a−b)t , x2 (t) = −e(a−b)t , como puede comprobarse fácilmente mediante susti-
tución.
Justificaremos más adelante que la solución general del sistema está dada por el par
x1 (t) = c1 e(a+b)t + c2 e(a−b)t ,
x2 (t) = c1 e(a+b)t − c2 e(a−b)t , con c1 , c2 constantes arbitrarias, es decir
µ ¶ µ ¶ µ ¶
x1 (t) (a+b)t 1 (a−b)t 1
= c1 e + c2 e
x2 (t) 1 −1

Cualquier solución de este sistema corresponde a valores particulares de las constantes


c1 y c2 .
En particular, la solución dada previamente se obtiene para c1 = 0, c2 = 1.

3
La forma más general que adopta un sistema de ecuaciones diferenciales es la siguiente:

(p) (p)

 F1 (t, x1 , . . . , xn , x01 , . . . , x0n , . . . , x1 , . . . , xn ) = 0

 (p) (p)
F2 (t, x1 , . . . , xn , x01 , . . . , x0n , . . . , x1 , . . . , xn ) = 0

 ...

 (p) (p)
Fm (t, x1 , . . . , xn , x01 , . . . , x0n , . . . , x1 , . . . , xn ) = 0
donde t es la variable independiente,

x1 (t), x2 (t), . . . , xn (t)

son las n funciones incógnitas y


(p)
x01 (t), . . . , x0n (t), . . . , x1 (t), . . . , x(p)
n (t)

las derivadas de estas funciones, hasta el orden p.

Se dice entonces que el sistema es de orden p, pues contiene derivadas hasta orden p
de las funciones incógnitas.
El número de ecuaciones es m.

Todo sistema puede siempre escribirse como un sistema de ecuaciones diferenciales de


primer orden, aumentando el número de funciones incógnitas. En efecto, introduciendo
las funciones

(p−1)
y1 = x01 , . . . , yn = x0n , z1 = x001 , . . . , zn = x00n , . . . u1 = x1 , . . . , un = x(p−1)
n

podemos escribir el sistema previo como


 0

 x1 = y1



 ...



 x0n = yn



 y10 = z1

...

 yn0 = zn



 ...



 F1 (t, x1 , . . . , xn , y1 , . . . , yn , . . . , u1 , . . . , un , u01 , . . . , u0n ) = 0



 ...

Fm (t, x1 , . . . , xn , y1 , . . . , yn , . . . , u1 , . . . , un , u01 , . . . , u0n ) = 0
que constituye un sistema de m + (p − 1)n ecuaciones de primer orden con pn incógnitas
x1 (t), . . . , xn (t), . . . , u1 (t), . . . , un (t).

4
Caso especial importante es ...

Ejemplo 2: Cuando se tiene una ecuación diferencial de orden p con una sóla incógnita x(t):

x(p) = f (t, x, x0 , x00 , . . . , x(p−1) )


Para llevar esta ecuación a “un sistema de ecuaciones diferenciales”de primer orden,
se definen p variables denominando:

x1 = x(t), x2 = x0 (t), x3 = x00 (t), . . . xp = x(p−1) (t)


Asi, podemos siempre expresar la ecuación dada de orden p como un
sistema de p ecuaciones de primer orden:
 0

 x1 = x2


 x02 = x3
...



 x0p−1 = xp
 0
xp = f (t, x1 , x2 , . . . , xp )

Ejemplo 3: La ecuación de movimiento en una dimensión para una partı́cula de masa


m sujeta a la acción de una fuerza general f (t, x, x0 ) que depende del tiempo t, la posición
x y la velocidad x0 , está dada por la ecuación de segundo orden

mx00 = f (t, x, x0 )
Definiendo x1 = x, x2 = x0 , podemos escribir la ecuación previa como un sistema de
primer orden para las incógnitas x1 (t) = x(t) y x2 (t):
½ 0
x1 = x2
mx02 = f (t, x1 , x2 )
o directamente...
definiendov = x0 , podemos escribir la ecuación dada como un sistema de dos ecuaciones
de primer orden en las incógnitas x(t), v(t),
½ 0
x =v
mv 0 = f (t, x, v)
Por supuesto que ambas formas de representar son idénticas.

Por tanto, consideraremos en lo sucesivo sistemas de ecuaciones de primer orden, sin


pérdida de gene ralidad.
Asumiremos además que es posible despejar explı́citamente las derivadas y que el
número de ecuaciones es igual al número de incógnitas.
Un sistema de primer orden que está escrito de esta forma se dice que está en forma
normal.

5
El aspecto más general que adopta un sistema de n ecuaciones diferenciales de primer
orden en forma normal es


 x01 = f1 (t, x1 , . . . , xn )

 x0 = f2 (t, x1 , . . . , xn )
2
..

 .

 x0 = f (t, x , . . . , x )
n n 1 n

Si definimos los vectores   


x1 f1
 x2   f2 
X= , F = 
 ...  

... 
xn fn
podemos escribir el sistema de primer orden normal en la forma compacta

X0 = F(t, X)
Una solución de este sistema es un vector X(t) de n componentes xi (t), i = 1, . . . , n,
que satisface la ecuación anterior en algún intervalo de t (t ∈ I ⊂ R).

Ejercicios
½
x01 = 3x32
1. Dado el sistema
x02 = x2
½
x1 = e3t
verificar que las funciones: , satisfacen las ecuaciones dadas
x2 = et
2. Idem anterior, para el sistema
½ 0
x1 = 1
x02 = 3(x2 )2
½
x1 = t + 1
y las funciones:
x2 = t3 + 3t2 + 3t
3. Llevar la siguiente ecuación de segundo orden: my 00 +ky = 0, a un sistema de primer
orden con 2 ecuaciones.

4. Llevar el siguiente sistema de segundo orden:


½ 00
2x + 6x − 2y = 0
a un sistema de primer orden de 4 ecuaciones, usando x1 =
y 00 + 2y − 2x = 0
x, x2 = x01 , x3 = y, x4 = y 0 .

Problema de condiciones iniciales:

El problema de encontrar una solución del sistema anterior que en t = t0 ∈ I satisfaga


X(t0 ) = X0 = (x10 , x20 , . . . , xn0 )t , es decir,

x1 (t0 ) = x10 , x2 (t0 ) = x20 , . . . xn (t0 ) = xn0

6
se denomina problema de condiciones iniciales(o valores iniciales).
Los números x10 , . . . , xn0 son los valores iniciales de las funciones incógnitas x1 (t), . . . , xn (t).
Un problema de condiciones iniciales está constituido por el par
½ 0
X = F(t, X)
X(t0 ) = X0
Puede demostrarse (Teorema de Picard) que:

Si las funciones fi son continuas en una región :

|t − t0 | ≤ a, |X − X0 | ≤ b,
∂fi
con a > 0, b > 0, y si las derivadas parciales ∂x j
existen y están acotadas en dicha región
para i, j = 1, . . . , n, entonces
existe una única solución X(t) del sistema que satisface la condición inicial X(t0 ) = X0 ,
dentro de un cierto intervalo |t − t0 | ≤ c, con c > 0.

1.1 Sistemas lineales de primer orden. Generalidades


A partir de ahora nos concentraremos en los sistemas de ecuaciones diferenciales de
primer orden lineales, es decir, sistemas cuya forma normal es
 0

 x = a11 (t)x1 + . . . + a1n (t)xn + b1 (t)
 10
x2 = a21 (t)x1 + . . . + a2n (t)xn + b2 (t)

 ...
 0
xn = an1 (t)x1 + . . . + ann (t)xn + bn (t)

El sistema anterior se dice homogéneo si bi (t) = 0 para i = 1, . . . , n, e inhomogéneo


en caso contrario.
El sistema puede escribirse convenientemente en la forma matricial
 0      
x1 a11 (t) . . . a1n (t) x1 b1 (t)
 x02   a21 (t) . . . a2n (t)   x2   b2 (t) 
      
 ...  =  ...  ...  +  ... 
x0n an1 (t) . . . ann (t) xn bn (t)
o, en forma compacta,
X0 = A(t) · X + B(t)
con    
a11 (t) . . . a1n (t) b1 (t)
 a21 (t) . . . a2n (t)   b2 (t) 
A(t) = 

 , B(t) = 
 

... ... 
an1 (t) . . . ann (t) bn (t)
El correspondiente problema de condiciones iniciales se escribe en la forma
½ 0
X (t) = A(t) · X + B(t)
X(t0 ) = X0

7
P
Como en este caso fi (t, x1 , . . . , xn ) = nj=1 aij (t)xj + bj (t), con ∂fi /∂xj = aij (t), si
todos los elementos aij (t) y bi (t) son funciones continuas de t en un cierto intervalo I que
contiene a t0 , el problema de condiciones iniciales posee una única solución X(t) en
dicho intervalo, para cualquier vector inicial X0 ∈ Rn .
Esto también implica que si no se especifica la condición inicial, el sistema
X0 (t) = A(t) · X + B(t) posee infinitas soluciones (que dependerán de n parámetros
libres: los necesarios para determinar X0 ).

Otra consecuencia es que si X1 (t) y X2 (t) son dos soluciones tales que X1 (t0 ) 6= X2 (t0 )
⇒ X1 (t) 6= X2 (t) para todo t ∈ I (pues si existiese un tiempo tc ∈ I en el que X1 (tc ) =
X2 (tc ) ⇒ ambas son soluciones para la condición inicial X(tc ) = X1 (tc ) y deben ser por
lo tanto coincidentes ∀ t ∈ I).

Ejercicios
1. Escribir
½ 0 en forma matricial el sistema de 2 ecuaciones de primer orden:
x1 = 2x1 − 3x2
x02 = x1 − 2x2
2. Escribir
½ 0 en forma matricial el sistema de 2 ecuaciones de primer orden:
x1 = 2x1 − 3x2 + 3t
x02 = x1 − 2x2 − t2
3. Escribir en forma matricial el sistema obtenido en un ejercicio previo cuando con-
virtió la siguiente ecuación de segundo orden: my 00 + ky = 0.

4. De igual manera, escribir en forma matricial el sistema de cuatro ecuaciones de


primer ½
orden obtenido en un ejercicio previo, por conversión del sistema de segundo
2x00 + 6x − 2y = 0
orden: a un sistema de primer orden de 4 ecuaciones, usando
y 00 + 2y − 2x = 0
x1 = x, x2 = x01 , x3 = y, x4 = y 0 .

2.Sistemas lineales de primer orden homogéneos. Sis-


temas fundamentales de soluciones
Estudiaremos en esta sección técnicas de resolución de sistemas diferenciales lineales
homogéneos

X0 = A(t)X
(es decir, con B(t) = 0).
La solución nula X(t) = 0 ∀ t ∈ I es obviamente una solución posible para cualquier
sistema homogéneo y se denomina solución trivial.
Podemos ahora enunciar el siguiente teorema:

8
Teorema Dado el sistema lineal homogéneo X0 = A(t) · X, donde A(t) es continua en
el intervalo abierto I, se veri-fican las siguientes propiedades:
1) Si X(t) es una solución no trivial, entonces X(t) 6= 0 ∀ t ∈ I.
2) Si X(t) e Y(t) son soluciones ⇒ c1 X(t) + c2 Y(t) es también solución ∀ c1 , c2 ∈ R.
3) El conjunto de todas las soluciones del sistema homogéneo es un espacio vectorial de
dimensión n, siendo n el número de ecuaciones e incógnitas del sistema.

Demostración. Para demostrar 1), basta con utilizar la unicidad de la solución: Si


X(t1 ) = 0 para algún t1 ∈ I ⇒ X(t) serı́a solución del sistema X0 = A(t) · X con la
condición inicial X(t1 ) = 0.
Pero la solución trivial es obviamente también solución del sistema con dicha condición,
por lo que la unicidad implica que X(t) debe ser en tal caso la solución trivial.
La propiedad 2) es consecuencia directa del carácter lineal del sistema: Si X0 = A(t)X,
0
Y = A(t)Y ⇒

(c1 X + c2 Y)0 = c1 X0 + c2 Y0 = c1 A(t)X + c2 A(t)Y = A(t)(c1 X + c2 Y)

Finalmente, para demostrar 3, consideremos n vectores iniciales


X10 , X20 , . . . , Xn0 ∈ Rn linealmente independientes, y las correspondientes soluciones

X1 (t), . . . , Xn (t)
para t ∈ I, tales que X1 (t0 ) = X10 , . . . , Xn (t0 ) = Xn0 .
Los n vectores iniciales forman una base de Rn por ser n vectores linealmente inde-
pendientes. Por tanto, cualquier condición inicial puede expresarse en la forma

X0 = c1 X10 + . . . + cn Xn0

con constantes apropiadas c1 , . . . , cn ∈ R.


Por la unicidad, la solución del sistema X0 = A(t)X con la condición inicial
X(t0 ) = X0 será entonces

X(t) = c1 X1 (t) + . . . + cn Xn (t)

pues la combinación lineal anterior es solución (punto 2) y satisface la condición inicial.


Además, los vectores X1 (t), . . . , Xn (t) permanecen linealmente independientes ∀ t ∈ I,
pues si existiesen t1 ∈ I y constantes d1 , . . . , dn no todas nulas tales que d1 X1 (t1 ) +
. . . dn Xn (t1 ) = 0 entonces X(t) = d1 X1 (t) + . . . + dn Xn (t) serı́a, por 1), solución trivial
del sistema, es decir, X(t) = 0 ∀ t ∈ I.
Esto implicarı́a la dependencia lineal de los vectores X1 (t), . . . , Xn (t) ∀ t ∈ I, incluyendo
t = t0 , pero esto es imposible por ser X1 (t0 ), . . . , Xn (t0 ) linealmente independientes.
En consecuencia ...

Cualquier solución X(t) del sistema homogéneo puede expresarse como combinación
lineal de las n soluciones X1 (t), . . . , Xn (t). Estas soluciones forman pues una base para
el conjunto de soluciones, por ser linealmente independientes.

El conjunto de soluciones es entonces un espacio vectorial de dimensión n.

9
Sistema fundamental: Una base de soluciones {X1 (t), . . . , Xn (t)} se denomina
sistema fundamental de soluciones del sistema homogéneo.
La correspondiente matriz (de n × n)

M(t) = (X1 (t), X2 (t), . . . , Xn (t))

cuyas columnas forman el sistema fundamental de soluciones se denomina matriz fun-


damental.
Esta matriz es pues no singular ∀ t ∈ I y satisface
M0 (t) = A(t)M(t).
Cualquier solución del sistema X0 = A(t)X puede expresarse como

X(t) = c1 X1 (t) + . . . + cn Xn (t) = M(t)C

donde  
c1 ,
 
C =  ...  es un vector de constantes.
cn
La solución que satisface la condición inicial X(t0 ) = X0 corresponde entonces a

MC = X0

C = [M(t0 )]−1 X0

Por lo anteriormente expuesto, queda también demostrado el siguiente teorema (los


detalles se dejan como ejercicio):

Teorema Sean X1 (t), . . . , Xk (t), k soluciones del sistema homogéneo X0 = A(t)X, con
A(t) continua en un intervalo abierto I y sea t0 ∈ I. Entonces X1 , . . . , Xk son linealmente
independientes en el intervalo I si y sólo si
los vectores X1 (t0 ), . . . , Xk (t0 ) son linealmente independientes.

Ejercicios
1. Verificar que las funciones vectoriales son linealmente independientes: en el intervalo
con t ∈ <:
 2t   2t   t 
e e e
X 1 (t) =  0  ; X 2 (t) =  e2t  ; X 3 (t) =  2e 
t

e2t e−2t et

En este caso, basta con ver que en t0 = 0, el determinante de la matriz M (0) es no


nulo, o sea que la matriz M (0) es “no singular.
Si fuesen soluciones de un sistema también eso implicarı́a que serı́a no singular
M (t) en cualquier otro t. En general eso no es cierto cuando son funciones que no
satisfacen el hecho de ser soluciones del sistema lineal diferencial.

10
2. (a) Verificar que las funciones vectoriales siguientes:
     
e2t −et 0
X 1 (t) =  e2t  ; X 2 (t) =  0  ; X 3 (t) =  et 
e2t e−t −e−t
 
0 1 1
son soluciones de: X 0 (t) =  1 0 1  X(t).
1 1 0
(b) Luego verificar que esas soluciones son linealmente independientes en el intervalo
con t ∈ <.

(c) Escribir entonces la solución general : X(t), usando el sistema fundamental de


soluciones.
 
x1 (t)
(d) Hallar la solución X(t) =  x2 (t)  tal que satisface las condiciones iniciales:
    x3 (t)
x1 (0) 1
X(0) =  x2 (0)  =  1 
x3 (0) 0
3. Verificar que las funciones vectoriales son linealmente dependientes en <:
 t   t   
e 3e t
1
X (t) =  0  2
; X (t) =  0  3
; X (t) =  1 
t t
e 3e 0

Basta con ver aquı́ que X 2 (t) = 3X 1 (t) + 0X 3 (t).


En el caso que fuesen soluciones de un sistema de ecuaciones diferenciales, bas-
tarı́a con ver que en un punto la matriz M (t0 ) es singular. Si se trata de funciones
cualesquiera habrı́a que ver que para todo t es M (t) singular, como ocurre aquı́ .

2.2. Soluciones de un sistema lineal homogéneo con


coeficientes constantes
Consideremos ahora el caso, de gran importancia práctica, en el que todos los coefi-
cientes de la matriz A son constantes, es decir, independientes de t (aij (t) = aij ∀ i, j).
En tal caso, el sistema se escribe
X0 = AX
Podemos entonces tomar I = R y la teorı́a anterior asegura la existencia de n soluciones
linealmente independientes de dicho sistema válidas ∀ t ∈ R.
Una forma de resolver dichos sistemas es proponer una solución de tipo exponencial
de la forma

X(t) = eλt v

11
donde λ es un número real o complejo y v un vector independiente del tiempo. En tal
caso
X0 (t) = λeλt v. Por lo tanto, si X(t) es solución del sistema, v debe satisfacer

λeλt v = A(eλt v)
o sea,
Av = λv
lo que implica, si exigimos v 6= 0, que λ debe ser autovalor de A (Det[A − λI] = 0) y v
un autovector asociado.
En otras palabras, para que X(t) = eλt v sea solución no trivial, es condición necesaria
y suficiente que v sea autovector de A con autovalor λ.

Para resolver el sistema debemos pues hallar los autovalores y autovectores de la matriz
A.

Observación importante: Sin embargo, no debemos olvidar que para obtener la


solución general se necesitan n soluciones linealmente independientes.

Surgen entonces dos situaciones:

a) La matriz A es diagonalizable, es decir, posee n autovectores v1 , . . . , vn


linealmente independientes, asociados a autovalores λ1 , . . . , λn (no necesariamente
distintos).
Este es, por ejemplo, el caso de matrices reales simétricas, que son siempre diagonal-
izables (aún cuando tengan autovalores repetidos) y también de matrices arbitrarias
de n × n que poseen n autovalores distintos.

b) La matriz A no es diagonalizable, es decir, posee solamente k < n autovectores


linealmente independientes.
Este caso puede darse sólo si los autovalores no son todos distintos. Para matrices
generales que dependen de parámetros, este caso se da usualmente sólo para aquellos
valores particulares de los parámetros en los que coinciden dos o más autovalores.

Caso a): A diagonalizable. En esta situación se cuenta directamente con n soluciones


linealmente independientes, dadas por

X1 (t) = eλ1 t v1 , X2 (t) = eλ2 t v2 , . . . Xn (t) = eλn t vn

donde v1 , v2 , . . . , vn son n autovectores linealmente independientes.


Toda solución del sistema puede pues expresarse en la forma

X(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn

12
Este caso admite también un tratamiento más formal que posibilita una comprensión
más profunda de la solución general. Como la matriz A es diagonalizable, existe una
matriz S de n × n no singular tal que
 
λ1 0 ... 0
 0 λ2 ... 0 
S−1 AS = D, D=

 , S = (v1 , . . . , vn )

...
0 0 . . . λn

donde las columnas de S son autovectores linealmente independientes de A (e inde-


pendientes de t).
Multiplicando entonces el sistema a izquierda por la inversa S−1 , se obtiene

S−1 X0 = S−1 AX = (S−1 AS)(S−1 X)


es decir,
 
y1
Y0 = DY, con Y = S−1 X =  . . . 
yn

Por ser D diagonal, las n funciones y1 (t), . . . , yn (t) satisfacen un sistema de n ecua-
ciones desacopladas,
 0

 y = λ1 y1
 10
y2 = λ2 y2

 ...
 0
yn = λn yn

cuya solución es inmediata:


yi (t) = ci eλi t , i = 1, . . . , n, con ci constante. En estas variables, el sistema está de-
sacoplado y la variación de cada función yi (t) es independiente de las demás.
Esto corresponde a ver el sistema en la base de Rn en la que el operador lineal
asociado a la matriz A tiene una representación diagonal.
Podemos entonces escribir la solución general para Y como
 
c1 eλ1 t
 c2 eλ2 t 
Y(t) = 
 ... 

cn eλn t

y la solución general para X como

X(t) = SY(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn


que coincide con el resultado previo.
Una matriz fundamental de soluciones es entonces

13
M(t) = (eλ1 t v1 , eλ2 t v2 , . . . , eλn t vn )

con M(0) = S y Det[M(t)] = e(λ1 +...+λn )t Det[S] 6= 0


∀ t. La solución general puede entonces escribirse como

X(t) = M(t)C
con C = (c1 , . . . , cn )t . La solución que satisface la condición inicial
X(0) = X0 puede obtenerse a partir de

M(0)C = X0

Se obtiene ası́, un sistema no singular de n ecuaciones con n incógnitas c1 , . . . , cn ,


cuya única solución es

C = [M(0)]−1 X0 = S−1 X0

Ejemplo 4. Volvamos al primer ejemplo considerado:


½ 0
x1 = ax1 + bx2
x02 = bx1 + ax2
con a y b reales. En forma matricial,
µ 0 ¶ µ ¶ µ ¶
x1 x1 a b
=A , A=
x02 x2 b a
Los autovalores de la matriz A se obtienen de la ecuación caracterı́stica :
|A − λI2 | = (a − λ)2 − b2 = 0, cuyas raı́ces son

λ1 = a + b, λ2 = a − b

La matriz A es siempre diagonalizable porque es real simétrica. Un conjunto linealmente


independiente de autovectores asociados es
µ ¶ µ ¶
1 1
v1 = , v2 =
1 −1

La solución general del sistema podemos entonces escribirla como


µ ¶ µ ¶ µ ¶
x1 (t) (a+b)t 1 (a−b)t 1
= c1 e + c2 e
x2 (t) 1 −1
o sea,
½
x1 (t) = c1 e(a+b)t + c2 e(a−b)t
x2 (t) = c1 e(a+b)t − c2 e(a−b)t
que es la solución dada en el primer ejemplo.

14
Solución particular: Si queremos obtener la solución particular que satisface la
condición inicial
x1 (0) = x10 , x2 (0) = x20 ,
se debe resolver. Dado que x1 (0) = c1 + c2 , x2 (0) = c1 − c2 , el sistema
½
c1 + c2 = x10
c2 − c2 = x20

que es no singular y cuya única solución es

c1 = (x10 + x20 )/2, c2 = (x10 − x01 )/2

Por ejemplo, si x10 = 1, x20 = 0 ⇒ c1 = c2 = 1/2 y se obtiene la solución particular

x1 (t) = eat (ebt + e−bt )/2, x2 (t) = eat (ebt − e−bt )/2

donde vemos que debido al acoplamiento, x2 (t) 6= 0 para t > 0 si b 6= 0.


Si b = 0 ⇒ x2 (t) = 0 ∀ t.

En este caso, la correspondiente matriz de autovectores S, y su inversa


S−1 , están dadas por
µ ¶ µ ¶
1 1 −1 1 1 1
S= , S =
1 −1 2 1 −1
verificándose que S−1 AS = D, con D = (a+b 0
0 a−b ).
Las variables Y = S−1 X son entonces
µ ¶ µ ¶µ ¶ µ ¶
y1 1 1 1 x1 1 x1 + x2
= =
y2 2 1 −1 x2 2 x1 − x2
o sea, y1 = (x1 + x2 )/2, y2 = (x1 − x2 )/2, y satisfacen las ecuaciones desacopladas
½ 0
y1 = (a + b)y1
y20 = (a − b)y2
como es fácil verificar directamente. La solución de este sistema es
y10 = c1 e(a+b)t , y2 = c2 e(a−b)t . Podemos reobtener ası́ la solución general como
µ ¶ µ ¶ µ ¶ µ ¶
x1 (t) y1 (t) (a+b)t 1 (a−b)t 1
=S = c1 e + c2 e
x2 (t) y2 (t) 1 −1
Matriz fundamental. Una matriz fundamental de soluciones de este sistema es entonces
µ (a+b)t ¶
e e(a−b)t
M(t) =
e(a+b)t −e(a−b)t
con M(0) = S, de forma que
µ ¶ µ ¶
x1 (t) c1
= M(t)
x2 (t) c2
Se verifica que Det[M(t)] = −2e2at 6= 0 ∀ t, de modo que

15
M(t) permanece no singular ∀ t.
A partir de M(t), las constantes c1 , c2 para una dada condición inicial x1 (0) = x10 ,
x2 (0) = x20 , pueden obtenerse escribiendo
µ ¶ µ ¶
c1 x10
M(0) =
c2 x20
de donde, notando que M(0) = S,
µ ¶ µ ¶ µ ¶µ ¶ µ ¶
c1 −1 x10 1 1 1 x10 1 x10 + x20
=S = =
c2 x20 2 1 −1 x20 2 x10 − x20
es decir, c1 = (x10 + x20 )/2, c2 = (x10 − x20 )/2, que coincide con el resultado previo.

Ejercicios
· ¸ · ¸· ¸
x01 (t) 2 −3 x1 (t)
1. (a) Hallar las soluciones linealmente independientes de : =
x02 (t) 1 −2 x2 (t)
(b) Hallar la expresión de la solución general del sistema dado.
(c) Hallar la solución particular que en t = 0, satisface que x1 (0) = 1, y que x2 (0) =
2.

2. Lo mismo que en el ejercicio·previo si el¸ sistema de dos ecuaciones de primer orden


2 −3
homogéneo tiene la matriz:
−3 −2
En particular, hallar la solución que en t = 0 , x1 (0) = 2 y x2 (0) = 1.

Autovalores complejos
Autovalores complejos. Debe observarse que los autovalores de A pueden ser com-
plejos, es decir, de la forma λ = α + iβ, con α y β reales. En estos casos se debe
recordar la fórmula de Euler para la exponencial,

eλt = e(α+iβ)t = eαt [cos(βt) + isen(βt)]

El autovector asociado v será también complejo si la matriz A es real, es decir


v = u + iw, con u y w reales.

Si interesa encontrar soluciones reales, basta saber que tanto la parte real como la parte
imaginaria de una solución compleja del sistema es también solución si A es real:

Si X(t) = Xr (t) + iXi (t) entonces

X0 (t) = X0r (t) + iX0i (t) = A(Xr (t) + iXr (t))

por lo que igualando partes reales e imaginarias,

X0r (t) = AXr (t), X0i (t) = AXi (t)

16
de modo que la parte real Xr (t) y la parte imaginaria Xi (t) de X(t) son también
soluciones del sistema.
Luego, para una solución X(t) = eλt v,

eλt v = eα+iβt (u + iw) = eαt [cos(βt) + isen(βt)](u + iw) (1)


= eαt [u cos(βt) − w sen(βt)] + ieαt [w cos(βt) + u sen(βt)] (2)

de modo que

Xr (t) = eαt [u cos(βt) − w sen(βt)], Xi (t) = eαt [w cos(βt) + u sen(βt)]


son dos soluciones linealmente independientes del sistema pues u y w son lineal-
mente independientes.

Nótese que si A es real y λ = α + iβ es autovalor de A con autovector asociado


v = u + iw ⇒ el valor conjugado λ∗ = α − iβ es también autovalor de A con
autovector asociado v∗ = u − iw.

De esta forma, un par de autovalores conjugados da lugar únicamente a dos soluciones


linealmente independientes.

Ejemplo 5. Consideremos ahora


½
x01 = ax1 + bx2
x02 = −bx1 + ax2

En forma matricial,
µ ¶ µ ¶ µ ¶
x01 x1 a b
=A , A=
x02 x2 −b a

Los autovalores de la matriz A se obtienen de la ecuación caracterı́stica


|A − λI2 | = (a − λ)2 + b2 = 0, que conduce a autovalores complejos (suponemos a
y b reales)

λ1 = a + ib, λ2 = a − ib
La matriz es siempre “ diagonalizable”pues tiene dos autovalores distintos si b 6= 0
(y es diagonal cuando b = 0).
Un conjunto linealmente independiente de autovectores asociados es
µ ¶ µ ¶
1 1
v1 = , v2 = = v1∗
i −i

La solución general del sistema podemos entonces escribirla en forma compleja como

17
µ ¶ µ ¶ µ ¶
x1 (t) (a+ib)t 1 (a−ib)t 1
= c1 e + c2 e
x2 (t) i −i

Tomando partes real e imaginaria de la primera solución e(a+ib)t v1 obtenemos la


expresión real alternativa
µ ¶ µ ¶ µ ¶
x1 (t) 0 at cos(bt) 0 at sen (bt)
= c1 e + c2 e
x2 (t) −sen (bt) cos(bt)

que corresponde a c1 = c01 − ic02 , c2 = c01 + ic02 .

Como en este caso x1 (0) = c01 , x2 (0) = c02 , la solución que satisface x1 (0) = x10 ,
x2 (0) = x20 corresponde a c01 = x10 , c02 = x20 .

Una matriz fundamental de soluciones reales es entonces


µ ¶
eat cos(bt) eat sen(bt)
M(t) =
−eat sen(bt) eat cos(bt)
y satisface M(0) = I2 , con Det[M(t)] = e2at 6= 0 ∀ t.
La matriz S de autovectores de A, y su inversa S−1 , están dadas por
µ ¶ µ ¶
1 1 −1 1 1 −i
S= , S =
i −i 2 1 i

verificándose que S−1 AS = D, con D = (a+ib 0


0 a−ib ).

Las variables Y = S−1 X son entonces


µ ¶ µ ¶µ ¶ µ ¶
y1 1 1 −i x1 1 x1 − ix2
= =
y2 2 1 i x2 2 x1 + ix2

y satisfacen las ecuaciones desacopladas


½
y10 = (a + ib)y1
y20 = (a − ib)y2

como es fácil verificar directamente, cuya solución es y10 = c1 e(a+ib)t , y2 = c2 e(a−ib)t .


Podemos obtener ası́ la solución general como
µ ¶ µ ¶ µ ¶ µ ¶
x1 (t) y1 (t) (a+ib)t 1 (a−ib)t 1
=S = c1 e + c2 e
x2 (t) y2 (t) i −i

18
Ejercicios
· ¸ · ¸· ¸
x01 (t) −1 2 x1 (t)
1. (a) Hallar las soluciones linealmente independientes de : =
x02 (t) −1 −3 x2 (t)
(b) Hallar la expresión de la solución general del sistema dado.
(c) Hallar la solución particular que en t = 0, satisface que x1 (0) = 1, y que x2 (0) =
1.
· ¸
2 −5
2. Idem ejercicio previo si la matriz A =
4 −2

3. (a) Lo mismo que en el ejercicio previo para el sistema homogéneo que se obtiene al
convertir el sistema de segundo orden siguiente, en un sistema de primer orden con
4 ecuaciones:
½
m1 x001 (t) = −k1 x1 + k2 (x2 − x1 )
Ese sistema representa el movimiento del sis-
m2 x002 (t) = −k2 (x2 − x1 ) − k3 x2
tema masa-resorte, donde x1 , y x2 son los desplazamientos de las masas m1 y m2
hacia la derecha de sus posiciones de equilibrio. k1 , k2 , k3 son las constantes de tres
resortes.
Verificar que el sistema de primer orden tiene autovalores siempre imaginarios del
tipo: ±iβ1 , y ±iβ2 .
(b) Resolver el sistema de (a) cuando m1 = m2 = 1kg; k1 = 1N/m k2 = 2N/m, y
k3 = 3N/m.

Vamos ahora al caso (b) que es el más dificil...

Caso b: A no es diagonalizable.
En este caso “existe.al menos un autovalor repetido cuya multiplicidad algebraica
(multiplicidad como raı́z del polinomio caracterı́stico) no coincide con su multipli-
cidad geométrica (dimensión del espacio propio correspondiente).

Si hay k, k < n, autovectores linealmente independientes, éstos proporcionan k solu-


ciones linealmente independientes, pero faltan otras n − k soluciones linealmente indepen-
dientes.

Para obtener estas soluciones se tendrá en cuenta el siguiente resultado (ver por
ejemplo Edwards y Penney página 425, sección 5.6) :

19
Si λ es autovalor de multiplicidad algebraica m y multiplicidad geométrica 1, siendo v1
el autovector asociado, entonces “existen m soluciones linealmente independientes”de la
forma:

X1 (t) = eλt v1
X2 (t) = eλt (v12 + tÃv12 )
t2
X3 (t) = eλt (v13 + tÃv13 + Ã2 v13 )
2!
...
tm−1
Xm (t) = eλt (v1m + tÃv1m + . . . + Ãm−1 v1m )
(m − 1)!

donde à ≡ A − λIn , y v12 es un vector que satisface

Ã2 v12 = 0

pero
Ãv12 6= 0,
y en general, v1k , k = 2, . . . , m, es un vector que satisface

Ãk v1k = 0, pero

Ãk−1 v1k 6= 0.

Si se comienza con v1m , se puede elegir


v1,m−k = Ãk v1m , con
v1 = v11 = Ãm−1 v1m donde v1 es un autovector de A con autovalor λ, pues Ãv11 =
0.

Los vectores v12 , v13 , . . . , v1m se denominan autovectores generalizados asociados al


autovalor λ.

Su existencia está garantizada por el siguiente resultado:

Si los autovalores de A son λ1 , . . . , λk y tienen multiplicidades algebraicas m1 , . . . , mk


respectivamente, entonces para cada λi (i = 1, . . . , k) existen mi vectores linealmente
independientes que verifican:
(A − λi In )r v = 0
para algún entero positivo r, con r ≤ mi .
El conjunto de los n = m1 + . . . + mk vectores ası́ construidos, considerando todos los
autovalores, es linealmente independiente.

20
Resumiendo:
Para encontrar las n soluciones linealmente independientes de un sistema homogéneo
cuando A no es diagonalizable, se encuentran, para cada autovalor λ repetido cuya mul-
tiplicidad algebraica no coincida con la multiplicidad geométrica, todos los vectores v
linealmente independientes que satisfacen
Ãv 6= 0 y Ã2 v = 0, donde à ≡ A − λIn . Cada uno de estos vectores aporta una
solución adicional

eλt (v + tÃv)
linealmente independiente con las anteriores.
Si aún no se tienen n soluciones linealmente independientes, para dichos autovalores
se encuentran todos los vectores v linealmente independientes que satisfacen Ã2 v 6= 0 y
Ã3 v = 0.
Cada uno de estos vectores aporta una solución adicional
t2 2
eλt (v + tÃv + Ã v)
2!
linealmente independiente con las anteriores.

Este proceso se continúa hasta obtener para “cada autovalor repetido”tantas soluciones
linealmente independientes como indique su multiplicidad algebraica.
Ejemplo 6. Consideremos el sistema
½ 0
x1 = ax1 + bx2
x02 = ax2

que puede escribirse en forma matricial como


µ 0 ¶ µ ¶ µ ¶
x1 x1 a b
=A , A=
x02 x2 0 a
La ecuación caracterı́stica es |A − λI2 | = (a − λ)2 = 0, que conduce al único autovalor

λ=a

con multiplicidad algebraica 2.


Si b 6= 0, la matriz A no es diagonalizable, pues el rango de à = A − λI2 = (00 0b ) es 1.
Esto indica que existirá un sólo autovector linealmente independiente.
Ası́ puede elegirse como autovector v1 = (10 ). Se obtiene ası́ la solución
µ ¶
1 at 1
X (t) = e
0
Buscamos ahora un vector v2 linealmente independiente de v1 tal que:

Ãv2 6= 0,

con
Ã2 v2 = 0.

21
Como Ã2 = (00 00 ), basta con encontrar un vector linealmente independiente de v1 .
Por ejemplo, v2 = (01 ), que satisface Ãv2 = (b0 ) = bv1 .
Obtenemos ası́ la “segunda solución linealmente independiente”:
µ ¶ µ ¶ µ ¶
2 at 0 b at bt
X (t) = e ( +t )=e (
1 0 1
y la solución general
µ ¶ µ ¶
1 2 at 1 at bt
X(t) = c1 X (t) + c2 X (t) = c1 e + c2 e
0 1
es decir,

x1 (t) = eat (c1 + btc2 ), x2 (t) = c2 eat


En este ejemplo sencillo, esta solución puede obtenerse directamente resolviendo primero
la ecuación para x2 (que está desacoplada de x1 ) y luego la ecuación lineal para x1 (acopla-
da con x2 ).
No es posible aquı́ encontrar variables en las que el sistema resulte desacoplado.

Si x1 (0) = x10 , x2 (0) = x20 ⇒ c1 = x10 , c2 = x20 .


Una matriz fundamental de soluciones es entonces
µ at ¶
e bteat
M(t) =
0 eat
que satisface M(0) = I2 , Det[M(t)] = e2at 6= 0 ∀ t.

ab
Observación: Notemos finalmente que si b 6= 0, la matriz
√ A = (ε a ) es diagonalizable
∀ ε 6= 0, ya que tendrá dos autovalores distintos λ± = a ± bε.
El caso no diagonalizable ocurre únicamente cuando ε = 0.

2.3 Matriz fundamental.


Tanto para el caso (a) (Aes diagonalizable) como para el caso (b) (A no diagonal-
izable), puede demostrarse que la matriz

X (At)k
M(t) = eAt =
k=0
k!
es una matriz fundamental del sistema

X0 = AX

para A constante.
Esto puede verse directamente a partir de la serie, notando que

X ∞
X ∞
X 0
0
kAk tk−1 (At)k−1 (At)k
M (t) = = A =A = AM(t)
k=1
k! k=1
(k − 1)! k0 =0
k0 !

22
donde k0 = k − 1 y hemos tenido en cuenta que A0 t0 /0! ≡ In (matriz identidad).
Esto implica que cada columna Xi (t) de e[At] satisface (Xi )0 = AXi , siendo por lo
tanto solución del sistema homogéneo. Además, si t = 0, el primer término de la serie es
el único término no nulo y por lo tanto
 
1 0 ... 0
 0 1 ... 0 
M (0) = e[A0] = In = 



...
0 0 ... 1

lo que implica que las n columnas Xi (t) de e[At] son linealmente independientes, pues los
n vectores Xi (0) son linealmente independientes (forman la base canónica de Rn ).
Eso muestra que e[At] es una matriz fundamental del sistema en todos los casos, siendo
la única matriz fundamental que satisface M(0) = In .

La solución X(t) que satisface X(0) = X0 está entonces dada por

X(t) = exp[At]X0
en completa analogı́a con el caso elemental de un sistema de 1 × 1 (la solución de x0 = ax,
con a constante y x(0) = x0 es x(t) = eat x0 ).

Este resultado es muy importante en diversos estudios analı́ticos de sistemas de ecuaciones


diferenciales.
En el caso diagonalizable: tenemos A = SDS−1 , con D diagonal y S = (v1 , . . . , vn ) la
matriz de autovectores. Por lo tanto

exp[At] = exp[S(Dt)S−1 ] = S exp[Dt]S−1

Como D es diagonal,  
λk1 0 ... 0
 0 λk2 ... 0 
Dk = 



...
k
0 0 . . . λn
para k = 0, 1, . . . , y por lo tanto,
 
eλ1 t 0 ... 0

X Dk tk  0 eλ2 t ... 0 
exp[Dt] = =



k! ...
k=0 λn t
0 0 ... e

De esta forma puede evaluarse explı́citamente exp(At) en el caso diagonalizable.


Esto conduce nuevamente a la solución general ya vista
n
X
−1
X(t) = M(t)C̃ = S exp[Dt]S C̃ = ci eλi t vi
i=1

con (c1 , . . . , cn )t = S−1 C̃.

23
En el caso no diagonalizable: la matriz exp[At] puede evaluarse explı́citamente a partir
de la denominada forma canónica de Jordan de la matriz A, que no trataremos aquı́,
lo cual conduce a la solución dada anteriormente. Cabe agregar que en programas
como mathematica o maple existen funciones ya instaladas para evaluar directamente
exp[At] en cualquier caso.

Ejemplo 7: Volviendo al sistema del ejemplo 4, obtenemos


µ ¶ µ (a+b)t ¶µ ¶
−1 1 1 1 e 0 1 1
exp[At] = S exp[Dt]S =
2 1 −1 0 e(a−b)t 1 −1
µ ¶
at cosh(bt) sinh(bt)
=e
sinh(bt) cosh(bt)
donde cosh(x) = (ex + e−x )/2, sinh(x) = (ex − e−x )/2.
Las columnas X1 (t), X2 (t) proporcionan un conjunto de soluciones linealmente inde-
pendientes del sistema que satisfacen las condiciones iniciales
X1 (0) = (10 ), X2 (0) = (01 ).
En el ejemplo 5,
µ ¶ µ (a+ib)t ¶µ ¶
−1 1 1 1 e 0 1 −i
exp[At] = S exp[Dt]S =
2 i −i 0 e(a−ib)t 1 i
µ ¶
at cos(bt) sin(bt)
=e
− sin(bt) cos(bt)
Y en el ejemplo 6, escribiendo A = a(10 01 ) + b(00 10 ) y teniendo en cuenta que i) la matriz
identidad conmuta con cualquier matriz y ii) (00 10 )2 = (00 00 ), se obtiene
10 01 10 01 at
e[At] = e[at(0 1 )+bt(0 0 )] = e[at(0 1 )] e[bt(0 0 )] = (e0 0 10
eat )[(0 1 ) + bt(00 10 )] = eat (10 bt1 )

24
3. Sistemas lineales de primer orden no homogéneos
Consideremos ahora el sistema no homogéneo

X0 = A(t)X + B(t)
donde supondremos que A(t) y B(t) son continuas en un intervalo I.
Esto asegura la existencia y unicidad de la solución X(t) para una dada condición
inicial X(t0 ) = X0 , con t0 ∈ I.
Una propiedad fundamental de las soluciones del sistema no homogéneo es la siguiente:

Si Xp (t) es una solución del sistema no homogéneo y X(t) es otra solución del mismo
(que satisface otra condición inicial) entonces la función diferencia Xh = X(t) − Xp (t) es
necesariamente una solución del sistema homogéneo, pues satisface

X0h = X0 − X0p = A(t)X + B(t) − [A(t)Xp + B(t)] = A(t)(X − Xp ) = A(t)Xh

Por tanto, podemos escribir cualquier solución X(t) del sistema inhomogéneo como

X(t) = Xp (t) + Xh (t),

donde Xh (t) es una solución del sistema homogéneo.

Hemos pues demostrado el siguiente teorema:


Teorema Si Xp (t) es una solución particular del sistema no homogéneo y Xg (t) es la
solución general del sistema homogéneo, entonces todas las soluciones X(t) del sistema
no homogéneo se pueden expresar en la forma

X(t) = Xg (t) + Xp (t)

Esta expresión constituye la solución general del sistema no homogéneo.


Observación: Notemos que el conjunto de soluciones del sistema no homogéneo no
es un espacio vectorial.
Esto es obvio ya que no contiene la solución nula (solución trivial). Además es fácil
ver que una combinación lineal de soluciones no es en general solución del mismo sistema.
No obstante, es válida una propiedad fundamental muy importante y útil, denominada
principio de superposición:

Si X1 (t) y X2 (t) satisfacen las ecuaciones

X01 = A(t)X1 + B1 (t)


X02 = A(t)X2 + B2 (t)

entonces la combinación lineal X(t) = c1 X1 (t) + c2 X2 (t), donde c1 , c2 son constantes, es


solución del sistema
X0 = A(t)X + c1 B1 (t) + c2 B2 (t)
En efecto, multiplicando la primera ecuación por c1 , la segunda por c2 y sumando, se
obtiene esta última ecuación.

25
Esta propiedad
P implica que la solución particular
P para la combinación lineal
B(t) = i ci Bi (t) es la combinación lineal i ci Xi (t) de las soluciones particulares
Xi (t) para cada término Bi (t).
Esto permite descomponer una inhomogeneidad general

B(t)

en términos o sumandos simples para los cuales es más fácil obtener una solución.
Tanto esta propiedad como la anterior son análogas a las de sistemas de ecuaciones
lineales inhomogéneos (del tipo AX = b).
En resumen: para resolver el sistema no homogéneo X0 = A(t)X + B(t), basta
con encontrar la solución general Xg del sistema homogéneo X = A(t)X y una solución
particular Xp (t) del sistema completo.
Ya hemos desarrollado un método para obtener la solución general Xg (t) del sistema
homogéneo cuando los coeficientes son constantes.
Ahora nos dedicaremos a desarrollar métodos para encontrar una solución particular del
sistema completo, suponiendo que se tiene resuelto el sistema lineal homogéneo asociado.

3.2- Métodos
Primer Método:Variación de parámetros (o constantes).
Supongamos que X1 (t), . . . , Xn (t) son n soluciones linealmente independientes del
sistema homogéneo X0 = A(t)X, y que por tanto su solución general puede escribirse
en la forma

Xg (t) = c1 X1 (t) + . . . + cn Xn (t)


= M(t)C
donde M(t) = (X1 (t), . . . , Xn (t)) es una matriz fundamental de soluciones del
sistema homogéneo (que satisface M0 (t) = A(t)M(t) y es no singular) y C =
(c1 , . . . , cn )t un vector de constantes.
Si ahora sustituimos C por una función vectorial C(t), veremos que es posible de-
terminar esta función para que

Xp (t) = M(t)C(t)

sea una solución particular del sistema completo

X0 = A(t)X + B(t).

En efecto, derivando la expresión anterior obtenemos

X0p = M0 (t)C(t) + M(t)C0 (t)


= A(t)M(t)C(t) + M(t)C0 (t)
= A(t)Xp + M(t)C0 (t)

Si exigimos que X0p = A(t)Xp + B(t) debe cumplirse

M(t)C0 (t) = B(t)

26
de donde C0 (t) = M−1 (t)B(t) y por tanto
Z
C(t) = M−1 (t)B(t)dt

Una solución particular del sistema completo es entonces


Z
Xp (t) = M(t)[ M−1 (t)B(t)dt]

Considerando un tiempo inicial t0 ∈ I, la expresión anterior suele escribrise también


en la forma
Z t
Xp (t) = M(t) M−1 (t0 )B(t0 )dt0
t0

que es la solución particular que satisface Xp (t0 ) = 0.


En el caso de sistemas con coeficientes constantes (A independiente del tiempo)
podemos escribir M(t) = exp[At], con M−1 (t) = exp[−At], y por lo tanto,
Rt
Xp (t) = exp[At] t0 exp[−At0 ]B(t0 )dt0
Rt
= t0 exp[A(t − t0 )]B(t0 )dt0

donde hemos utilizado la igualdad exp[At] exp[−At0 ] = exp[A(t − t0 )].

Teniendo en cuenta que en este caso Xg (t) = exp[At]C, la solución general del
sistema inhomogéneo X0 = AX + B(t) puede entonces escribirse como
Z t
X(t) = exp[At]C + exp[A(t − t0 )]B(t0 )dt0
t0

y la solución que satisface X(t0 ) = X0 como


Z t
X(t) = exp[A(t − t0 )]X0 + exp[A(t − t0 )]B(t0 )dt0
t0

Ejemplo 8 Hallar la solución particular del sistema


½ 0
x1 = ax1 + bx2 + f1 (t)
x02 = ax2 + bx1 + f2 (t)

que satisface x1 (0) = 0, x2 (0) = 0.

f (t)
En este caso B(t) = (f12 (t) ).
Hemos visto (ejemplo 7) que en este sistema
µ ¶
at cosh(bt) sinh(bt)
exp[At] = e
sinh(bt) cosh(bt)

27
Por lo tanto, teniendo en cuenta que t0 = 0 y X0 = 0, se obtiene, para
x (t)
Xp (t) = (x12 (t) ),
Z t
Xp (t) = exp[A(t − t0 )]B(t0 )dt0
Z0 t µ a(t−t0 ) ¶
e [cosh(b(t − t0 ))f1 (t0 ) + sinh(b(t − t0 ))f2 (t0 )]dt0
= 0
0 ea(t−t ) [sinh(b(t − t0 ))f1 (t0 ) + cosh(b(t − t0 ))f2 (t0 )]dt0

Por ejemplo, si f2 (t) = 0 y f1 (t) = e−t , se obtiene, para a = b = −1,

1 − e−2t e−2t + 1
x1 (t) = e−t sinh(t) = , x2 (t) = e−t (1 − cosh(t)) = − + e−t
2 2

Se observa que para t → ∞, x1 (t) → 1/2, x2 (t) → −1/2.


Segundo Método: Coeficientes indeterminados.

Si consideramos un sistema diferencial de coeficientes constantes X0 = AX+B(t) en


el cual B(t) posee una estructura determinada (por ej., está formado por funciones
polinómicas, exponenciales, senos, cosenos, o sumas y productos de estas) podemos
recurrir al método de los coeficientes indeterminados, que consiste esencialmente en
la búsqueda de una solución particular Xp (t) del mismo tipo que la función vectorial
B(t).
El método es más efectivo y sistemático cuando se aplica sobre ecuaciones diferen-
ciales lineales de orden n con una sóla función incógnita, lo que se discutirá en la
próxima sección.
Como ejemplo, si B(t) = at + b, el método consiste en proponer una solución
particular Xp del mismo tipo, es decir,

Xp (t) = vt + w

donde v y w son vectores constantes por determinar (v y w son los “coeficientes”


indeterminados).
Exigiendo que Xp (t) sea solución del sistema, se obtiene, dado que X0p = v,

v = A(vt + w) + at + b
es decir,
t(Av + a) + Aw − v + b = 0
Esto conduce al sistema

Av = −a, Aw − v = −b

de donde, en el caso de que A sea no singular,

v = −A−1 a, w = A−1 (v − b)

28
Como segundo ejemplo, consideremos el importante caso B(t) = eλt b. Proponiendo

Xp (t) = eλt v

se obtiene, exigiendo que Xp sea solución del sistema y teniendo en cuenta que
X0p = λeλt v, la ecuación
λeλt v = A(eλt v) + eλt b
es decir, Av − λv = −b, o sea

(A − λIn )v = −b

Si λ no es autovalor de A ⇒ A − λIn es no singular y en tal caso podemos obtener


v como
v = −(A − λIn )−1 b

Ejemplo 9: Consideremos nuevamente el ejemplo 8 para el caso


f2 (t) = 0, f1 (t) = e−t , con a = b = −1, es decir
½
x01 = −x1 − x2 + e−t
x02 = −x1 − x2

El método de coeficientes indeterminados consiste aquı́ en proponer una solución


particular del tipo
Xp (t) = e−t v, con v = (vv12 ), es decir, x1 (t) = v1 e−t , x2 (t) = v2 e−t , con v1 , v2 con-
stantes.

−1 −1
Se obtiene, utilizando el resultado anterior en el caso λ = −1, b = (10 ), A = (−1 −1 ),

µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶
−1 0 1 1 0 1 1 0
v = −(A + In ) b = = =
1 0 0 1 0 0 1

de donde la solución particular proporcionada por este método es


µ ¶
−t 0
Xp (t) = e
1
es decir x1 (t) = 0, x2 (t) = e−t .
Para t = 0 esta solución satisface x1 (0) = 0 pero x2 (0) = 1. Para hallar la solu-
ción que satisface x1 (0) = x2 (0) = 0, debemos agregar la solución general de la
ecuación homogénea y luego determinar las constantes para ajustar la condición
inicial. Utilizando el resultado del ejemplo 4 para la solución general de la ecuación
homogénea y reemplazando a = b = −1, obtenemos ası́ la solución general de la
ecuación inhomogénea,
½
x1 (t) = c1 e−2t + c2
x2 (t) = c1 e−2t − c2 + e−t

29
La condición inicial x1 (0) = x2 (0) = 0 implica el sistema
½
c1 + c2 = 0
c1 − c2 + 1 = 0

cuya solución es c1 = −1/2, c2 = 1/2. La solución final es entonces


½ −2t
x1 (t) = 1−e2
−2t
x2 (t) = − 1+e2 + e−t

que coincide con la obtenida por el primer método en el ejemplo 8.

Ejercicios
1. Resolver las siguientes sistemas de ecuaciones lineales:
(a) ½ 0
x1 = −2x1 − 4x2 + 1
x02 = −x1 + x2 + 3t2 /2

Verificar que la solución general es


½
x1 (t) = C1 e2t + 4C2 e−3t + t + t2
x2 (t) = −C1 e2t + C2 e−3t − t2 /2

(b) Resolver: ½
x0 = 3x + 2y + 2e−t
y 0 = −2x − y + e−t

Verificar que la solución general es


½
x(t) = C1 et + C2 tet + (1/2)e−t
y(t) = −C1 et + C2 ((1/2) − t)et − 2e−t

(c) Resolver :  0
 x = x + y + et
y 0 = x + y + e2t
 0
z = 3z + e3t

Verificar que la solución general es



 x(t) = C1 + C2 e2t − (1/4)e2t + (1/2)te2t
y(t) = −C1 + C2 e2t − et + (1/4)e2t + (1/2)te2t

z(t) = C3 e3t + te3t

2. Resolver los siguientes problemas de condiciones iniciales.


(a) ½ 0
x = −2y + 3
y 0 = 2x − 2t

30
cumpliendo ½
x(0) = 1
y(0) = 1

Verificar que se cumple: ½


x(t) = t + cos(2t)
y(t) = 1 + sen(2t)

(b) ½
x0 = 3x − 4y + et
y 0 = x − y + et
cumpliendo ½
x(0) = 1
y(0) = 1

Verificar que se cumple: ½


x(t) = et (1 − t − t2 )
y(t) = et (1 − t2 /2)

31
4. Ecuaciones diferenciales de orden superior
4.1 Introducción
Llamamos ecuación diferencial lineal de orden n a toda ecuación diferencial que pueda
expresarse en la forma

y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y 0 + an (t)y = f (t) (3)

donde la incógnita es la función y(t).


Tanto los coeficientes ai (t), i = 1, . . . , n, como el segundo miembro f (t) son funciones
definidas en un cierto intervalo I ⊂ <.
Si f (t) = 0 ∀ t ∈ I la ecuación (3) se dice homogénea. En caso contrario se denomina
no homogénea.
El problema de valor inicial asociado a la ecuación (3) es

y (n) + a1 (t)y (n−1) + . . . + an−1 y 0 + an y = f (t)


(n−1) (4)
y(t0 ) = y0 , y 0 (t0 ) = y00 , . . . , y (n−1) (t0 ) = y0
(n−1)
donde t0 ∈ I e y0 , y00 , . . . , y0 son constantes arbitrarias conocidas (datos del problema).
Como vimos en la sección anterior, definiendo las nuevas variables

x1 = y, x2 = y 0 , x3 = y 00 , . . . , xn = y (n−1)

la ecuación (3) puede escribirse como un sistema de n ecuaciones diferenciales lineales de


primer orden:
 0

 x1 = x2


 x02 = x3
...



 x0 = xn
 n−1
x0n = −an (t)x1 − an−1 (t)x2 − . . . − a1 (t)xn + f (t)

Más aún, definiendo


     
x1 x01 0
 x2   x02   
     0 
 ..   .. 
X= . , X0 =  . , B(t) = 
 ... 

   0   
 xn−1   xn−1  0
xn x0n f (t)

y la matriz
 
0 1 0 0 ... 0
 0 0 1 0 ... 0 
 
 .. .. .. .. .. .. 
 . . . . . . 
A(t) =  
 0 0 0 ... 1 0 
 
 0 0 0 ... 0 1 
−an (t) −an−1 (t) −an−2 (t) . . . −a2 (t) −a1 (t)

32
podemos escribir el sistema anterior en la concisa forma matricial

X 0 = A(t)X + B(t) (1∗ )

Evidentemente si X(t) es solución de (1∗ ), la primera de sus componentes y(t) = x1 (t)


será solución de la ecuación diferencial (3) mientras que las restantes componentes xi (t)
serán las derivadas sucesivas de y(t) hasta el orden n − 1.
El problema (4) de valores iniciales puede análogamente escribirse como
 
y0
 y00 
X 0 = A(t)X + B(t), X(t0 ) = X0 , con X0 =   ... 
 (2∗ )
(n−1)
y0

Por lo tanto, toda la teorı́a desarrollada anteriormente para sistemas de ecuaciones


diferenciales lineales puede aplicarse directamente a las ecuaciones diferenciales lineales
de orden superior. En particular, los teoremas del tema anterior implican para la ecuación
(3) los siguientes teoremas:

Teorema 4.1 (Existencia y unicidad): Si las funciones a1 (t), . . . , an (t) y f (t) son
continuas en un intervalo abierto I ⊂ < que contiene a x0 , entonces el problema de valores
iniciales (4) posee una única solución y(t) definida en el intervalo I, para cada n-upla de
(n−1)
valores iniciales (y0 , y00 , y000 , . . . , y0 ).
Teorema 4.2: Para las mismas condiciones del teorema anterior, la ecuación difer-
encial lineal homogénea de orden n

y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y 0 + an (t)y = 0 (5)

posee n soluciones linealmente independientes y1 (t), y2 (t), . . . , yn (t) en el intervalo I, tal


que toda solución y(t) de (5) puede escribirse en la forma:

y(t) = c1 y1 (t) + c2 y2 (t) + . . . + cn yn (t)


con c1 , . . . , cn constantes.

Es decir, el conjunto de soluciones de la ecuación homogénea (5) es un espacio vectorial


de dimensión n, con las operaciones usuales de suma de funciones y multiplicación por
escalar.

El teorema 4.2 es consecuencia inmediata del teorema análogo para sistemas de n × n,


el cual establece que para B(t) = 0 en (1∗ ), el sistema homogéneo resultante

X 0 (t) = A(t)X (3∗ )

posee n soluciones Xi (t), i = 1, . . . , n, linealmente independientes, que forman una base


del subespacio de soluciones.

33
Dado que en este caso Xi (t) es de la forma
 
yi (t)
 yi0 (t) 
Xi (t) = 



...
(n−1)
yi (t)

el teorema implica que las n funciones:

yi (t), i = 1, . . . .n,

son “linealmente independientes”(de lo contrario los vectores Xi (t) serı́an linealmente


dependientes) y forman base del espacio de soluciones de (5).
En realidad...
La formulación matricial (3∗ ) nos muestra que las n soluciones yi (t) anteriores no
sólo son linealmente independientes, sino que además el correspondiente determinante
(llamado Wronskiano)
¯ ¯
¯ y1 (t) . . . y n (t) ¯
¯ ¯
¯ y1 (t)
0
. . . y 0
(t) ¯
W (y1 , . . . , yn ) = ¯¯ n ¯
¯
¯ (n−1) ... ¯
¯ y (t) . . . y
(n−1)
n (t) ¯
1

es no nulo ∀ t ∈ I, dado que es el determinante de la matriz fundamental del sistema


homogéneo (3∗ ).

Observación 1. Nótese que si un conjunto de n funciones arbitrarias gi (t) es lin-


ealmente dependiente ⇒ W (g1 , . . . , gn ) = 0 (probar como ejercicio). No obstante, si el
conjunto es linealmente independiente, el determinante W (g1 , . . . , gn ) puede aún ser nulo
(basta con que las gi sean no nulas en intervalos disjuntos).
Por lo tanto, la condición W (y1 , . . . , yn ) 6= 0 es aún más fuerte que la independencia lineal
del conjunto (y1 , . . . , yn ).
Observación 2.En general, resulta dificil encontrar las soluciones de una ecuación
lineal de orden n si los coeficientes ai (t) no son constantes. Se utilizan en general métodos
basados en el desarrollo en serie de potencias de la solución, que no trataremos aquı́.
Consideramos el caso especial....

4.2 Ecuaciones diferenciales homogéneas de coeficientes constantes


Obtención de la solución general.
Consideremos ahora la ecuación diferencial lineal de orden n con coeficientes ai (t)
constantes (o sea, independientes de t):

y (n) + a1 y (n−1) + . . . + an−1 y 0 + an y = 0 (6)

Por el Teorema 4.2., existirán n soluciones linealmente independientes y1 (t), . . . , yn (t).


Para hallarlas, si bién es posible emplear los métodos generales para sistemas de ecua-
ciones utilizando la forma matricial (3∗ ), resulta más conveniente proceder de la siguiente
manera:

34
Se plantea una solución exponencial de la forma

y(t) = eλt

Reemplazando en (6) se obtiene, dado que y 0 (t) = λy(t) y en general, y (k) (t) = λk y(t),

eλt [λn + a1 λn−1 + . . . + an−1 λ + an ] = 0

lo cual conduce a la ecuación caracterı́stica

λn + a1 λn−1 + . . . + an−1 λ + an = 0 (7)


Esto implica que y(t) = eλt será solución de (6) si y sólo si λ es solución de la ecuación
caracterı́stica (7).
Puede demostrarse que la ecuación (7) es equivalente a la ecuación de autovalores
asociada a la matriz del sistema lineal equivalente,
 
0 1 0 0 ... 0
 0 0 1 0 ... 0 
 
 .. .. .. .. .. .. 
 . 
A= . . . . . 
 
 
 0 0 0 ... 0 1 
−an −an−1 −an−2 . . . −a2 −a1

que es ahora constante. Se tiene Det[A − λI] = (−1)n (λn + a1 λn−1 + . . . + an−1 λ + an ).
Caso de n raı́ces distintas:

Si la ecuación (7) posee n raı́ces distintas λi , i = 1, . . . , n, se obtienen de esta forma n


soluciones linealmente independientes de (6),

yi (t) = eλi t , i = 1, . . . , n
siendo entonces la solución general

yi (t) = c1 eλ1 t + c2 eλ2 t + . . . + cn eλn t


En este caso la multiplicidad algebraica de cada raı́z λi es 1 y la matriz A anterior es
diagonalizable.

Caso general.
Si la ecuación (7) posee una raı́z λ de multiplicidad algebraica m > 1, puede demostrarse
que m soluciones linealmente independientes de (6) son

y1 = eλt , y2 (t) = teλt , . . . , ym (t) = tm−1 eλt


Si la ecuación (7) posee k < n raı́ces distintas λi , i = 1, . . . , k, con multiplicidades
algebraicas mi (que deben satisfacer m1 + . . . + mk = n), n soluciones linealmente inde-
pendientes de (6) son entonces

35
yij (t) = tj−1 eλi t , j = 1, . . . , mi , i = 1, . . . , k
y la solución general puede expresarse como
mi
k X
X
y(t) = cij tj−1 eλi t
i=1 j=1
o sea,

y(t) = c11 eλ1 t + . . . + c1m1 tm1 −1 eλ1 t + . . . + ck1 eλk t + . . . + ckmk tk−1 eλk t
Justificación.
Denotando con dtd la operación de derivación (operador lineal), se tiene d λt
dt
e = λeλt y
por lo tanto ( dtd − λ)eλt = 0.
Análogamente, dtd (teλt ) = eλt (1 + λt) y por lo tanto
( dtd − λ)(teλt ) = eλt .
Esto implica ( dtd − λ)2 (teλt ) = ( dtd − λ)[( dtd − λ)eλt ] = ( dtd − λ)eλt = 0.
En general, ( dtd − λ)(tj eλt ) = jtj−1 eλt y por lo tanto,

d
( − λ)m (tj eλt ) = 0, j = 0, . . . , m − 1, m ≥ 1
dt
Si la ecuación (7) posee k < n raı́ces distintas λi con multiplicidades algebraicas mi ,
el polinomio
P (λ) = λn + a1 λn−1 + . . . + an−1 λ + a1
en (7) puede escribirse como

P (λ) = (λ − λ1 )m1 . . . (λ − λk )mk (∗)


2 k
Notando que ( dtd )2 = dtd 2 y en general ( dtd )k = dtd k , la ecuación diferencial (6) puede
también escribirse como P ( dtd )y = 0, o sea, ( dtd − λ1 )m1 . . . ( dtd − λk )mk y = 0 (el orden de
las raı́ces es arbitrario).
De aquı́ vemos que y(t) = tj eλk t será solución de P ( dtd )(y) = 0 para j = 0, . . . , mk − 1,
y en general, que y(t) = tj eλi t será solución para j = 0, . . . , mi − 1.

Raı́ces complejas.

Si existe una raı́z compleja


λ = a + ib
con a, b ∈ <, podemos aplicar directamente todas las expresiones anteriores recordando
la fórmula de Euler
eix = cos(x) + i sin(x),
que implica
e(a+ib)t = eat eibt = eat [cos(bt) + i sin(bt)]

Si todas las constantes a1 , . . . , an son reales, las raı́ces complejas aparecen en pares
conjugados λ = a + ib, λ∗ = a − ib.

36
En tal caso podemos elegir como soluciones linealmente independientes asociadas o
bien el par de soluciones complejas

y1 (t) = eλt = eat [cos(bt) + i sin(bt)]



y2 (t) = eλ t = eat [cos(bt) − i sin(bt)]

o bien el par de soluciones reales

ỹ1 (t) = Re[y1 (t) = eat cos(bt)


ỹ2 (t) = Im[y1 (t)] = eat sin(bt)
.
En el caso de que λ posea multiplicidad m > 1 se procede en forma similar.
Un conjunto de 2m soluciones reales linealmente independientes asociadas a las raı́ces
λ = a + ib y λ∗ = a − ib, cada una de multiplicidad m, es:

ỹ1 (t) = eat cos(bt), ỹ2 (t) = teat cos(bt), . . . ỹm (t) = tm−1 eat cos(bt)

ỹm+1 (t) = eat sin(bt), ỹm+2 (t) = teat sin(bt), . . . ỹ2m (t) = tm−1 eat sin(bt)

4.3 Casos particulares, de acuerdo al orden de la Ec. diferencial


Caso n = 1(Ecuación de primer orden): Si

y 0 + a1 y = 0

reemplazando y(t) = eλt obtenemos la ecuación caracterı́stica λ + a1 = 0, de donde


λ = −a1 .
Obtenemos ası́ la solución y(t) = e−a1 t .
La solución general es
y(t) = ce−a1 t
La constante c puede determinarse a partir de la condición inicial:

y(t0 ) = ce−a1 t0 = y0 ,

que implica c = ea1 t0 y0 .

Caso n = 2(Ecuación de segundo orden): Si

y 00 + a1 y 0 + a2 y = 0

reemplazando y(t) = eλt se obtiene la ecuación caracterı́stica λ2 + a1 λ + a2 = 0, cuyas


raı́ces son q
λ1,2 = (−a1 ± a21 − 4a2 )/2
Subcaso 1) λ1 6= λ2 (a21 − 4a2 6= 0). Dos soluciones linealmente independientes son
y1 (t) = eλ1 t , y2 (t) = eλ2 t y la solución general es

y(t) = c1 eλ1 t + c2 eλ2 t (λ1 6= λ2 )

37
Las constantes c1 , c2 pueden determinarse a partir de las condiciones iniciales y(t0 ) = y0 ,
y 0 (t0 ) = y00 , o sea, ½
c1 eλ1 t0 + c2 eλ2 t0 = y0 ,
c1 λ1 eλ1 t0 + c2 λ2 eλ2 t0 = y00
Subcaso 2) λ1 = λ2 (a21 − 4a2 = 0). Dos soluciones linealmente independientes son
y1 (t) = eλ1 t , y2 (t) = teλ1 t y la solución general es

y(t) = c1 eλ1 t + c2 teλ1 t (λ1 = λ2 )

La determinación de las constantes c1 , c2 a partir de las condiciones iniciales y(t0 ) = y0 ,


y 0 (t0 ) = y00 conduce ahora al sistema
½
c1 eλ1 t0 + c2 t0 eλ1 t0 = y0
c1 λ1 eλ1 t0 + c2 eλ1 t0 (1 + λ1 t0 ) = y00 ,

Tanto en 1) como en 2), el sistema resultante de dos ecuaciones lineales no homogéneas


para c1 y c2 es siempre compatible y con solución única, para cualquier valor de y0 , y00 y
t0 (por Teorema 4.1).

Ejemplos:
1) y 00 − 4y = 0
Reemplazando y(t) = eλt obtenemos la ecuación caracterı́stica

λ2 − 4 = 0

cuyas raı́ces son λ1 = 2 y λ2 = −2. Dos soluciones linealmente independientes son entonces
y1 (t) = e2t , y2 (t) = e−2t y la solución general es

y(t) = c1 e2t + c2 e−2t

2) y 00 + 4y = 0
La ecuación caracterı́stica es ahora λ2 + 4 = 0, cuyas raı́ces son λ1,2 = ±2i. Dos soluciones
linealmente independientes son y1 (t) = e2it , y2 (t) = e−2it y la solución general puede
escribirse como
y(t) = c1 e2it + c2 e−2it
Pueden también elegirse dos soluciones reales linealmente independientes, ỹ1 (t) = Re[y1 (t)] =
cos(2t), y2 (t) = Im[y1 (t)] = sin(2t). La solución general puede entonces escribirse también
como
y(t) = c̃1 cos(2t) + c̃2 sin(2t)
que corresponde a c1 = (c̃1 − ic̃2 )/2, c2 = (c̃1 + ic̃2 )/2.

3) y 00 (t) + 2y 0 + y = 0
La ecuación caracterı́stica es λ2 + 2λ + 1 = 0, cuya única raı́z es λ = −1. Dos soluciones
linealmente independientes son entonces y1 (t) = e−t , y2 (t) = te−t , y la solución general es

y(t) = c1 e−t + c2 te−t

38
4) y 000 − 4y 0 = 0
La ecuación caracterı́stica es λ3 − 4λ = 0, cuyas raı́ces son λ1 = 0, λ2 = 2, λ3 = −2. Tres
soluciones linealmente independientes son entonces y1 (t) = 1, y2 (t) = e2t , y3 (t) = e−2t y
la solución general es
y(t) = c1 + c2 e2t + c3 e−2t
Comentario: Todas las raı́ces de la ecuación caracterı́stica, ya sean reales o complejas,
deben tenerse en cuenta. Por ejemplo, si y (4) − y = 0, la ecuación caracterı́stica es λ4 − 1 =
0, cuyas cuatro raı́ces son 1, −1, i, −i. Se deja como ejercicio escribir la solución general
en este caso.

Ejercicios:
1. Hallar la solución general de las siguientes ecuaciones:
a) y 00 − 4y 0 + 4y = 0 b) y 00 − 3y 0 − 4y = 0 c) y 00 + 2y 0 + 5y = 0
d) y 00 + ω 2 y = 0 , ω ∈ <, ω 6= 0 e) y 00 = 0 f ) y 0000 − 16y = 0.

2. Hallar la solución de cada una de las ecuaciones anteriores que satisface y(0) = 0,
y 0 (0) = 1.

3. Hallar la solución general de la ecuación

my 00 + by 0 + ky = 0

para m > 0, b > 0, k > 0, la cual representa la ecuación de movimiento de una


partı́cula de masa m unida a un resorte de constante k bajo los efectos de una fuerza
de rozamiento proporcional a la velocidad (Fr = −by 0 , b > 0). Considerar los casos:
i) b2 < 4km, ii) b2 = 4km, y iii) b2 > 4km.
Explicar por qué el movimiento en el caso i) se denomina oscilatorio amortiguado y
en el caso iii) sobreamortiguado.

4. Hallar la solución general de la ecuación y 00 + y 0 /t − y/t2 = 0 (t > 0).


Sugerencia: Considerar soluciones del tipo y(t) = tm .

39
4.4 Ecuaciones diferenciales lineales no homogéneas
Para una ecuación diferencial lineal no homogénea de orden n,

y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y 0 + an (t)y = f (t) (8)

el teorema general para sistemas lineales no homogéneos implica aquı́ el siguiente resul-
tado:

Teorema 4.3. Supongamos a1 (t), . . . , an (t), f (t) continuas en un intervalo abierto I.


Si yp (t) es una solución particular de (8) y la función yG (t) es la solución general de la
ecuación homogénea correspondiente (y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y 0 + an (t)y = 0)
entonces todas las soluciones y(t) de la ecuación no homogénea son de la forma

y(t) = yG (t) + yp (t)

Esta expresión constituye la solución general de la ecuación no homogénea.


Eso dice que conociendo la solución general de la homogénea asociada, basta conocer
una solución particular yp (t) de la no homogénea para tener todas las soluciones.

Remarquemos también que el conjunto de soluciones de la ecuación no homogénea no es


un espacio vectorial, ya que en particular no contiene la solución trivial y(t) = 0.
Pero una propiedad importante que facilita la resolución de las lineales no homogéneas,
es el Principio de Superposición, que consiste en considerar:
Debido a la linealidad de la ecuación, si la yp1 (t) es una solucin particular de (8) cuando
el término f (t) = f1 (t) y la función yp2 (t) es una solución de (8) cuando f (t) = f2 (t)
entonces la función
y(t) = c1 yp1 (t) + c2 yp2 (t)
es una solución de (8) para el término

f (t) = c1 f1 (t) + c2 f2 (t)

(probar como ejercicio!).


Ejemplo: Dada y 00 + 4y 0 + y = 2et + 3sen(t), se puede hallar una solucion yp1 (t) de
y + 4y 0 + y = et , otra yp2 (t) para y 00 + 4y 0 + y = sen(t), y luego:
00

la función Y (t) = 2yp1 (t) + 3yp2 (t) será una solución de la ecuación con término inde-
pendiente: y 00 + 4y 0 + y = 2et + 3sen(t).
Esto permite expresar la solución para un término general P f (t) como suma de solu-
ciones yi (t) para términos más simples fi (t) tales que f (t) = i fi (t).

4.4.1- METODO DE VARIACION DE PARAMETROS


Está basado en lo descripto para sistemas. Suponiendo calculada la solución general
de la ecuación homogénea asociada, dada por

yG (t) = c1 y1 (t) + c2 y2 (t) + . . . + cn yn (t)

el método consiste en buscar una solución particular de la ecuación no homogénea de la


forma
yp (t) = c1 (t)y1 (t) + c2 (t)y2 (t) + . . . + cn (t)yn (t)

40
En forma matricial, recordemos que el sistema no homogéneo puede escribirse como

X 0 = A(t)X + B(t)

y la solución particular anterior yp (t) es la primer componente de

Xp (t) = M (t)C(t)

donde  
y1 (t)
... yn (t)
 y10 (t)
... yn0 (t) 
M (t) = 



...
(n−1) (n−1)
yn (t) . . . yn (t)
Como M 0 (t) = A(t)M (t), obtenemos entonces Xp0 (t) − A(t)Xp (t) = M (t)C 0 (t) = B(t), lo
que da lugar al sistema
  0   
y1 (t) ... yn (t) c1 (t) 0
 y10 (t) ... yn0 (t)   0   
   c2 (t)  =  0  (9)
 ...  ...   ... 
(n−1) (n−1)
y1 (t) . . . yn (t) c0n (t) f (t)
de donde se puede despejar c0i (t), para luego obtener ci (t) porR integración.
Formalmente,
R −1 C 0 (t) = M −1 (t)B(t), de donde C(t) = M −1 (t)B(t)dt y Xp (t) =
M (t) M (t)B(t)dt, siendo yp (t) la 1er. componente de Xp (t).
Caso n = 2 (orden 2).
Aquı́
yp (t) = c1 (t)y1 (t) + c2 (t)y2 (t)
y el sistema (9) se reduce a
µ ¶µ ¶ µ ¶
y1 (t) y2 (t) c01 (t) 0
=
y10 (t) y20 (t) c02 (t) f (t)

Recordando que (ac db )−1 = 1


( d −b )
ad−bc −c a
para ad − bc 6= 0, obtenemos
µ ¶ µ ¶µ ¶ µ ¶
c01 (t) 1 y20 (t) −y2 (t) 0 1 −y2 (t)f (t)
= =
c02 (t) W (t) −y10 (t) y1 (t) f (t) W (t) y1 (t)f (t)

donde ¯ ¯
¯ y (t) y2 (t) ¯
W (t) = ¯¯ 10 ¯ = y1 (t)y20 (t) − y2 (t)y10 (t) es el Wronskiano (6= 0 ∀ t ∈ I).
¯
y1 (t) y20 (y)

Por lo tanto, Z Z
y2 (t)f (t) y1 (t)f (t)
c1 (t) = − dt, c2 (t) = dt (10)
W (t) W (t)
Luego desde esa fórmula se calcula para cada caso : los coeficientes c1 (t) y c2 (t), y la
solución yp (t) es:

yp (t) = c1 (t)y1 (t) + c2 (t)y2 (t) (11)

41
Otra forma más general para obtener la solución particular yp (t) ...
Función respuesta: Se puede observar que reemplazando las integrales in-
definidas por integrales definidas entre t0 y t, la solución particular resultante puede
también escribirse en la forma, usando como variable en la integral ‘u:
Z t
yp (t) = K(t, u)f (u)du
t0

donde
−y1 (t)y2 (u) + y2 (t)y1 (u)
K(t, u) = (12)
W (u)
Esta función (denominada función respuesta) determina pues completamente la solución
del sistema inhomogéneo para cualquier f (t).
Observación 1: Si a K(t, u) la miramos sólo como función de t, K(t, u) = K̃u (t),
como función de t, es una solución del sistema homogéneo que satisface las condiciones:
y(u) = 0, y 0 (u) = 1.
Para ver eso, hay que ver que K̃u (t) = c1 (u)y1 (t) + c2(u)y2 (t) es una combinación de
las soluciones del Sist. homogéneo, y también luego verificar que en t = u, vale 0, y su
derivada en t = u vale 1. VERIFICARLO.
Por ejemplo: En especial, si u = 0, en la representación de arriba, queda
K̃0 (t) = c1 (0)y1 (t) + c2(0)y2 (t), es una solución del sistema homogéneo que , que en
t = 0, vale 0, y la derivada en t = 0 vale 1.
Observación 2: La forma anterior para yp (t) satisface yp (t0 ) = yp0 (t0 ) = 0, que es
inmediato reemplazando en la integral t = t0 .

Consideramos ahora el caso particular.....

4.5 -Ecuaciones diferenciales lineales no homogéneas de coefi-


cientes constantes.
4.5.1- Método de variación de parámetros
Consideremos ahora el caso en que los coeficientes ai (t) son constantes (independientes
de t) para i = 1, . . . , n.
Caso n = 2. La ecuación a resolver es

y 00 + a1 y 0 + a2 = f (t)

Si las raı́ces de la ecuación caracterı́stica son λ1 y λ2 , con λ1 6= λ2 , entonces y1 (t) = eλ1 t ,


y2 (t) = eλ2 t , y W (t) = −e(λ1 +λ2 )t (λ1 − λ2 ). Se obtiene entonces
Z Z
1 −λ1 t −1
c1 (t) = e f (t)dt, c2 (t) = e−λ2 t f (t)dt (λ1 6= λ2 )
λ1 − λ2 λ1 − λ2

y la solución particular puede escribirse, reemplazando los c1 (t) y c2 (t) calculados con las
fórmulas de arriba:

yp (t) = eλ1 t c1 (t) + eλ2 t c2 (t) (13a)

42
Si λ1 = λ2 ,
y1 (t) = eλ1 t , y2 (t) = teλ1 t ,
con W (t) = e2λ1 t , y se obtiene:
Z Z
−λ1 t
c1 (t) = − te f (t)dt, c2 (t) = e−λ1 t f (t)dt (λ1 = λ2 )

siendo la solución particular que se obtiene usando esos coeficientes calculados:

yp (t) = eλ1 t c1 (t) + teλ1 t c2 (t) (13b)


En ambos casos, la Función Respuesta (12) tiene una forma particular. Se puede ver
reconstruyendo la K(t, u) para ambos casos, segun λ1 6= λ2 , o si λ1 = λ2 , usando

−y1 (t)y2 (u) + y2 (t)y1 (u)


K(t, u) =
W (u)

y reemplazando cada y1 (t) e y2 (t), en cada caso, que se llega a una función dependiente
de u, y de t, que concuerda con el formato de la K̃0 (τ ), pero remplazando la variable
τ = t − u:

K(t, u) = K̃0 (t − u)
habiamos visto en Observación 1, que la K̃0 (t) es la solución de la ecuación homogénea
y 00 + a1 y 0 + a2 y = 0 que satisface y(0) = 0, y 0 (0) = 1.
Se concluye entonces que para tener en estos casos la K(t, u), basta con encontrar la
solución particular de la ecuación homogénea y 00 + a1 y 0 + a2 y = 0 que satisface y(0) = 0,
y 0 (0) = 1.
Luego cualquiera sea f (t), obtener
Z t
yp (t) = K(t, u)f (u)du
t0

Para λ1 6= λ2 ,
eλ1 t − eλ2 t
K̃0 (t) = (λ1 6= λ2 )
λ1 − λ2
mientras que para λ1 = λ2 ,

K̃0 (t) = teλ1 t (λ1 = λ2 )


que coincide con el lı́mite de la expresión previa para λ2 → λ1 .

Podemos finalmente expresar la solución particular en ambos casos como


Z t
yp (t) = K̃0 (t − u)f (u)du (14)
t0

Para λ1 6= λ2 , (14) implica


Z t
eλ1 (t−u) − eλ2 (t−u)
yp (t) = f (u)du (λ1 6= λ2 )
t0 λ1 − λ2

43
que coincide con (13a) (reemplazando la integral indefinida en c1 (t) y c2 (t) por una integral
definida entre t0 y t) mientras que para λ1 = λ2 ,
Z t
yp (t) = eλ1 (t−u) (t − u)f (u)du (λ1 = λ2 )
t0

que coincide con (13b) (con la misma observación).


Caso general. Para ecuaciones inhomogéneas de orden n de coeficientes constantes,
el resultado es similar. La solución particular de

y (n) + a1 y (n−1) + . . . + an−1 y 0 + an y = f (t)

puede expresarse como


Z t
yp (t) = K̃0 (t − u)f (u)du (15)
t0

donde K̃0 (t) es la solución de la ecuación homogénea

y (n) + a1 y (n−1) + . . . + an−1 y 0 + an y = 0

que satisface y(0) = 0, y 0 (0) = 0, . . . , y (n−2) (0) = 0, y (n−1) (0) = 1.

Ejemplo 1: Hallar la solución general de la ecuación

y 00 + y = f (t)

En este caso la ecuación caracterı́stica es λ2 +1 = 0, siendo entonces λ1,2 = ±i. Obtenemos


y1 (t) = eit , y2 (t) = e−it , y

K̃(t) = (eit − e−it )/2i = sin(t)

que es la solución de la ecuación homogénea que satisface y(0) = 0, y 0 (0) = 1.


Finalmente la solución general de la no homogénea puede escribirse como
Z t
y(t) = c1 cos(t) + c2 sin(t) + sin(t − u)f (u)du
t0

donde
Z t Z t Z t
sin[(t − u)]f (u)du = sin(t) cos(u)f (u)du − cos(t) sin(u)f (u)du
t0 t0 t0

Por ejemplo, si f (t) = tan(t) y t0 = 0 se obtiene, para t ∈ (−π/2, π/2),


Z t Z t
cos(u) tan(u)du = sin(u)du = 1 − cos(t)
0 0
Z t Z t 2 Z t Z t
sin (u) 1 − cos2 (u)
sin(u) tan(u)du = du = du = (sec(u) − cos(u))du
0 0 cos(u) 0 cos(u) 0

44
R
cuyo resultado es ln(sec(t)+tan(t))−sin(t), donde hemos utilizado el resultado sec(u)du =
ln(sec(u) + tan(u)) + C.
Finalmente

y(t) = c1 cos(t) + (1 + c2 ) sin(t) − cos(t) ln(sec(t) + tan(t))

Si y(0) = y 0 (0) = 0 entonces c1 = c2 = 0.


Ejemplo: Hallar la solución general de la ecuación

my 00 + ky = f (t) , m > 0, k > 0

(Corresponde a la ecuación de movimiento de una partı́cula de masa m unida a un resorte


de constante k, sujeto a la acción de una fuerza externa adicional f (t) dependiente del
tiempo, siendo y(t) la posición medida a partir de la posición de equilibrio).
En este caso la ecuación caracterı́stica es λ2 + ω 2 = 0, con ω 2 = k/m, siendo entonces
λ1,2 = ±iω.
Obtenemos y1 (t) = eiωt , y2 (t) = e−iωt , y

eiωt − e−iωt sin(ωt)


K(t) = =
2iω ω
que es la solución de la ecuación homogénea que satisface y(0) = 0, y 0 (0) = 1.
Finalmente la solución general de la no homogénea puede escribirse como
Rt
y(t) = c1 cos(ωt) + c2 sin(ωt) + ω1 t0 sin[ω(t − u)]f (u)du
Rt Rt
= c1 cos(ωt) + c2 sin(ωt) + sin(ωt)
ω t0
cos(ωu)f (u)du − cos(ωt)
ω t0
sin(ωu)f (u)du

Si y(t0 ) = 0, y 0 (t0 ) = 0 (resorte en reposo en t = t0 ) entonces c1 = c2 = 0.


Por ejemplo, para t0 = 0 y f (t) = A cos(λt) (fuerza externa oscilante de frecuencia
anglar λ) obtenemos, con estas condiciones iniciales y para λ 6= ω,

A
y(t) = [cos(ωt) − cos(λt)] λ 6= ω
λ2 − ω2
que satisface y(0) = y 0 (0) = 0 y donde el primer término proporcional a cos ωt es una
solución de la ecuación homogénea, y el segundo, que oscila con la frecuencia externa λ,
una solución particular de la ecuación inhomogénea.
Notemos que si λ está próximo a ω, la amplitud de la oscilación resultante, |A/(λ2 − ω 2 )|,
se torna muy grande (fenómeno de resonancia).
Si λ = ω (resonancia) se obtiene
1
y(t) = At sin(ωt)

En este caso la “amplitud efectiva” At/(2ω) crece al aumentar t y la solución no es
acotada.

Ejercicios:

45
1. Hallar la solución general de las siguientes ecuaciones:
a) y 00 − 4y 0 + 4y = f (t) b) y 00 − 3y 0 − 4y = f (t) c) y 00 + 2y 0 + 5y = f (t)
d) y 00 + ω 2 y = f (t) , ω ∈ <, ω 6= 0

2. Hallar, en el caso b), la solución para f (t) = e−t cos(2t) que satisface y(0) = 0,
y 0 (0) = 0 R
rt
(Utilizar ert cos(st)dt = r2e+s2 [r cos(st) + s sin(st)]).

3. Hallar la solución general de la ecuación y 00 + y 0 /t − y/t2 = f (t) (t > 0). Sugerencia:


Considerar soluciones de la homogénea del tipo y(t) = tm .

4. Resolver:
y 00 + 4y = sec(2t)
2et
5. Resolver: y 00 − 2y 0 + y = t3

6. Resolver: y 00 + 2y 0 + y = 4e−t ln(t)


e2t
7. Resolver: y 00 − 4y 0 + 5y = sen(t)

8. Resolver:
y 00 + 4y = sen(3t)

9. Resolver:
y 00 − 4y 0 + 4y = 2e2t

4.5.2 -Método de Coeficientes Indeterminados


Este método nos facilita el cálculo de la solución particular cuando la función f (t) es
exponencial, polinómica, seno , coseno o sumas y productos de éstas.

Seguidamente ilustramos la idea subyacente en el método con algunos casos particu-


lares.
Consideremos la ecuación lineal no homogénea de orden 2:

y 00 + a1 y 0 + a2 y = f (t) (∗∗)

Caso f (t) = ebt


Puesto que la derivación de la función f (t) reproduce dicha función con un posible
cambio en el coeficiente numérico, es natural presuponer que la ecuación (**) posee
como solución alguna del tipo:
yp (t) = Bebt
para algún valor del coeficiente B.
Para que yp (t) = Bebt sea una solución de (**) se debe cumplir, al reemplazar
yp0 (t) = Bbebt y yp00 (t) = Bb2 ebt en (**): B(b2 + a1 b + a2 )ebt = ebt , es decir que debe
cumplirse que : B = b2 +a11 b+a2 cuando el denominador no es cero, o sea que B se

46
puede despejar siempre que b no coincida con una raı́z (autovalor) de la ecuación
caracterı́stica :
λ2 + a1 λ + a2 = 0

Por tanto, cuando b no sea raı́z de la ecuación caracterı́stica (es decir, el denominador
anterior es “no nulo”) tendremos una solución particular de la ecuación (**), dada
por:
yp (t) = Bebt .
Por otra parte, si b es raı́z de la ecuación caracterı́stica, ensayando:

yp (t) = Btebt

como posible solución de la ecuación, tenemos al reemplazar sus derivadas primeras


y segundas en la ecuación (**):

yp (t) = Btebt
es solución de (**) si

B(b2 + a1 b + a2 )tebt + B(2b + a1 )ebt = ebt

Por igualación, considerando que el primer paréntesis se anula, al ser b raı́z de la


ecuación caracterı́stica, se obtiene que debe cumplirse

B(2b + a1 ) = 1

Por tanto, existe un B y una solución particular con el formato

yp (t) = Btebt

si no se anula: (2b + a1 ), o sea si b “no es raı́z doble”de la ecuación caracterı́stica.


Por consiguiente, obtenemos una solución particular de (**) si
2b + a1 no se anula.
Esto es, si b no es raı́z doble de la ecuación caracterı́stica.
Por otra parte, si b fuese una raı́z doble de λ2 + a1 λ + a2 = 0, se puede comprobar
que la función:
yp (t) = t2 ebt /2
es una solución particular de la ecuación diferencial (**).

En definitiva, si f (t) = ebt , la ecuación (**) tiene una solución particular de alguna de
las tres formas siguientes:

Bebt , o Btebt , o Bt2 ebt


donde el coeficiente indeterminado B se obtendrá de imponer que sea solución particular
de (**).

47
Observar: que se descartan la primera o las dos primeras posibilidades cuando
la ecuación homogénea asociada posee ese tipo de soluciones (pués esas propuestas
satisfacen la igualdad y 00 + a1 y 0 + a2 = 0, y no serı́an soluciones de la no homogénea).

Caso f (t) = sen(bt),o f (t) = cos(bt). También puede ser cualquier combinación lineal
de estas funciones.
Las derivadas sucesivas de este tipo de funciones nos hacen pensar que la ecuación
(**) puede admitir una solución particular del forma:

yp (t) = αsen(bt) + βcos(bt)

Se puede comprobar que esto es ası́ siempre que la ecuación homogénea asociada
no posea soluciones del tipo propuesto.
Si la ecuación homogénea asociada tuviese este tipo de soluciones, se ensayará una
solución particular del tipo:

yp (t) = t(αsen(bt) + βcos(bt))

Ejemplo: Dada
y 00 + 4y = sen(2t) (∗ ∗ (2))

Como la ecuación caracterı́stica: λ2 + 4 = 0,tiene raı́ces : λ = ±2i, imaginarias, las


soluciones reales l.i que se usan son : y1 (t) = sen(2t) y2 (t) = cos(2t).
Por tanto, no sirve la propuesta

y(t) = αsen(2t) + βcos(2t)

por ser esa función solución de la homogénea, ası́que se ensaya:

yp (t) = t(αsen(2t) + βcos(2t))

Verificar que es posible hallar α y β, reemplazando las derivadas de esa propuesta


en la ecuación dada (**(2)), usando la igualación con el segundo término.

Ejemplo: Dada
y 00 + 4y = et sen(2t) (∗ ∗ (3))

En este caso podrı́a proponer

yp (t) = et (αsen(2t) + β cos(2t))

Porqué?.

Caso f (t) = Pm (t). Función polinómica de grado m en t


En este caso, es lógico pensar que (**) admita como solución particular un polinomio
de grado m :
yp (t) = α0 + α1 t + + αm tm .

48
Ejemplo:
y 00 + y = t + 1 (∗ ∗ (4))

La propuesta serı́a de acuerdo al polinomio t + 1

yp (t) = α0 + α1 t

salvo que algún término de esa función propuesta sea solución de la ecuación “ho-
mogénea asociada”.
Para eso hay que hallar las raı́ces de la ecuación caracterı́stica:

λ2 + λ = 0,

y hallar el sistema fundamental de soluciones de la ecuación diferencial homogénea.


Resolviendo:
λ2 + λ = 0 = λ(λ + 1) = 0,
se obtienen las raı́ces : λ1 = 0 y λ2 = −1. Ası́ las soluciones del sistema fundamental
son:
y1 (t) = e0t = 1, y2 (t) = e−t .

Por tanto, vemos que la función propuesta yp (t) tiene uno de sus términos (el
primero) que es solución de la Ec. dif. homogénea. Entonces hay que cambiar la
propuesta y proponer ahora:

yp (t) = t.(α0 + α1 t)

Ver ahora, si es posible encontrar esa solución particular sugerida.

Los casos reseñados anteriormente se pueden generalizar a ecuaciones diferenciales de


orden n.
El siguiente cuadro muestra el tipo de solución particular yp (t) a ensayar cuando f (t)
es de los tipos anteriormente citados o su forma es aún más general combinando estas
funciones.

f(t) yp (t)
ebt Bebt
Pm (t) Pm∗ (t)
at
e sen(bt) Aeat sen(bt) + Beat cos(bt)
ebt Pm (t) ebt Pm∗ (t)
Pm (t)e cos(bt) + Qm (t)(eat sen(bt))
at
Pm (t)(e cos(bt)) + Q∗m (t)(eat sen(bt))
∗ at

eat + sen(bt) Aeat + Bsen(bt) + Ccos(bt)


eat + Pm (t) Aeat + Pm∗ (t)

Observación: Pm (t) es un polinomio de grado m, e yp (t) = Pm∗ (t) es un polinomio de


grado m con coeficientes indeterminados los cuales se deben calcular para que esa función
propuesta sea solución particular.

49
Siempre se debe tener presente que si cualquiera de los sumandos de la solución propues-
ta yp (t) es ya “solución de la ecuación diferencial homogénea”, entonces se debe ensayar
como solución particular una del tipo

tr .yp (t),

donde r es el menor número natural tal que ningún sumando de tr yp (t) sea solución de la
ecuación homogénea.

Ejemplo: Determinar una solución particular yp (t) de:

y 00 + 3y 0 + 2y = e3t

Las raı́ces de la ecuación caracterı́stica de la ecuación homogénea es : λ2 + 3λ + 2 = 0


, cuyas raı́ces son: λ1 = −1, y λ2 = −2. Ası́que la solución general de la homogénea es:

yG (t) = c1 e−t + C2 e−2t

Proponemos yp (t) = Be3t como solución particular de la ecuación dada (ya que e3t no
es solución de la homogénea).
Para que sea solución de la completa o inhomogénea debe satisfacer al sustituir: yp00 (t) =
B9e3t y su yp0 (t) = B3e3t en la ecuación dada:

e3t (9B + 3B,3 + 2B) = e3t

Por igualación debe cumplirse: 20B = 1, ası́ B = 1/20. Ası́ la solución particular yp (t) =
(1/20)e3t
Y la solución general de la inhomogénea es:

y(t) = yG (t) + yp (t) = C1 e−t + C2 e−2t + (1/20)e3t


Otro ejemplo: Sea la ecuación:

y 00 + 3y 0 + 2y = 3t + 1
la solución general de la homogénea es:

yG (t) = C1 e−t + C2 e−2t

Proponemos yp (t) = A + Bt un polinomio del mismo grado que el término independi-


ente f (t) = 3t + 1 ( salvo que parte de esa propuesta ya sea solución de la homogénea, en
este caso eso no ocurre).
Luego derivando yp0 (t) = B, y yp00 (t) = 0, ası́ que sustituyendo en la ecuación dada, e
igualando, se obtiene:
0 + 3B + 2(A + Bt) = 3t + 1
Por igualción se advierte que debe cumplirse:
3B+2A = 1, y 2B = 3, entonces B = 3/2, y A = −7/4. Entonces la solución particular
es yp (t) = (3/2)t − 7/4, y la general :

50
y(t) = yG (t) + yp (t) = C1 e−t + C2 e−2t + (3/2)t − 7/4
Ejemplo: Determinar la solución general de :

y 00 + 3y 0 + 2y = sent
Se propone yp (t) = Asen(t)+Bcos(t), pues la Soluciones de la homogénea no coinciden
con esta propuesta. Ası́ derivando la función propuesta , sustituyendo en la ecuación
completa, y por igualación: yp0 (t) = Acos(t) − Bsen(t), yp00 (t) = −Asen(t) − Bcos(t), se
obtiene

−(Asen(t) + Bcos(t)) + 3(A cos(t) − Bsen(t)) + 2(Asen(t) + Bcos(t)) = sent


Luego reagrupando con coeficiente sen(t) y con cos(t), se obtiene:
sen(t)(−A − 3B + 2A) + cos(t)(−B + 3A + 2B) = sen(t)
Se deduce que (−A − 3B + 2A) = 1 , y que (−B + 3A + 2B) = 0, es decir
A − 3B = 1, y B + 3A = 0, luego se obtiene A = −1/8 y B = 3/8 Ası́ la solución
general de la ecuación diferencial completa es :

y(t) = yG (t) + yp (t) = C1 e−t + C2 e−2t − (1/8)sen(t) + (3/8)cos(t)


Otro ejemplo: Sea
y 00 − y 0 − 12y = e4t
Para hallar la solución de la homogénea consideramos la ecuación caracterı́stica de la
homogénea:
λ2 − λ − 12 = 0
cuyas raı́ces son: λ1 = 4, y λ2 = −3. Ası́ que un sistema fundamental de soluciones de la
homogénea es:
y1 (t) = e4t , y y2 (t) = e−3t
Se advierte que debemos proponer para la ecuación no homogénea la solución yp (t) =
t.B.e4t , dado que ya e4t es solución de la homogénea. Luego, derivando lo propuesto y
reemplazando en la ecuación dada, se obtiene:
yp0 (t) = Be4t +4.t.Be4t , yp00 (t) = 4.Be4t +4.Be4t +16.t.Be4t ,. Sustituyendo y reagrupando
se debe obtener B .
Observación: Como muestran nuestros ejemplos, cuando el término no homogéneo
f (t) es un polinomio, una exponencial, una función sen(t) o coseno, la propia función f (t)
sugiere la forma de la solución particular.
De hecho, podemos ampliar la lista de funciones f (t) a las que puede aplicarse el
método de coeficientes indeterminados para incluir también productos de estas funciones
como aparecen en la tabla.
Al usar la tabla, el lector debe recordar que cuando se multiplica por una potencia
r
t , se elige r como el menor entero no negativo tal que ningún término de la función
propuesta sea solución de la ecuación homogénea correspondiente.
Ası́ para las ecuaciones lineales de segundo orden, r será 0, 1 o 2, a lo sumo.
Una elección incorrecta de r conduce a un sistema inconsistente de ecuaciones para
los coeficientes.

51
Observación Observar que la idea básica de este método no se puede extrapolar a
ecuaciones con coeficientes no constantes.

Ejercicios
1. Resolver: z 00 + z = 2e−t , satisfaciendo que z(0) = 0, y que z 0 (0) = 0

2. Idem, si y 00 + 9y = 27, satisfaciendo que y(0) = −7/20, y que y 0 (0) = 1/5

3. Idem, si y 00 + y 0 − 2y = 14 + 2t − 2t2 , satisfaciendo que y(0) = 0, y que y 0 (0) = 0

4. Idem, considerando el principio de superposición : si y 00 + y 0 − 12y = et + e2t − 1,


satisfaciendo que y(0) = 1, y que y 0 (0) = 3

5. Idem, si y 00 + 9y = sen(3t).

6. Idem, si y 00 + 9y = cos(2t).

7. Idem, si y 00 + 9y = 3t + 1.

8. Idem, y 00 − 9y = e−3t + t

9. Idem, y 000 − 9y 0 = e−3t + t

10. y 000 + 9y 0 = e−3t + t

11. Si y 00 − 9y = 3t + 1, hallar la solución particular tal que y(0) = 1, y que y 0 (0) = 0 .

12. y 00 + y = tan(t),
2 e−t
13. y 00 + 2y 0 + y = e−t ln(t), verificar que y(t) = C1 e−t + C2 te−t + (ln(t) − 3/2) t 2

52

También podría gustarte