Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ecuaytran PDF
Ecuaytran PDF
Ecuaytran PDF
1 de junio de 2012
Índice General
Advertencia.
Estos apuntes no han sido corregidos. Cualquier errata o error que se detecte, por favor, escribid
a mi dirección jose.canovas@upct.es, para que en un futuro se pueda subsanar.
No son los apuntes de la asignatura. Son una guía que no tiene porqué corresponderse al cien
por cien con lo explicado en clase.
∗
Se ha utilizado el símbolo = para denotar un paso en alguna demostración que, siendo cierto,
no está bien justificado. Normalmente cuando se trata de permuta de límites, como una integral
con un sumatorio. Para un estudio de las pruebas rigurosas al cien por cien nos remitimos a la
bibliografía al final de estas notas.
i
Índice General
ii
Índice general
1. Transformada de Laplace 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Funciones continuas a trozos. Función de Heaviside . . . . . . . . . . . . . . . . . . . 3
1.3. Definición de Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1. Definición y primeros ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2. Dominio de definición de la Transformada de Laplace . . . . . . . . . . . . . . 6
1.4. Propiedades de la Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1. Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2. Transformada de la derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3. Transformada de la integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.4. Transformada de la convolución . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.5. Primer Teorema de Traslación . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.6. Segundo Teorema de Traslación . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5. Propiedades de la función Transformada de Laplace . . . . . . . . . . . . . . . . . . . 13
1.5.1. Derivabilidad de la Transformada de Laplace . . . . . . . . . . . . . . . . . . . 13
1.5.2. Teoremas del valor inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3. Teorema del valor final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6. Transformada de Laplace inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1. Inyectividad de la Transformada de Laplace . . . . . . . . . . . . . . . . . . . 15
1.6.2. Transformada de Laplace inversa . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.3. Fórmula de inversión compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7. Aplicaciones: una primera aproximación . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.8. Uso de la convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
iii
Índice General
4. Transformada de Fourier 83
4.1. Definición y primeros ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2. Propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.1. Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.2. Transformada de la derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.3. Cambios de escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.2.4. Derivada de la transformada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.2.5. Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3. Transformada de Fourier inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4. Relación con la transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5. Aplicación a los sistemas estables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.5.1. Respuesta a una señal sinusuidal . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.5.2. Respuesta a señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5.3. Aplicación de la transformada de Fourier . . . . . . . . . . . . . . . . . . . . . 91
4.6. Aplicación a las ecuaciones en derivadas parciales . . . . . . . . . . . . . . . . . . . . 91
4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
iv
Capítulo 1
Transformada de Laplace
1.1. Introducción
Vamos a desarrollar un tema sobre la Transformada de Laplace y su aplicación a la resolución de
ecuaciones y sistemas de ecuaciones diferenciales lineales con coeficientes constantes. Estas ecuaciones
surgen de manera natural en el contexto de los circuitos eléctricos.
1
Transformada de Laplace
De forma similar, si tenemos un circuito con varias ramas y más elementos, como por ejemplo
podemos deducir a partir de las leyes de Kirchoff que las intensidades que circulan por los hilos
eléctricos del circuito vienen dadas por
⎧
⎨ 0 = 1 − 2 − 3
0 () = 10 1 + 1 1 + 20 2
⎩
0 = −20 2 + 300 + 3 2
Si suponemos los elementos del circuito constantes, salvo a lo mejor el voltaje (), que supondremos
una función derivable, tenemos un sistema de ecuaciones diferenciales lineales con coeficientes con-
stantes.
La Transformada de Laplace es una herramienta que permite transformar los problemas anteriores
en problemas algebraicos y, una vez resuelto este problema algebraico más fácil a priori de resolver,
calcular a partir de la solución del problema algebraico la solución del problema de ecuaciones difer-
enciales.
Esta es la forma en que los ingenieros abordan el estudio de estos problemas, como pone de
manifiesto las referencias [Oga1], [Sen] o [Jam]. Además este método es explicado en algunos libros
de ecuaciones diferenciales como [BoPr], [Bra], [Jef] o [MCZ].
Sin embargo, para entender en su justa dimensión la Transformada de Laplace hay que dominar
contenidos básicos de variable compleja que nuestros alumnos ya han estudiado durante el curso
2
Transformada de Laplace
(ver por ejemplo [Mur]). Así, vamos a presentar la Transformada de Laplace en un primer lugar
usando los conocimientos que el alumno tiene de funciones de variable compleja y una vez explicada
ésta, procederemos a indicar algunas aplicaciones a las ecuaciones y sistemas citadas anteriormente.
Nuestros alumnos también deben conocer y dominar contenidos relativos a integrales impropias que
fueron explicados en la asignatura de primer curso fundamentos matemáticos de la ingeniería.
fué acuñada en primer lugar por Pierre—Simon Laplace en 1782. Su utilización dentro de la técnica se
debe en su forma rigurosa a Thomas Bromwich, el cual formalizó utilizando las funciones de variable
compleja y la Transformada de Laplace un cálculo operacional inventado por Oliver Heaviside para
la resolución de circuitos eléctricos.
Dados los números reales , se dice que la función : [ ] → C es continua a trozos si existe
una partición de [ ], = 0 1 = , de manera que es continua en ( +1 ), 0 ≤ ,
y existen y son finitos los límites laterales de en cada uno de los puntos , 0 ≤ ≤ .
Una función : [0 +∞) → C se dice que es continua a trozos si para cada intervalo compacto
[ ] ⊂ [0 +∞) se verifica que : [ ] → C es continua a trozos.
: [0 +∞) → C
donde es un número real mayor o igual que cero. Esta función está definida por
½
0 si
() =
1 si ≥
3
Transformada de Laplace
Esta forma de describir funciones continuas a trozos será útil en los siguientes apartados del tema
debido a las propiedades de la Transformada de Laplace que posteriormente estudiaremos. Por otra
parte hemos de comentar que al venir la Transformada de Laplace definida como una integral, la
condición de ser la función continua por la derecha es irrelevante y todas las funciones pueden tomarse
de esta forma.
4
Transformada de Laplace
Potencias. Sea un número natural y consideremos la función () = . Vamos ver que la
Transformada de Laplace de viene dada por la expresión
!
L[ ]() = para todo ∈ C tal que Re 0.
+1
Para ver esto procedemos por inducción calculando en primer lugar la Transformada de 1 .
Integrando por partes obtenemos
Z +∞ Z
−
L[1 ]() = = lı́m −
0 →+∞ 0
µ − ¶
1 − − 1
= lı́m + =
→+∞ 2 2
A continuación, por la hipótesis de inducción supongamos que L[ ]() = ! +1 y calculemos
la Transformada de +1 . Consideremos
Z +∞ Z
− +1
L[+1 ]() = = lı́m − +1 (1.2)
0 →+∞ 0
5
Transformada de Laplace
realizando cambios de variable en las integrales y usando que la función es periódica de periodo
. Tomando límites cuando → +∞, se verifica para todo ∈ C tal que Re 0 la relación
Z
1
L[ ]() = − ()
1 − − 0
Una función : [0 +∞) → C se dice que tiene orden exponencial si existen constantes 0 y
∈ R de manera que para todo ≥ 0 se satisface la condición
| ()| ≤ (1.4)
Denotaremos por E el conjunto de funciones continuas a trozos con orden exponencial, que serán
las funciones con las que trabajaremos a partir de ahora. El siguiente resultado ofrece una primera
aproximación sobre el dominio de definición de la Transformada de Laplace de funciones con orden
exponencial.
Proposition 1 Sea : [0 +∞) → C una función continua a trozos cumpliendo la condición (1.4).
Entonces L[]() está definida para todo número complejo tal que Re
Proof. Vamos a ver que la función − () es absolutamente integrable para todo complejo tal
que Re . Para ello consideramos
Z +∞ Z +∞
−
| ()| = − Re | ()|
0 0
Z +∞
≤ −(Re −)
0
Z
= lı́m −(Re −)
→+∞
µ0 ¶
1 −(Re −) 1
= lı́m − =
→+∞ − Re − Re − Re
6
Transformada de Laplace
y denotamos por
D∗ = { ∈ C : Re }
La Proposición 1 nos asegura que D∗ ⊆ D .
1.4.1. Linealidad
Esta propiedad será muy útil para resolver ecuaciones diferenciales lineales con coeficientes con-
stantes, a la vez que permitirá el cálculo de la transformada de algunas funciones.
− −
() = sin() =
2
7
Transformada de Laplace
Entonces
1 ¡ ¢
L[ ]() = L[ ]() − L[− ]()
2 µ ¶
1 1 1
= − = 2
2 − + + 2
siempre que Re 0
+ −
() = cos() =
2
L[]() =
2 + 2
siempre que Re 0.
− −
() = sinh() =
2
Entonces
1 ¡ ¢
L[ ]() = L[ ]() − L[− ]()
2µ ¶
1 1 1
= − = 2
2 − + − 2
si Re ||.
+ −
() = cosh() =
2
L[]() =
2 − 2
8
Transformada de Laplace
0 1 2 −1
X Z
X
− −−1
= [ ( ) − (−1 )] + − ()
=1 =1 −1
Z
= − () − (0) + − ()
0
Tomando límites cuando → +∞, y teniendo en cuenta que ∈ D∗ y que por tanto existen
∈ R, 0, Re , tales que
Procediendo por inducción a partir de la fórmula (1.5) se prueba una fórmula general para la
derivada —ésima de la función en el caso de que −1) sea derivable a trozos para ∈ N. Esta
fórmula viene dada para todo ∈ D∗ por
L[ ) ]() = L[ ]() − −1 (0) − −2 0 (0) − − −2) (0) − −1) (0) (1.6)
Las fórmulas 1.5 y 1.6 serán claves para resolver ecuaciones y sistemas diferenciales lineales con
coeficientes constantes, como veremos en el apartado de aplicaciones de este tema.
9
Transformada de Laplace
Para ello y dado que ∈ E, existirán reales y 0 de manera que | ()| ≤ para todo ≥ 0.
Sea
Z Z
− −
|() | ≤ () ≤ − Re
0
µ ¶0
1
= − Re − → 0 si → +∞
Entonces tomando límites en la expresión anterior obtenemos el resultado.
10
Transformada de Laplace
Theorem 5 En las condiciones anteriores, para todo ∈ D∗ ∩ D∗ se verifica la fórmula
L[ ∗ ]() = L[]()L[]()
Proof. En primer lugar, existen números reales y 0, = 1 2, de manera que para todo ≥ 0
se verifica
|()| ≤ 1 y |()| ≤ 2
Entonces para todo ≥ 0
¯Z ¯ Z
¯ ¯
|( ∗ )()| = ¯ ( − )()¯¯ ≤
¯ | ( − )||()|
0 0
Z
≤ 1 2 = 1 2
0
−
con lo que se ve fácilmente que ( ∗ )() es absolutamente integrable para todo Re , con
lo que L[ ∗ ]() existe para todo con Re . Por otra parte, como las funciones − () y
− () también son absolutamente integrables para todo Re , por el Teorema de Fubini (ver
[PiZa, pag. 187]) se tiene que
Z +∞ ∙Z ¸
−
L[ ∗ ]() = ( − )()
0 0
Z +∞ ∙Z ¸
−(−) −
= ( − ) ()
0 0
Z +∞ ∙Z +∞ ¸
−(−) −
= ( − ) ()
0
Z +∞ ∙Z +∞ ¸
−(−)
= ( − ) − ()
0
Z +∞ ∙Z +∞ ¸
= () − ()
−
0 0
Z +∞
= L[ ]()− () = L[]()L[]()
0
La demostración de este resultado no la haremos a los alumnos, debido a que pensamos que sus
conocimientos le impedirán comprenderla completamente. No obstante la fórmula será bastante útil
en las aplicaciones.
11
Transformada de Laplace
Proof. Sea Z +∞ Z Z +∞
− −(−)
() = lı́m () = −(−) ()
0 →+∞ 0 0
de donde se deduce inmediatamente (1.8).
A partir de este resultado podemos obtener las Transformadas de las funciones siguientes:
() = sin(), ∈ R, cuya Transformada de Laplace para todo número complejo tal que
Re Re es
L[]() =
( − )2 + 2
() = cos(), ∈ R, cuya Transformada de Laplace para todo número complejo tal que
Re Re es
−
L[]() =
( − )2 + 2
() = sinh(), ∈ R. Si Re || + Re , entonces
L[]() =
( − )2 − 2
() = cosh(), ∈ R. Si Re || + Re , entonces
−
L[]() =
( − )2 − 2
() = con ∈ N. Entonces
!
L[]() =
( − )+1
siempre que Re Re .
12
Transformada de Laplace
Este resultado es útil para obtener la Transformada de Laplace de funciones continuas a trozos.
Por ejemplo consideremos la función
½
si 0 ≤ 1
() =
0 si ≥ 1
Entonces
L[ ] : { ∈ C : Re } → C
Theorem 8 Bajo la notación anterior, la función L[ ] es holomorfa para todo ∈ C tal que Re
y además se verifica Z +∞
L[]() = − − ()
0
En las condiciones del resultado anterior, obtenemos por inducción la fórmula para la derivada
—ésima de la Transformada de Laplace
Z +∞
L[ ]() = (−1) − ()
0
Claramente la demostración de este resultado no es apropiada para hacerla en clase, pues pre-
supone muchos contenidos que no hemos explicado en la misma. Nos centraremos en que el alumno
entienda el resultado y sepa aplicarlo. Por ejemplo, calculando las Transformadas de las siguientes
funciones.
13
Transformada de Laplace
Proof. Sea ∈ D∗ . Existen números reales 0 y de manera que | ()| ≤ para todo ≥ 0.
Entonces
Z Z
−
|L[]()| ≤ lı́m | ()| ≤ lı́m (−Re )
→+∞ 0 →+∞ 0
(−Re
( − 1)
= lı́m =
→+∞ − Re Re −
de donde claramente obtenemos (1.10) al hacer Re → +∞.
Continuamos esta sección con otro resultado que estudia cuestiones cualitativas de la Transfor-
mada de Laplace.
14
Transformada de Laplace
Theorem 11 Sea ∈ E una función derivable a trozos tal que 0 ∈ E. Supongamos que 0 ∈ D∗ y
que existe y es finito lı́m→+∞ (). Entonces
Consideremos : [0 +∞) → C una función localmente integrable. Diremos que es nula o nula
casi por todas partes si para todo ∈ (0 +∞) se verifica que
Z
|()| = 0
0
Dos funciones : [0 +∞) → C localmente integrables se dirán iguales casi por todas partes si −
es nula. Se tiene entonces el siguiente resultado.
Proposition 12 Sean ∈ E iguales casi por todas partes. Entonces L[]() = L[]() para todo
∈ D ∩ D .
15
Transformada de Laplace
Proof. Sea 0 y ∈ D ∩D . Por el Teorema del Valor Medio del Cálculo Integral existe ∈ (0 )
tal que Z Z
− − − Re
| () − ()| = | () − ()| = 0
0 0
Así
¯Z Z ¯
¯ ¯
|L[]() − L[]()| = lı́m ¯¯ −
() − −
()¯¯
→+∞ 0 0
Z
− Re
≤ lı́m | () − ()| = 0
→+∞ 0
Theorem 13 (Lerch) Sean ∈ E tales que L[ ]() = L[]() para todo ∈ D ∩ D . Entonces
y son iguales salvo a lo mejor en los puntos de discontinuidad de ambas, con lo que además
D = D .
L−1 : L(E) → E ∼
para ∈ L(E) como L−1 [ ] = [] donde [] denota la clase de ∈ E de manera que L[] = .
En general con nuestros alumnos tenderemos a identificar clases con funciones que normalmente
podrán ser calculadas. Así diremos que dada ∈ L(E) su Transformada inversa es una función
L−1 [ ]() = () de forma que L[ ] = , aunque está perfectamente claro que tal no es única.
En este contexto, destacamos las siguiente propiedades de Transformada inversa que serán espe-
cialmente interesantes a la hora de las aplicaciones.
16
Transformada de Laplace
Theorem 14 Supongamos que () es holomorfa en C \ {1 2 }, y que existe ∈ R tal que
es holomorfa en { ∈ C : Re }. Supongamos además que existen constantes positivas ,
y tales que
| ()| ≤ si || ≥ (1.13)
||
Para ≥ 0 sea
X
() = Res( () )
=1
Entonces
L[ ]() = () si Re
Proof. Sea y consideremos el rectángulo Γ de la figura, suficientemente grande para que las
singularidades de estén contenidas en su interior y además todo ∈ Γ cumpla la condición || .
Separamos Γ en la suma de dos caminos cerrados 1 y 2 divididos por la recta Re = .
17
Transformada de Laplace
Como las singularidades de están contenidas en el interior de 1 , por definición de tenemos que
Z
() = 2()
1
Entonces
Z ∙Z ¸
−
2L[]() = lı́m ()
→+∞ 0 1
Z ∙Z ¸
(−)
= lı́m ()
→+∞ 1 0
Por otra parte, sea () = , ∈ [0 2] una circunferencia de radio y conteniendo a Γ.
Entonces Z Z
() ()
=
Γ − −
de donde ¯Z ¯
¯ () ¯
¯ ¯
¯ − ¯ ≤ || ( − ) 2 → 0 si → +∞
Así Z
()
= 0
Γ −
y como era arbitrario, la fórmula L[]() = () es válida para todo Re .
Remarquemos aquí que la condición (1.13) del resultado anterior se cumple para funciones de la
forma () = ()() donde y son polinomios tales que deg ≥ 1 + deg , donde deg
denota el grado de . Así por ejemplo, la Transformada inversa de la función
() = 2
+1
puede calcularse como
L−1 [ ]() = ()
= Res( () ) + Res( () −)
= + − = cos
2 −2
18
Transformada de Laplace
Así, el uso del producto de convolución presenta una vía alternativa para la resolución de estos
problemas, aunque a veces el cálculo de las integrales que aparecen en el producto de convolución
pueden ser bastante complicado.
1.9. Ejercicios
1. Calcular la transformada de Laplace de las siguientes funciones
(a) () = sin(3) (b) () = 5 (c) () = 5 cos 3 (d) () =
(e) () = 3 − (f) () = sinh (g) () = cos sin (h) () = cos sin(2)
2. Una función : [0 +∞[ → R se dice que es periódica con periodo 0 o -periódica si para
cada ≥ 0 se tiene que () = ( + ). Comprobar que en caso de existir la transformada de
Laplace de , se verifica la igualdad
Z
1
L()() = − ()
1 − − 0
4. Dada la función, Z
() = − sin ≥0
0
calcular su transformada de Laplace. Calcular asimismo la transformada de Laplace de () =
().
5. Dada la función (), definimos la función () = (), que puede verse como un cambio de
escala en . Comprobar que
1
L[]() = L[ ()]() = L[]()
Utilizar dicha fórmula para calcular la transformada de la función sin() a partir de
1
L[sin ]() =
1 + 2
6. Calcular la transformada de Laplace de la función,
⎧
⎪
⎨ si 0 ≤ ≤ 1
() = 1 si 1 ≤ 2
⎪
⎩ 0 si 2
20
Transformada de Laplace
− −
(a) () = (b) () = (c) () = (d) () =
sin 1 + 2 1 + cos ( 2 )
2 1 +7
(a) () = (b) () = (c) () =
1 + 3 ( − 1)( 2 − 2) 2 + 2 + 5
1
() () =
( + 1)( + 2)( 2 + 2 + 10)
2
() () =
( − 2)( 3 − 1)
13. Utilizar la transformada de Laplace para resolver los siguientes problemas de Cauchy asociados
a ecuaciones diferenciales lineales con coeficientes constantes:
¾ ¾
000 () + 5 00 () + 17 0 () + 13() = 1 0 () + 3() = −2
(0) = 0 (0) = 1 00 (0) = 0 (0) = 2
¾ ¾
00 () + 0 () − 2() = 54 () 00 () + () =
(0) = 1 0 (0) = 0 (0) = 1 0 (0) = −2
21
Transformada de Laplace
a) Utilizar las leyes de Kirchhoff para obtener la ecuación diferencial que verifica la función
que describe la carga en función del tiempo.
b) Determinar la carga en función del tiempo si en el momento de de conectar el circuito,
= 0, la carga del condensador es igual a cero.
c) Determinar la carga del condensador en función del tiempo si inicialmente es de 1.5 cu-
lombios.
16. En el caso de un circuito LCR en el que no se tiene ninguna resistencia, la ecuación diferencial
que describe la carga del condensador en función del tiempo es de la forma,
2 ()
2
() + = ()
y se denomina oscilador armónico. Resolver la ecuación anterior en los siguientes casos:
17. Usar la transformada de Laplace para resolver el siguiente sistema de ecuaciones diferenciales
lineales: )
2100 () − 200 () − 10 () − 20 () + 91 () − 32 () = 0
2100 () − 200 () + 10 () + 20 () + 71 () − 52 () = 0
22
Transformada de Laplace
con 1.
19. Encuentra la solución del oscilador armónico dado por la ecuación diferencial:
23
Transformada de Laplace
24
Capítulo 2
Estabilidad de ecuaciones diferenciales
25
Estabilidad de ecuaciones diferenciales
En general la resolución de estos sistemas no es posible, salvo en casos excepcionales. Sólo para el
caso de los sistemas de ecuaciones diferenciales lineales con coeficientes constantes, que veremos un
poco más tarde existen algoritmos que permiten el cálculo explícito de las soluciones. Sin embargo,
es relativamente sencillo saber cuándo un sistema tiene solución, o más precisamente cuándo un
problema de condiciones iniciales asociado tiene solucón. Primero claro está, debemos definir qué
entendemos por un problema de condiciones iniciales para sistemas de ecuaciones diferenciales. Dicho
problema es un sistema de ecuaciones diferenciales
⎧
⎪
⎪ 10 = 1 ( 1 2 );
⎪
⎪ 0
⎪
⎨ 2 = 2 ( 1 2 );
..
⎪ .
⎪
⎪ 0
= ( 1 2 );
⎪
⎪
⎩ ( ) = ( ) = ( ) =
1 0 1 2 0 2 0
junto con las condiciones (0 ) = , donde 0 1 2 son números reales. Por ejemplo
⎧ 0
⎪
⎪ = 1 + 22 − 3 ;
⎨ 10
2 = + 1 + 2 3 ;
⎪
⎪ 0 = 1 2 3 ;
⎩ 3
1 (0) = 2 2 (0) = 0 3 (0) = 1
es un problema de condiciones iniciales. Nótese que todas las condiciones iniciales implican el conocimien-
to de la función en 0, es decir, lo siguiente
⎧ 0
⎪
⎪ = 1 + 22 − 3 ;
⎨ 10
2 = + 1 + 2 3 ;
⎪
⎪ 0 = 1 2 3 ;
⎩ 3
1 (0) = 2 2 (1) = 0 3 (0) = 1
Para el caso de los problemas de condiciones iniciales para sistemas de ecuaciones diferenciales
tenemos el siguiente resultado análogo al de ecuaciones diferenciales de orden uno.
26
Estabilidad de ecuaciones diferenciales
Este resultado es fácil de aplicar. Por ejemplo el problema que consideramos anteriormente
⎧ 0
⎪
⎪ 1 = 1 + 22 − 3 ;
⎨ 0
2 = + 1 + 2 3 ;
⎪
⎪ 0 = 1 2 3 ;
⎩ 3
1 (0) = 2 2 (0) = 0 3 (0) = 1
()
e ⎛ ⎞
1
⎜ 2 ⎟
y = (1 2 ) = ⎜ ⎟
⎝ ⎠
el sistema anterior puede escribirse de forma matricial como
27
Estabilidad de ecuaciones diferenciales
Previamente, estudiaremos la teoría general de los sistemas de ecuaciones lineales y para poste-
riormente particularizarla al caso de las ecuaciones lineales de orden mayor o igual que dos (ver la
última sección de este tema). Esta teoría general de los sistemas de ecuaciones diferenciales lineales se
sustenta en la noción de espacio vectorial de dimensión finita estudiadas en la parte de álgebra lineal
impartida durante el curso y utiliza el siguiente resultado sobre existencia y unicidad de soluciones
de ecuaciones y sistemas que se deducen directamente del Teorema 15.
Theorem 16 Sea y0 = A() · y + b() un sistema de ecuaciones diferenciales lineales donde A y
b están definidas en un intervalo 0 = [0 − 0 + ]. Si estas funciones son continuas en dicho
intervalo, entonces el problema de condiciones iniciales
½ 0
y = A() · y + b()
y(0 ) = y0
tiene solución única definido en todo 0 .
28
Estabilidad de ecuaciones diferenciales
Recordemos por un instante dos nociones que será importante tener claras para entender la teoría
que a continuación vamos a desarrollar. Por un lado hemos de tener presente que bajo la notación
que estamos utilizando, una solución de un sistema lineal es una función y : ( ) ⊆ R → R , o dicho
de otro modo, un vector cuyas componentes son funciones reales. Por ejemplo, dado el sistema
½ 0
1 = 2
20 = −1
una solución del mismo es y() = (sin cos ) , es decir, 1 () = sin e 2 () = cos .
Por otra parte, recordemos una noción de básica del álgebra lineal. Si tenemos vectores cuyas
componentes son funciones y1 y2 y , se dicen linealmente independientes si para toda combi-
nación lineal
1 · y1 + 2 · y2 + + · y = 0
donde ∈ R, 1 ≤ ≤ , y 0 es el vector que tiene a la función nula en cada componente, entonces
necesariamente = 0, 1 ≤ ≤ .
Vamos a empezar el estudio de los sistemas homogéneos, empezando por el siguiente resultado.
Las demostraciones de los siguientes resultados están basados en el Teorema 16.
y0 = A() · y (2.2)
tiene estructura de espacio vectorial de dimensión sobre R, esto es, cualquier solución y del mismo
es de la forma
y = 1 · y1 + 2 · y2 + + · y
donde 1 2 ∈ R e y1 y2 y son soluciones linealmente independientes del mismo.
Proof. En primer lugar, veamos que cualquier combinación lineal de soluciones del sistema (2.2)
es una solución del mismo. Para ello, sean y1 y2 y soluciones de (2.2) y 1 2 ∈ R.
Consideramos el vector de funciones z = 1 · y1 + 2 · y2 + + · y y derivamos respecto de la
variable independiente (notar que z = z()), obteniéndose, por ser y1 y2 y soluciones de (2.2)
que
Sea ahora C = {u1 u2 u } la base canónica de R , es decir, para cada ∈ {1 2 }, u es
el vector de R que tiene 0 en todas las componentes salvo en la —ésima, donde tiene un 1. Sea 0
29
Estabilidad de ecuaciones diferenciales
un número real y supongamos que A() está definida en 0 (ver Teorema 16). Para cada 1 ≤ ≤ ,
consideramos el problema de condiciones iniciales
½ 0
y = A() · y;
y(0 ) = u
En virtud del Teorema 16, para cada ∈ {1 2 } existe una única solución de dicho problema,
que denotaremos por y , definida en 0 . Vamos a ver que B = {y1 y2 y } forman una base del
conjunto de soluciones del sistema 2.2.
1 · y1 + 2 · y2 + + · y = 0.
y por ser cada y solución del problema de condiciones iniciales, y (0 ) = u , 1 ≤ ≤ , de donde
1 · u1 + 2 · u2 + + · u = 0
Como los vectores u son los elementos de la base canónica de R , son linealmente independientes y
por tanto = 0, 1 ≤ ≤ , de donde y1 y2 y son linealmente independientes.
Acto seguido, vamos a ver que B es un sistema generador del conjunto de soluciones del sistema
(2.2). Para ello sea z una solución arbitraria del sistema (2.2). Sea 0 el número real del apartado
anterior. Como C es una base de R , se verifica que existen 1 2 ∈ R tales que
z(0 ) = 1 · u1 + 2 · u2 + + · u
Claramente tanto z como z1 son soluciones de dicho problema. Como la solución es única en virtud
del Teorema 16, se tiene que
z = z1 = 1 · y1 + 2 · y2 + + · y
Aunque el resultado anterior caracteriza las soluciones del sistema homogéneo, el cálculo ex-
plícito de las soluciones dista mucho de estar al alcance. Un primer avance en el objetivo del cál-
culo de las soluciones lo proporciona el determinante wronskiano, definido de la manera siguiente.
30
Estabilidad de ecuaciones diferenciales
El determinante wronskiano resulta ser útil a la hora de determinar si soluciones del sistema
homogéneo son o no linealmente independientes, como pone de manifiesto el siguiente resultado.
Proof. Veamos en primer lugar que (a) implica (b). Procedemos por reducción al absurdo suponiendo
que (b) es falso, esto es, existe 0 ∈ tal que [y1 y2 y ](0 ) = 0. Entonces los vectores de R
son linealmente dependientes, es decir, existen 1 2 ∈ R, no todos nulos, tal que
Obviamente el vector de funciones 0 (cuyas componentes son la función nula) es solución de dicho
problema. Por otra parte, procediendo como en el final de la demostración del Teorema 2.18, vemos
que la función
z = 1 · y1 + 2 · y2 + + · y
también es solución de dicho problema. Como la solución debe ser única por el Teorema 16, tenemos
que
z = 0 = 1 · y1 + 2 · y2 + + · y
Como los escalares no eran todos nulos, tenemos que las funciones y1 y2 y no pueden ser
linealmente independientes, lo que nos lleva a una contradicción.
(b) implica (c) es trivial. La demostración de (c) implica (a) es análoga a la demostración del
Teorema 2.18, cuando se comprueba que las funciones son linealmente independientes.
Ahora bien, seguimos todavía muy lejos de resolver un sistema homogéneo. De hecho, los métodos
que permitirán dar soluciones explícitas a los sistemas planteados tendrán que esperar a los próximos
temas. La teoría general, en lo que a la estructura de las soluciones, queda cerrada al establecer la
siguiente caracterización de los sistemas no homogéneos.
31
Estabilidad de ecuaciones diferenciales
es de la forma
y = 1 · y1 + 2 · y2 + + · y + y
donde 1 2 ∈ R, y1 y2 y son soluciones linealmente independientes del problema homogé-
neo e y es una solución particular del problema no homogéneo.
Proof. Sea y una solucion particular del sistema (2.3) y sea y otra solución. Consideremos el vector
de funciones z = y − y y veamos que es solución del sistema homogéneo asociado a (2.3). Para ello
calculamos
z0 = y0 − y0
= A() · y + b() − [A() · y +b()]
= A() · [y − y ]
= A() · z
Por el Teorema 2.2, existen soluciones del sistema homogéneo asociado linealmente independientes
y1 y2 y tales que
z = 1 · y1 + 2 · y2 + + · y
donde 1 2 ∈ R. Teniendo en cuenta la definición de z concluimos que
y = 1 · y1 + 2 · y2 + + · y + y
3) = + 0 − 00
32
Estabilidad de ecuaciones diferenciales
33
Estabilidad de ecuaciones diferenciales
y b() = (0 0 0 ()) . Diremos entonces que la ecuación (3.1) es homogénea o no homogénea
según se sea b() nulo o no, es decir, si () = 0 para todo . Además, la ecuación se dirá de
coeficientes constantes cuando A() sea constante, es decir, cuando () = ∈ R para todo
0 ≤ .
Tanto los Teoremas 2.18 y 2.19 como la Proposición 18 admiten la siguiente lectura en términos de
ecuaciones lineales. A la vista de que cualquier ecuación lineal puede escribirse como un sistema aña-
diendo las derivadas como funciones, cualquier solución del sistema y es de la forma ( 0 −1 ),
donde : ⊆ R → R es una función suficientemente derivable. En esta línea, destacamos entonces
que el wronskiano puede escribirse como
[1 2 ]() = [y1 y2 y ]() := |y1 (); y2 (); ; y ()|
¯ ¯
¯ 1 () 2 () () ¯
¯ ¯
¯ 1 () 2 ()
0 0
0
() ¯
= ¯¯ ¯
¯
¯ −1) ¯
¯ ()
−1)
()
−1)
() ¯
1 2
donde 1 2 son las primeras componentes de y1 y2 y . Podremos enunciar entonces los
siguientes resultados.
34
Estabilidad de ecuaciones diferenciales
y0 = A · y + b() (2.7)
y0 = A · y
Teorema de Cayley—Hamilton
Supongamos que A = ( )1≤≤
1≤≤ es una matriz cuadrada y () = + −1
−1
+ + 1 + 0 ,
es un polinomio de coeficientes reales. Si intercambiamos por A construimos lo que denominaremos
un polinomio matricial
(A) = A + −1 A−1 + + 1 A + 0 I
Nótese que el término independiente del polinomio aparece multiplicado por la matriz identidad I .
Por ejemplo, si µ ¶
1 2
A=
3 4
y () = 3 + 2 − 1, entonces
(A) = A3 + 2A − I2
µ ¶3 µ ¶ µ ¶
1 2 1 2 1 0
= +2 −
3 4 3 4 0 1
µ ¶
38 58
=
87 125
35
Estabilidad de ecuaciones diferenciales
|A − · I | · I = () · I = (A − · I ) · (A − · I )
(A) = (A) · I
= −B1 · A + (B1 · A − B2 ) · A−1 + + (B−1 · A − B ) · A + B · A = 0
() = 2 − 5 − 2
y si calculamos
(A) = A2 − 5A − 2I2
µ ¶ µ ¶ µ ¶
7 10 5 10 2 0
= − −
15 22 15 20 0 2
µ ¶
0 0
=
0 0
Este teorema será clave para poder obtener una fórmula que permita resolver sistemas de ecuaciones
diferenciales lineales con coeficientes constantes.
El polinomio característico de una matriz cuadrada A no tiene porqué ser el de menor grado que
satisfaga el teorema de Cayley—Hamilton. Un polinomio () se dice mínimo para la matriz cuadrada
A si (A) = 0. En general se sabe que () divide al polinomio característico de A, es decir, dicho
polinomio será de la forma
() = ( − 1 )1 · · ( − )
donde , 1 ≤ ≤ son los valores propios de A y = 1 + + ≤ , donde es el grado del
polinomio característico ().
Como sabemos, para que la matriz A sea diagonalizable tiene que cumplirse que si
entonces para cada valor propio debe cumplirse que su multiplicidad algebraica = dim Ker(A −
· I ), donde Ker(A − · I ) es el subespacio propio asociado al valor propio . Esta condición es
equivalente a que = 1, siendo el exponente del monomio − en el polinomio mínimo.
36
Estabilidad de ecuaciones diferenciales
37
Estabilidad de ecuaciones diferenciales
Hay casos en los que es bastante sencillo calcular la exponencial de una matriz. Por ejemplo,
si D = diag(1 ) es una matriz diagonal, entonces para todo número natural se tiene que
D = diag(1 ) y entonces
X
∞
1
D
= D ·
=0
!
X∞
1
= diag(1 ) ·
=0
!
̰ !
X X
∞
1
= diag
=0
! =0
!
1
= diag( )
Por ejemplo, si ⎛ ⎞
1 0 0
D = ⎝ 0 2 0 ⎠
0 0 −2
entonces ⎛ ⎞
0 0
D = ⎝ 0 2 0 ⎠
0 0 −2
Además, la exponencial de una matriz cumple la siguientes propiedades (que no justificaremos). Si
A y B son matrices cuadradas que conmutan, esto es A · B = B · A, entonces
A+B = A · B (2.9)
Dado el vector columna C, la función y() = A· · C está definida para todo ∈ R, es derivable y
A·
y0 () = · C = A · A· · C = A · y()
es decir, es solución del sistema de ecuaciones diferenciales lineales con coeficientes constantes (2.8).
38
Estabilidad de ecuaciones diferenciales
pero ¿cómo calculamos dicha matriz? A continuación vamos a ver un método basado en el Teorema de
Cayley—Hamilton que permite hacer el cálculo con cierta facilidad, aunque los cálculos sean laboriosos.
X
∞
( )
·I
= I · = · I
=0
!
entonces
X∞
A· = ·I (A− I )· = · (A − I ) ·
=0
!
X
∞
(A) A·
= · (A)(A − I ) ·
=0
!
X
−1
= · (A)(A − I ) ·
=0
!
dado que por el Teorema de Cayley—Hamilton, para todo ≥ se tiene que (A)(A − I ) =
(A)(A − I )− = 0. Multiplicando nuevamente por la izquierda por (A) obtendremos
X
−1
(A) (A)A· = · (A) (A)(A − I ) · (2.12)
=0
!
39
Estabilidad de ecuaciones diferenciales
Sumando (2.12) desde 1 hasta y teniendo en cuenta (2.11) concluimos que la exponencial de la
matriz puede calcularse con la fórmula
à X
!
X −1
A· = · (A) (A) (A − I ) · (2.13)
=1 =0
!
1 1 2 (1 + 2 ) − 61 − 2
= + =
() −1 −6 ()
1 () = ()( − 1) = − 6
y
2 () = ()( − 6) = − 1
Aplicamos ahora la fórmula (2.13) y tenemos que
esto es
1 ¡ 6 ¢
1 () = (31 + 22 ) + (21 − 22 )
5
40
Estabilidad de ecuaciones diferenciales
e
1 ¡ 6 ¢
2 () = (31 + 22 ) + (−31 + 32 )
5
donde 1 y 2 son dos constantes reales. Si tuviésemos alguna condición inicial, por ejemplo, 1 (0) =
1 2 (0) = 0, entonces planteando el sistema
1 (0) = 1 = 1
2 (0) = 2 = 0
obtendríamos que
1
1 () = (36 + 2 )
5
e
1
2 () = (36 − 3 )
5
es la única solución de dicho problema de condiciones iniciales.
donde 1 y 2 son dos constantes reales (la expresión definitiva de 1 e 2 se deja como ejercicio al
lector).
41
Estabilidad de ecuaciones diferenciales
podemos ver que el polinomio característico asociado a la matriz A es () = 2 − 2 + 2 que tiene
por raíces los números complejos conjugados 1 = 1 + y 2 = 1 − . De la expresión
1 1 2 (1 + 2 ) + 1 (−1 + ) + 2 (−1 − )
= + =
() ( − 1 − ) ( − 1 + ) ()
que da lugar al sistema ½
1 + 2 = 0
1 (−1 + ) + 2 (−1 − ) = 1
1
que nos da como solución 1 = 2
y 2 = − 21 . Teniendo en cuenta que
1 () = − 1 +
y
2 () = − 1 −
se tiene aplicando la fórmula (2.13)
1 1
A· = (1+) · I2 (A − (1 − )I2 ) − (1−) · I2 (A − (1 + )I2 )
µ 2 µ ¶ 2µ ¶¶
1 2+ −5 − 1 2− −5
= −
2 1 −2 + 2 1 −2 −
⎛ ⎞
− − + −
⎜ 2 + −5 ⎟
= ⎝ 2 2 2
−
− − + ⎠
−2 +
µ 2 2¶ 2
2 sin + cos −5 sin
= ·
sin −2 sin + cos
dado que
+ −
cos =
2
y
− −
sin =
2
Entonces toda solución del sistema viene dada por la expresión
µ ¶ µ ¶ µ ¶
1 () 2 sin + cos −5 sin 1
= · ·
2 () sin −2 sin + cos 2
donde 1 y 2 son dos constantes reales.
Los tres ejemplos anteriores resumen los casos que pueden darse para el caso de sistemas de dos
ecuaciones con dos incógnitas, es decir, que el polinomio característico tenga dos soluciones reales
distintas, una real doble o dos complejas conjugadas. Cuando el número de ecuaciones es mayor,
pueden aparecer otros casos, pero básicamente la matriz exponencial contiene en sus coordenadas
funciones de la forma
cos() y sin()
donde ≥ 0 y y son números reales. En cualquier caso, resolveremos sistemas que a lo sumo
tienen cuatro ecuaciones con cuatro incógnitas, pues a partir de ese número de ecuaciones los cálculos
suelen ser muy largos y engorrosos en general.
42
Estabilidad de ecuaciones diferenciales
43
Estabilidad de ecuaciones diferenciales
se verificará que µ ¶ µ ¶ µ ¶ µ ¶
1 (0) 0 1 1 1 −3
= = +
2 (0) 1 25 2 25 3
de donde
1 = 3
y
2 = 22
de donde sustituyendo en la solución general concluimos que
µ ¶ µ ¶
1 () 1 136 + (10 − 13)
=
2 () 25 136 + (12 − 15)
44
Estabilidad de ecuaciones diferenciales
donde A es una matriz cuadrada de filas por columnas con coeficientes reales, f = (1 2 )
donde son funciones dadas e y = (1 2 ) es la función vectorial incógnita. Supongamos
además las condiciones iniciales
y(0) = y0 (2.16)
donde y0 = (10 20 0 ) con 0 números reales para 1 ≤ ≤ . Sea
Entonces, tomando la Transformada de Laplace en (2.15) y teniendo en cuenta (2.16) obtenemos que
y de aquí
L[y]() = (I − A)−1 · (y0 + L[f]()) (2.17)
Una vez calculada de este modo L[y]() obtendremos y tomando la Transformada inversa.
45
Estabilidad de ecuaciones diferenciales
Entonces
µ ¶
2 + 1 1
L[]() = 2 2 + − + +
( + 1) 2 ( 2 + 1) ( 2 + 1) ( 2 + 4)( 2 + 1)
y así
∙
¸ ∙ ¸ ∙ ¸
−1 1 −1 − 1 −1 − 1
() = L () + L () + L ()
2 2 ( 2 + 1) ( 2 + 1)
∙ ¸
−1 −
+L ()
( 2 + 4)( 2 + 1)
= + 1 ( − ) () + 2 ( − ) () + 3 ( − ) ()
46
Estabilidad de ecuaciones diferenciales
o equivalentemente
½
si 0 ≤
() =
2 + sin − (3 − 1)3 cos − cos(2)3 si ≥
y0 = f( y)
donde f : Ω ⊆ R+1 → R es una función con regularidad suficiente para satisfacer la unicidad de
soluciones para un problema de condiciones iniciales o de Cauchy. Si la variable independiente no
aparece explícitamente en las ecuaciones del sistema, es decir, el sistema es de la forma
y0 = f(y)
47
Estabilidad de ecuaciones diferenciales
son autónomos.
Aunque estos sistemas pueden no ser fáciles de resolver, es sencillo encontrar determinadas solu-
ciones particulares. Entre ellas destacan las soluciones constantes, cuyascondiciones iniciales vienen
dadas por las soluciones del sistema algebraico
f(y) = 0.
Si y0 ∈ Ω y verifica que
f(y0 ) = 0,
entonces la solución constante de la forma
y() = y0
vemos que (0 0) es el único punto crítico del sistema (2.18), mientras que al resolver la ecuación
4(1 − ) = 0
comprobamos que 0 y 1 son los puntos críticos de la ecuación (2.19). Como veremos posteriormente,
estos puntos serán de gran importancia en el análisis de la estabilidad de un sistema. Veamos que se
entiende por estabilidad.
la solución y() se dirá asintóticamente estable. La solución y() se dirá inestable si no es estable.
48
Estabilidad de ecuaciones diferenciales
para condiciones iniciales (0 ) = 0 . Claramente, para dos soluciones 1 () e 2 () se verifica que
lı́m |2 () − 1 ()| = +∞
→+∞
por lo que dicha ecuación es iniestable en todas sus soluciones. Lo contrario ocurre con la ecuación
0 = −
que es asintóticamente estable. Finalmente, dado que las soluciones del sistema
½ 0
=
0 = −
son circunferencias concentricas con centro (0 0), se tiene que las soluciones del sistemas son estable
aunque no asintóticamente estables.
49
Estabilidad de ecuaciones diferenciales
Exercise 1 Dados los siguientes sistemas lineales, decidir si son estables o no.
⎧ 0 ⎧ 0 ⎧ 0
⎨ = − 5 + 5 ⎨ = −5 + − ⎨ = − − 2
0 0
(a) = −2 − 2 + 2 (b) = −2 − 2 + 2 (c) 0 = 3 − 2
⎩ 0 ⎩ 0 ⎩ 0
= 3 − 3 + 3 = −3 + 3 − 3 = 4 +
⎧ 0 ⎧ 0 ⎧ 0
⎨ = −9 + − 2 ⎨ = −5 + − ⎨ = −2 − 2 + 2
0 0
(d) = 3 − 9 (e) = −3 − + 3 (f) 0 = −2 − 2 + 2
⎩ 0 ⎩ 0 ⎩ 0
= 4 + + = −4 + 4 − 2 = 0
La aplicación del Teorema 24 tiene a priori un punto flaco puesto de manifiesto por el siguiente
ejemplo. Consideremos el sistema ⎧ 0
⎨ = −2 + − 2
0 = 3 − 9
⎩ 0
= 4 + +
Este sistema coincide con el del apartado (d) del ejercicio anterior en todos los coeficientes de la matriz
asociada excepto el primero. El polinomio característico es () = −3 −102 −12−63, pero resolver
la ecuación () = 0 no resulta sencillo, y quizás ni siquiera factible para los conocimientos de los
que se disponen. Ahora bien, para aplicar el Teorema 24 en la mayoría de los casos sólo necesitamos
conocer los signos de las partes reales de los valores propios de la matriz asociada. Para este objetivo
podemos usar el siguiente criterio de Routh-Hurwitz que, aunque no siempre es aplicable, supone
una gran ayuda para determinar al menos si el sistema es asintóticamente estable.
50
Estabilidad de ecuaciones diferenciales
cuyos menores principales son 1, 8 y 24. Está claro entonces que todos los valores propios de la matriz
A tienen parte real negativa, por lo que el sistema será asintóticamente estable.
Además puede ser de utilidad el siguiente resultado que denominaremos Teorema de círculo de
Gershgorin.
Theorem 26 Sea A = ( ) ∈ M× (R) con valores propios 1 . Entonces todos los valores
propios están en el conjunto del plano de la forma
p p
{ + ∈ C : ( − 11 )2 + 2 1 } ∪ ∪ { + ∈ C : ( − )2 + 2 }
P
donde = =1 | | − | |, = 1 2 .
X
0 = 0
=1
con lo que
X
0 = ( − 0 0 )0
=1
6=0
Así ¯ ¯
¯ ¯
¯X ¯ X X
¯ ¯
¯
| − 0 0 | = ¯ ¯
0 ¯ ≤ |0 || | ≤ |0 | = 0
¯ =1 ¯ =1 =1
¯6=0 ¯ 6=0 6=0
51
Estabilidad de ecuaciones diferenciales
por lo que todos los valores propios tienen parte real negativa y el sistema es por tanto asitóticamente
estable.
y0 = A · y + f()
y0 = A · y
y () = A· · C C ∈ R
verifica que
lı́m y () = 0
→∞
52
Estabilidad de ecuaciones diferenciales
donde y () es una solución particular del sistema no homogéneo. Si tomamos límites cuando tiende
a infinito, tenemos que
y() ' y ()
es decir, para tiempos grandes (aquí lo de grande depende de cada sistema) la solución del sistema no
autónomo es básicamente la solución particular del mismo y la parte de la solución correspondiente al
sistema homogéneo se va reduciendo con el tiempo. En ingeniería a la función f() se le llama entrada
del sistema e y () es la salida del mismo. Si el sistema es estable, al variar la entrada, varía la salida
sin que la parte homogénea intervenga en el proceso. Esto es lo que ocurre en la mayoría de los
sistemas lineales utilizados en las ciencias experimentales, como en circuitos eléctricos o vibraciones
mecánicas.
53
Estabilidad de ecuaciones diferenciales
Supongamos en primer lugar que Re 0 para todo = 1 2 . Entonces, sean cuales fueran
las condiciones (2.24) se tiene que la solución del problema es de la forma
X
X
() = L−1 [1( − ) ]()
=1 =1
X
X
−1
=
=1 =1
( − 1)!
donde los coeficientes , 1 ≤ ≤ , 1 ≤ ≤ vienen determinados a partir de las condiciones
iniciales del problema. Como Re 0, es claro que lı́m→+∞ |()| = 0.
Supongamos ahora que existe ∈ {1 2 } de manera que Re 0. Como B es una base,
existen condiciones iniciales de manera que para las mismas la solución () contiene un término de
la forma
L−1 [1( − )]() =
con ∈ C \ {0}. Entonces claramente lı́m→+∞ |()| = +∞.
Consideremos ahora que toda raíz de (), con Re = 0 tiene multiplicidad uno ( = 1) y
las restantes raíces tienen parte real negativa. Entonces para cualquier condición inicial la solución
() verifica que si Re = 0, entonces existe ∈ C tal que
aparece en la solución. Teniendo en cuenta que todas las raíces tienen parte real menor o igual que
cero y el primer apartado, existirá 0 tal que si es suficientemente grande se verifica
X
|()| ≤ | | +
Re =0
54
Estabilidad de ecuaciones diferenciales
Por último, supongamos que existe una raíz de (), con Re = 0 y con multiplicidad mayor
que uno. En estas condiciones existen condiciones iniciales de manera que () contiene un término
no nulo de la forma
y0 = Jf(y0 ) · y (2.26)
Es evidente que (0 0) es un punto crítico del sistema. La matriz Jacobiana en (0 0) es
µ ¶
2 0
Jf(0 0) =
0 2
En primer lugar necesitamos una herramienta para comparar localmente sistemas autónomos.
Esta herramienta es la conjugación topológica [Jim, pag. 239]. Los sistemas (2.25) y (2.26) se dice
topológicamente conjugados si existe una aplicación continua, biyectiva con inversa continua h : Ω →
R verificando la condición h(y( y0 )) = z( h(y0 )) para todo y0 ∈ Ω [aquí z( h(y0 )) representa la
solución maximal de (2.26) con condición inicial h(y0 )]. Si existen abiertos de R y de manera
que son topológicamente conjugados los sistemas restringidos a estos abiertos, entonces los sistemas
55
Estabilidad de ecuaciones diferenciales
(2.25) y (2.26) se dirán localmente topológicamente conjugados. Para entendernos, una conjugación
topológica lleva órbitas de un sistema en órbitas del otro sistema, preservando la orientación temporal.
y
½
0 = 2
0 = 2
son localmente topológicamente conjugados en un entorno del punto (0 0). Así, si el diagrama de
fases del sistema linealizado es
sin conocer exactamente las órbitas del sistema no linealizado sabemos que cerca de (0 0) se obtienen
“deformando” de forma continua las órbitas del sistema linealizado, como por ejemplo muestra la
56
Estabilidad de ecuaciones diferenciales
siguiente figura:
Obsérvese como en el dibujo las rectas del sistema linealizado son deformadas y transformadas en
curvas. Además, como la orientación temporal se conserva, la estabilidad del punto crítico puede
estudiarse a partir del sistema no linealizado. Así, el punto crítico (0 0) es inestable para el sistema
no linealizado dado que es inestable para el sistema linealizado.
Hemos de enfatizar el carácter local del Teorema de Hartman—Grobman. Por ejemplo consider-
amos el sistema ½ 0
= −
(2.27)
0 = 1 − 2 − 2
con dos puntos críticos hiperbólicos, (0 1) y (0 −1). A partir del resultado anterior vemos que (0 1)
es asintóticamente estable y (0 −1) es inestable, pero obviamente el sistema (2.27) no puede ser
globalmente conjugado a los sistemas y0 = Jf(0 1) · y o y0 = Jf(0 −1) · y, dado que éstos sólo tienen
un punto crítico.
Exercise 3 Obtener los puntos críticos de los siguientes sistemas y determinar si son o no hiper-
bólicos:
½ 0 ½ 0 ½ 0 ½ 0
= − = = − =
(a) 0 2 (b) 0 3 (c) 0 (d)
= − + = − + =− 0 = 3
½ 0 ½ 0 ½ 0
= − = − = −2 + − +
(e) (f) (g)
0 = + − 0 = 1 − 2 − 2 0 = −2 + 2 + − 4 + 2
Exercise 4 Determinar las isoclinas de los sistemas del ejercicio 3, así como la dirección del vector
velocidad a las órbitas en las regiones que las isoclinas determinan.
Exercise 5 Obtener el sistema linealizado en los puntos críticos de los sistemas del ejercicio 3.
Determinar su diagrama de fases e indicar si es posible la naturaleza del punto crítico en un entorno
del mismo.
Exercise 6 Esbozar el diagrama de fases de los siguientes sistemas no lineales:
½ 0 ½ 0 ½ 0
= (2 − ) = =
(a) 0 (b) 0 2 (c)
= ( − 2)( − 2) = 0 = 2
57
Estabilidad de ecuaciones diferenciales
00 + − 0 (1 − 2 ) = 0
donde es un parámetro real. Transformar dicha ecuación en un sistema plano y determinar los
puntos críticos del mismo. Determinar la naturaleza de los puntos críticos en función del parámetro
.
00 + 20 + (1 − 2 ) = 0
(a) Discutir la estabilidad de los puntos de equilibrio del sistema en función del parámetro .
X (y())
X (y())
(y()) = 0 () = (y()) = grad (y()) · f(y())
=1
=1
donde f = (1 2 ) y grad denota el gradiente de . Definimos entonces la derivada total de
como
(y) := grad (y) · f(y)
El siguiente resultado nos garantiza la estabilidad del punto crítico en cuestión.
58
Estabilidad de ecuaciones diferenciales
También la inestabilidad de los puntos críticos puede ser discutida, según muestra el siguiente
resultado.
Theorem 30 Sean y0 un punto crítico del sistema (2.28) y un abierto de R conteniendo a y0
en su frontera Fr(). Supongamos que existe una función : → R, con un entorno de y0 ,
con ∪ Fr() ⊂ , de clase 1 y tal que (y) 0 y (y) 0 para todo y ∈ , y (y) = 0 si
y ∈ Fr(). Entonces y0 es inestable.
Consideremos ahora el sistema ½
0 = + 3
0 =
Sea la función : ⊂ R2 → R, donde = {( ) ∈ R2 : 0 || } y ( ) = 2 − 2 . Es
fácil darse cuenta de que ( ) 0 para todo ( ) ∈ , y que la derivada total
( ) = grad ( ) · f( ) = (2 −2) · ( + 3 ) = 24 0
para todo ( ) ∈ . Además (0 0) ∈ Fr() y ( ) = 0 para todo ( ) ∈ Fr(). Por el Teorema
30 el punto crítico (0 0) es inestable.
La principal desventaja de este método, que de hecho hace que su utilización sea cuando menos
limitada, es la dificultad en encontrar la función .
59
Estabilidad de ecuaciones diferenciales
y la función ( ) = 2 − 2 definida sobre el conjunto del plano real = {( ) ∈ R2 : 0 || }.
Exercise 14 Un sistema ½
0 = 1 ( )
0 = 2 ( )
se dice Hamiltoniano si existe una función derivable ( ) tal que 1 ( ) = −
( ) y 2 ( ) =
( ), de tal manera que es una integral primera del sistema. Se puede comprobar que para un
punto crítico de un sistema Hamiltoniano, las funciones de Lyapunov pueden construirse sumando
una constante a la función . Con esta idea, verificar el carácter de los puntos críticos del sistema
½ 0
= − 2
0 = − 2
2.9. Ejercicios
1. Resolver los siguientes sistemas de ecuaciones lineales de la forma
y0 = A · y
60
Estabilidad de ecuaciones diferenciales
⎛ ⎞
µ ¶ µ ¶ 0 1 1
−3 −1 2 −9
(d) (e) (f) ⎝ 1 0 1 ⎠
1 −1 1 8
1 1 0
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
−1 1 1 0 8 0 0 1 1
(g) ⎝ 1 −1 1 ⎠ (h) ⎝ 0 0 −2 ⎠ (i) ⎝ 3 0 1 ⎠
1 1 1 2 8 −2 3 1 0
61
Estabilidad de ecuaciones diferenciales
62
Capítulo 3
donde 1 son variables independientes, = (1 ) es una variable dependiente (incógnita
de la ecuación) y 1 son las derivadas parciales de de orden , 1 ≤ ≤ , respecto de las
variables 1 . La derivada de mayor orden indica el orden de la ecuación. Por ejemplo
+ + = 0
− + · =
es una ecuación de orden dos, que será el orden máximo que estdiaremos en este curso.
Las ecuaciones en derivadas parciales (EDP) se utilizan para modelar procesos que además de ten-
er una variación temporal, tienen una variación de tipo espacial. Ejemplos conocidos son la variación
de calor con el tiempo en un sólido, la distribución de poblaciones en un cierto habitat o la propa-
gación del sonido de las cuerdas de una guitarra.
En general, las EDP van a ser bastante difíciles de resolver. De hecho, no existe un teorema
de existencia y unicidad "sencilloçomo el que se estudiaba para problemas de condiciones iniciales
de sistemas de ecuaciones diferenciales ordinarias. Por todo ello, las EDP son fuente de estudio
en la actualidad para muchos matemáticos siendo una de las áreas de la matemáticas con mayor
investigación en la actualidad.
Como ocurre con las ecuaciones diferenciales, normalmente se suelen asociar varios tipos de condi-
ciones a una EDP. Según se trate, hablaremos de ellas como condiciones iniciales o condiciones de
63
Ecuaciones en derivadas parciales
( ) + ( ) + ( ) + ( ) + ( ) + ( ) = ( ) (3.1)
∈ R es también solución de la ecuación, por lo que ésta recibe el calificativo de lineal. Dicha
ecuación se dirá de coeficientes constantes si las funciones son constantes. En este caso,
se pueden introducir nuevas variables independientes y , y una nueva variable dependiente de
manera que la ecuación (3.1) se escribe de una de las siguientes formas:
64
Ecuaciones en derivadas parciales
65
Ecuaciones en derivadas parciales
Si buscamos que el coeficiente que multiplica a sea 0, debe verificarse que
o equivalentemente
4 tan2 + 6 tan − 4 = 0
de donde obtenemos que, considerando en el primer cuadrante,
1
tan =
2
con lo que √ √
2 5 5
cos = sin =
5 5
quedando la ecuación original como
√ √
14 31 33 5 6 5
+ − − − 5 = 0
5 5 5 5
o equivalentemente √ √
14 + 31 − 33 5 − 6 5 − 25 = 0 (3.6)
=
y calculamos para que el término que acompaña a sea cero. Para ello tenemos en cuenta
que = − y derivamos
= −− + −
= −
= 2 − − 2− + −
= −
√ 6854
14 + 31 − 6 5 − = 0 (3.7)
56
=
95737
=
868
y como
868
=
95737
868
=
95737
12152 26908
+ − = 0
95737 95737
95737
=
12152
95737
=
26908
67
Ecuaciones en derivadas parciales
es decir, como el producto de dos funciones reales de variable real () e (). Derivando obtenemos
0 + 2 = 0
00 + = 0
por lo que debe verificarse que (0) = () = 0. Si escribimos el problema para la función
tenemos lo que se conoce como un problema de contorno
½ 00
+ = 0
(0) = () = 0
Como sabemos, la solución general de la ecuación 00 + = 0 es de una de las siguientes formas
68
Ecuaciones en derivadas parciales
El problema se presenta a lo hora de calcular las constantes anteriores. En el primer caso ten-
dríamos que
(0) = 1 = 0
e
() = 1 + 2 = 0
de donde 1 = 2 = 0 y la solución sería nula. En el segundo caso, las condiciones de contorno se
escriben como
(0) = 1 + 2 = 0
e √ √
() = 1 + 2 −
= 0
que da lugar al sistema lineal ½
1 + = 0 √
√ 2
1 + 2 − = 0
y dado que el determinante de la matriz asociada
¯ ¯
¯ 1 1 ¯¯ √ √
¯ √ √ = −
−
6= 0
¯ − ¯
tenemos que la única solución posible es 1 = 2 = 0 y la solución sería nuevamente nula. Finalmente,
en el tercer caso
(0) = 1 = 0
e √ √
() = 1 cos( ) + 2 sin( ) = 0
de donde √
2 sin( ) = 0
√
Como las soluciones de la ecuación sin( ) = 0 son
2 2
= , ∈ N (3.9)
2
Si definimos
2 2
=
2
tenemos que el problema de condiciones de contorno tiene soluciones no nulas de la forma
p ³ ´
() = sin( ) = sin
69
Ecuaciones en derivadas parciales
lo que nos lleva a plantearnos si cualquier función () puede desarrollarse como en (3.10). La solución
a esta cuestión será el desarrollo en serie de Fourier.
70
Ecuaciones en derivadas parciales
y es 2 periódica. Para dicha función tenemos que los coeficientes de Fourier son
Z 1 Z 1
0 = () = 1 = 1
−1 0
y para ≥ 1
Z 1 Z 1
= () cos () = cos ()
−1 0
∙ ¸1
1 1
= sin () = (sin () − sin (0)) = 0
0
Z 1 Z 1
= () sin () = sin ()
−1 0
∙ ¸1
−1 −1
= cos () = (cos () − cos (0))
0
½
0
= 2
por lo que la serie de Fourier asociada a () será
1 X
∞
2
+ sin ((2 − 1))
2 =1 (2 − 1)
La cuestión radica en saber si la igualdad
1 X
∞
2
() = + sin ((2 − 1)) (3.11)
2 =1 (2 − 1)
y () es continua si es continua en todos sus puntos. Si () no es continua en 0 pueden existir sus
límites laterales
(0− ) = →
lı́m ()
0
0
y
(0+ ) = →
lı́m ()
0
0
71
Ecuaciones en derivadas parciales
0 X ³ ³ ´ ³ ´´
∞
+ cos + sin
2 =1
converge a () en los puntos de continuidad de , a 12 [ (0− )− (0+ )] en los puntos de discontinuidad
y a 12 [(− ) − (−+ )] cuando = ±.
El teorema anterior garantiza que la igualdad a la que hacíamos alusión en (3.11) se verifica para
∈ (−1 1) \ {0} es igual a 12 para ±1 y 0.
() = (−)
para todo ∈ R. Se dice que la función es impar si por el contrario la relación que se cumple es
() = −(−)
Veamos cómo se obtiene la serie de Fourier para cada una de estas funciones.
Z ³ ´
1
= () cos
−
Z ³ ´ Z ³ ´
1 0 1
= () cos + () cos
− 0
Z ³ ´ Z ³ ´
1 1
= {=−} () cos + () cos
0 0
Z ³ ´
2
= () cos
0
72
Ecuaciones en derivadas parciales
mientras que
Z ³ ´
1
= () sin
−
Z ³ ´ Z ³ ´
1 0 1
= () sin + () sin
− 0
Z ³ ´ Z ³ ´
1 1
= {=−} − () sin + () sin
0 0
= 0
por lo que para una función par tendremos que
0 X
∞ ³ ´
() = + cos
2 =1
Si es impar
Z
1
0 = ()
−
Z Z
1 1
= {=−} − () + ()
0 0
= 0
Z ³ ´
1
= () cos
−
Z ³ ´ Z ³ ´
1 0 1
= () cos + () cos
− 0
Z ³ ´ Z ³ ´
1 1
= {=−} − () cos + () cos
0 0
= 0
mientras que
Z ³ ´
1
= () sin
−
Z ³ ´ Z ³ ´
1 0 1
= () sin + () sin
− 0
Z ³ ´ Z ³ ´
1 1
= {=−} − () sin + () sin
0 0
Z ³ ´
2
= () sin
0
por lo que para una función par tendremos que
X
∞ ³ ´
() = sin
=1
73
Ecuaciones en derivadas parciales
donde
X
∞ ³ ´
(0 ) = sin = ()
=1
Ahora bien, si pensamos en () como una función impar 2 periódica tendremos que
Z ³ ´
2
= () sin
0
y por tanto dicha solución formal será
X∞ ∙ Z ³ ´ ¸ ³ ´ 2 2 2
2
( ) = () sin sin − 2 (3.12)
=1
0
Hablamos de solución formal ya que no podemos asegurar que la expresión dada en (3.12) sea
una solución. Por una parte, aunque la linealidad garantiza que una combinación lineal finita de
soluciones sea solución, nuestra combinación lineal es infinita, por lo que tendríamos que comprobar
que efectivamente es solución, es decir que es dos veces derivable y cumple la ecuación del calor. En
general comprobar que las soluciones formales son soluciones es un problema bastante díficil, que en
2 2 2
el caso de la ecuación del calor se garantiza por el término − 2 . Cualitativamente hablamos de
un proceso de difusión, en el que la barra va disipando calor convergiendo muy rápidamente a 0 y
suavizando cualquier irregularidad que la función () pudiera presentar.
Por ejemplo, si nuestra barra es de aluminio (con un coeficiente 2 = 086) y mide 10 cm., y la
temperatura inicial en la barra es de 100 C, la evolución de la tempreatura con el tiempo vendrá
determinada por la expresión
X∞ ∙ Z ³ ´ ¸ ³ ´ 0862 2
2 10
( ) = 100 sin sin − 100
=1
10 0 10 10
y como
Z 10 ³ ´ ∙ ³ ´¸10
10
100 sin = −100 cos
0 10 10 0
1000
= − (cos() − cos 0)
½
0
= 2000
74
Ecuaciones en derivadas parciales
tenemos µ ¶
X
∞
400 (2 − 1) 086(2−1)2 2
( ) = sin − 100
=1
(2 − 1) 10
Hemos de destacar que en el desarrollo anterior tienen una gran importancia que las condiciones
de contorno sean nulas. En general esto no tiene porqué ser así, es decir la ecuación del calor sería
⎧
⎨ = 2 0 ∈ (0 )
(0 ) = () 0
⎩
( 0) = 1 (); ( ) = 2 () 0
donde 1 () y 2 () son las funciones que miden la temperatura de la varilla. Un cambio de variable
en la variable dependiente permite llevar condiciones de contorno no nulas a un problema que sí las
tenga mediante la nueva función
( ) = ( ) − 1 () − (2 () − 1 ())
Es fácil ver que ahora
( 0) = ( 0) − 1 () = 1 () − 1 () = 0
mientras que
( ) = ( ) − 1 () − (2 () − 1 ())
= 2 () − 1 () − (2 () − 1 ()) = 0
por lo que tendremos condiciones de contorno nulas. La ecuación original se reescribe
0 = − 2 = + 10 () + (20 () − 10 ()) − 2
por lo que tendríamos el problema
⎧
⎨ − 2 = −10 () − (20 () − 10 ()) 0 ∈ (0 )
(0 ) = () − 1 (0) − (2 (0) − 1 (0)) 0
⎩
( 0) = ( ) = 0 0
Si la temperatura en los extremos de la varilla permanece constante, esto es, 1 () = 1 y 2 () = 2 ,
el problema anterior se reduce a
⎧
⎨ = 2 0 ∈ (0 )
(0 ) = () − 1 − (2 − 1 ) 0
⎩
( 0) = ( ) = 0 0
75
Ecuaciones en derivadas parciales
que modela la vibración mecánica de una cuerda, donde ( ) mide el desplazamiento respecto de
la horizontal en cada instante de tiempo y en cada posición de la cuerda.
Con el método de separación de variable planteamos soluciones de la forma ( ) = () (),
que nos da lugar a los problemas de ecuaciones diferencales
00 + 2 = 0
y el problema de contorno ½
00 + = 0
(0) = () = 0
¡ ¢2
que como sabemos tiene una familia de soluciones no nulas para los valores =
, ∈ N, dadas
por ³ ´
() = sin
Para dichos valores tenemos las ecuaciones
00 + 2 = 0
De la condición inicial
X
∞ ³ ´
(0 ) = () = sin
=1
Derivando formalmente ( ) respecto a obtenemos
X∞ h ³ ´ ³ ´i ³ ´
( ) = − sin + cos sin
=1
76
Ecuaciones en derivadas parciales
y
Z ³ ´
2
= () sin
0
para todo ≥ 1.
Poner la interpretación fisica de armónicos?
Poner algo de la solución de D’Alambert?
= 2 ( + )
que es la ecuación de Laplace. Estas ecuaciones se plantean sólo con condiciones de contorno sobre
la frontera del recinto, que para los calculos prácticos tiene que tener alguna regularidad. Estas
condiciones de contorno son en general de dos tipos. Si es el recinto donde se verifica la ecuación
(3.13), podemos suponer conocido ( ) para todo ( ) en la frontera de en cuyo caso estaríamos
hablando de una condición tipo Dirichlet. Si por el contrario suponemos que el vector normal a
en la frontera es conocido, se trata de una condición de Neumann. En cualquiera de los casos, la
geometría del conjunto es muy importante y sólo podemos calcular soluciones cuando ésta cumple
adecuadas condiciones de regularidad.
Supongamos por ejemplo que es el rectángulo [0 ] × [0 ] y tenemos el problema
⎧
⎪
⎪ + = 0 ( ) ∈ (0 ) × (0 )
⎨
( 0) = ( ) = 0 0 ≤ ≤
⎪
⎪ (0 ) = 0 0 ≤ ≤
⎩
( ) = () 0 ≤ ≤
00 − = 0
00 + = 0
77
Ecuaciones en derivadas parciales
00 − = 0
(0) = 0 = 1 + 2
por lo que 2 = −1 = 2, por lo que para todo natural obtenemos la solución
− −
³ ´
( ) = sin
³2 ´ ³ ´
= sinh sin
Planteamos entonces la solución formal
X
∞ ³ ´ ³ ´
( ) = sinh sin
=1
( ) = ()
tenemos que
X
∞ ³ ´ ³ ´
() = sinh sin
=1
y considerando como 2 periódica e impar, tenemos que
³ ´ 2 Z ³ ´
sinh = () sin
0
Poner ejemplo condiciones de Neumann?
Poner problemas de Poisson?
3.8. Problemas
1. Encontrar las soluciones de los siguientes problemas de contorno:
a) 00 + = 0 (0) = 0 0 () = 0
78
Ecuaciones en derivadas parciales
b) 00 + = 0 0 (0) = 0 0 () = 0
c) 00 + = 0 0 (0) = 0 () = 0
d) 00 + = 0 (0) = 0 () − 0 () = 0
e) 00 + = 0 (0) − 0 (0) = 0 (1) = 0
f ) 00 + = 0 (0) − 0 (0) = 0 () − 0 () = 0
2. Para qué valores de tienen soluciones no triviales los siguientes problemas de contorno:
a) 3 + 4 − = 0
b) 4 + + 4 + = 0
c) + + 3 − 4 + 25 = 0
d) − 3 + 2 − + = 0
e) − 2 + + 3 = 0
4. Encontrar los desarrollos en serie de Fourier de las siguientes funciones periódicas (se da su
valor en el intervalo [− ] con 2 el periodo).
½
−1 ∈ [−1 0)
a) () =
1 ∈ [0 1]
½
∈ [−2 0)
b) () =
0 ∈ [0 2]
c) () = ∈ [−1 1]
½
− ∈ [−1 0)
d) () =
∈ [0 1]
⎧
⎨ 1 ∈ [−2 0)
e) () = 0 ∈ [0 1)
⎩
1 ∈ [1 2]
½
0 ∈ [−2 1)
f ) () =
1 ∈ [1 2]
½
0 ∈ [− 0)
g) () =
∈ [0 ]
½ −
∈ [− 0)
h) () =
∈ [0 ]
79
Ecuaciones en derivadas parciales
5. Los extremos de una barra de aluminio (2 = 086) de longitud 10 metros se mantienen a
temperatura de 0 . Encontrar la expresión de la temperatura de la barra para las siguientes
condiciones iniciales
6. Los extremos de una barra de cobre (2 = 114) de longitud 2 metros se mantienen a tem-
peratura de 0 . Encontrar la expresión de la temperatura de la barra para las siguientes
condiciones iniciales
7. Un estado de equilibrio para la ecuación del calor = 2 es aquella que no varía con el
tiempo. Demostrar
a) Todos los equilibrios de la ecuación del calor son de la forma () = +
b) Encontrar los estados de equilibrio de la ecuación del calor que cumplen ( 0) = 1 y
( ) = 2 .
c) Resolver el problema ⎧
⎨ = 2 0 ∈ (0 1)
(0 ) = 75 0 1
⎩
( 0) = 20 ( ) = 60 0
Ayuda: Calcularla como ( ) = () + ( ) donde () es el estado de equilibrio
asociado a las condiciones de contorno ( 0) = 20 ( ) = 60, y ( ) es la solución
del problema con condiciones de contorno nulas.
8. Los extremos de una barra de cobre (2 = 114) de longitud 10 centímetros se mantienen a
temperatura de 0 mientras que el centro de la barra es mantenido a 100 mediante una
fuente de calor externa. Encontrar la temperatura de la barra con el tiempo para la condición
inicial ½
50 ∈ [0 5)
(0 ) =
100 ∈ [5 10]
Ayuda: Descomponer el problema en dos problemas de contorno con uno de los estremos en
la mitad de la barra.
80
Ecuaciones en derivadas parciales
9. Resolver el problema ⎧
⎨ = + 0 ∈ (0 1)
(0 ) = cos 0 1
⎩
( 0) = 0 ( ) = 0 0
11. Una cuerda de 10 metros fijada en sus extremos se levanta por el medio hasta la distancia de
un metro y se suelta. Describe su movimiento suponiendo que 2 = 1.
es de la forma Z +
1 1
( ) = ( ( − ) + ( + )) + ()
2 2 −
81
Ecuaciones en derivadas parciales
82
Capítulo 4
Transformada de Fourier
Z ∞
F[]() = ()−
−∞
en todo donde la expresión anterior tenga sentido, es decir la integral impropia anterior sea con-
vergente. Esta convergencia es más difícil de verificar que en el caso de la transformada de Laplace.
Supongamos por ejemplo que y son reales, por o que − = cos() − sin(), que como sabe-
mos tiene módulo 1. Si () es también real, para garantizar la convergencia absoluta de la integral
anterior debe de satisfacerse que
83
Transformada de Fourier
por lo que las funciones reales que tendrán transformada de Fourier tienen que tener una gráfica
como la siguiente
o bien ser nulas fuera de un intervalo compacto [ ]. Veamos algunos ejemplos.
Consideramos la función () = − () − (), donde () es la función de Heaviside en ∈ R.
Como vemos es no nula con valor uno en el intervalo [− ). Su transformada de Fourier se calcula
como
Z ∞ Z
−
F[]() = () = −
∙−∞ ¸
−
−
−1 ¡ − ¢ 2
= = − = sin()
− −
Tomemos ahora la función () = −|| . Su transformada de Fourier vendrá dada por
Z ∞ Z 0 Z ∞
− −
F[]() = ()
= + − −
−∞ −∞ 0
Z 0 Z ∞
(1−) −(1+)
= +
−∞ 0
∙ ¸0 ∙ −(1+) ¸∞
(1−)
= + −
1 − −∞ 1 + 0
1 1 2
= + = 2
1 − 1 + +1
84
Transformada de Fourier
4.2.1. Linealidad
Dadas dos funciones y y dos números se verifica que
Por ejemplo, si () = − () − () + −|| , su transformada de Fourier vendrá dada por
2 2
F[ ]() = F[1 ]() + F[2 ]() = sin() + 2
+1
siendo 1 () = − () − () y 2 () = −|| .
La linealidad no puede aplicarse al calculo de 1 del siguiente modo
La demostración se hace con la fórmula de integración por partes del siguiente modo
Z ∞ ½ ¾
0 0 − = − = −−
F[ ]() = () =
−∞ = 0 () = ()
Z ∞
£ ¤∞
= ()− −∞ + ()− = F[ ]()
−∞
ya que
lı́m | ()− | = 0
→±∞
Esta fórmula, junto con la linealidad, tiene, al igual que ocurría con la transformada de Laplace,
utilidad potencial para la resolución de ecuaciones diferenciales.
85
Transformada de Fourier
2 2
Vamos a aplicar esta fórmula al cálculo de la transformada de Fourier de la función () = − .
En primer lugar, la función () verifica el problema de condiciones iniciales
½ 0
() = − ()
(0) = 1
y por tanto Z ∞
2 2 √
F[](0) = = − = 2
−∞
por lo que √ 2
F[]() = 2− 2
2 2 √
es decir, la transformada de Fourier de − es ella misma salvo el factor multiplicativo 2.
4.2.5. Convolución
Dadas dos funciones y con transformadas de Fourier F[] y F[], no se verifica que F[ · ] =
F[] · F[]. Vamos a buscar qué función verificaría que F[] = F[] · F[], es decir, cómo puede
definirse a partir de las funciones iniciales y . Para ello calculamos
Z ∞ Z ∞
−
F[ ] · F[] = () ()−
Z−∞∞ Z ∞
−∞
= ()()−(+)
½−∞ −∞ ¾ Z ∞Z ∞
+=
= = ( − )()−
= −∞ −∞
Z ∞ ∙Z ∞ ¸
= ( − )() −
−∞ −∞
Como veremos, esta fórmula tiene aplicaciones en la resolución de diferentes ecuaciones diferenciales.
1
Aquí hemos hecho un cambio en la integración, es decir, una permuta de límites de la que no hemos probado su
validez.
87
Transformada de Fourier
que tendrá validez en un dominio de definición dado por Re para algún real. Si 0, el
eje imaginario estará contenido en el dominio de definición de la transformada de Laplace de . En
particular, la integral Z ∞
()− ∈ R
0
88
Transformada de Fourier
Consideremos por ejemplo la función () = − , que como sabemos tiene transformada de Laplace
1
L[ ]() =
+1
para todo tal que Re −1. Si estendemos como nula en valores negativos, es decir, definimos
() = ()0 () siendo 0 () la función de Heaviside, tendremos para todo número real que
1
F[]() = L[]() =
+ 1
por lo que = 2 se llama periodo de la señal, siendo la frecuencia = 1 . Como sabemos, si
la fase inicial = 0, la transformada de Laplace de dicha señal será de la forma
() =
2 + 2
y la respuesta a largo tiempo del sistema () vendrá dada por la expresión
y dado que el sistema era asintóticamente estable, se tiene que los polos de la función de transferencia
tienen parte real negativa, por lo que ninguno de ellos coincidirá con los polos de () que son
89
Transformada de Fourier
±. En el cálculo de la transformada inversa, los polos de la función de transferencia dan lugar
a términos que aparecen multiplicados por factores de la forma − , con 0, y que tienden a
cero muy rápidamente cuando → +∞. Por ello, al calcular la transformada inversa para tiempo
suficientemente grande basta con tomar los polos ±, es decir, podemos asumir que
−
() = () − (−)
2 2
−
= | ()| arg () − | ()|− arg ()
2 2
(+arg ()) −(+arg ())
−
= | ()|
2
= | ()| sin( + arg ())
que se conoce como respuesta en frecuencia a la señal. El término | ()| mide si la respuesta amplifica
o atenua la señal, mientras que arg () representa un variación de la fase respecto de la incial.
Asímismo, () puede ser determinado experimentalmente introduciendo una señal sinusuidal.
Supongamos ahora que la señal es periódica de periodo 2. Dicha función puede expresarse en su
serie de Fourier
0 X ³ ³ ´ ³ ´´
∞
() = + cos + sin
2 =1
0 X
∞
= + ( cos () + sin ())
2 =1
90
Transformada de Fourier
donde = . Por otra parte, si escribimos ( ) en coordenadas polares mediante la expresión
½
= cos
= sin
podemos reescribir la expresión anterior como
0 X
∞
() = + ( cos () + sin ())
2 =1
0 X
∞
= + ( sin cos () + cos sin ())
2 =1
0 X
∞
= + sin( + )
2 =1
Si ahora () es la entrada al sistema anterior, entonces su salida en el régimen estacionario, es decir,
para tiempos suficientemente grandes vendrá dada por
0 X∞
() = (0) + | ()| sin( + + arg ())
2 =1
Dado que para casos prácticos lı́m→∞ | ()| = 0, por lo que lı́m→∞ | ()| = 0, como con-
secuencia la series de Fourier de () converge a cero más rápidamente que la serie de Fourier de la
señal inicial ().
91
Transformada de Fourier
Como vemos no hay condiciones de frontera y por tanto sólo existen condiciones iniciales. Para
resolver dicho problema tomamos la transformada de Fourier de la función ( ), para cada valor
fijo del tiempo , es decir Z ∞
F[( ·)]() = ( )−
−∞
Entonces
F[ ( ·)]() = − 2 F[( ·)]()
y por la fórmula de derivación bajo el signo de la integral
Z ∞
F[ ( ·)]() = ( )−
−∞
Z
∞
= ( )− = F[( ·)]()
−∞
que como sabemos del cálculo de soluciones de ecuaciones diferenciales ordinarias tiene por solución
2
F[( ·)]() = F[ ]()−
2
Calculamos entonces F −1 [− ]() teniendo en cuenta que
2 √ 2
F[− 2 ]() = 2− 2
por lo que Z ∞√
−1
√ − 2 2 1 2 2
F [ 2 ]() = 2− 2 = − 2
2 −∞
92
Transformada de Fourier
√
Partiendo de esta expresión y haciendo el cambio de variable = 2 tenemos que
Z ∞ Z ∞√
−1 − 2 1 − 2 1 1 2
F [ ]() = = √ 2−
2 −∞ 2 2 −∞
½ √ ¾ Z ∞√ √
= √ 2 1 1 2
= =√ 2− 2 ( 2) √
= 2 2 2 −∞ 2
Z ∞√ √
1 1 2
= √ 2− 2 ( 2)
2 2 −∞
1 √ 2 √
= √ F −1 [ 2− 2 ]( 2)
2
1 √ 2 1 2
= √ −( 2) 2 = √ − 4
2 2
Entonces Z ∞
1 2
( ) = ( − ) √ − 4
−∞ 2
4.7. Ejercicios
1. Encontrar la transformada de Fourier de las siguientes funciones ( 0):
½
cos || 2
a) () =
0 || ≥ 2
½
||
b) () =
0 || ≥
½
− || ||
c) () =
0 || ≥
⎧
⎪
⎪ 0 −2
⎪
⎪
⎨ −1 ∈ (−2 −1)
d) () = 1 ∈ (−1 1)
⎪
⎪
⎪
⎪ −1 ∈ (1 2)
⎩
0 2
½
sin() || ≤
e) () =
0 ||
2. Sea () una señal con transformada de Fourier F[ ](). Demostrar que
Este resultado es conocido como la propiedad del despalzamiento en frecuencia y es la base del
proceso de modulación en teoría de la comunicación. Como aplicación calcular la trasformada
de Fourier de las siguientes funciones:
93
Transformada de Fourier
b) () = [0 ( + 12) − 0 ( − 12)] cos(). Ayuda: poner el coseno como combinación de
exponenciales complejas.
c) () = [0 ( + 1) − 0 ( − 1)] sin(2).
6. Resolver el problema ½
= ∈ R 0
(0 ) = () ∈ R
donde:
2
a) () = −
½
1 ||
b) () =
0 || ≥
c) () = 0 () siendo 0 la función de Heaviside.
a) () = sin
b) () = cos
c) () es la función 002 periódica tal que
½
10 ∈ [0 001)
() =
0 ∈ [001 002)
94
Transformada de Fourier
10. Repetir el ejecicio 9 para el caso = 04, = 100Ω y = 10−5 , siendo el potencial ()
es una función 004 periódica tal que
½
10 ∈ [0 002)
() =
−10 ∈ [002 004)
11. Determinar la función de transferencia de frecuencias de los ejercicios de los circuitos de los
ejercicios 9 y 10, y determinar la relación entre las transformadas de Fourier de la respuesta de
los sistemas a los voltajes:
½
10 ∈ [0 001)
a) () =
0 ∈ [001 002)
½
10 ∈ [0 002)
b) () =
−10 ∈ [002 004)
95
Transformada de Fourier
96
Bibliografía
[BaJi] F. Balibrea y V. Jiménez López, Ecuaciones diferenciales para las ciencias químicas y físicas,
DM—Universidad de Murcia, 2001.
[BoPr] W. E. Boyce y R. C. DiPrima, Ecuaciones diferenciales y problemas con valores en la frontera,
Limusa, Mexico, 1996.
[Bra] M. Braun, Differential equations and their applications, Springer—Verlag, Berlin, 1993.
[Dav] B. Davies, Integral transforms and their applications, Springer—Verlag, Berlin, 1985.
[DeGr] W. R. Derrick y S. I. Grossman, Ecuaciones diferenciales con aplicaciones, Fondo Educativo
Interamericano, 1984.
[PiZa] A. Pinkus y S. Zafrany, Fourier series and integral transforms, Cambridge University Press,
1997.
[Sen] T. B. A. Senior, Mathematical methods in electrical engineering, Cambridge University Press
1986.
[Sim] G. F. Simmons, Ecuaciones diferenciales (con aplicaciones y notas históricas), 2 Edición,
McGraw—Hill, 1993.
97
Bibliografía
98