Está en la página 1de 554

MÉTODOS MATEMÁTICOS

AVANZADOS PARA

CIENCIAS E INGENIERÍAS

Manuel Gadella
Luis Miguel Nieto

Departamento de Fı́sica Teórica

UNIVERSIDAD DE VALLADOLID
A Marisa y Elena.
Índice

1 LA FUNCIÓN GAMMA 25
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Productos infinitos. Teorema de Weierstrass . . . . . . . . . 26
1.3 La función gamma Γ(z) . . . . . . . . . . . . . . . . . . . . 33
1.3.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . 36
1.3.3 Fórmulas de Euler . . . . . . . . . . . . . . . . . . . 39
1.4 Otras funciones especiales . . . . . . . . . . . . . . . . . . . 44
1.4.1 La función beta . . . . . . . . . . . . . . . . . . . . . 44
1.4.2 La función psi . . . . . . . . . . . . . . . . . . . . . . 44
1.4.3 Funciones “incompletas” . . . . . . . . . . . . . . . . 45
1.4.4 Integrales exponenciales y otras . . . . . . . . . . . . 47
1.4.5 Integrales del seno y del coseno . . . . . . . . . . . . 48
1.4.6 Integrales de Fresnel . . . . . . . . . . . . . . . . . . 49
1.5 Función zeta de Riemann . . . . . . . . . . . . . . . . . . . 51
1.6 Integrales elı́pticas . . . . . . . . . . . . . . . . . . . . . . . 52
1.7 Series asintóticas: la fórmula de Stirling . . . . . . . . . . . 57
1.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

9
10 ÍNDICE

1.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2 TEORÍA ELEMENTAL DE DISTRIBUCIONES 71


2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.2 Espacios de funciones de prueba . . . . . . . . . . . . . . . 72
2.3 Distribuciones o funciones generalizadas . . . . . . . . . . . 74
2.3.1 Ejemplos de distribuciones . . . . . . . . . . . . . . 75
2.4 Operaciones con distribuciones . . . . . . . . . . . . . . . . 76
2.5 Definición matemática de la delta de Dirac . . . . . . . . . 77
2.6 Interpretación fı́sica de la delta de Dirac . . . . . . . . . . . 81
2.7 Propiedades fundamentales de la δ de Dirac . . . . . . . . . 83
2.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

3 SERIES DE FOURIER 93
3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Definiciones previas . . . . . . . . . . . . . . . . . . . . . . . 96
3.3 Serie de Fourier asociada a una función . . . . . . . . . . . 104
3.3.1 Obtención de la serie de Fourier mediante un proceso
de minimización . . . . . . . . . . . . . . . . . . . . 104
3.3.2 Obtención alternativa de los coeficientes de Fourier . 108
3.3.3 Coeficientes de Fourier para funciones pares e impares 108
3.3.4 Coeficientes de Fourier en forma compleja . . . . . . 111
3.3.5 Coeficientes de Fourier para un intervalo genérico [a, b]111
3.4 Convergencia de las series de Fourier . . . . . . . . . . . . . 113
3.4.1 Convergencia en media . . . . . . . . . . . . . . . . . 113
3.4.2 Convergencia puntual . . . . . . . . . . . . . . . . . 115
ÍNDICE 11

3.4.3 Convergencia uniforme . . . . . . . . . . . . . . . . . 118


3.4.4 Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . 120
3.5 Derivación e integración de series de Fourier . . . . . . . . . 122
3.6 Series de Fourier en varias variables . . . . . . . . . . . . . 124
3.7 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . 126
3.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

4 LA TRANSFORMACIÓN DE FOURIER 135


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2 De las series a la transformación de Fourier . . . . . . . . . 136
4.3 Definición de la transformación de Fourier . . . . . . . . . . 140
4.4 El teorema de la integral de Fourier . . . . . . . . . . . . . 142
4.5 Propiedades fundamentales . . . . . . . . . . . . . . . . . . 144
4.6 Generalizaciones de la T. de Fourier . . . . . . . . . . . . . 146
4.7 La convolución . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.8 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . 151
4.9 La transformación de Fourier como operador . . . . . . . . 152
4.10 La transformación de Fourier rápida (FFT) . . . . . . . . . 154
4.11 La transformación en “onditas” . . . . . . . . . . . . . . . . 155
4.12 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.13 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

5 LA TRANSFORMACIÓN DE LAPLACE 169


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
5.2 De la transformación de Fourier a la de Laplace . . . . . . . 170
12 ÍNDICE

5.3 Principales resultados . . . . . . . . . . . . . . . . . . . . . 171


5.4 Propiedades fundamentales . . . . . . . . . . . . . . . . . . 175
5.5 La convolución . . . . . . . . . . . . . . . . . . . . . . . . . 178
5.6 Fórmula de inversión . . . . . . . . . . . . . . . . . . . . . . 179
5.7 Resolución de ecuaciones diferenciales . . . . . . . . . . . . 183
5.8 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . 185
5.9 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
5.10 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

6 MÉTODOS ELEMENTALES DE INTEGRACIÓN 195


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6.2 Nociones generales . . . . . . . . . . . . . . . . . . . . . . . 197
6.3 Métodos elementales de integración . . . . . . . . . . . . . . 201
6.3.1 Ecuaciones en variables separables . . . . . . . . . . 202
6.3.2 Ecuaciones homogéneas . . . . . . . . . . . . . . . . 203
6.3.3 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . 205
6.3.4 Ecuaciones de Bernouilli . . . . . . . . . . . . . . . . 206
6.3.5 Ecuaciones de Riccati . . . . . . . . . . . . . . . . . 208
6.3.6 Ecuaciones con coeficientes lineales . . . . . . . . . . 210
6.3.7 Ecuaciones de Lagrange . . . . . . . . . . . . . . . . 212
6.3.8 Ecuaciones de Clairaut . . . . . . . . . . . . . . . . . 213
6.3.9 Ecuaciones diferenciales exactas . . . . . . . . . . . . 216
6.3.10 Factores integrantes . . . . . . . . . . . . . . . . . . 220
6.3.11 Ecuaciones de primer orden en forma implı́cita . . . 223
6.3.12 Ecuaciones de segundo orden reducibles . . . . . . . 225
6.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
ÍNDICE 13

6.5 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

7 TEOREMAS DE EXISTENCIA Y DEPENDENCIA 237


7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
7.2 Algunos resultados clásicos . . . . . . . . . . . . . . . . . . 239
7.3 Teoremas de prolongación de soluciones . . . . . . . . . . . 250
7.4 Dependencia respecto a los valores iniciales . . . . . . . . . 259
7.5 Dependencia respecto a los parámetros . . . . . . . . . . . . 266
7.6 Otros resultados sobre existencia y unicidad . . . . . . . . . 277
7.6.1 Nuevos puntos de vista . . . . . . . . . . . . . . . . 277
7.7 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 281

8 SISTEMAS Y ECUACIONES LINEALES 283


8.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
8.2 Sistemas lineales homogéneos . . . . . . . . . . . . . . . . . 284
8.3 Sistemas lineales no homogéneos . . . . . . . . . . . . . . . 289
8.4 Teorema de Jordan . . . . . . . . . . . . . . . . . . . . . . . 290
8.5 Sistemas lineales de coeficientes constantes . . . . . . . . . . 296
8.5.1 Caso homogéneo: "x! (t) = A "x(t) . . . . . . . . . . . 297
8.5.2 Caso no homogéneo: "x! (t) = A "x(t) + "b(t) . . . . . . 299
8.6 Ecuaciones lineales homogéneas de orden n . . . . . . . . . 299
8.7 Ecuación lineal no homogénea de orden n . . . . . . . . . . 304
8.8 Ecuaciones con coeficientes constantes . . . . . . . . . . . . 307
8.8.1 Caso homogéneo: b(t) = 0 . . . . . . . . . . . . . . . 308
8.8.2 Caso no homogéneo: b(t) != 0 . . . . . . . . . . . . . 310
8.8.3 Ecuaciones de Cauchy o de Euler . . . . . . . . . . . 311
14 ÍNDICE

8.9 A la búsqueda de soluciones particulares . . . . . . . . . . . 312


8.10 Reducción del orden . . . . . . . . . . . . . . . . . . . . . . 317
8.11 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
8.12 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 332

9 SISTEMAS NO LINEALES Y EC. DE PFAFF 333


9.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
9.2 Sistemas no lineales de primer orden . . . . . . . . . . . . . 334
9.3 Sistemas autónomos . . . . . . . . . . . . . . . . . . . . . . 340
9.4 Integrales primeras de un sistema . . . . . . . . . . . . . . . 342
9.4.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . 342
9.4.2 Significado geométrico . . . . . . . . . . . . . . . . . 343
9.4.3 Independencia funcional . . . . . . . . . . . . . . . . 344
9.4.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . 345
9.4.5 Forma canónica del sistema . . . . . . . . . . . . . . 349
9.5 Ecuaciones de Pfaff . . . . . . . . . . . . . . . . . . . . . . . 350
9.5.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . 350
9.5.2 Aplicación a las integrales primeras: método de los
multiplicadores . . . . . . . . . . . . . . . . . . . . . 351
9.6 Métodos de resolución de ec. de Pfaff . . . . . . . . . . . . . 352
9.6.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . 352
9.6.2 Casos especiales . . . . . . . . . . . . . . . . . . . . 357
9.6.3 Interpretación geométrica y fı́sica . . . . . . . . . . . 363
9.6.4 Ecuaciones de Pfaff con n variables . . . . . . . . . . 365
9.7 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
9.8 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
ÍNDICE 15

10 SOLUCIONES EN SERIE DE POTENCIAS 373


10.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
10.2 Clasificación de las singularidades . . . . . . . . . . . . . . . 374
10.3 El método de Frobenius . . . . . . . . . . . . . . . . . . . . 376
10.3.1 Resultados previos . . . . . . . . . . . . . . . . . . . 376
10.3.2 El método en sı́ . . . . . . . . . . . . . . . . . . . . . 377
10.4 Ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . 382
10.4.1 Cálculo de la solución correspondiente a λ1 = ν . . . 384
10.4.2 Cálculo de la segunda solución linealmente indepen-
diente . . . . . . . . . . . . . . . . . . . . . . . . . . 386
10.4.3 Algunas propiedades de las funciones de Bessel . . . 391
10.5 Ecuación hipergeométrica . . . . . . . . . . . . . . . . . . . 397
10.5.1 Solución en un entorno de x = 0 . . . . . . . . . . . 398
10.5.2 Algunas propiedades de la función hipergeométrica . 402
10.5.3 Soluciones en torno de x = 1 y x = ∞ . . . . . . . . 404
10.6 Ecuación hipergeométrica confluente . . . . . . . . . . . . . 405
10.6.1 Solución correspondiente a λ = λ1 = 0 . . . . . . . . 407
10.6.2 Solución correspondiente a λ = λ2 = 1 − c . . . . . . 408
10.6.3 Algunas propiedades de interés . . . . . . . . . . . . 409
10.7 Funciones hipergeométricas generalizadas . . . . . . . . . . 410
10.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
10.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 427

11 POLINOMIOS ORTOGONALES CLÁSICOS 429


11.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
11.2 La fórmula de Rodrigues generalizada . . . . . . . . . . . . 431
16 ÍNDICE

11.3 Clasificación de los polinomios ortogonales . . . . . . . . . . 435


11.4 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . 439
11.5 Ecuación diferencial de los polinomios . . . . . . . . . . . . 442
11.6 Raı́ces de los polinomios ortogonales . . . . . . . . . . . . . 444
11.7 Series de polinomios ortogonales . . . . . . . . . . . . . . . 445
11.8 Funciones generatrices . . . . . . . . . . . . . . . . . . . . . 448
11.9 Polinomios clásicos . . . . . . . . . . . . . . . . . . . . . . . 449
11.9.1 Polinomios de Hermite Hn (x) . . . . . . . . . . . . . 450
11.9.2 Polinomios de Laguerre Lνn (x) . . . . . . . . . . . . . 454
11.9.3 Polinomios de Legendre Pn (x) . . . . . . . . . . . . 457
11.9.4 Polinomios de Chevichev de primera especie Tn (x) . 460
11.9.5 Polinomios de Chevichev de segunda especie Un (x) . 462
11.10Armónicos esféricos . . . . . . . . . . . . . . . . . . . . . . . 464
11.11Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
11.12Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
11.13Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 480

12 COMPLEMENTOS SOBRE DISTRIBUCIONES 481


12.1 Introducción y resultados preliminares . . . . . . . . . . . . 481
12.2 Propiedades del espacio de Schwartz S . . . . . . . . . . . . 484
12.3 Distribuciones temperadas . . . . . . . . . . . . . . . . . . . 491
12.4 Derivación de distribuciones . . . . . . . . . . . . . . . . . . 504
12.5 Lı́mite de sucesiones en S × . . . . . . . . . . . . . . . . . . 508
12.6 Distribuciones en dos o más dimensiones . . . . . . . . . . . 516
12.7 Otros tipos de distribuciones . . . . . . . . . . . . . . . . . 522
12.7.1 Medidas de Radon . . . . . . . . . . . . . . . . . . . 523
ÍNDICE 17

12.7.2 Distribuciones regularizadas . . . . . . . . . . . . . . 524


12.8 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 525

13 COMPLEMENTOS SOBRE T. DE FOURIER 527


13.1 La transformación de Fourier . . . . . . . . . . . . . . . . . 527
13.1.1 Propiedades de la transformada de Fourier . . . . . 528
13.2 El teorema de Plancherel . . . . . . . . . . . . . . . . . . . 532
13.3 Transformación de Fourier de distribuciones . . . . . . . . . 538
13.4 La Convolución . . . . . . . . . . . . . . . . . . . . . . . . . 543
13.5 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
Prólogo
La idea de escribir este libro surgió cuando ambos autores fuimos en-
cargados de impartir la asignatura de Métodos Matemáticos de la Fı́sica II
a finales de los años 80. Esta materia estaba fundamentalmente orientada
hacia la enseñanza de diversas técnicas para la resolución de ecuaciones
diferenciales. Aunque existen muchos buenos libros en el mercado dedi-
cados a este tema, tanto en inglés como en español, pronto vimos que
ninguno de ellos estaba adecuado a las necesidades del estudiante de Cien-
cias Fı́sicas. Junto al excelente tratamiento de algunos temas, se observaba
en la bibliografı́a al uso la ausencia de otros muy interesantes: libros que
hacen particular hincapié en el método de Frobenius, o en la resolución
de sistemas lineales, hay muchos, pero casi ninguno de ellos trata estos
temas con suficiente amplitud, junto con otros de especial relevancia para
el estudiante de disciplinas cientı́ficas o técnicas, como son por ejemplo las
ecuaciones de Pfaff (tan útiles en termodinámica).

Además de temas más o menos estándar que presentan la teorı́a de las


ecuaciones diferenciales ordinarias, hemos añadido algunos más, tanto al
comienzo como al final del libro. Al comienzo introducimos unos capı́tulos
de gran interés para todo cientı́fico, como son funciones especiales rela-
cionadas con la función Γ, series y transformadas de Fourier, transformación
de Laplace, una introducción a la noción de distribución (haciendo énfasis
en la delta de Dirac) y otra a las ecuaciones diferenciales ordinarias. Es-
tos capı́tulos son introductorios y están orientados fundamentalmemte a
las aplicaciones inmediatas en diversas asignaturas. Le siguen varios temas
de ecuaciones diferenciales ordinarias, que están enfocados fundamental-
mente hacia el apredizaje en la resolución de las mismas. Consideración
aparte merece el capı́tulo 7 dedicado a teoremas de existencia de ecuaciones
diferenciales ordinarias. En él se presentan diversos resultados rigurosos so-
bre existencia, unicidad, prolongación y estabilidad de ecuaciones diferen-

19
ciales ordinarias, resultando fácilmente extensibles a sistemas de ecuaciones
del mismo tipo. Se recomienda al lector que en principio se concentre en
comprender los resultados, dejando el estudio de las demostraciones de los
mismos para una lectura posterior más pausada. El tema dedicado a las
ecuaciones lineales y a los sistemas lineales es de capital importancia para
todo estudiante de materias cientı́ficas, y en él se usan algunos conceptos de
álgebra lineal que se suponen conocidos. Las ecuaciones no lineales se abor-
dan con un enfoque pensado para resaltar sus aplicaciones en mecánica y en
la teorı́a de ecuaciones en derivadas parciales, no en los aspectos numéricos
o computacionales. Los dos temas que siguen se dedican a la resolución de
ecuaciones mediante series de potencias, introduciendo las funciones espe-
ciales básicas de la fı́sica matemática, que son una herramienta fundamental
para todo aquel que realice un estudio profundo de disciplinas tales como
las mecánicas clásica y cuántica, el electromagnetismo, la quı́mica cuántica
o la teorı́a de estructuras, por poner sólo algunos ejemplos. El lector podrá
familiarizarse ası́ con las funciones de Bessel, las hipergeométricas y las
diversas familias de polinomios ortogonales clásicos (Hermite, Laguerre,
Legendre y Chevichev).

Al final del libro presentamos dos capı́tulos con temas complementarios,


uno sobre dstribuciones y otro sobre la transformación de Fourier. En el
primero tratamos las distribuciones de una manera mucho más general que
en el tema introductorio, definiendo las distribuciones como funcionales so-
bre el llamado espacio de Schwartz. Creemos que para una primera toma
de contacto con la teorı́a rigurosa de las distribuciones es suficiente estu-
diar las de este tipo, a menudo denominadas temperadas. Además de este
planteamiento más profundo de la teorı́a de distribuciones, ofrecemos al
lector interesado numerosos ejemplos analizados con bastante detalle. Si
bien es cierto que no estudiamos la forma más general de una distribución
con soporte real, también es cierto que muchas de las distribuciones que
aparecen en los libros básicos de fı́sica pertenecen a la categorı́a que aquı́
se estudia. El tema de la transformación de Fourier está redactado en
el espı́ritu del anteriormente comentado y tiene por objeto el de definir
y obtener las transformadas de Fourier de las distribuciones temperadas.
Estos dos últimos capı́tulos sirven para establecer sobre una base teórica
firme algunos tópicos presentados con anterioridad, y pueden omitirse en
una primera lectura.

20
Es obvio que este libro contiene material que en esencia puede conside-
rarse clásico (si bien es cierto que también se incluyen algunos comentarios
a ciertos temas de reciente publicación en revistas especializadas), que ha
sido reelaborado por los autores con el fin de adaptarlo a lo que nosotros
consideramos más adecuado para la formación y las necesidades de nues-
tros alumnos. La bibliografı́a utilizada ha sido muy amplia y hemos optado
por exponer los libros más relevantes al final de cada capı́tulo. Uno de los
pilares de la presente obra han sido los Apuntes de ecuaciones diferenciales
de Antonio Pérez-Gómez, escritos entre 1967 y 1968, y nunca publicados.

Hemos considerado oportuno incluir un número muy amplio de proble-


mas propuestos; algunos tienen como objetivo simplemente el desarrollar
la habilidad de cálculo del lector, pero otros contienen un importante tras-
fondo de aplicación en diversas disciplinas básicas. Nos ha parecido también
interesante incluir referencias biográficas de los diversos cientı́ficos que
aparecen mencionados a lo largo del texto (obviamente se trata mayorita-
riamente de matemáticos, aunque es bastante claro que hasta fecha reciente
no es fácil clasificar de manera unı́voca a un cientı́fico como matemático
o como fı́sico). En este sentido, una fuente de información valiosı́sima, y
muy recomendable para todo interesado en la historia de las matemáticas,
es la base de datos de la Universidad de St. Andrews, en Escocia The Mac-
Tutor History of Mathematics archive, accesible en la siguiente direción de
Internet: http://www-history.mcs.st-and.ac.uk/history/.

Para finalizar indicar solamente que esta obra ha sido escrita utilizando
el programa de escritura cientı́fica LATEX, habiéndose realizado la mayor
parte de las figuras con el programa de cálculo simbólico Mathematica.
Cualquier comentario o sugerencia será muy bien recibido y puede ser envia-
do a la siguiente dirección electrónica luismi@metodos.fam.cie.uva.es.

Luis Miguel Nieto y Manuel Gadella.

Valladolid, 31 de mayo del año 20001 .

1
Se da la feliz circunstancia de que éste es el Año Mundial de las Matemáticas, de
manera que sirva la publicación de este libro como nuestra modesta contribución a los
diversos actos que con este motivo se están organizando por doquier.

21
Agradecimientos
Queremos expresar nuestra sincera gratitud en primer lugar a nuestros
queridos compañeros del Departamento de Fı́sica Teórica de la Universidad
de Valladolid Mariano Santander, Mariano del Olmo, Javier Negro, José
Oscar Rosas-Ortiz, David González, Luis Enrique González, Jose Manuel
López y Alberto Gómez, ası́ como a nuestros colegas Angel Ballesteros y
Francisco José Herranz, del Departamento de Fı́sica de la Universidad de
Burgos, por su ayuda e interés durante el largo proceso de elaboración
de este libro, y también por su amistad constante y lo mucho que hemos
aprendido trabajando con ellos.

Al Profesor Antonio Pérez nuestro reconocimiento por sus enseñanzas


de las matemáticas, sin las cuales esta obra nunca hubiera sido escrita.

Mención especial merecen aquellos que han sido nuestros alumnos du-
rante estos años y con los cuales hemos ido “experimentado” la forma de
presentar de manera concreta la mayor parte del temario que compone esta
obra. Saben que nuestro deseo ha sido siempre ofrecerles una enseñanza de
calidad, que pudiera serles de utilidad en su etapa formativa en la Universi-
dad. A todos ellos nuestra gratitud y nuestra esperanza de que se sientan,
al menos en parte, copartı́cipes del libro.

En la fase final de elaboración del manuscrito hemos contado con el


apoyo de la Junta de Castilla y León a través del proyecto titulado “In-
corporación de nuevas tecnologı́as en el proceso de enseñanza y aprendizaje
cientı́ficos” (1998–99).

Por último deseamos manifestar nuestro agradecimiento al Secretariado


de Publicaciones e Intercambio Editorial de la Universidad de Valladolid
por sus indicaciones y por las facilidades prestadas para la publicación de
este libro.

23
Capı́tulo 1

LA FUNCIÓN GAMMA Y
OTRAS FUNCIONES
RELACIONADAS

1.1 Introducción

Al haberse planteado la elaboración de este libro como un manual de


Métodos Matemáticos avanzados con aplicaciones en disciplinas cientı́ficas
y técnicas, suponemos que el lector posee ya unos sólidos conocimientos
de álgebra y cálculo en una y varias variables, y en particular, que ya ha
tenido ocasión de estudiar tanto las series numéricas como las series de po-
tencias, y en concreto los desarrollos en serie de Taylor1 . Es probable que
también se haya familiarizado con las funciones de una variable compleja,
en particular con las funciones analı́ticas (es decir desarrollables en serie de
Taylor) y con las funciones enteras (aquellas que son analı́ticas en todo el
plano complejo).
En este primer tema vamos a proseguir de manera natural estas lı́neas de
trabajo abordando en primer lugar el análisis de la teorı́a de los productos
infinitos. Este estudio nos servirá de punto de partida para introducir en
la sección tercera una de las funciones especiales más utilizadas, la función
gamma Γ(z), cuyas propiedades fundamentales consideraremos en detalle
(la función gamma puede introducirse de varias maneras; nosotros opta-
1
Brook Taylor (1685–1731), matemático inglés.

25
26 CAPÍTULO 1. LA FUNCIÓN GAMMA

mos por la aquı́ indicada por ser la más completa). La función gamma
surge de manera natural al intentar extender las propiedades de los fac-
toriales a valores no naturales. Sus interesantes propiedades le hacen ser
la herramienta adecuada para describir muchas de las funciones especiales
que irán apareciendo a lo largo del temario que vamos a desarrollar. Otras
funciones relacionadas con la función gamma se introducen en la sección
cuarta. Dedicamos la sección quinta a definir la función zeta de Riemann2 ,
ζ(z). En la sección sexta se definen las integrales elı́pticas que, aunque
no guardan una relación directa con la función gamma, deberı́an resultar
familiares para todo cientı́fico o ingeniero, ya que aparecen en la resolución
de destacados problemas tanto de matemática pura como aplicada. Para fi-
nalizar, se efectúa una breve introducción a la teorı́a de las series asintóticas;
sin entrar en los detalles matemáticos delicados de la teorı́a, se pretende
al menos motivar un resultado de tanta utilidad como es la fórmula de
Stirling3 (que no es otra cosa que el desarrollo asintótico para la función
gamma).

1.2 Productos infinitos. Teorema de Weierstrass

De manera análoga a como se desarrolla la teorı́a de series, se puede cons-


truir una teorı́a de productos infinitos. Una primera aproximación intuitiva
se obtiene al considerar un polinomio cualquiera de grado n:
! "
an−1 n−1 a1 a0
pn (z) = an z n + · · · + a1 z + a0 = an z n + z + ··· + z + .
an an an
(1.2.1)
Suponemos que an != 0 y, para mayor generalidad, la variable z se toma
compleja. Si denominamos α1 , α2 , . . . , αn a las raı́ces de este polinomio
(puede haber alguna repetida; se denomina multiplicidad de una raı́z al
número de veces que aparece repetida), podremos factorizarle en la forma

2
Georg Friedrich Bernhard Riemann (1826–66), fue uno de los matemáticos más bri-
llantes del siglo XIX, realizando importantı́simas contribuciones en campos como teorı́a
de números, funciones de variable compleja, series de Fourier o geometrı́a (de hecho
sus innovadoras ideas sobre los fundamentos de la geometrı́a fueron el punto de partida
que permitió desarrollar el aparato matemático necesario para formular la teorı́a de la
relatividad general).
3
James Stirling (1692–1770), matemático escocés.
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 27

siguiente:
n
#
pn (z) = an (z − α1 )(z − α2 ) · · · (z − αn ) = an (z − αk ). (1.2.2)
k=1

Parece natural intentar generalizar la expresión precedente cuando en lugar


de un polinomio tenemos una serie de potencias (es decir, cuando pasamos
al lı́mite n → ∞). En este caso, en lugar de un número finito de factores
tendremos un número infinito de ellos. Hemos de precisar ahora las sencillas
ideas que acabamos de exponer. Para ello comencemos estableciendo una
definición rigurosa de qué es lo que se entiende por un producto infinito.
Sea {a1 , a2 , a3 , . . .} una sucesión de números complejos, ninguno de los
cuales es igual a −1, es decir ak != −1, ∀k ∈ N. Consideremos el producto
de n términos de la forma
n
#
Pn = (1 + ak ) = (1 + a1 )(1 + a2 ) · · · (1 + an ). (1.2.3)
k=1

Escribimos el término general de este producto finito como (1 + ak ) porque,


como luego veremos, si el producto converge, el término general debe tender
a 1.

Definición 1: diremos que el producto Pn anteriormente definido es con-


vergente cuando n → ∞ si la sucesión Pn posee un lı́mite finito distinto de
cero (este lı́mite no nulo será precisamente el valor del producto infinito).
Lo indicaremos ası́:
n
# ∞
#
lim Pn = lim (1 + ak ) ≡ (1 + ak ). (1.2.4)
n→∞ n→∞
k=1 k=1

Cuando alguno de los ak sea igual a −1, el producto vale 0. Si sucede ésto, o
si el lı́mite (1.2.4) vale cero, diremos que el producto diverge a cero. Como
dato anecdótico, la convergencia del producto en el que ak = −(k + 1)−2
fue investigada por Wallis4 en 1655.
Consideremos a continuación unos ejemplos de productos numéricos
(más adelante consideraremos también productos en los que intervienen
funciones).
4
John Wallis (1616–1703), matemático inglés.
28 CAPÍTULO 1. LA FUNCIÓN GAMMA

Ejemplo 1: analicemos la convergencia del producto infinito


∞ $
# % # ∞ $ %
1 k−1 123
p= 1− = = ···
k k 234
k=2 k=2

Consideremos el producto hasta k = n y pasemos luego al lı́mite:


#n $ %
k−1 123 n−2 n−1 1
p = lim = lim ··· = lim = 0.
n→∞ k n→∞ 234 n−1 n n→∞ n
k=2

Hemos dicho que el producto es convergente si la sucesión del producto de


n términos tiende a un lı́mite finito distinto de cero. Como aquı́ el lı́mite
es cero, entonces el producto analizado diverge a cero5 .

Ejemplo 2: consideremos a continuación otro caso que resolveremos de


manera completamente análoga al anterior:
∞ $
# % # ∞ $ 2 % #n $ %
1 k −1 k−1 k+1
p = 1− 2 = = lim
k k2 n→∞ k k
k=2 k=2 k=2
$ %$ %$ % $ %$ %
13 24 35 n−2 n n−1 n+1
= lim ···
n→∞ 2 2 33 44 n−1 n−1 n n
1 n+1 1
= lim = .
n→∞ 2 n 2
Mediante unos sencillos cálculos (tanto que no es necesario explicarlos en
detalle) hemos demostrado que este producto infinito converge a 1/2.

Ejemplo 3: un último ejemplo, que requiere un poco más de cuidado al


simplificar antes de efectuar el paso al lı́mite, es el siguiente:
#∞ $ % # ∞ #∞ $ %
2 k2 + k − 2 k−1 k+2
p = 1− = =
k(k + 1) k(k + 1) k k+1
k=2 k=2 k=2
$ %$ %$ % $ %$ %
14 25 36 n−2 n+1 n−1 n+2
= lim ···
n→∞ 2 3 34 45 n−1 n n n+1
1 n+2 1
= lim = .
n→∞ 3 n 3
5
El lector puede haber observado que en este ejemplo el ı́ndice k del producto comienza
en 2 y no en 1. Un momento de reflexión le hará darse cuenta de que este hecho no
presenta ninguna relevancia, ya que con un sencillo cambio de ı́ndices podrı́a llevarse a
la forma estándar (1.2.4).
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 29

Enunciamos ahora un resultado en el que, a la vez que se introducen algunos


conceptos nuevos, se resumen las principales propiedades de convergencia
de los productos infinitos6 .

Teorema 1: dado un producto infinito en la forma anteriormente conside-


rada (1.2.4), se verifica lo siguiente:

#
i) Si (1 + ak ) converge, entonces lim ak = 0.
k→∞
k=1

#
ii) Supongamos que |ak | < 1, ∀k ∈ N, entonces el producto (1 + ak )
k=1

&
converge si y sólo si la serie log(1 + ak ) converge (se considera la
k=1
rama principal del logaritmo. Obsérvese que |ak | < 1 garantiza que
log(1 + ak ) está bien definido).

#
iii) Diremos que el producto (1 + ak ) converge absolutamente si el pro-
k=1

#
ducto (1 + |ak |) converge. El producto convergerá absolutamente
k=1

&
si y sólo si la serie ak también converge absolutamente, es decir,
k=1

&
si |ak | converge.
k=1

iv) Si un producto infinito converge absolutamente, entonces también


converge en el sentido ordinario.

Ejercicio: como aplicación de lo que acabamos de comentar, puede estu-


diarse la convergencia de los dos productos siguientes:

# #∞
k
e(−1) /k , e1/k .
k=1 k=1
6
No vamos a probar aquı́ los teoremas 1, 2 y 3 que siguen, pues estas demostraciones
precisan de unos conocimientos de análisis complejo que no suponemos en el lector de este
libro. Además su presentación no aporta nada esencial. Remitimos al lector interesado
al tema séptimo del libro de Marsden mencionado en la bibliografı́a recomendada, que
aparece al final de este capı́tulo.
30 CAPÍTULO 1. LA FUNCIÓN GAMMA

Al igual que sucede con las series absolutamente convergentes, hay cier-
tas operaciones que es lı́cito efectuar para los productos absolutamente
convergentes, pero no para aquellos que no lo son. En particular, para los
primeros se puede cambiar el orden de los factores, ya que el resultado no se
altera (esto no es cierto para los que no son absolutamente convergentes).
Hasta ahora hemos considerado únicamente productos numéricos. A
continuación vamos a introducir los productos infinitos de funciones.

Definición 2: sean {fk (z)}k∈N funciones definidas en un conjunto B ⊂ C,


donde C es el cuerpo complejo. Diremos que el producto infinito

#
(1 + fk (z)) (1.2.5)
k=1
converge uniformemente en B si y sólo si sucede lo siguiente:

i) existe un m ∈ N tal que fk (z) != −1, para k ≥ m y ∀z ∈ B;


n
#
ii) la sucesión Pn (z) = (1 + fk (z)) converge uniformemente a la
k=m
función P (z) en B;
iii) P (z) != 0, ∀z ∈ B.

Obsérvese que el producto converge a


m−1
#
T (z) = P (z) (1 + fk (z)) .
k=1
Un resultado que puede ser de utilidad es el siguiente:

Teorema 2: si {fk (z)}k∈N son funciones analı́ticas en un abierto A ⊂ C


n
#
y la sucesión de funciones Pn (z) = (1 + fk (z)) converge uniformemente
k=1
a P (z) en todo disco cerrado contenido en A, entonces la función P (z) es
analı́tica en A.

Para terminar esta sección, vamos a enunciar un teorema debido a


Weierstrass7 que es muy importante en las aplicaciones. Aunque pueden
7
Karl Theodor Wilhelm Weierstrass (1815–97), matemático alemán que construyó
la teorı́a de los números reales y trabajó en teorı́a de funciones, influyendo de forma
destacada en el uso de métodos rigurosos y no intuitivos en matemáticas.
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 31

encontarse diferentes versiones del teorema, daremos aquı́ una versión sim-
plificada que es suficiente para lo que más tarde precisaremos: la definición
de la función gamma.

Teorema 3 (de Weierstrass): sea {a1 , a2 , a3 , . . .} una sucesión (puede


ser también un conjunto finito) de números complejos distintos de cero y
tales que
&∞
1
< ∞.
|ak |2
k=1
Si g(z) es una función entera (es decir, analı́tica en todo el plano complejo)
y ' un número natural, la función f (z) definida como
∞ $
# %
z
f (z) = e g(z) "
z 1− ez/ak (1.2.6)
ak
k=1

es entera. El producto converge uniformemente en discos cerrados, tiene


ceros en a1 , a2 , a3 , . . . y tiene un cero de orden ' en z = 0, pero no posee
ningún otro cero. Recı́procamente, cualquier función entera f (z) con las
propiedades citadas puede ser escrita en la forma (1.2.6).
Los números {ak } pueden aparecer repetidos un número finito de veces
para dar cuenta de la existencia de ceros múltiples. ¿Qué sucede si f (z) es
entera y no tiene ningún cero? El teorema de Weierstrass nos dice que en
este caso f (z) = exp(g(z)), siendo g(z) una función entera.
Para finalizar este apartado creemos conveniente indicar un resultado
importante, como es la expresión de la función seno como producto infinito:
∞ '
# z ( z/k
sen πz = πz 1− e . (1.2.7)
k=−∞
k
k#=0

Para demostrar esta igualdad se utiliza el teorema de Weierstrass que acabamos de enun-
ciar. Como la función sen πz es entera y tiene ceros simples en {n ∈ Z }, siendo cierto
además que
&∞
1
2
< ∞,
n=−∞
n
n#=0

el teorema nos asegura que existe una función entera g(z), que habrá que determinar, tal
que

#
sen πz = πz eg(z) (1 − z/n) ez/n
n=−∞
n#=0
32 CAPÍTULO 1. LA FUNCIÓN GAMMA

= πz eg(z) (1 − z)ez (1 + z)e−z (1 − z/2)ez/2 (1 + z/2)e−z/2 · · ·



#
= πz eg(z) (1 − z 2 )(1 − (z/2)2 ) · · · = πz eg(z) (1 − (z/n)2 ).
n=1

Obsérvese que hemos podido reordenar los productos por existir convergencia uniforme.
Consideremos ahora los productos parciales

N
#
PN (z) = πz eg(z) (1 − (z/n)2 ) → sen πz.
n=1

De aquı́ se sigue que


) *
$ N
&
PN (z) d d 2
= log PN (z) = log z + g(z) + log(1 − (z/n) )
PN (z) dz dz n=1

&N
1 2z
= + g $ (z) + 2 − n2
.
z n=1
z

Como hay convergencia uniforme, podemos derivar término a término y tendremos


$
$ PN (z)
PN (z) → π cos πz, → π cot πz, z %= n ∈ Z .
PN (z)

Tomando el lı́mite en la expresión anteriormente obtenida para la derivada logarı́tmica de


PN (z) y usando el siguiente resultado que se demuestra en los cursos de variable compleja

1 & 2z
cot z = + , z %= nπ,
z n=1 z 2 − (nπ)2

tenemos:
$ & ∞
PN (z) 1 2z
π cot πz = lim = + g $ (z) + 2 − n2
= g $ (z) + π cot πz.
N →∞ PN (z) z n=1
z

Por tanto g $ (z) = 0, es decir g(z) = C. Para determinar el valor de esta constante
calculamos el lı́mite z → 0 de
#∞
sen πz
lim = lim eC (1 − (z/n)2 ) = eC .
z→0 πz z→0
n=1

Pero es bien sabido que este lı́mite vale 1, de manera que finalmente obtenemos

#
sen πz = πz (1 − (z/n)2 ),
n=1

y por añadidura también demostramos (1.2.7).


1.3. LA FUNCIÓN GAMMA Γ(Z) 33

1.3 La función gamma (z)

Pasamos a estudiar ahora la función gamma. Históricamente la función


Γ(z) fue definida en primer lugar por Euler como el lı́mite de un cierto
producto, del cual derivó una expresión integral. Pero para poder desa-
rrollar adecuadamente la teorı́a, es más adecuado definir esta función en
términos de un producto infinito del tipo que ha aparecido en el teorema de
Weierstrass. Otras contribuciones importantes en este campo son debidas a
Gauss8 y a Legendre (quien introdujo la notación actual, Γ(z), en 1814). Es
interesante destacar el hecho de que ha sido demostrado que esta función no
satisface ninguna ecuación diferencial con coeficientes racionales; la mayor
parte de las funciones especiales que van a aparecer en capı́tulos posteriores
sı́ verifican esta propiedad.

1.3.1 Definición

Para introducir la función gamma vamos a utilizar la función auxiliar G(z),


definida como sigue:
∞ '
z ( −z/k # ' z ( z/k
# −∞
G(z) = 1+ e = 1− e . (1.3.1)
k k
k=1 k=−1

Por el teorema de Weierstrass, esta función es entera y presenta ceros sim-


ples en los números enteros negativos.
Consideremos el producto z G(z) G(−z), utilizando el resultado (1.2.7)
tenemos lo siguiente:
+∞ , + −∞ ,
#' z ( −z/k # ' z ( −z/k
z G(z) G(−z) = z 1+ e 1+ e (1.3.2)
k k
k=1 k=−1
∞ '
z ( −z/k
∞ '
# # z ( z/m sen πz
= z 1+ e =z 1− e = .
k=−∞
k m=−∞
m π
k#=0 m#=0

8
Johann Carl Friedrich Gauss (1777–1855), matemático y fı́sico alemán, llamado en
su tiempo “el prı́ncipe de las matemáticas”. Trabajó en gran variedad de temas, tanto
puramente matemáticos como fı́sicos: fue uno de los creadores de la geometrı́a no euclı́dea,
demostró el teorema fundamental del álgebra, desarrolló la teorı́a de superficies, trabajó
en astronomı́a, en óptica y en magnetismo, y también perfeccionó la telegrafı́a.
34 CAPÍTULO 1. LA FUNCIÓN GAMMA

Definamos ahora la función H(z) = G(z − 1); tendrá ceros simples en


0, −1, −2, . . . En virtud del teorema de Weierstrass podemos escribir
∞ '
# z ( −z/k
H(z) = eg(z) z 1+ e = eg(z) z G(z),
k
k=1

donde g(z) es una función entera sin determinar por el momento. Vamos a
ver que se trata de una constante. En efecto, sabemos que el producto que
define H(z) converge uniformemente en discos cerrados, por tanto, según
el teorema 1, podemos tomar logaritmos en esa expresión, conservando
la convergencia uniforme, lo cual nos permite a su vez derivar término a
término la expresión resultante:
∞ - '
& z( z.
log H(z) = g(z) + log z + log 1 + − , (1.3.3)
k k
k=1
∞ ! "
d log H(z) ! 1 & 1 1
= g (z) + + − . (1.3.4)
dz z k+z k
k=1

Por otro lado, dado que H(z) = G(z − 1), tenemos


∞ ! $ % "
d log H(z) d log G(z − 1) d & z−1 z−1
= = log 1 + −
dz dz dz k k
k=1
∞ !
& ∞ !
& " "
1 1 1 1 1
= − = −1+ −
k+z−1 k z k+z−1 k
k=1 k=2

& ! "
1 1 1
= −1+ −
z m+z m+1
m=1
∞ !
& "
1 1 1 1 1
= −1+ − + −
z m+z m m m+1
m=1
∞ !
& " &∞ ! "
1 1 1 1 1
= −1+ − + −
z m+z m m m+1
m=1 m=1
∞ !
& "
1 1 1
= + − .
z m+z m
m=1
1.3. LA FUNCIÓN GAMMA Γ(Z) 35

De la comparación entre la última igualdad y la ecuación (1.3.4) se tiene


g ! (z) = 0, de modo que g(z) es una constante llamada la constante de
Euler9 -Mascheroni10 que denotaremos por γ. A continuación vamos a en-
contrar su expresión explı́cita y su valor numérico. De lo que acabamos de
evaluar se sigue que
G(z − 1) = H(z) = z eγ G(z). (1.3.5)
Tomando z = 1, se tiene que G(0) = eγ G(1). Pero de la definición de G(z)
en (1.3.1) se deduce que
#∞ $ %
1
G(0) = 1 y G(1) = 1+ e−1/k ,
k
k=1
por tanto, como G(0) = eγ G(1),
∞ $
# %
1
e−γ = 1+ e−1/k .
k
k=1
Consideremos el producto de n términos
#n $ % #n
1 k + 1 −1/k
Pn = 1+ e−1/k = e
k k
k=1 k=1
/ 0
23 n n+1 1 1 1
= ··· exp −1 − − − · · · −
12 n−1 n 2 3 n
1 1 1 1
= n e−(1+ 2 +···+ n ) + e−(1+ 2 +···+ n ) .
Por tanto, tomando el lı́mite tenemos11 :
' 1 1
( ' 1 1
(
e−γ = lim Pn = lim n e−(1+ 2 +···+ n ) + lim e−(1+ 2 +···+ n )
n→∞ n→∞ n→∞
/ $ %0
1 1
= lim exp ln n − 1 + + ··· +
n→∞ 2 n
/ ! $ %"0
1 1
= exp lim ln n − 1 + + · · · + ,
n→∞ 2 n
9
Leonhard Euler (1707–83), eminente matemático suizo que desarrollo gran parte de
su labor cientı́fica en Berlı́n y en San Petersburgo, en la corte de Catalina la Grande, y
que fue una figura clave de las matemáticas y de la fı́sica teórica en el siglo XVIII, siendo
el autor más prolı́fico en matemáticas de todos los tiempos.
10
Lorenzo Mascheroni (1750–1800), matemático italiano.
11
Para indicar el logaritmo natural usamos ln cuando el argumento es un número real
positivo y log en caso contrario
36 CAPÍTULO 1. LA FUNCIÓN GAMMA

ya que el último lı́mite en la primera lı́nea es cero, pues la serie armónica


&∞
1
es divergente. Ası́ pues, la constante de Euler-Mascheroni es el valor
n
n=1
del lı́mite
! "
1 1
γ = lim 1 + + · · · + − ln n = 0.5772 . . . (1.3.6)
n→∞ 2 n

Llegados a este punto estamos en condiciones de dar la definición de


la función gamma, siguiendo a Weierstrass, como la inversa de la función
z eγ z G(z):

Definición 3: se define la función gamma como el producto infinito

+ ∞ '
,−1
# z ( −z/k
Γ(z) = z e γz
1+ e . (1.3.7)
k
k=1

1.3.2 Propiedades

De la definición que acabamos de ofrecer se siguen una serie de propiedades


que pasamos a analizar:

1. Propiedades de analiticidad de la función gamma. De (1.3.7) se de-


duce que se trata de una función analı́tica en todo el plano complejo
salvo en z ∈ {0, −1, −2, . . .}, puntos en los que presenta polos sim-
ples: es por tanto una función meromorfa (analı́tica salvo en algunos
puntos en los que posee polos).

2. Resulta sumamente ilustrativo tener una imagen de como se com-


porta la función gamma. Ofrecemos dos gráficas. En la Figura 1.1
se representa el valor absoluto de la función gamma, |Γ(z)|, cuando z
toma valores en una región del plano complejo. La Figura 1.2 nos da
una información cualitativa muy útil respecto del comportamiento de
la función gamma; en ella se representan las funciones Γ(x), en trazo
contı́nuo, y 1/Γ(x), en trazo discontı́nuo, para x ∈ R.
1.3. LA FUNCIÓN GAMMA Γ(Z) 37

4 ImHzL
2
0
-2
--4
6
4 » HzL»
2
0
4
2
0
-22 ReHzL

Figura 1.1: Módulo de la función gamma, |Γ(z)|.

2
HxL
-4 -2 2 4
1ê HxL
-2

-4

Figura 1.2: Las funciones Γ(x) y 1/Γ(x).

3. La ecuación funcional. Como se verifica G(z − 1) = z eγ G(z) = H(z),


entonces

Γ(z + 1) = [(z + 1) eγ(z+1) G(z + 1)]−1 = [eγz (z + 1)eγ G(z + 1)]−1


! "−1
−1 1 γz
= [e G(z)] =
γz
z e G(z) = z Γ(z).
z
Es decir, tenemos la siguiente relación fundamental:

Γ(z + 1) = z Γ(z), z != 0, −1, −2, . . . (1.3.8)


38 CAPÍTULO 1. LA FUNCIÓN GAMMA

4. Relación de la función Γ(z) con los factoriales. Observemos que


[Γ(1)]−1 = eγ G(1) = G(0) = 1. Procediendo ahora por inducción,
a partir de (1.3.8), dado n ∈ N se verifica

Γ(n + 1) = n Γ(n) = n Γ(n − 1 + 1) = n(n − 1) Γ(n − 1) = · · ·


= n(n − 1) · · · 1 Γ(1) = n!,

es decir
Γ(n + 1) = n!, n ∈ {0, 1, 2, 3 . . .}. (1.3.9)

Nota. A veces es conveniente utilizar la notación de los semifacto-


riales, definidos de la siguiente manera:

(2n)!! := 2n(2n − 2)(2n − 4)(2n − 6) · · · 4 · 2;


(2n + 1)!! := (2n + 1)(2n − 1)(2n − 3) · · · 3 · 1.

Con esto (2n)! = (2n)!! (2n − 1)!! y (2n + 1)! = (2n + 1)!! (2n)!!.

5. Para obtener otra importante propiedad, recordemos los resultados


obtenidos en (1.3.2) y (1.3.5). Operando se llega a
sen πz
= z G(z) eγ z e−γ z G(1 − z − 1)
π
= z G(z) eγ z e−γ z (1 − z) eγ G(1 − z)
1 1
= [z eγ z G(z)][(1 − z) eγ(1−z) G(1 − z)] = .
Γ(z) Γ(1 − z)

Por lo tanto
π
Γ(z) Γ(1 − z) = . (1.3.10)
sen πz
De aquı́ se deduce que Γ(z) != 0, ∀z ∈ C.

6. De la definición (1.3.7), y tomando complejos conjugados, es trivial


la siguiente igualdad
Γ(z) = Γ(z). (1.3.11)

Otras propiedades de la función gamma se proponen como ejercicios al final


del capı́tulo.
1.3. LA FUNCIÓN GAMMA Γ(Z) 39

1.3.3 Fórmulas de Euler

Para finalizar esta sección dedicada a la función gamma, daremos dos


fórmulas debidas a Euler, que históricamente fueron anteriores a la ex-
presión como producto infinito que nos ha servido para para definirla.

A.– Fórmulas de Euler para la función gamma

Vamos a demostrar, en primer lugar, el siguiente par de igualdades:


∞ !$ % "
n! nz 1# 1 z' z (−1
Γ(z) = lim = 1+ 1+ .
n→∞ z(z + 1) · · · (z + n) z n n
n=1
(1.3.12)
Partiendo de la definición de la función gamma (1.3.7)
n '
1 (1+ 12 +···+ n
1
−ln n)z
# z ( −z/k
= z e G(z) = z lim e
γz
lim 1+ e
Γ(z) n→∞ n→∞ k
k=1
+ n '
,
(1+ 12 +···+ n
1
−ln n)z
# z ( −z/k
= z lim e 1+ e
n→∞ k
k=1
n
# ' z(
= z lim n−z 1+ (1.3.13)
n→∞ k
k=1
$ %−z #
n '
234 n z(
= z lim ··· 1+
n→∞ 123 n−1 k
k=1
+n−1 $ ,
# k + 1 %−z #
n '
z(
= z lim 1+
n→∞ k k
k=1 k=1
+$ % n $ %−z' ,
n+1 z # 1 z(
= z lim 1+ 1+
n→∞ n k k
k=1
$ %−z '
z(

# 1
= z 1+ 1+ .
k k
k=1

El paso de la primera a la segunda lı́nea es obvio, pues todos los lı́mites


existen y el producto de los lı́mites es el lı́mite del producto. Con esto
40 CAPÍTULO 1. LA FUNCIÓN GAMMA

queda probada la segunda igualdad de (1.3.12). Para demostrar la primera,


partimos de la ecuación (1.3.13):
n ' n $ %
1 −z
# z( z # k+z
= z lim n 1+ = lim z (1.3.14)
Γ(z) n→∞ k n→∞ n k
k=1 k=1

z(z + 1)(z + 2) · · · (z + n)
= lim ,
n→∞ n! nz
que es lo que pretendı́amos demostrar.

B.– Representación integral de la función gamma

Sea z ∈ C tal que su parte real es positiva, Re z > 0. Vamos a mostrar la


“verosimilitud” de la fórmula
1 ∞
Γ(z) = tz−1 e−t dt, Re z > 0. (1.3.15)
0

En algunos libros se parte de esta fórmula integral para definir la función


gamma. Se trata, sin embargo, de una definición incompleta, pues sólo es
válida en el semiplano Re z > 0. Con la definición de la función gamma
como producto infinito, que nosotros hemos tomado como punto de partida,
Γ(z) ya está definida en C. El hecho de que una función admita diferentes
definiciones es común a la mayorı́a de las funciones especiales que van a ir
apareciendo en capı́tulos posteriores.
Para probar (1.3.15) partimos de la fórmula de Euler que acabamos de
demostrar. Sea
n! nz
Fn (z) = , lim Fn (z) = Γ(z).
z(z + 1)(z + 2) · · · (z + n) n→∞

Consideremos la siguiente integral, en la que hacemos primero el cambio


de variable t = ns y luego integramos reiteradamente por partes (tomando
u = (1 − s)n y dv = sz−1 ds):
1 n $ % 1 1
t n z−1
1− t dt = n z
(1 − s)n sz−1 ds
0 n 0
) 2 1 *
z 21 n 1
n s 2
= n z
(1 − s) + (1 − s)n−1 z
s ds
z 20 z 0
1.3. LA FUNCIÓN GAMMA Γ(Z) 41
1 1
n
= n z
(1 − s)n−1 sz ds
z 0
) 21 1 *
n sz+1 22 n−1 1
= nz (1 − s)n−1 + (1 − s)n−2 sz+1 ds = · · ·
z z + 1 20 z + 1 0
1
n n−1 n−2 1 1
= n z
··· sz+n−1 ds
z z+1 z+2 z+n−1 0

n!
= nz = Fn (z).
z(z + 1)(z + 2) · · · (z + n)

De esta manera, pasando al lı́mite, resulta que


1 n$ %
t n z−1
Γ(z) = lim Fn (z) = lim 1− t dt. (1.3.16)
n→∞ n→∞ 0 n

Supongamos que pudiéramos introducir el lı́mite dentro de la integral, es


decir que pudiéramos operar de manera formal, como se hace a menudo.
Entonces tendrı́amos que:
1 ∞ /$ % 0 1 ∞
t n z−1
Γ(z) = lim 1− t dt = e−t tz−1 dt. (1.3.17)
0 n→∞ n 0

Aunque no es lı́cito proceder como hemos hecho en el último paso, un


cálculo riguroso permite llegar exactamente al mismo resultado, ya que es
posible justificar estos pasos. En efecto, consideremos, en primer lugar, la
siguiente función: )
1 si x ∈ A,
δA (x) = (1.3.18)
0 si x ∈ / A,
llamada la función caracterı́stica del conjunto A. Notemos que, por la
definición de función caracterı́stica, ésta es nula fuera del conjunto al que
representa. Por lo tanto
1 n$ % 1 ∞$ %
t n z−1 t n
1− t dt = 1− δ[0,n] (t) tz−1 dt. (1.3.19)
0 n 0 n

Consideremos ahora la integral en el término a la derecha de (1.3.17):


1 ∞
e−t tz−1 dt. (1.3.20)
0
42 CAPÍTULO 1. LA FUNCIÓN GAMMA

Si pretendemos demostrar que la función Γ(z) es igual a esta integral, debe-


mos de demostrar que converge, al menos en aquellos puntos en los que la
función gamma está bien definida. Para ver que es ası́, utilicemos el siguien-
te resultado que aparece al estudiar la integral de Riemann: si una función
continua está acotada en módulo por una función integrable, entonces es
integrable 12 .
En nuestro caso, e−t tz−1 es una función continua en t para cada valor
complejo de z. Su módulo es |e−t tz−1 | = e−t tRe(z)−1 . Esta última función
converge a cero cuando t → ∞ más rápidamente que t−1 , debido al término
exponencial. Por lo tanto, la siguiente integral es convergente
1 ∞
e−t tRe(z)−1 dt. (1.3.21)
1

Por otro lado, sea p = Re(z)−1. Si p > −1 (o lo que es lo mismo, Re z > 0),
la siguiente integral converge
1 1 1 21
1
−t Re(z)−1
1 1
1 2
p+1 2
e t dt ≤ t Re(z)−1
dt = t dt =
p
t 2 . (1.3.22)
0 0 0 p+1 0

Por tanto deducimos que la integral en (1.3.20) converge cuando Re z > 0.


Una vez que hemos encontrado cuando la integral es convergente, hemos
de probar que en este caso coincide con Γ(z). Para ello, vamos a usar el
llamado teorema de la convergencia mayorada de Lebesgue13 , que
de una manera adecuada al nivel de este libro, lo podrı́amos enunciar ası́:

Teorema 4: sea {fn (t)} una sucesión de funciones continuas o continuas a


trozos e integrables en R, convergiendo puntualmente14 hacia una función
continua o continua a trozos15 f (t). Supongamos además que existe una
función, F (t), de R a C, tal que:

i) F (t) ≥ 0, ∀t ∈ R.
12
Diremos que f (x), definida en un cierto conjunto A ⊂ R , está acotada en módulo
por F (x) en A, si F (x) ≥ 0, ∀ x ∈ A, y además |f (x)| ≤ F (x), ∀ x ∈ A.
13
Henri Léon Lebesgue (1875–1941), matemático francés que en 1901 formuló la teorı́a
de la medida definiendo después la integral que lleva su nombre y que generaliza la noción
de integral de Riemann.
14
Esto significa que para cada t ∈ R la sucesión de números complejos {fn (t)} converge
a f (t) en el sentido de la convergencia de sucesiones en el plano complejo.
15
Véase la definición precisa de este tipo de funciones en el Capı́tulo 3.
1.3. LA FUNCIÓN GAMMA Γ(Z) 43

ii) F (t) es continua a trozos e integrable.

iii) Para cada t ∈ R y para cada n ∈ N, |fn (t)| ≤ F (t).

Entonces se verifica lo siguiente:

1. La función lı́mite f (t) es integrable.

2. Podemos introducir el lı́mite dentro de la integral, es decir:


1 ∞ 1 ∞ 1 ∞
lim fn (t) dt = lim fn (t) dt = f (t) dt. (1.3.23)
n→∞ −∞ −∞ n→∞ −∞

Para aplicar este teorema en el caso que nos ocupa, escojamos:


$ %
t n
fn (t) = 1 − δ[0,n] (t) tz−1 . (1.3.24)
n

Evidentemente, fn (t) → e−t tz−1 δ[0,∞) (t), que es integrable (¿por qué?).
Además, del curso elemental de análisis matemático o cálculo, sabemos
que si t ≤ n, $ %
t n
0≤ 1− ≤ e−t . (1.3.25)
n
Por lo tanto
|fn (t)| ≤ e−t tRe(z)−1 δ[0,∞) (t). (1.3.26)
Luego, si escribimos

F (t) := e−t tRe(z)−1 δ[0,∞) (t), (1.3.27)

no es difı́cil ver que las condiciones del teorema de la convergencia mayorada


de Lebesgue se verifican con estas fn (t), f (t) y F (t). Entonces
1 n$ % 1 ∞$ %
t n z−1 t n
Γ(z) = lim 1− t dt = lim 1− δ[0,n] (t) tz−1 dt
n→∞ 0 n n→∞ −∞ n
1 ∞ 1 ∞
−t z−1
= e t δ[0,∞) (t) dt = e−t tz−1 dt. (1.3.28)
−∞ 0

Esto es justamente lo que se pretendı́a demostrar.


44 CAPÍTULO 1. LA FUNCIÓN GAMMA

1.4 Otras funciones especiales

1.4.1 La función beta

La función beta, también llamada integral de Euler de primera especie, se


define habitualmente como la integral
1 1
B(z, w) = tz−1 (1 − t)w−1 dt; Re z, Re w > 0. (1.4.1)
0

Está ı́ntimamente relacionada con la función gamma por la fórmula


Γ(z) Γ(w)
B(z, w) = = B(w, z), (1.4.2)
Γ(z + w)
cuya demostración se propone como ejercicio. Esta relación permite exten-
der la definición de la función beta a C2 .

1.4.2 La función psi

La función psi, también llamada función “digamma”, se define como la


derivada logarı́tmica de la función gamma:
d Γ! (z)
ψ(z) = [log Γ(z)] = . (1.4.3)
dz Γ(z)
Su comportamiento cualitativo para valores reales de z se muestra en la
Figura 1.3, y en la Figura 1.4 se representan los valores de su módulo.

-4 -2 2 4

-2

-4

Figura 1.3: La función ψ(x).


1.4. OTRAS FUNCIONES ESPECIALES 45

Algunas expresiones interesantes que involucran esta función se propo-


nen como problemas. Obsérvese que al tomar complejos conjugados

ψ(z) = ψ(z).

ImHzL
4
3
2
1
0

» HzL» 4
2
0
-2
0
2
4
ReHzL

Figura 1.4: La función |ψ(z)|.

1.4.3 Funciones “incompletas”

Las funciones beta y gamma incompletas presentan aplicaciones en teorı́a


de probabilidades y estadı́stica. La función gamma incompleta se define
como la integral
1 x
γ(a, x) = ta−1 e−t dt, Re a > 0. (1.4.4)
0

Su complementaria es
1 ∞
Γ(a, x) = Γ(a) − γ(a, x) = ta−1 e−t dt. (1.4.5)
x

A veces se usa también la función


x−a
γ ∗ (a, x) = γ(a, x),
Γ(a)
que presenta la ventaja de ser una función analı́tica univaluada tanto en a
como en x.
46 CAPÍTULO 1. LA FUNCIÓN GAMMA

Algunas de las propiedades de estas funciones son las siguientes:

γ ∗ (−n, x) = xn , (1.4.6)
1 x
3 4 2 √
γ 1/2, x2 = 2 e−t dt ≡ π erf (x), (1.4.7)
0
1 ∞
3 4 2 √
Γ 1/2, x 2
= 2 e−t dt ≡ π erfc (x), (1.4.8)
x

donde erf (x) es la función error, definida justamente en (1.4.7), y usada


en el estudio de la probabilidad gaussiana, en la teorı́a de errores de obser-
vación y en los estudios sobre la conducción del calor, entre otros; erfc (x)
es su función complementaria. Sus gráficas, junto con la de la gaussiana
2
e−x , pueden verse en la Figura 1.5.

2
erfHxL
1
erfcHxL

gaussiana
-3 -2 -1 1 2 3

-1
Figura 1.5: La función error, su complemen-
2
taria y la gaussiana e−x .

La función beta incompleta guarda relación con la distribución estadı́s-


tica de Student16 :
1 x
1
Ix (a, b) = ta−1 (1 − t)b−1 dt, (0 ≤ x ≤ 1),
B(a, b) 0

y verifica Ix (a, b) = 1 − I1−x (b, a).


16
Este es el pseudónimo cientı́fico del estadı́stico inglés William Sealy Gossett (1876–
1937), que trabajó como quı́mico para la compañı́a cervecera Guinness en Dublı́n durante
la mayor parte de su vida. Inventó y estudió las propiedades del test t para manejar
pequeñas muestras estadı́sticas en relación con el control de calidad de la cerveza.
1.4. OTRAS FUNCIONES ESPECIALES 47

1.4.4 Integrales exponenciales y otras

Habitualmente se define la función integral exponencial como


1 ∞
e−t
E1 (x) = dt ≡ Γ(0, x), x > 0. (1.4.9)
x t

Una generalización es
1 ∞
e−x t
En (x) = dt, n = 0, 1, 2, . . . , x > 0. (1.4.10)
1 tn

Véanse las gráficas de algunas de estas funciones en la Figura 1.6. La


restricción a valores de x > 0 puede evitarse cuando se consideran las
expresiones de estas funciones como desarrollos en serie (algo similar a lo
que ocurre con la función gamma, como ya vimos).

E1 HxL

E2 HxL
0.5 1 1.5
EiHxL

-5

Figura 1.6: Algunas integrales exponenciales.

Una función relacionada con las anteriores y que aparece con frecuencia
en problemas de astrofı́sica cuando se trabaja con un gas que verifica la
distribución de Maxwell17 -Boltzmann18 es
1 ∞ −t 1 x t
e e
Ei (x) = −V P dt = V P dt, x > 0, (1.4.11)
−x t −∞ t

17
James Clerk Maxwell (1831–79), gran fı́sico y matemático escocés, considerado el
fundador del Electromagnetismo.
18
Ludwig Eduard Boltzmann (1844–1906), fı́sico austrı́aco que aplicó los métodos es-
tadı́sticos a la teorı́a de los gases.
48 CAPÍTULO 1. LA FUNCIÓN GAMMA

donde “V P ” indica el valor principal de Cauchy19 de la integral, es decir


1 c !1 b−$ 1 c "
VP f (x) dx = lim f (x) dx + f (x) dx ,
a $→0 a b+$
siendo b la única singularidad de f (x) en el intervalo [a, c].
Obsérvese que
En (z) = z n−1 Γ(1 − n, z), E1 (x) = −Ei (−x).

La función integral del logaritmo fue introducida por Euler y es una


función muy importante en la teorı́a de números:
1 x
dt
li (x) = = Ei (ln x), x > 1. (1.4.12)
0 ln t

1.4.5 Integrales del seno y del coseno

Estas funciones se pueden definir de la siguiente manera:


1 z
sen t π
Si (z) = dt; si (z) = Si (z) − ; |arg z| < π; (1.4.13)
0 t 2
1 ∞
cos t
Ci (z) = − dt ≡ ci (z), |arg z| < π. (1.4.14)
z t
También se acostumbra a introducirlas mediante los correspondientes de-
sarrollos en serie que se deducen de las expresiones anteriores. Se muestra
una gráfica de las funciones y = Si (x) e y = Ci (x) en la Figura 1.7.

1
CiHxL
-14 -7 7 14
SiHxL
-1

-2
Figura 1.7: Las funciones y = Si (x) e y = Ci (x).
19
Augustin-Louis Cauchy (1789–1857), matemático francés que, como muchos de sus
contemporáneos, trabajó también en diversos problemas de fı́sica teórica.
1.4. OTRAS FUNCIONES ESPECIALES 49

1.4.6 Integrales de Fresnel

Las integrales de Fresnel20 aparecen al estudiar la teorı́a de la difracción en


óptica
1 x 'π ( 1 x 'π (
S (x) = sen t2 dt, C (x) = cos t2 dt. (1.4.15)
0 2 0 2

Al igual que sucede con las integrales del seno y del coseno, pueden hallarse
desarrollos en serie para estas integrales de Fresnel, cuyas gráficas aparecen
representadas en la Figura 1.8.

0.75
0.5
0.25
CHxL
-4 -2 2 4
-0.25 SHxL

-0.5
-0.75

Figura 1.8: Las funciones y = S (x) e y = C (x).

Cuando se realiza una representación gráfica en la que se toma como


variable en el eje de ordenadas la función S (x) y como variable en el eje
de abscisas la función C (x), siendo por tanto x el parámetro que servirá
para describir el objeto resultante, se obtiene una interesante curva llamada
espiral de Cornu 21 o clotoide. La espiral de Cornu posee una interesante
propiedad geométrica: su curvatura es proporcional a la longitud de arco
medida desde el origen de coordenadas. Aunque en realidad fue Euler el
primero en mencionar la existencia de la clotoide en uno de sus trabajos
(1744), sin embargo fue a partir de los estudios de A. Cornu (1879) cuando
se empezó a usar ampliamente en cálculos relacionados con difracción de la
20
Augustin-Jean Fresnel (1788–1827), fı́sico e ingeniero francés, que fue uno de los
creadores de la teorı́a ondulatoria de la luz y uno de los redescubridores de los fenómenos
de interferencia y polarización de la luz.
21
Alfred Cornu (1841–1902), profesor de fı́sica experimental en la Escuela Politécnica
de Parı́s.
50 CAPÍTULO 1. LA FUNCIÓN GAMMA

luz (la llamada difracción de Fresnel, que es más realista que la de Fraun-
hofer22 ). Unas interesantes representaciones de estas espirales pueden verse
en las Figuras 1.9 a 1.11.

SHtL

0.6

0.4

0.2

CHtL
-0.75 -0.25 0.25 0.75

-0.2

-0.4

-0.6

Figura 1.9: La espiral de Cornu en el plano.

CHtL 0.6
0.4
0.2
0

0.6

SHtL0.4

0.2

0
0
0.25
0.5
tê5 0.75
1

Figura 1.10: La espiral de Cornu en el espacio.

22
Joseph von Fraunhofer (1787–1826), fı́sico alemán que descubrió las lı́neas de ab-
sorción atómica en el espectro solar.
1.5. FUNCIÓN ZETA DE RIEMANN 51

CHtL

SHtL

tê5

Figura 1.11: La espiral de Cornu en el espacio y


sus proyecciones sobre los planos coordenados.

1.5 Función zeta de Riemann

La función ζ(z) de Riemann se define como la serie



& 1
ζ(z) = , Re z > 1, (1.5.1)
nz
n=1

que es uniformemente convergente en todo el dominio en el que Re z > 1,


donde la función es analı́tica. Además esta definición puede extenderse al
plano complejo por prolongación analı́tica, siendo regular para todo valor
de z, excepto en z = 1, donde presenta un polo simple cuyo residuo es
Res {ζ(z), z = 1} = 1.
Esta función era conocida ya por Euler (1737), pero sus propiedades
más interesantes fueron demostradas por Riemann (1859), quien la estudió
en profundidad en su trabajo sobre los números primos. Es una función
de gran importancia en la teorı́a de los números primos, ası́ como en la
teorı́a de la función gamma y de otras funciones afines. Aparece además
al resolver ciertas integrales relevantes en problemas de Fı́sica, ası́ como al
estudiar algunos problemas de teorı́a cuántica de campos (en concreto de la
llamada teorı́a de cuerdas, que tan popular ha sido en las últimas décadas
del pasado siglo XX).
52 CAPÍTULO 1. LA FUNCIÓN GAMMA

Una fórmula muy interesante, que establece la conexión de esta función


con los números primos, es la siguiente

# $ %
1 1
= 1− z . (1.5.2)
ζ(z) p
p∈ primos

La función zeta se relaciona con la función gamma mediante las fórmulas

2z−1 π z ζ(1 − z) πz
ζ(z) = πz = 2 π
z z−1
Γ(1 − z) ζ(1 − z) sen . (1.5.3)
Γ(z) cos 2 2

Para finalizar esta sección, queremos hacer unos comentarios adicionales


sobre esta curiosa función. La función ζ(z) tiene ceros en z = −2, −4, −6, . . .
Riemann conjeturó que todos los demás ceros de ζ(z) están en la recta
Re z = 1/2. Esta hipótesis aún no ha sido probada, si bien Hardy23 de-
mostró que, en efecto, ζ(z) tiene infinitos ceros en esa lı́nea. Después que el
famoso último teorema de Fermat24 fuera probado por Wiles25 en 1994 u-
sando potentı́simas herramientas matemáticas recientemente desarrolladas,
la demostración de la hipótesis de Riemann es uno de los pocos problemas
clásicos de las matemáticas que aún siguen abiertos, y cuya prueba defini-
tiva tendrı́a importantes consecuencias en la teorı́a de los números primos.
Algunos valores “sorprendentes” de la función zeta son:

1 1
ζ(0) = − , ζ(−1) = − , ζ(−2n) = 0, n = 1, 2, . . .
2 12

1.6 Integrales elı́pticas

Las integrales elı́pticas aparecen en la resolución de multitud de problemas


fı́sicos, de astronomı́a y de matemáticas (en concreto al intentar calcular
23
Godfrey Harold Hardy (1877–1947) fue un destacado matemático inglés.
24
Pierre de Fermat (1601–65), matemático francés. El último teorema de Fermat tiene
una curiosa historia que puede leerse detalladamente en el libro de Singh mencionado en
la bibliografı́a. Fermat lo enunció, sin demostrarlo, escribiéndolo como un comentario en
el margen de uno de sus libros, la famosa Aritmética del matemático griego Diofanto de
Alejandrı́a (approx. 200-284 A.D.). El teorema dice que la ecuación xn + y n = z n no
posee soluciones enteras en z, y, z cuando n ∈ N es mayor que 2.
25
Andrew John Wiles (1953–), matemático inglés.
1.6. INTEGRALES ELÍPTICAS 53

la longitud de una elipse, de ahı́ su nombre). Aparecieron ya en traba-


jos de los Bernoulli26 , Euler y otros, pero los trabajos decisivos se deben
a Legendre27 . Trabajos posteriores de Abel28 , Jacobi29 y Weierstrass en-
riquecieron enormemente este campo de las matemáticas, llevando a definir
las funciones elı́pticas de Jacobi y de Weierstrass y las funciones ϑ, ninguna
de las cuales estudiaremos aquı́30 .
Vamos a considerar un sencillo ejemplo en el que aparecen las integrales
elı́pticas: el péndulo simple representado en la Figura 1.12 (idealizado con
la suposición de que no hay rozamiento).

q
L

Figura 1.12: El péndulo simple.

Es bien sabido que se trata de un sistema “conservativo”, de manera


que la energı́a E es una constante del movimiento. Podemos evaluar esta
26
Nombre de una gran familia de matemáticos (hay al menos ocho que realizaron
contribuciones a las matemáticas) originaria de Amberes, que en el siglo XVII se trasladó
a Suiza.
27
Adrien-Marie Legendre (1752–1833), matemático francés que realizó importantes
contribuciones a la teorı́a de números y a la teorı́a de funciones elı́pticas.
28
Niels Henrik Abel (1802–29), brillante matemático noruego que asentó el análisis
matemático sobre bases firmes, trabajando en teorı́a de funciones elı́pticas y demostrando,
entre otos resultados, la imposibilidad de resolver la ecuación general de quinto grado
mediante raı́ces.
29
Carl Gustav Jacob Jacobi (1804–51), matemático alemán de gran fama que desa-
rrolló la teorı́a de funciones elı́pticas y que también trabajó en problemas de mecánica
(ecuación de Hamilton-Jacobi). El determinante “jacobiano” de una transformación lleva
ese nombre en su honor.
30
Se remite al lector interesado al libro clásico de Whittaker y Watson que se indica
en la bibliografı́a.
54 CAPÍTULO 1. LA FUNCIÓN GAMMA

magnitud, calculando primero las energı́as cinética T y potencial V ; elegi-


mos como referencia de potencial, V = 0, la posición más baja que puede
ocupar el péndulo, correspondiente a θ = 0:
1 m
T = m v2 = (Lθ̇)2 ; (1.6.1)
2 2
V = mgh = mg(L − L cos θ); (1.6.2)
mL2 2
E =T +V = θ̇ − mgL cos θ + mgL. (1.6.3)
2
Habrá un valor máximo de θ, llamémosle θm , que es el que corresponde
a la altura máxima alcanzada (estrictamente hablando diremos que es la
altura máxima a la derecha de la figura, pues existe una posición simétrica
de igual altura pero valor −θm ). Cuando se alcanza esa posición se tiene
θ̇m = 0. Como la energı́a se conserva, en ese punto se verifica
E = −mgL cos θm + mgL,
por tanto, usando esta ecuación y (1.6.3), se tiene
mL2 2
θ̇ − mgL cos θ + mgL = −mgL cos θm + mgL,
2
es decir
5
L 2 2g 6
θ̇ = g(cos θ − cos θm ), θ̇ = ± cos θ − cos θm . (1.6.4)
2 L
Al extraer la raı́z hemos de tener en cuenta los dos signos; el signo (+) vale
cuando en la Figura 1.12 el movimiento es de izquierda a derecha y el signo
(−) cuando el movimiento es de derecha a izquierda.
Consideremos el intervalo de tiempo que transcurre para pasar de la
posición de V = 0 a la posición más elevada (en la parte derecha del
dt > 0 , por
dibujo); en ese intervalo la velocidad angular es positiva: θ̇ = dθ
lo cual tomamos el signo (+) en (1.6.4):
5
dθ 2g 6
= cos θ − cos θm .
dt L
Integrando en ese intervalo temporal, que obviamente es un cuarto del
perı́odo del movimiento τ , tendremos:
5 1 θm 1 θm
2g τ dθ dθ
= √ = 6
L 4 0 cos θ − cos θm 0 (1 − cos θm ) − (1 − cos θ)
1.6. INTEGRALES ELÍPTICAS 55

1 θm

= 7 .
0 2 sen2 θm
2 − 2 sen2 θ
2

Haciendo el cambio de variable


$ % $ %
θ θm dθ θ θm
sen = sen sen u, cos = sen cos u du,
2 2 2 2 2
llegamos a
8 1 3 4
L π/2 2 sen θ2m cos u du 1
τ = 4 73 4 7 3 4
2g 0 2 sen2 θ2m (1 − sen2 u) 1 − sen2 θ2m sen2 u
8 1 π/2
L du
= 4 7 3 4 . (1.6.5)
g 0 1 − sen2 θm
sen2 u
2

Esta integral no se puede resolver en términos de funciones elementales.


Por ello se introducen nuevas funciones: las integrales elı́pticas.

Definición 4: se define la integral elı́ptica de primera especie como


1 ϕ

F (ϕ\α) = √ , (1.6.6)
0 1 − sen2 α sen2 θ
donde α es el ángulo modular. O bien, haciendo el cambio t = sen θ y
m = sen2 α,
1 x
dt
F (x|m) = 6 , 0 ≤ m ≤ 1. (1.6.7)
0 (1 − t2 )(1 − m t2 )

La variable m se denomina el “parámetro” de la integral elı́ptica. Para


ϕ = π/2 ó x = 1 tenemos la integral elı́ptica completa de primera especie:
1 π/2 1 1
K(m) = (1−m sen2 θ)−1/2 dθ = [(1−t2 )(1−m t2 )]−1/2 dt. (1.6.8)
0 0

Definición 5: se define la integral elı́ptica de segunda especie como


1 ϕ6
E(ϕ\α) = 1 − sen2 α sen2 θ dθ, (1.6.9)
0
56 CAPÍTULO 1. LA FUNCIÓN GAMMA

o bien 1 5
1 − m t2
x
E(x|m) = dt, 0 ≤ m ≤ 1. (1.6.10)
0 1 − t2
Para ϕ = π/2 ó x = 1 tenemos la integral elı́ptica completa de segunda
especie:
1 π/2 6 1 15
1 − m t2
E(m) = 1 − m sen θ dθ =
2 dt. (1.6.11)
0 0 1 − t2

Pasemos a analizar con más detalle las integrales completas. En el rango


0 ≤ m < 1 pueden evaluarse estas integrales y se tiene para la de primera
especie
1 π/2 1 π/2 &∞
dθ (2n − 1)!! n
K(m) = √ = dθ m sen2n θ.
0 1 − m sen θ
2
0 (2n)!!
n=0

Esta serie converge uniformemente y puede integrarse término a término:


) $ %2 $ % $ % *
π 1 1·3 2 2 1·3·5 2 3
K(m) = 1+ m+ m + m + ··· .
2 2 2·4 2·4·6
(1.6.12)
Procediendo de modo análogo se obtiene
) $ %2 $ % $ % *
π 1 m 1 · 3 2 m2 1 · 3 · 5 2 m3
E(m) = 1− − − − ··· .
2 2 1 2·4 3 2·4·6 5
(1.6.13)
La demostración de estos dos resultados se propone como problema. En
la Figura 1.13 se puede ver el comportamiento de las integrales elı́pticas
completas K(m) y E(m).

3
KHmL
2
EHmL
1

0.2 0.4 0.6 0.8 1


Figura 1.13: Integrales elı́pticas completas
K(m) y E(m).
1.7. SERIES ASINTÓTICAS: LA FÓRMULA DE STIRLING 57

Volviendo a la ecuación que nos daba el perı́odo del péndulo simple


(1.6.5) y comparando con la definición de la integral elı́ptica completa de
primera especie, vemos que el perı́odo del movimiento será
8
L
τ =4 K(sen2 θm /2). (1.6.14)
g

Si la amplitud de la oscilación es pequeña, es decir si θm ≈ 0, entonces en


el desarrollo en serie (1.6.12) podemos tomar sólo el primer término ya que
los otros son despreciables, y se obtiene el resultado bien conocido
8
L
τ = 2π , (1.6.15)
g

válido, no lo olvidemos, en la aproximación de pequeñas oscilaciones en


torno a la posición de equilibrio.
Para finalizar, conviene indicar que existe una tercera integral elı́ptica
de tercera especie, cuya forma es más complicada que las que acabamos de
ver, y que no consideraremos aquı́.

1.7 Series asintóticas: la fórmula de Stirling

Regresando de nuevo al estudio de la función que ha sido el centro de


este capı́tulo, conviene saber que en determinadas circunstancias de interés
resulta muy importante tener algún tipo de información sobre el compor-
tamiento de la función Γ(z) para valores muy grandes de z. Por suerte, es
posible aproximar el valor de Γ(z) en estos casos con gran precisión y con
muy poco esfuerzo, usando una fórmula clásica debida a Stirling (1730).
Existen diversas demostraciones de este resultado: unas utilizan el cálculo
de residuos y otras diversos métodos desarrollados en el estudio de las se-
ries asintóticas (métodos de la fase estacionaria, de Laplace31 y del punto
de silla). Nos limitaremos aquı́ a dar el resultado sin demostrarlo, pero
antes vamos a definir qué es lo que se entiende por serie asintótica (para
más información sobre las series asintóticas, véase el libro de Erdélyi sobre
este tema citado en la bibliografı́a).
31
Pierre-Simon de Laplace (1749–1827), destacado matemático francés que trabajó en
mecánica celeste, en teorı́a de probabilidades y aplicaciones de las ecuaciones diferenciales
a diversos campos de las ciencias fı́sicas.
58 CAPÍTULO 1. LA FUNCIÓN GAMMA

Definición 6: sea f (z) una función de variable compleja. Consideremos


la serie
&∞
a1 a2 a3 an
a0 + + 2 + 3 + ··· = . (1.7.1)
z z z zn
n=0

Siguiendo la definición de Poincaré32 , diremos que se trata de una serie


asintótica para f (z), y escribiremos

& an
f (z) ∼ , (1.7.2)
zn
n=0

si existe un entero positivo M tal que


9 M
:
& an
lim z M
f (z) − = 0, (1.7.3)
|z|→∞ zn
n=0

aún cuando pueda suceder que


9 M
:
& an
lim z M
f (z) − = ∞, para x fijo. (1.7.4)
M →∞ zn
n=0

La teorı́a de las series asintóticas esta bien establecida desde el punto de


vista matemático y resultan muy útiles para determinar el valor numérico
de funciones para grandes valores de la variable independiente.
En la práctica, una serie asintótica puede diverger; sin embargo se ob-
tienen buenas aproximaciones tomando la suma de los términos justo hasta
que éstos empiezan a crecer.
32
Jules Henri Poincaré (1853–1912), matemático francés considerado por algunos como
la última persona que tuvo un conocimiento global de toda la matemática y de sus apli-
caciones. Catedrático de fı́sica matemática en la Sorbona, en el campo de la matemática
aplicada abordó problemas de óptica, electricidad, telegrafı́a, capilaridad, elasticidad,
termodinámica, teorı́a del potencial, teorı́a cuántica, relatividad especial (es uno de los
que formuló esta teorı́a, junto con A. Einstein y H.A. Lorentz) y mecánica celeste (estu-
diando en profundidad el problema de los tres cuerpos). Pero también realizó desarrollos
importantes en matemática pura, como por ejemplo sus trabajos sobre funciones auto-
morfas y sus ideas originales sobre lo que con posterioridad se denominó topologı́a. En
sus trabajos sobre órbitas planetarias, Poincaré fue el primero en considerar la posibili-
dad de la aparición del caos en sistemas deterministas (un campo que se ha desarrollado
con gran fuerza desde 1963).
1.7. SERIES ASINTÓTICAS: LA FÓRMULA DE STIRLING 59

Ejemplo 4: consideremos la siguiente integral


1 ∞ 1 ∞ $ %
t2 t4 t6
e−x t cos t dt = e−x t 1 − + − + · · · dt
0 0 2! 4! 6!
1 1 1 1 x
=− 3 + 5 − 7 + ··· = 2 .
x x x x x +1
Este desarrollo es válido para x > 0 (de hecho, como se verá en un capı́tulo
posterior, la integral que hemos hecho no es más que una transformada de
Laplace). Observemos que al hacer la integral hemos obtenido una serie
asintótica (serie de potencias negativas de x) que, en este caso, hemos
podido sumar.

Ejemplo 5: usando la misma idea, evaluemos la siguiente integral


1 ∞ −x t 1 ∞
e 1 1! 2! 3!
dt = e−x t (1 − t + t2 − t3 + · · ·) dt = − 2 + 3 − 4 + · · ·
0 1+t 0 x x x x
La diferencia respecto del caso anterior estriba en que la serie que acabamos
de obtener diverge ∀x ∈ R, pero aún ası́, tiene sentido como serie asintótica.

El resultado que más nos interesa es la fórmula asintótica de Stirling


para la función gamma, que ofrecemos a continuación:

Proposición: se puede probar que


/ 0
√ z −z 1 1 139
Γ(z + 1) ∼ 2 π z z e 1+ + − + · · · , (1.7.5)
12 z 288 z 2 51840 z 3
o bien
5 / 0
2 π z −z 1 1 139
Γ(z) ∼ z e 1+ + − + ··· . (1.7.6)
z 12 z 288 z 2 51840 z 3
Estas expresiones son válidas para valores grandes de |z| cuyo argumento
se encuentre en el intervalo −π < arg z < π. En muchas ocasiones basta
tomar el primer término de la serie asintótica.
Para finalizar, una observación: a pesar de la semejanza existente en-
tre las series asintóticas y las series de Laurent33 (que el lector puede
conocer de sus estudios de teorı́a de funciones de variable compleja), no
deben confundirse, pues son objetos matemáticos completamente diferentes
(recuérdese que la serie asintótica puede ser incluso divergente).
33
Pierre-Alphonse Laurent (1813–54), ingeniero y matemático francés.
60 CAPÍTULO 1. LA FUNCIÓN GAMMA

1.8 Problemas
1. Evalúense los siguientes productos:
#∞ $ % #∞ $ % ∞ $
# %
1 2 1
a) 1+ 2 , b) 1− , c) 1− 2 ,
n=2
n −1 n=2
n(n + 1) n=2
n

∞ $
# % ∞ $
# % ∞ $
# %
2 1 (−1)n
d) 1− 3 , e) 1+ n , f) 1+ .
n=2
n +1 n=2
2 −2 n=2
n

2. Encuéntrense los valores de z para los cuales convergen absolutamente los


productos
∞ '
# ( #∞
n sen (z/n)
a) (1 + z) 1 + z2 ; b) .
n=1 n=1
z/n

3. Calcúlese el producto
∞ $
# %
n1/111
1+ .
n=2
ln n

4. Demuéstrese que

& ∞
1 e & (−1)n
= , z != −1, −2, . . .
n=1
Γ(z + n) Γ(z) n=0 n!(z + n)

5. Evalúese el producto
#∞
n(a + b + n)
.
n=1
(a + n)(b + n)

6. Pruébese que
∞ ' ∞ $ %
# z ( z # z2
sen z = z 1− e nπ = z 1− ,
n=−∞
nπ n=1
(nπ)2
n#=0

usando el hecho de que



1 & 2z
cot z = + , z != nπ.
z n=1 z − (nπ)2
2

7. Pruébese la fórmula de Wallis (1655):


π 2 2 4 4 6 6 8 8
= ···
2 1 3 3 5 5 7 7 9
1.8. PROBLEMAS 61

8. Evalúese Γ(z)Γ(−z) en términos de funciones trigonométricas.


9. Siendo a = e2πi/n , demuéstrese que
' x (' x (' x( −1
x 1− n 1− n 1 − n ··· = .
1 2 3 Γ(−x1/n )Γ(−ax1/n ) · · · Γ(−an−1 x1/n )

10. Demuéstrese la fórmula de Gauss: (1655):


$ % $ % $ %
1 2 n−1 n−1 1
Γ(z)Γ z + Γ z+ ···Γ z + = (2π) 2 n 2 −nz Γ(nz).
n n n
Para n = 2 tenemos la llamada “fórmula de duplicación de Legendre”.
(1655):
√ √
11. Demuéstrese que Γ(1/2) = π y que Γ(n + 1/2) = (2n − 1)!! 2−n π.
12. Hállese el residuo de Γ(z) en z = 0, −1, −2, . . .
13. Evalúese 1
Γ(z) dz .
|z|=1/2

14. Pruébese que


∞ $
# %
x eγx Γ(z + 1)
1− ex/n = .
n=1
z+n Γ(z − x + 1)

15. Evalúese 1 π/2


senm x cosn x dx .
0
Demuéstrese que B(p, q) = Γ(p)Γ(q)/Γ(p + q).
16. Verifı́quense las siguientes igualdades
q
a) B(p, q) = B(p + 1, q) + B(p, q + 1); b) B(p, q + 1) = B(p, q);
p+q

1 · 2···n
c) B(p, n + 1) = ; d) Γ(z) = lim nz B(z, n).
p(p + 1) · · · (p + n) n→∞

17. En el recinto determinado por las condiciones x ≥ 0, y ≥ 0, xm + y n ≤ 1


(siendo m y n números enteros positivos), calcúlese la integral
1 1
xp y q dx dy .

18. Pruébese que el momento de inercia respecto del eje z de un elipsoide ho-
mogéneo de densidad unidad y semiejes a, b, c es
4 2
(a + b2 )πa b c .
15
62 CAPÍTULO 1. LA FUNCIÓN GAMMA

19. Pruébese que el área de la hipocicloide x2/3 + y 2/3 = l2/3 es 3πl2 /8.
20. Evalúese |Γ(3/2 + ix)| , x ∈ R.
21. Sea Ψ("r ) la función de onda mecanocuántica de una partı́cula que ha sufrido
un proceso de difusión (“scattering”) por un potencial de Coulomb34 . En el
origen, la función de onda es

Ψ(0) = e−πβ/2 Γ(1 + iβ), β = Z1 Z2 q 2 /!v.

Pruébese que
2πβ
Ψ(0)Ψ∗ (0) = .
e2πβ − 1
22. Una partı́cula de masa m, que se mueve en un pozo de potencial simétrico
de la forma V (x) = A|x|n , tiene una energı́a total E = 12 m(dx/dt)2 + V (x).
Despejando dx/dt e integrando, se encuentra que el perı́odo del movimiento
es 1 xm
√ dx
τ = 2 2m √ ,
0 E − Axn
donde xm es el “punto de retroceso”, que verifica V (xm ) = E. Pruébese que
5 $ %1/n
2 2πm E Γ(1/n)
τ= .
n E A Γ( 12 + 1/n)

Determı́nese el valor lı́mite del perı́odo cuando n → ∞. Investı́guese el


comportamiento del sistema fı́sico en el lı́mite.
23. Pruébese que
1
a) ψ(1 + z) − ψ(z) = ; b) ψ(1 − z) − ψ(z) = π cot πz.
z
24. Encuéntrese la expresión de las dos primeras derivadas logarı́tmicas de Γ(z).
25. Demuéstrese que

&
ψ(z + 1) = −γ + (−1)n ζ(n)z n−1 .
n=2

26. Demuéstrese que


ψ(z)
lim = (−1)m+1 m! , m = 0, 1, 2, . . .
z→−m Γ(z)
34
Charles Agustin de Coulomb (1736–1806), ingeniero y matemático francés que tra-
bajó en matemática aplicada, pero que es más conocido por sus resultados sobre electri-
cidad y magnetismo. De hecho fue él quien estableció de forma experimental la ley que
en electrostática lleva su nombre.
1.8. PROBLEMAS 63

27. Evalúense las siguientes integrales


1 ∞1 ∞
2 2
a) xα y β e−(x +y ) dx dy, Re(α), Re(β) > −1;
0 0
1 1 $ %n−1
1
xn dx 1
1
b) √ ; c) ln dy ;
0 1 − x2 0 y
1 ∞ 1 ∞
y n−1
d) xy−1 e−x (ln x)n dx ; e) dy ;
0 0 (1 + y)n+m
1 ∞ 1 ∞
tp−1
f) (cosh ϕ)α (senh ϕ)β dϕ; g) dt ;
0 0 1+t
1 ∞ 1
cosh 2αϕ π/2

h) dϕ; i) cos ϕ ln(sen ϕ) dϕ;
0 (cosh ϕ)β 0
1 1 √
1
1 π/2
j) √ dx; k) tan θ dθ ;
0 1 − x4 0
1 ∞ 1
−x4
π/2
(sen x)8/3
l) e dx; m) √ dx ;
0 0 cos x
1 ∞
4
n) 4x4 e−x dx.
0

28. Pruébese que


&∞ &∞
(−x)n Γ(a)
γ(a, x) = xa = e−x xa+n .
n=0
n!(a + n) n=0
Γ(a + n + 1)

29. El potencial electrostático generado por un electrón perteneciente a la capa


1s de un átomo de hidrógeno viene dado por la expresión:
/ 0
q 1 1
V (r) = γ(3, 2r/a0 ) + Γ(2, 2r/a0 ) ,
4π00 2r a0
siendo a0 el radio de Bohr35 . Pruébese que para r << a0
/ 0
q 2r2
V (r) = 1 − 2 + ··· ,
4π00 a0 3a0
y que para r >> a0
q 1
V (r) = .
4π00 r
35
Niels Henrik David Bohr (1885–1962), fı́sico teórico danés, sin duda uno de los más
destacados del siglo XX; obtuvo el premio Nobel de Fı́sica en 1922 por sus investigaciones
sobre la estructura atómica.
64 CAPÍTULO 1. LA FUNCIÓN GAMMA

30. Pruébese que la integral exponencial se puede escribir como


1 ∞ &∞
e−t (−1)n xn
dt = −γ − ln x − .
x t n=1
n · n!

31. Al estudiar el comportamiento de una antena lineal aparece la siguiente


integral 1 x
1 − cos t
dt .
0 t
Demuéstrese que es igual a γ + ln x − Ci(x).

32. Pruébese que

1 ' πz ( & ∞
ζ(2n) 2n
log = z , |z| < 1.
2 sen πz n=1
2n

33. Obténgase la forma de Euler de la función ζ(z) de Riemann como un pro-


ducto infinito.

34. Verifı́quense los valores de la función zeta de Riemann que a continuación


se indican:

π2 π4 π6 π8 π 10
ζ(2) = , ζ(4) = , ζ(6) = , ζ(8) = , ζ(10) = .
6 90 945 9450 93555

35. La ley de Planck36 de radiación de un cuerpo negro implica que la energı́a


total emitida viene dada por la siguiente expresión:
1 ∞
8πk 4 T 4 x3
u= dx .
c3 h3 0 ex − 1

Obténgase el valor numérico de la integral. El resultado final es la ley de


Stefan37 -Boltzmann. Generalı́cese este resultado y obtengase el valor de la
siguiente integral:
1 ∞
xs
dx , Re(s) > 0.
0 ex − 1
36
Max Karl Ernst Ludwig Planck (1858–1947), fı́sico teórico alemán que introdujo la
noción de quanto de energı́a. Recibió el premio Nobel de Fı́sica en 1918.
37
Josef Stefan (1835–93), fı́sico matemático austrı́aco. Probó empı́ricamente en 1879
que la radiación total emitida por un cuerpo negro es proporcional a la cuarta potencia
de la temperatura absoluta. Su estudiante L.E. Boltzmann demostró en 1884 que esta
ley se puede deducir matemáticamente a partir de primeros principios.
1.8. PROBLEMAS 65

36. Calcúlese la dependencia con respecto a la temperatura (T ) de la densidad


de energı́a de los neutrinos en los primeros momentos de la historia del
universo, evaluando para ello
1
4π ∞ x3
ρν = 3 x/(kT )+1
dx .
h 0 e

37. Demuéstrese que 1 ∞


xb ex
dx = b! ζ(b) .
0 (ex − 1)2
Suponiendo que b es real, pruébese que los dos miembros de la igualdad
divergen cuando b = 1. Por tanto, la igualdad precedente está sujeta a la
condición b > 1. Integrales de este tipo aparecen en la teorı́a cuántica de
efectos de transporte (para calcular las conductividades térmica y eléctrica).
38. En la aproximación de Bloch38 -Grüneissen, la resistencia de un metal mono-
valente es 1
T 5 Θ/T x5
ρ=C 6 dx,
Θ 0 (ex − 1)(1 − e−x )
siendo Θ la temperatura de Debye39 , una caracterı́stica del metal. Pruébese
que si
C T T5
T → ∞, ρ ≈ , y que si T → 0, ρ ≈ 5! ζ(5) C .
4 Θ2 Θ6
39. Considérese la elipse (x/a)2 + (y/b)2 = 1, que puede expresarse en forma
paramétrica como x = a sen θ, y = b cos θ. Pruébese que la longitud de arco
dentro del primer cuadrante es aE(m), con 0 ≤ m = (a2 − b2 )/a2 < 1.
40. Dedúzcase la expresión del desarrollo en serie de E(m). Pruébese que
K(m) − E(m) π
lim = .
m→0 m 4
41. Desarróllese la función Γ(z)−1 en serie de potencias en z hasta el tercer
orden. Utilı́cese este resultado para hallar una estimación del mı́nimo de la
función Γ(x) en el eje real positivo.
42. Calcúlese el valor numérico del resultado de la integral i) en el ejercicio 27.
Se dan los siguientes datos:
Γ(1, 250) ≈ 0, 90604, ψ(1, 250) ≈ −0, 22745, ψ(1, 500) ≈ 0, 03649.
38
Felix Bloch (1905–), fı́sico estadounidense de origen suizo, que inventó la espec-
trometrı́a de resonancia magnética nuclear (RMN), lo que le sirvió para conseguir el
Nobel de Fı́sica en 1952.
39
Peter Joseph William Debye (1884–1966), fı́sico quı́mico estadounidense de origen
holandés, Nobel de Quı́mica en 1936.
66 CAPÍTULO 1. LA FUNCIÓN GAMMA

43. Demuéstrese que



& ∞
1&
(−1)n [ζ(n) − 1] = [ζ(n) − 1] .
n=2
2 n=2

44. Pruébese que


π
B(p, p) B(p + 1/2, p + 1/2) = .
24p−1 p
45. Demuéstrese que
1 π
dθ Γ( 1 )2
√ = √4 .
0 3 − cos θ 4 π
Puede utilizarse un cambio de variable del tipo cos θ = 1 − 2 tan(φ/2).
46. Evalúense las siguientes integrales definidas
1 1 1 1
dx
a) x
; b) xm (ln x)n dx .
0 x 0

47. La curva que en polares tiene por ecuación rm = 2m−1 am cos mθ está for-
mada por m lazos cerrados iguales. Pruébese que la longitud de la mitad
de uno cualquiera de esos lazos es
1
a π/2 ' cos x ( m1 −1
dx.
m 0 2
Hállese la longitud total de la curva.
48. Pruébese que la función definida como
∞ ;'
2 # z (n −z+z2 /(2n) <
g(z + 1) = (2π)z/2 e−z(z+1)/2−γz /2
1+ e
n=1
n

satisface
(n!)n
g(1) = 1, g(z + 1) = Γ(z)g(z), g(n + 1) = .
11 · 22 · 33 · · · nn
49. Pruébese que
8
# 'r( $ %3
640 π
Γ = 6 √ .
r=1
3 3 3

50. Pruébese que


&∞
τ (n)
(ζ(x))2 = ,
n=1
nx
donde τ (n) es el número de divisores positivos de n (incluyendo a 1 y a n).
1.8. PROBLEMAS 67

51. Dadas las funciones


2x/2 2x/2
U (x) = , V (x) = ,
Γ(1 − x2 ) Γ( 12 − x2 )

y la función F (x) definida mediante


$ %
√ dU dV
F (x) = π V −U ,
dx dx
pruébese que F (x) satisface la ecuación
1
F (x + 1) = x F (x) + ,
Γ(1 − x)
y que, para todos los valores enteros positivos de x, F (x) = Γ(x).
52. Evalúese en términos de la función ψ la suma de los inversos de los primeros
k números naturales.
53. Compruébense los siguientes resultados:
1 1 1 1
a) + + + + · · · = ln 4;
1·1 2·3 3·5 4·7
1 1 1 1 1
b) + + + + ··· = ;
1·3 3·5 5·7 7·9 2
1 1 1 1 π2 − 8
c) + 2 2 + 2 2 + 2 2 + ··· = .
1 ·3
2 2 3 ·5 5 ·7 7 ·9 16
54. Demuéstrese que
∞ $
# %
z2 πz
1− = cos .
n=0
(2n + 1)2 2
Utilı́cese este resultado para mostrar que
∞ $
# %
1 π
1− = .
n=1
(2n + 1) 2 4

55. Verifı́quese el siguiente resultado:


#∞ $ ' x (4 % sen πx senh πx
1− = .
n=1
n (πx)2

56. Hállese la suma de las siguientes series numéricas:



& ∞
&
a) [ζ(2n) − 1]; b) [ζ(2n + 1) − 1] .
n=1 n=1
68 CAPÍTULO 1. LA FUNCIÓN GAMMA

57. Hágase lo mismo con las siguientes series de funciones:



&
a) xn ζ(n), |x| < 1;
n=2
&∞ $ %
1 x+n+1
b) − ln ;
n=1
n x+n
&∞ $ %
1 x+n+1
c) − ln .
n=0
x+n x+n

58. Hállese la curva plana que en cada punto tiene curvatura proporcional a la
longitud del arco recorrido desde el origen de coordenadas. Supóngase que
en el origen el vector tangente a la curva es (1, 0).
1 ∞
q
59. Calcúlese, para todo valor real de q, la integral e−x dx.
0

60. Determı́nese el valor de la integral


1 1/2
2
A= e−x dx.
−1/2

Hállese el valor de 1 ∞
2 sen x
B= e−x dx.
0 x
¿Cuál es el valor del cociente A/B?
61. Calcúlese el valor de la integral
1 ∞
n
I(a, n) = xa e−x dx; a, n > 0.
0

¿Cuál es el valor de las integrales que resultan en los casos particulares



a = 1/4, n = 1/2 y a = 4, n = 2? Dése el resultado en términos de π.
62. La integral
1 1
dx
[ln(1 − x)]2
0 x
aparece en las correcciones de cuarto orden del momento magnético del
electrón. Calcúlese su valor en términos de la funcion ζ(s) de Riemann.
63. Hállese el valor del producto infinito
∞ $
# %
n2
1− .
n=0
n +9
2
1.9. BIBLIOGRAFÍA 69

64. Dado un conjunto de N partı́culas que obedecen la distribución de Maxwell-


Boltzmann, el número de partı́culas que tienen una velocidad comprendida
entre v y v + dv es
' m (3/2 $ %
−mv 2
dN = 4πN v exp
2
dv,
2πkT 2kT

siendo m, K, T constantes fı́sicas conocidas. Calcúlese el valor esperado de


v n , es decir 1
1 ∞ n
.v / =
n
v dN.
N 0
Aplicando
6 este resultado evalúese la desviación estándar de la velocidad:
∆v = .v 2 / − .v/2 .
65. Demuéstrese que 1 ∞ √ 1/4
2
e−t cosh t dt = πe .
0
Para ello, desarróllese en serie el coseno hiperbólico alrededor del origen.
66. Calcúlese 1 2π
(tan x)1/2 dx.
0

67. Evalúese
∞ $
# %$ %
1 1
1− 1+ .
n=2
n n

1.9 Bibliografı́a
1. Abramowitz, M., and Stegun, I.A., Handbook of Mathematical functions,
Dover, 1972.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Ayant, Y. et Borg, M., Fonctions Speciales à l’usage des étudiants en phy-
sique, Dunod, 1971.
4. Erdélyi, A., Magnus, W., Oberhettinger, F., and Tricomi, F.G., Higher
Transcendental Functions, Vols. I-III, MacGraw-Hill, 1953.
5. Erdélyi, A., Asymptotic expansions, Dover, 1956.
6. Kline, M., Mathematical Thought from Ancient to Modern Times, Oxford
Univ. Press, 1972.
7. Markushevich, A.I., Theory of Functions of a Complex Variable, Chelsea,
1977.
70 CAPÍTULO 1. LA FUNCIÓN GAMMA

8. Marsden, J.E. and Hoffmann, M.J., Basic Complex Analysis, Freeman,


1987.
9. Singh, S., El enigma de Fermat, Planeta, 1998.
10. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
Capı́tulo 2

TEORÍA ELEMENTAL DE
DISTRIBUCIONES

2.1 Introducción

A partir de mediados del siglo XX, la teorı́a de distribuciones se ha con-


vertido en una herramienta de uso obligado tanto en fı́sica teórica como
en teorı́a de la señal. Aunque la motivación inicial para la introducción de
este nuevo concepto matemático se encuentra en el estudio de las ecuaciones
diferenciales en derivadas parciales, esta teorı́a ha tenido una gran influen-
cia en todo el desarrollo moderno del análisis matemático. Esto no debe
hacer olvidar que, antes de su formalización rigurosa por los matemáticos,
ya se usaba en el ámbito de la fı́sica la distribución más común: la delta de
Dirac1 .
Dada la gran utilidad de las distribuciones en campos muy diversos de la
fı́sica, tanto teórica como aplicada, se presenta en este capı́tulo una somera
introducción que hará uso de un mı́nimo de conceptos de esa rama de
las matemáticas que se denomina análisis funcional. El enfoque no puede
ser completamente autocontenido desde el punto de vista matemático, y
habrá que admitir algunos resultados sin que podamos demostrarlos. Nos
1
Paul Adrien Maurice Dirac (1902–1984), fı́sico inglés, Premio Nobel de Fı́sica en 1933
por su predicción de la existencia del positrón. Introdujo este nuevo objeto matemático
sin preocuparse demasiado de su significado preciso en su libro Principios de Mecánica
Cuántica. Fue uno de los creadores de la mecánica cuántica y uno de los arquitectos de
la teorı́a cuántica de campos y de la electrodinámica cuántica.

71
72 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

centraremos después en el estudio más detallado de la delta de Dirac. Pos-


teriormente en el Capı́tulo 12 se efectúa un análisis más profundo y riguroso
de las distribuciones más interesantes en las aplicaciones, las llamadas dis-
tribuciones temperadas.

2.2 Espacios de funciones de prueba

Antes de definir lo que se entiende por distribución, conviene definir un par


de espacios de funciones de prueba que van a ser relevantes para nuestros
intereses futuros: el de las funciones de soporte compacto y el espacio
de Schwartz2 . Por sencillez, vamos a considerar funciones de una única
variable real, pero las ideas que se van a introducir pueden extenderse sin
dificultad a funciones definidas sobre un espacio Rn arbitrario3 .

Definición 1: sea Ω un abierto de R no vacı́o. Llamaremos C k (Ω) al


espacio vectorial de las funciones definidas en Ω y con valores complejos
tales que admiten derivada k-ésima continua. Si esto sucede para todo
k ∈ N, diremos que la función pertenece a C ∞ (Ω). Llamaremos soporte de
una función definida sobre Ω a la adherencia del subconjunto de Ω para el
que la función no se anula.

Definición 2: llamaremos D(Ω) al subespacio vectorial de C ∞ (Ω) for-


mado por aquellas funciones que son además de soporte compacto en Ω.
El espacio D(Ω) que acabamos de definir es un espacio de “funciones de
prueba”, básico en la teorı́a de distribuciones. Obsérvese que todas estas
funciones de prueba son idénticamente nulas fuera de una región finita,
y son además indefinidamente derivables. Un ejemplo de una función no
trivial perteneciente al espacio D ≡ D(R) es el siguiente:

 0, |x| ≥ 1,
f (x) = ' ( (2.2.1)
 exp 1
, |x| < 1.
x2 −1

2
Laurent Schwartz (1915–), matemático francés que creó la teorı́a de las distribuciones
a finales de la década de 1940, poniendo ası́ sobre una base firme los cálculos formales
que hasta entonces se realizaban. Recibió la Medalla Fields (el equivalente del premio
Nobel en Matemáticas) en 1950.
3
Para más información al respecto puede consultarse el Apéndice D del libro de
Galindo y Pascual citado en la bibliografı́a.
2.2. ESPACIOS DE FUNCIONES DE PRUEBA 73

Su gráfica aparece en la Figura 2.1. Puede comprobarse que en x = ±1


esta función es indefinidamente derivable, con derivadas nulas.

0.5

0.4

0.3

0.2

0.1

-2 -1 1 2

Figura 2.1: Ejemplo de función indefinida-


mente derivable y de soporte compacto.

Por desgracia, y como tendremos ocasión de ver más adelante, este


espacio de funciones D no es estable bajo transformación de Fourier, dicho
de otro modo, al aplicar la transformación de Fourier4 a una función de
D podemos obtener una función que ya no pertenece a D. En la práctica
este hecho es poco conveniente, y por ello se utiliza con más frecuencia otro
espacio de funciones de prueba que sı́ es estable bajo transformación de
Fourier: el espacio de Schwartz.
Definición 3: denotaremos por S ≡ S(R) el espacio de Schwartz de las fun-
ciones “indefinidamente derivables y de decrecimiento rápido”, queriendo
indicar ası́ que este espacio está formado por las funciones de clase C ∞ (R)
tales que tanto ellas como sus derivadas de cualquier orden tienden a cero
en el infinito (±∞) más deprisa que el inverso de cualquier polinomio. En
lenguaje simbólico: ϕ ∈ S si y sólo si ϕ ∈ C ∞ (R) y

dp ϕ(x)
|x|m (2.2.2)
dxp
es una función acotada en R, y ésto ∀ m, p ∈ N. Obsérvese que D(R) ⊂ S(R)
2 2
y que, por ejemplo, la función e−x ∈ S, pero sin embargo e−x ∈ / D.
4
Jean Baptiste Joseph Fourier (1768–1830), matemático francés y destacado consejero
de Napoleón.
74 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

Definición 4: en el espacio S de las funciones de prueba infinitamente


derivables y de decrecimiento rápido se introduce la siguiente noción de
convergencia: la sucesión {ϕn } converge a ϕ en S si ∀ m, p ∈ N
@ $ %@
@ m dp ϕn dp ϕ @ n→∞
@|x| − p @ −→ 0 uniformemente. (2.2.3)
@ dxp dx @

Observaciones:
i) Se puede demostrar que el espacio D es denso en S.
ii) También se puede demostrar que S es estable bajo la transformación
de Fourier.
Un estudio más exhaustivo del espacio de Schwartz se realizará en el Capı́-
tulo 12.

2.3 Distribuciones o funciones generalizadas

Estamos ahora en condiciones de definir las distribuciones sobre un espacio


de funciones de prueba (D o S).

Definición 5: una distribución es una aplicación lineal y continua de un


espacio de funciones de prueba en C (este tipo de aplicaciones se denominan
también “funcionales lineales y continuos”).
Ası́ por ejemplo, tendremos, entre otras, las siguientes:

a) Distribuciones de Schwartz: T : D → C. Llamamos D! al espacio


vectorial de las distribuciones sobre D: T ∈ D! .

b) Distribuciones temperadas (o atemperadas): T : S → C. Llamamos


S ! al espacio vectorial de las distribuciones temperadas: T ∈ S ! .

En ambos casos la continuidad quiere decir que si {ϕn }→ϕ en D o S,


entonces {T (ϕn )}→T (ϕ). La linealidad significa que

T (αϕ1 + βϕ2 ) = αT (ϕ1 ) + βT (ϕ2 ), ∀ α, β ∈ C; ∀ ϕ1 , ϕ2 ∈ D o S. (2.3.1)

Por razones que se podrı́an ver más claras al estudiar la teorı́a de los
2.3. DISTRIBUCIONES O FUNCIONES GENERALIZADAS 75

espacios de Hilbert5 , introducimos ahora una notación nueva y equivalente


a la ya usada, y que es la usada tı́picamente para indicar los productos
escalares: T (ϕ) ≡ .T |ϕ/. La linealidad y la continuidad se escriben en esta
nueva notación ası́:

.T |αϕ1 + βϕ2 / = α.T |ϕ1 / + β.T |ϕ2 /; .T |ϕn /−→.T |ϕ/. (2.3.2)

2.3.1 Ejemplos de distribuciones

Veamos ahora unos ejemplos sencillos de distribuciones temperadas (que


son las que más nos interesan):

1. Toda función integrable en R es una distribución temperada. En


efecto, sea f (x) integrable en R (es decir, tal que la integral de |f (x)|
en R es finita), y sea ϕ(x) ∈ S. Definamos la “distribución asociada
a f (x)” como aquella distribución Tf que actúa sobre las funciones
del espacio de Schwartz del siguiente modo:
1 ∞
Tf (ϕ) ≡ .Tf |ϕ/ := f (x)ϕ(x) dx. (2.3.3)
−∞

La integral es finita por ser f integrable y estar ϕ acotada (este hecho


se deduce de su pertenencia a S). Claramente Tf es una aplicación
lineal de S en C. La continuidad de la aplicación Tf puede probarse
usando argumentos topológicos, lo cual se hará en el Capı́tulo 12.

2. Usando la misma definición (2.3.3), se puede comprobar que toda


función acotada es también una distribución temperada (estricta-
mente hablando dirı́amos que a toda función acotada se le puede
asociar una distribución temperada).
5
David Hilbert (1862–1943), matemático alemán, probablemente el más destacado
del siglo XX. Realizó importantes contribuciones en muchas ramas de las matemáticas,
como análisis funcional, teorı́a de invariantes, ecuaciones integrales, cálculo de variaciones
y fı́sica matemática. Es bastante conocido su discurso titulado Los Problemas de las
Matemáticas, pronunciado en el Segundo Congreso Internacional de Matemáticos en el
Parı́s de 1900, proponiendo 23 problemas fundamentales abiertos de cara al nuevo siglo
XX; la mayor parte de ellos fueron resueltos a lo largo del siglo XX, resultando en cada
caso un avance realmente relevante en matemáticas. De forma prácticamente simultánea
e independiente de A. Einstein, derivó las ecuaciones correctas del campo gravitatorio de
la relatividad general en 1915, usando una formulación basada en el cálculo variacional.
76 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

3. La delta de Dirac en x0 ∈ R, δx0 , es una distribución temperada que


se define como sigue:

δx0 (ϕ) ≡ .δx0 |ϕ/ := ϕ(x0 ), (2.3.4)

es decir, al actuar sobre una función ϕ(x) nos da un número que es


precisamente el valor de esta función en x0 .

4. Otra distribución temperada de interés es el “valor principal de Cau-


chy”, que suele denotarse como P( x1 ), definida
$ % 1
1 ϕ(x)
.P |ϕ/ := lim dx. (2.3.5)
x $→0 |x|≥$ x

Obsérvese que esta última definición coincide con lo que se denomina


el “valor principal de Cauchy” de la integral, cuando se estudia la
Variable Compleja.

Nota importante. De lo visto en los ejemplos anteriores se sigue un de-


talle interesante: en la práctica una distribución T se puede representar
como si fuera una función T (x), de manera que, simbólicamente, escribire-
mos
1 ∞
T (ϕ) ≡ .T |ϕ/ ≡ T (x)ϕ(x) dx, ϕ ∈ S, T ∈ S ! . (2.3.6)
−∞

Por ejemplo, la delta de Dirac δx0 se puede escribir alternativamente bajo


la forma δ(x − x0 ), como si fuera una función. Entonces la acción de la
misma en ϕ ∈ S se escribirı́a como
1 ∞
δx0 (ϕ) = δ(x − x0 ) ϕ(x) dx = ϕ(x0 ). (2.3.7)
−∞

2.4 Operaciones con distribuciones

Dadas dos distribuciones del mismo tipo (por ejemplo temperadas), se


puede definir su suma y también la distribución resultante de multiplicar
a una distribución por un escalar. Es más, se puede definir el producto de
una distribución por una función; pero lo que en general carece de sentido
es el producto de dos distribuciones cualesquiera.
2.5. DEFINICIÓN MATEMÁTICA DE LA DELTA DE DIRAC 77

Dada una sucesión de funciones {ϕn (x)}−→ϕ(x) en D o S, mediante la


definición (2.2.3), y usando argumentos de continuidad, se puede demostrar
que la sucesión
/ p 0
d ϕn (x) dp ϕ(x)
−→ , ∀ p ∈ N. (2.4.1)
dxp dxp
Esto permite definir la derivada p-ésima de una distribución T como aquella
distribución que actúa del siguiente modo:
$ p %
d T dp T p
pd ϕ
(ϕ) ≡ . |ϕ/ := .T |(−1) / (2.4.2)
dxp dxp dxp
La presencia del factor (−1)p , que en principio parece extraño, tiene su
razón de ser, ya que aparece de modo “natural” cuando se utiliza la notación
en términos de integrales y se “integra formalmente por partes” de forma
reiterada (teniendo en cuenta que ϕ ∈ S):
1 ∞ p 1 ∞
dp T d T (x) dp ϕ(x)
. p |ϕ/ = p
ϕ(x) dx = (−1)p
T (x) dx
dx −∞ dx −∞ dxp
dp ϕ
= (−1)p .T | /. (2.4.3)
dxp
De esto se deduce que toda distribución temperada es indefinidamente
derivable, en el sentido de las distribuciones.
Se define también la distribución trasladada por a ∈ R de una dis-
tribución T , denotándola como Ta : es aquella que actúa del siguiente modo
1 ∞
.Ta (x)|ϕ(x)/ := .T (x)|ϕ(x + a)/ = T (x)ϕ(x + a) dx
−∞
1 ∞
= T (x − a)ϕ(x) dx = .T (x − a)|ϕ(x)/. (2.4.4)
−∞

Este resultado nos permite usar cualquiera de las dos notaciones equiva-
lentes
Ta (x) = T (x − a).

2.5 Definición matemática de la delta de Dirac

La distribución delta de Dirac en x0 ya fue definida en (2.3.4). Usando


los resultados y la notación de la sección precedente, es fácil mostrar que
78 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

se puede considerar δx0 como la distribución trasladada de δ(x) ≡ δ0 (x),


definida ésta como aquella distribución que actúa ası́: .δ(x)|ϕ(x)/ = ϕ(0).
En efecto,
.δx0 (x)|ϕ(x)/ = ϕ(x0 ) = .δ(x)|ϕ(x + x0 )/ = .δ(x − x0 )|ϕ(x)/, (2.5.1)
de manera que en lo sucesivo usaremos siempre el sı́mbolo δ(x−x0 ). Pero es
más, usando la notación de las integrales, tenemos las siguientes relaciones:
1 ∞
.δ(x)|ϕ(x)/ ≡ δ(x)ϕ(x) dx = ϕ(0); (2.5.2)
−∞
1 ∞
.δ(x − x0 )|ϕ(x)/ ≡ δ(x − x0 )ϕ(x) dx = ϕ(x0 ). (2.5.3)
−∞

En particular, si tomamos ϕ(x) = 1 (que para ser estrictos hemos de decir


que es una función que no pertenece al espacio de Schwartz S), tenemos,
formalmente, el resultado siguiente
1 ∞ 1 ∞
δ(x − x0 ) dx = δ(x) dx = 1. (2.5.4)
−∞ −∞

La viabilidad de (2.5.4) no está clara ahora mismo, pues 1 ∈ / S. No obs-


tante puede darse una definición rigurosa de la integral en (2.5.4), que será
presentada en el Capı́tulo 12. Por ahora el sentido de estas “integrales”
(2.5.2)–(2.5.4) es puramente formal: representan la acción de la distribución
δ sobre funciones de S.
En una dimensión (que es el único caso que estamos considerando por
ahora) la función de Heaviside6 se define ası́:

 0, x < x0 ,

H(x − x0 ) = 2 , x = x0 , (2.5.5)
1


1, x > x0 .
6
Oliver Heaviside (1850–1925) fue un telegrafista inglés que quedó fascinado por el
Tratado sobre Electricidad y Magnetismo de Maxwell. Comenzó a desarrollar sus propias
ideas sobre el tema, y logró simplificar las ecuaciones que proponı́a Maxwell usando
un método de cálculo operacional que él mismo desarrolló (¡de hecho lo que hoy lla-
mamos ecuaciones de Maxwell son la versión simplificada propuesta por Heaviside!). Los
métodos de Heaviside causaron gran controversia entre sus contemporáneos y su validez
tardó algún tiempo en ser demostrada. Conviene indicar también que en 1902 predijo la
existencia de una capa conductora en la atmósfera que permitirı́a a las ondas de radio
propagarse siguiendo la curvatura de la tierra (la existencia de la mencionada capa, que
lleva su nombre, se demostró experimentalmente en 1923).
2.5. DEFINICIÓN MATEMÁTICA DE LA DELTA DE DIRAC 79

Obsérvese que se trata de una función discontinua7 , pero acotada, y por


tanto se le puede asociar una distribución usando la fórmula (2.3.3), según
vimos en el Ejemplo 2 de la Sección 2.3.1. En concreto, la acción de esta
distribución es:
1 ∞ 1 ∞
H(x − x0 ) : ϕ(x) → H(x − x0 )ϕ(x) dx = ϕ(x) dx. (2.5.6)
−∞ x0

Vamos a demostrar ahora que la distribución δ(x − x0 ) es la derivada


(en el sentido de las distribuciones) de H(x−x0 ). La derivada de la función
(o distribución) de Heaviside actúa del siguiente modo:
1 ∞
dH(x − x0 ) dϕ(x) dϕ(x)
: ϕ(x) → .H(x − x0 )| − /=− H(x − x0 ) dx
dx dx −∞ dx
1 ∞
dϕ(x)
=− dx = ϕ(x0 ) − ϕ(∞)
x0 dx
= .δ(x − x0 )|ϕ(x)/, (2.5.7)

ya que ϕ(∞) = 0 por ser ϕ(x) ∈ S. El resultado precedente nos permite


decir que, como distribuciones,

dH(x − x0 )
= δ(x − x0 ). (2.5.8)
dx
Este resultado es muy útil y permite derivar funciones que presenten dis-
continuidades de salto finito, cosa que hasta ahora no podı́amos hacer (en
los cursos de cálculo o de análisis matemático se nos decı́a que una función
no era derivable en los puntos de discontinuidad). La derivada de una
función que presente una discontinuidad de salto finito nos dará una δ en
la discontinidad, ¡una distribución!
Ejemplo: derivación de funciones con discontinuidades. Consideremos la
función f (x) definida por la gráfica que aparece en la Figura 2.2. Se trata
de una función definida a trozos que es igual a g(x) para x < 0 y vale h(x)
para x > 0. Observando que H(−x) = 1 − H(x), podemos escribir esta
7
El que en x0 la función valga 1/2 es una pura conveniencia y no es relevante para lo
que sigue; de hecho en algunos libros se prescinde del valor en este punto y en otros se le
asigna el valor 1; en cualquier caso, tendrı́amos dos funciones cuyos valores difieren sólo
en un punto, que es un conjunto de medida nula, y son por tanto equivalentes
80 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

función f (x) de forma elegante usando funciones de Heaviside:


) *
g(x), x < 0,
f (x) = = g(x)H(−x) + h(x)H(x). (2.5.9)
h(x), x > 0.

g(x) h(x)
4
3
2
1

-3 -2 -1 1 2 3
-1
-2
-3

Figura 2.2: Ejemplo de función con discon-


tinuidad finita en x = 0.

Derivando y teniendo en cuenta los resultados precedentes:


f ! (x) = g ! (x)H(−x) − g(x)H ! (−x) + h! (x)H(x) + h(x)H ! (x)
= g ! (x)H(−x) + h! (x)H(x) + [h(0) − g(0)]δ(x), (2.5.10)
o bien
)
g ! (x), x < 0,
f ! (x) = [h(0) − g(0)]δ(x) + (2.5.11)
h! (x), x > 0.
Hemos usado el hecho de que u(x)δ(x) ≡ u(0)δ(x), si la función u(x) está
bien definida en el cero. Como vemos, el resultado que se obtiene es la
derivada de f (x) como función, más un término que que es un múltiplo de
la δ centrada en 0, con un coeficiente que justamente es el tamaño del salto
en la discontinuidad.
Lo que acabamos de exponer es sólo válido cuando la discontinuidad en
la función f (x) es de salto finito, de manera que lo anterior no nos permite
hablar de derivabilidad en el sentido de las distribuciones cuando la función
posea otro tipo de discontinuidades más fuertes. También pueden ser irre-
levantes este tipo de consideraciones si, como sucede en ocasiones, estamos
interesados en trabajar únicamente con funciones y no con distribuciones.
2.6. INTERPRETACIÓN FÍSICA DE LA DELTA DE DIRAC 81

2.6 Interpretación fı́sica de la delta de Dirac

Hemos dado una definición de la distribución temperada llamada delta de


Dirac con un nivel de rigor suficiente para muchas aplicaciones fı́sicas, pero
es preciso conectar ahora con las aplicaciones, que son muchas y muy impor-
tantes, pues de otro modo seı́a un objeto de poca utilidad para el cientı́fico
teórico o aplicado. En la práctica, la δ aparece con frecuencia como el
“lı́mite” de una sucesión de funciones cuyo soporte se va “concentrando”
en un punto, punto en el que, en el lı́mite, se alcanza un valor infinito. De
forma más precisa consideremos las siguientes familias funciones:
√ 2 2
a) fn (x) = (n/ π) e−n x ; (2.6.1)
1 n
sen (nx) 1
b) fn (x) = = eixt dt; (2.6.2)
πx 2π −n

c) fn (x) = (n/2) e−n|x| ; (2.6.3)


n 1
d) fn (x) = ; (2.6.4)
π 1 + n2 x2
)
n, |x| ≤ 2n 1
;
e) fn (x) = (2.6.5)
0, |x| > 1
2n .

Para tener una imagen más precisa de estas sucesiones de funciones, se han
dibujado tres curvas correspondientes al caso a) en la Figura 2.3, y otras
tres correspondientes al caso b) en la Figura 2.4.

-2 -1 1 2

2
x2

Figura 2.3: fn (x) = n e−n / π, para n = 1, 3, 10.
82 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

En ambos diagramas se representan las funciones f1 (x), f3 (x) y f10 (x),


la primera con trazo más grueso, la segunda más fino y la tercera con una
lı́nea discontinua. Puede apreciarse como al aumentar el valor del ı́ndice
n, la función resultante está más concentrada en torno al origen, y en ese
punto toma valores cada vez más grandes.

-4 -2 2 4

Figura 2.4: Las funciones fn (x) = (sen nx)/(πx),


para n = 1, 3, 10.

Obsérvese que todas las funciones fn (x) anteriormente escritas se han


elegido de modo que
1 ∞
fn (x) dx = 1, ∀ n ∈ N. (2.6.6)
−∞

Además, se puede demostrar que tomando funciones ϕ(x) ∈ S, tenemos:


1 ∞
lim fn (x)ϕ(x) dx = ϕ(0), ∀ ϕ(x) ∈ S. (2.6.7)
n→∞ −∞

No obstante, hay que ser cautos, ya que, contra lo que ingenuamente se


pudiera pensar, no existe el lı́mite puntual lim fn (x), ya que en todos los
n→∞
casos anteriores se obtiene como lı́mite lo siguiente
)
0, si x != 0,
lim fn (x) = (2.6.8)
n→∞ ∞, si x = 0,

¡que no es una función ya que no esta bien definida!


2.7. PROPIEDADES FUNDAMENTALES DE LA δ DE DIRAC 83

Aunque no exista este lı́mite puntual, se puede probar que existe otro
que se denomina lı́mite débil, y que es precisamente el que aparece en la
ecuación (2.6.7):
1 ∞
lim fn (x)ϕ(x) dx = lim .fn |ϕ/ = ϕ(0) = .δ|ϕ/, ∀ ϕ(x) ∈ S.
n→∞ −∞ n→∞
(2.6.9)
Fı́sicamente a este lı́mite se le puede dar un sentido muy claro: pensemos
en los conceptos de masa puntual, carga puntual, fuerza que actúa sólo
en un instante de tiempo, etc. Todos ellos son idealizaciones que pueden
considerarse como casos lı́mite del tipo de los anteriores lı́mites débiles. Por
ejemplo, consideremos una densidad de masa 3("r ) que está concentrada en
una cierta región del espacio. La masa total asociada a esa densidad será
1
m= 3("r ) d"r. (2.6.10)
R3

La noción de masa puntual m surge al considerar el lı́mite en el que la den-


sidad 3("r ), que sigue generando toda la masa m mediante la expresión
(2.6.10), es no nula sólo en una región muy pequeña del espacio (tan
pequeña que, en el lı́mite, llega a ser un punto "r0 ). Entonces tendrı́amos
que 3("r ) = m δ("r − "r0 ). Estas ideas pueden expresarse de una manera
rigurosa dentro del contexto de la Teorı́a de la Medida.

2.7 Propiedades fundamentales de la δ de Dirac

Podemos enumerar ahora una serie de propiedades que se demuestran (al-


gunas de manera muy sencilla y otras con un poco más de trabajo) sin más
que operar formalmente en la expresión integral que define la acción de la
delta de Dirac (2.5.3):

1. δ(−x) = δ(x).
1
2. δ(ax) = δ(x), a ∈ R, a != 0.
|a|
3. Si g(x) es una función bien definida en el punto x = a, entonces
g(x) δ(x − a) = g(a) δ(x − a). En particular x δ(x) = 0, y por
tanto f (x) = k δ(x), con k una constante arbitraria, es solución de la
ecuación x f (x) = 0.
84 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

1 )
c ϕ(a), si a ∈ (b, c),
4. Si [b, c] ⊂ R, entonces δ(x − a)ϕ(x) dx =
b 0, si a ∈
/ [b, c].
Cuando a = b ó a = c esta integral no está bien definida (y puede
tomar cualquier valor, según la sucesión fn (x) → δ(x) que se elija; si
se toman todas las fn (x) pares, entonces se puede asignar a este caso
especial a = b ó a = c el valor ϕ(a)/2).
1 ∞
5. δ(x − y) δ(x − z) dx = δ(y − z).
−∞

6. Si g(x) es una función real que tiene ceros simples en un conjunto de


puntos {xk } (es decir, g(xk ) = 0, pero g ! (xk ) != 0, ∀ k), entonces
& 1
δ(g(x)) = δ(x − xk ). (2.7.1)
|g (xk )|
!
k

Si g(x) tiene ceros múltiples, el sı́mbolo δ(g(x)) carece de sentido


(esto puede verse fácilmente considerando, por ejemplo, la expresión
δ(x2 ), y viendo lo que ocurre con la sucesión fn (x2 ) en (2.6.3)).
7. De lo visto en (2.4.3) al definir la derivada de una distribución, tene-
mos lo siguiente:
1 ∞ 2
n
n d ϕ(x) 2
2
δ (x)ϕ(x) dx = (−1)
(n)
n 2
= (−1)n ϕ(n) (0). (2.7.2)
−∞ dx x=0
Además
δ (n) (−x) = (−1)n δ (n) (x),
xn δ (n) (x) = −n xn−1 δ (n−1) (x) = (−1)n n! δ(x).
La última expresión puede demostrarse por inducción, partiendo de
la derivada de la ecuación x δ(x) = 0.
8. Trabajando en Rn , ha de definirse el espacio S(Rn ), y la delta de
Dirac n-dimensional se define entonces actuando sobre funciones de
S(Rn ). En la práctica, y en coordenadas cartesianas, es el siguiente
producto de distribuciones unidimensionales:
δ("x − "a) = δ(x1 − a1 ) δ(x2 − a2 ) δ(x3 − a3 ) · · · δ(xn − an ), (2.7.3)
y verifica propiedades similares a la delta de Dirac unidimensional. No
obstante téngase en cuenta que expresiones como δ(x − x0 ) δ(x − x1 )
carecen de sentido.
2.8. PROBLEMAS 85

9. En el caso particular del espacio tridimensional, tenemos las siguientes


expresiones en coordenadas cartesianas y esféricas:

δ("r − "r0 ) = δ(x − x0 ) δ(y − y0 ) δ(z − z0 )


1
= δ(r − r0 ) δ(θ − θ0 ) δ(φ − φ0 )
r2 sen θ
1
= δ(r − r0 ) δ(cos θ − cos θ0 ) δ(φ − φ0 ). (2.7.4)
r2

10. Otra expresión útil, y que aparece en ciertos problemas fı́sicos, es el


valor del laplaciano de la función r−1 en el caso tridimensional:
$ % $ %
2 1 1
∇ ≡∆ = −4π δ("r ). (2.7.5)
r r

11. Tomando formalmente el lı́mite en (2.6.2) se llega a


1 ∞
1
δ(x) = eixt dt. (2.7.6)
2π −∞

Esta fórmula se justificará al estudiar la transformación de Fourier.

2.8 Problemas
1. Considérense las distribuciones asociadas a las siguientes funciones:
n 1
a) fn (x) = .
π 1 + n2 x2
n 2 2
b) fn (x) = √ e−n x .
π
1 sen2 (nx)
c) fn (x) = .
nπ x2
Demuéstrese que no existe lim fn (x) en el sentido normal de las funciones,
n→∞
pero que sus distribuciones asociadas convergen a δ(x). Verifı́quese que
1 x
lim fn (y) dy = H(x),
n→∞ −∞

donde H(x) es la función salto de Heaviside.


86 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

2. Pruébese que la función de Heaviside admite la siguiente representación


integral 1 +∞ iωt
1 e 1
H(t) = dω + .
2πi −∞ ω 2
Especifı́quese el tratamiento del camino de integración en el polo.
3. Considérense las siguientes sucesiones de funciones:
1 ∞
1 1 2
a) gn (x) = erfc(−nx) = √ e−u du.
2 π −nx
1 nx
1 1 1 sen u
b) gn (x) = + Si(nx) = du.
2 π π −∞ u
e −e−nx
c) gn (x) = e .
2
Pruébese que todas ellas convergen a la función de Heaviside H(x).
4. Teniendo en cuenta que se verifica la siguiente relación
|x| = x (2H(x) − 1),
hállense las siguientes derivadas:
d2 |x| d4 |x|3
a) ; b) .
dx2 dx4
5. Evalúese una expresión, válida en el intervalo [−π, π], para la derivada
d2 |sen x|
.
dx2
6. Verifı́quense las relaciones siguientes:
3 4 1
a) δ b(x − a) = δ(x − a); b != 0;
|b|
signo(a) %
b) δ % (ax) = δ (x);
a2
c) x δ % (x) = −δ(x);
1
d) δ(x2 − a2 ) = {δ(x − a) + δ(x + a)}; a > 0;
2a
& 1
e) δ(g(x)) = δ(x − xk ).
|g % (xk )|
k

En la última expresión, xk representa sólo los ceros simples de la función


g(x); si g(x) tiene ceros múltiples, el objeto δ(g(x)) no está bien definido,
carece de sentido.
2.8. PROBLEMAS 87

7. Demuéstrese la siguiente expresión


1 sen λx
lim = δ(x)
λ→∞ π x
y discútase su significado.
8. Considérese una cuerda perfectamente elástica sometida a una tensión cons-
tante T a lo largo del eje x, con sus extremos en los puntos fijos x = 0 y
x = L, y cuya posición de equilibrio es una recta. Sobre la cuerda actúa
además una fuerza de magnitud F (x) por unidad de longitud. Hállese el
perfil de la cuerda.
Nota: la ecuación que describe la separación de la cuerda del eje x en la
dirección z es
d2 z(x) F (x)
= = f (x).
dx2 T
Hállese z(x) resolviendo en primer lugar
d2 G(x, µ)
= δ(x − µ) , 0 ≤ µ ≤ L,
dx2
con las condiciones G(0, µ) = 0 y G(L, µ) = 0, y observando que
1 L
z(x) = f (µ)G(x, µ) dµ .
0

9. Evalúense las siguientes integrales:


1 ∞
1 + 2δ(x − 1)
a) dx;
−∞ 1 + x2
1 ∞
sen2 t
b) [δ(t + π) + 5δ(t − 4π)] dt;
−∞ 1 + 2t2
1 ∞
senh 3y
c) [δ(y + 4) + δ(y − 4)] dy;
−∞ 1 + y2
1 ∞
H(v − 1) [1 + δ(v + 1)]
d) dv.
−∞ 1 + v2

10. Encuéntrese la ecuación de movimiento de un oscilador armónico amor-


tiguado sometido a la acción de una fuerza externa impulsiva f (t) que puede
ser bien aproximada por Iδ(t − t0 ), I > 0.
11. Siendo ∇2 el laplaciano, compruébese que
$ % 6
1 1
δ("r ) = − ∇2 , r = x2 + y 2 + z 2 .
4π r
88 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

12. Calcúlese en R2 $ %
1
∇ 2
log .
r
13. Considérese una viga delgada con sus extremos apoyados en los puntos x = 0
y x = L, como se indica en el dibujo. Hállese el perfil cuando se coloca un
peso en su punto medio, lo cual quiere decir que q(x) = P δ(x − L/2).

NOTAS: la ecuación que rige el comportamiento de la viga es


d4 z(x) 1
4
= q(x) , E, I = ctes.
dx EI
Cuando los extremos de la viga bien están apoyados o bien están articulados,
ha de imponerse que el valor de z %% en esos puntos es 0.
14. Determı́nese la magnitud de la flexión o deformación que sufre una viga
delgada de peso despreciable, de longitud L, con un extremo fijo en x = 0,
cuando se ve sometida a una carga concentrada q(x) = P δ(x−µ), 0 < µ < L.

NOTA: en un extremo fijo se ha de cumplir que z % = 0; en un extremo libre,


se ha de imponer z %% = z %%% = 0.
15. Considérese un circuito eléctrico LRC alimentado por una fuerza electro-
motriz periódica 0(t), de perı́odo T , que es la onda cuadrada
)
00 , −T /4 ≤ t ≤ T /4;
0(t) =
0, T /4 ≤ t ≤ 3T /4.
Determı́nese la intensidad de corriente en el circuito una vez que se ha
alcanzado la situación estacionaria, formulando el problema en términos de
la δ de Dirac.
2.8. PROBLEMAS 89

16. En el plano (x, t) se define la función


H(t) x2
E(x, t) = √ e− 4t ,
2 πt
siendo H(t) la función de Heaviside. Calcúlese, en el sentido de las distribu-
ciones,
∂E ∂2E
− .
∂t ∂x2
17. Hállense las siguientes integrales múltiples
1 3 1 ∞ $ $ %%
1 1
a) dx dy δ(y − e1/x ) δ(sen x) ln 1+ .
1 0 y x
1 π 1 2
b) dx dy δ(x2 − y 2 ) δ(sen x) .
0 1
1 ∞ 1 ∞ $ $ %%
1 1
c) dx dy δ(y − e 1/x
) δ(sen x) ln 1+ .
1 0 y x
Préstese especial atención a los intervalos de integración que se indican.
18. Sea V (x) = V0 H(x) − gδ(x), g > 0, el potencial al que se encuentra
sometida una partı́cula de masa m cuya evolución se rige por la ecuación
de Schrödinger8 . Demuéstrese que, para que exista un estado ligado, debe
verificarse la desigualdad 6
g > ! V0 /2m.
19. Calcúlese el valor de las siguientes integrales:
1 4

a) δ(x − e) arcsen [ln x] dx.
−2

1 $ %
12

b) δ x+ cos x dx.
−9 2

20. Evalúense las expresiones


1 ∞ $ %

a) δ x+ sen x dx.
−9 2
1 ∞ $ %

b) δ x−i sen x dx.
−∞ 2
8
Erwin Rudolf Josef Alexander Schrödinger (1887–1961), fı́sico teórico austrı́aco, uno
de los fundadores de la teorı́a cuántica. Recibió el premio Nobel en 1933, compartido
con Dirac.
90 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

21. Calcúlese el valor de las siguientes integrales explicando someramente las


propiedades que se aplican:
1 9 √
a) δ(x − e2 ) arcsen [ln x] dx.
4

1 13
b) δ (x + 4π) cos x dx.
−12

22. Sea α(x) la distribución definida como



&
α(x) = δ(x − n),
n=−∞, n&=0

siendo δ(x) la delta de Dirac. Calcúlese, en términos de alguna función


conocida, la integral 1 ∞
dx
I= α(x) 2 .
−∞ x

23. Hállese la integral 1 ∞


2
e−x δ(sen x) dx.
−∞

¿Toma un valor finito o infinito?


24. Dada la distribución

&
α(x) = δ(x2 − 2n ),
n=0

hágase un dibujo esquemático de lo que representa (de hecho, puede conside-


rarse como un modelo de potencial unidimensional para un sólido cristalino)
y evalúese la integral 1 ∞
dx
I= α(x) .
0 x
25. Sea θ una distribución temperada tal que su transformada de Fourier es

&
F(θ) = cn δ(x − n).
n=−∞

Demuéstrese que la distribución θ es periódica y que los cn son sus coefi-


cientes de Fourier.
NOTA. Se dice que una distribución es periódica, de perı́odo T , si

.θ|f (x + T ) − f (x)/ = 0.
2.8. PROBLEMAS 91

26. Calcúlense las derivadas sucesivas de la distribución


 π π

 1 para (2k − 1) < x < (2k + 1) ,
2 2
Y (x) = π π

 −1 para (2k + 1) < x < (2k + 3) ,
2 2
donde k toma todos los posibles valores enteros pares.
27. Calcúlese, en el sentido de las distribuciones, las derivadas hasta el orden
cuarto de
a) µ1 (x) = |x| sen x.

b) µ2 (x) = |x| cos x.

28. Encuéntrese la solución de las siguientes ecuaciones diferenciales de primer


orden con las condiciones iniciales que se indican, dibujando el resultado:
a) y % − 2y = δ(x − 3), y(0) = 0.

b) y % + 2y = δ(x − 1), y(0) = 1.

c) y % − 3y = δ(x − 2), y(0) = −1.

d) y % + 4y = 3 δ(x − 1/2), y(0) = 2.

e) y % + y = x δ(x − 2), y(0) = 0.

f) y % + y = sen x δ(x − 2π), y(0) = 1.

29. Hállense todas las distribuciones λn (x) que verifican la ecuación


xn λn (x) = 1, n = 1, 2, 3. . . .
Demuéstrese que si λn (x) es una solución de la ecuación anterior para un
n fijado, entonces λ%n (x) es, salvo una constante, la solución de la ecuación
equivalente para n + 1.
30. En R3 se considera una función radial f (r) solución para r != 0 de la ecuación
∇2 f + a2 f = 0.
Determı́nese la ecuación diferencial que satisface g(r) = r f (r). Demuéstrese
que si
lim r f (r) = c,
r→0
entonces, en el sentido de las distribuciones,
∇2 f + a2 f = k c δ("r ),
siendo k != 0 una constante que se ha de hallar.
92 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

31. En Rn , calcúlese en el sentido de las distribuciones

(∇2 )k (r2k−n ln r)

cuando 2k − n es un número entero par y positivo.

2.9 Bibliografı́a
1. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
2. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
3. Cohen-Tannoudji, C., Diu, B. et Laloë, F., Mécanique Quantique, Hermann,
1973.
4. Dirac, P.A.M., Principios de Mecánica Cuántica, Ariel, 1968.
5. Galindo, A. y Pascual, P., Mecánica Cuántica, Alhambra, 1978.
6. Gasquet, C., et Witomski, P., Analyse de Fourier et applications, Masson,
1990.
7. Mathews, J. and Walker, R.L., Matemáticas para fı́sicos, Reverté , 1979.
8. Schwartz, L., Métodos matemáticos para las ciencias fı́sicas, Selecciones
Cientı́ficas, 1969.
9. Wunsch, A.D., Variable compleja con aplicaciones, Addison-Wesley Iberoa-
mericana, 1997.
Capı́tulo 3

SERIES DE FOURIER

3.1 Introducción

A partir de 1740, y en relación con el estudio tanto experimental como


teórico de la vibración de cuerdas musicales, diversos matemáticos de prime-
ra lı́nea entre los que podemos mencionar a Daniel Bernouilli1 , d’Alembert2 ,
Lagrange3 y Euler, entraron en acaloradas discusiones sobre la posibilidad

1
Daniel Bernouilli (1700–82), eminente cientı́fico miembro de una destacada familia
de matemáticos suizos. Entre sus muchos descubrimientos cabe indicar que fue él quien
introdujo la noción de modos normales de vibración de sistemas oscilatorios (campo
en el que colaboró activamente con Euler); también trabajó en hidrodinámica y sentó
las bases de la teorı́a cinética de los gases; impartió clases de fı́sica en Basilea, y de sus
experimentos intuyó lo que después se ha denominado ley de Coulomb de la electrostática;
realizó además destacadas contribuciones en magnetismo, naútica, teorı́a de las mareas,
astronomı́a, etc.
2
Jean Le Rond d’Alembert (1717–83), matemático y hombre de letras francés, que co-
laboró de forma activa en la elaboración de la famosa “Enciclopedia”, junto con Diderot.
Estableció la ciencia de la mecánica como una rama de las matemáticas (“mecánica
racional”), siendo un pionero en el estudio y la utilización de las ecuaciones en derivadas
parciales. Fue uno de los primeros en darse cuenta de la trascendencia del concepto de
función, y de la necesidad de definir adecuadamente la noción de lı́mite, introduciendo
la derivada como el lı́mite de un cociente de incrementos.
3
Joseph-Louis Lagrange (1736–1813), matemático francés (aunque nacido en Turı́n)
que realizó importantes contribuciones al cálculo variacional, a la teorı́a de las ecuaciones
diferenciales, a la astronomı́a y a la mecánica (su obra Mecánica Analı́tica resume todo
el trabajo efectuado en este campo desde Newton, destacando el uso que se hace de las
ecuaciones diferenciales). También trabajó en temas de matemática pura, como la teorı́a
de números, siendo un precursor de la teorı́a de grupos.

93
94 CAPÍTULO 3. SERIES DE FOURIER

de representar una función, más o menos arbitraria, de perı́odo 2π, como


la suma de una serie trigonométrica, que es una expresión del tipo

&
a0
+ (ak cos kx + bk sen kx) (3.1.1)
2
k=1
a0
= + a1 cos x + b1 sen x + a2 cos 2x + b2 sen 2x + · · · ,
2
o en forma compleja

&
ck eikx , (3.1.2)
k=−∞

siendo
ak − ibk ak + ibk
ck = , c−k = , b0 = 0; k = 0, 1, 2, . . . (3.1.3)
2 2
Los matemáticos del siglo XVIII también usaron de manera asidua este tipo
de series en sus estudios de problemas astronómicos. La utilidad de estas
series en astronomı́a es evidente por el hecho de que se trata de funciones
periódicas y los fenómenos astronómicos son esencialmente periódicos. Una
de las aplicaciones de las series trigonométricas en este campo está rela-
cionada con la necesidad de interpolar para conocer las posiciones de los
planetas entre ciertas posiciones conocidas por observación directa.
Estos debates generaron una de las crisis más profundas en el desarrollo
del análisis matemático4 . Para hacernos una idea, pensemos que en aquella
época la propia definición de “función” no estaba aún completamente es-
tablecida y matemáticos tan eminentes como Euler y d’Alembert discrepa-
ban bastante en este punto. Los resultados de esta polémica dieciochesca
no fueron definitivos. Como ya se ha mencionado, uno de los mayores
escollos guardaba relación con la posibilidad de representar una función
arbitraria mediante una serie trigonométrica. La resolución de este proble-
ma se debe a Fourier. En 1811, Joseph Fourier anunció su convicción de
que una representación del tipo indicado en (3.1.2) es posible. Su trabajo
“Théorie Analytique de la Chaleur” (1822) contiene muchos casos particu-
lares de tales representaciones trigonométricas, de las que se hace amplio
uso a lo largo de la obra. Debido a esto, el nombre de Fourier se asocia
usualmente al problema de hallar la representación trigonométrica de una
4
Para más información véase la obra de Kline citada en el Capı́tulo 1.
3.1. INTRODUCCIÓN 95

función, y más precisamente, al hecho de que dada una función f (x), a la


que se supone integrable en el intervalo (−π, π), se le asocie una serie de
Fourier , que es una serie trigonométrica en la que los coeficientes están
dados por las expresiones siguientes:
1
1 π
ak = f (x) cos kx dx; (3.1.4)
π −π
1
1 π
bk = f (x) sen kx dx; (3.1.5)
π −π
1 π
1
ck = f (x) e−ikx dx. (3.1.6)
2π −π

Fourier demostró que, en muchos casos, la serie de Fourier realmente con-


verge a la función.
Aunque ya en el perı́odo 1823-1827 Poisson5 y Cauchy enunciaron diver-
sos teoremas para asegurar la validez de desarrollos del tipo indicado para
ciertas clases de funciones, parece justo atribuir a Dirichlet6 el comienzo
del estudio riguroso de las series de Fourier en 1829. Estos dos temas han
tenido un gran desarrollo subsecuente, a pesar de alguna crisis no menos
seria que la anteriormente citada del siglo XVIII. Indiquemos, por ejemplo,
que los trabajos de Cantor7 en teorı́a de conjuntos tienen sus orı́genes en
el estudio de las series trigonométricas.
Los desarrollos rigurosos que que acabamos de mencionar mostraron de
manera clara que hay sutiles diferencias entre series trigonométricas que
convergen en todo punto y lo que se llaman series de Fourier de funciones
5
Siméon-Denis Poisson (1781–1840), destacado fı́sico matemático frances, que trabajó
en la teorı́a del calor, en la teorı́a del potencial, en teorı́a de probabilidades y fue uno de
los fundadores de la teorı́a de la elasticidad.
6
Johann Peter Gustav Lejeune Dirichlet (1805–59), sucesor de Gauss en la cátedra de
Göttingen. Es conocido sobre todo por sus trabajos sobre teorı́a del potencial (problema
de Dirichlet), por haber propuesto en 1837 la definición moderna de función y por haber
establecido de forma rigurosa las condiciones para la convergencia de las series de Fourier.
7
Georg Cantor (1845–1918), matemático ruso que pasó casi toda su vida en Alemania.
Tras algunos trabajos iniciales en teorı́a de números, comenzó a trabajar en análisis,
demostrando en 1870 la unicidad de la representación de una función mediante una
serie trigonométrica. Con posterioridad comenzó a desarrollar sus ideas sobre teorı́a de
conjuntos, que no tuvieron la aceptación que él esperaba, hasta que fueron reconocidas
en el Primer Congreso Internacional de Matemáticos en 1897. Por esas fechas Cantor
detectó las primeras paradojas en su teorı́a de conjuntos. Los últimos años de su vida se
vieron ensombrecidos por una enfermedad mental.
96 CAPÍTULO 3. SERIES DE FOURIER

integrables en (−π, π), incluso si no hay indicios claros para intuir estas
diferencias. Ası́ por ejemplo, la serie trigonométrica

& sen nx
, (3.1.7)
ln n
n=2

cuya representación gráfica aproximada (obtenida al sumar un número


finito de términos de la serie, en concreto 50) se ofrece en la Figura 3.1,
converge para todo valor de x, pero no es la serie de Fourier de ninguna
función integrable en (−π, π). La demostración de esta afirmación se pro-
pondrá como ejercicio una vez que se haya avanzado en el desarrollo de
la teorı́a de las series de Fourier. Finalmente indiquemos que el estudio
de las series trigonométricas y de las series de Fourier han seguido caminos
diferentes. Hemos de ser conscientes de que ambos tipos de series presentan
sus limitaciones, pero en el contexto de las aplicaciones fı́sicas, las series de
Fourier son la herramienta natural para representar funciones de manera
útil.

10

-6 -4 -2 2 4 6

-5

-10

Figura 3.1: Gráfica de los 50 primeros términos


de la serie trigonométrica (3.1.7).

3.2 Definiciones previas

Definición 1: sea f (x) una función de variable real. Diremos que el lı́mite
lateral por la derecha en x0 de f (x) es f (x0 +), y lo denotaremos

lim f (x + 0) ≡ f (x0 +) ≡ f (x0 + 0), 0 > 0, (3.2.1)


$→0
3.2. DEFINICIONES PREVIAS 97

si ∀0 > 0, ∃δ > 0 tal que si 0 < x − x0 < δ, entonces |f (x) − f (x0 +)| < 0.

f(xo -)

f(x o +)

xo

Figura 3.2: Función discontiua en x0 y lı́mites


laterales.

Análogamente se define el lı́mite lateral por la izquierda: diremos que


el lı́mite lateral por la izquierda en x0 de f (x) es f (x0 −), y lo denotaremos

lim f (x − 0) ≡ f (x0 −) ≡ f (x0 − 0), 0 > 0, (3.2.2)


$→0

si ∀0 > 0, ∃δ > 0 tal que si 0 < x0 − x < δ, entonces |f (x) − f (x0 −)| < 0. Si
la función es continua en x0 , entonces existen los lı́mites laterales y además
f (x0 +) = f (x0 −) = f (x0 ).
Definición 2: diremos que una función univaluada f (x) es continua a
trozos en el intervalo [a, b] si existe un número finito de puntos

a = x1 < x2 < · · · < xn = b

de modo que la función es continua en cada intervalo abierto (xi , xi+1 ) y


además existen los lı́mites laterales f (xi +) y f (xi+1 −).

f(x)

Figura 3.3: Ejemplo de función contı́nua a trozos.


98 CAPÍTULO 3. SERIES DE FOURIER

Nota: Obsérvese que si la función es continua a trozos en [a, b], entonces


necesariamente está acotada y es integrable en [a, b]. Es fácil mostrar que la
suma y el producto de funciones continuas a trozos es también una función
continua a trozos.

0.5

0.5 1 1.5 2

-0.5

-1

Figura 3.4: Ejemplo de función que no es contı́nua


a trozos (sen 20
x ).

Definición 3: las derivadas laterales de f (x) en x0 se definen como los


lı́mites siguientes:

a) Derivada por la derecha en x0 :

f (x0 + h) − f (x0 +)
f ! (x0 +) = lim , h > 0.
h→0 h

b) Derivada por la izquierda en x0 :

f (x0 −) − f (x0 − h)
f ! (x0 +) = lim , h > 0.
h→0 h

Está claro que si f (x) admite derivada en x0 , las derivadas laterales existen
y coinciden con f ! (x0 ). Pero la afirmación recı́proca no es cierta, como
demuestra el contraejemplo que se muestra en la Figura 3.5.
Observación: en el ejemplo que aparece representado en la Figura 3.5 se
verifica que f ! (0+) = 1 = f ! (0−), pero no existe8 f ! (0) ya que f (x) es
discontinua en x = 0.
8
No existe en el sentido de la teorı́a ordinaria de funciones, pero ya sabemos que sı́
existe en el sentido de las distribuciones.
3.2. DEFINICIONES PREVIAS 99

-2 -1 1 2

Figura 3.5: Ejemplo de función no derivable


en x = 0 que sı́ posee allı́ derivadas laterales.

Definición 4: diremos que f (x) es regular a trozos en [a, b] si tanto f (x)


como f ! (x) son continuas a trozos en [a, b].
Definición 5: una función es par si f (−x) = f (x), para todo x del dominio
de definición. La función se llamará impar si se tiene f (−x) = −f (x).
Las funciones pares tienen una gráfica simétrica respecto del eje de
ordenadas; las funciones impares tienen una gráfica simétrica respecto del
origen. Toda función puede ponerse como la suma de una función par y
otra impar:
1
f (x) = {[f (x) + f (−x)] + [f (x) − f (−x)]} ≡ fp (x) + fi (x). (3.2.3)
2
Las siguientes relaciones para las integrales de funciones pares e impares
en un intervalo simétrico se demuestran de manera trivial y son de gran
utilidad en la práctica.
Proposición 1: si fp (x) es una función par e integrable, entonces
1 a 1 a
fp (x) dx = 2 fp (x) dx, ∀ a ∈ R. (3.2.4)
−a 0

Si fi (x) es una función impar e integrable,


1 a
fi (x) dx = 0, ∀ a ∈ R. (3.2.5)
−a
100 CAPÍTULO 3. SERIES DE FOURIER

Definición 6: una función f (x) se dice que es periódica si existe un número


real positivo T tal que f (x + T ) = f (x), ∀ x ∈ R. El valor más pequeño
de T que cumple esta condición se llama perı́odo fundamental. Nótese que
si f (x) es periódica con perı́odo T , entonces nT , con n ∈ N, también es un
perı́odo de f (x).
Definición 7: diremos que una función f (x) es integrable en [a, b] si existe
la integral
1 b
|f (x)| dx < ∞. (3.2.6)
a

Se denota f (x) ∈ L1 ([a, b]).

Nota. Estamos suponiendo que el lector está familiarizado con el concepto


de integral de Riemann. Sabemos que f (x) es integrable Riemann en el
intervalo [a, b], con a y b finitos, si f (x) está acotada y es continua en casi
todo punto del intervalo (es decir, en todos los puntos excepto quizá en un
conjunto de medida nula. Ejemplos de conjuntos de medida nula son aque-
llos que contienen una colección finita o numerable de puntos). Si f (x) es
integrable, también lo es en módulo, pues la aplicación x → |x| es continua.
En realidad las funciones de L1 ([a, b]) son integrables en [a, b] en un sentido
un poco más general que el habitual de Riemann (llamado de Lebesgue),
pero toda función integrable Riemann en [a, b] está en L1 ([a, b]). Este con-
junto tiene unas pocas funciones que no son integrables en el sentido de
Riemann (pero éstas, en principio, presentan un interés fı́sico nulo) y las
siguientes propiedades:

1. L1 ([a, b]) es un espacio vectorial complejo, es decir, si f, g ∈ L1 ([a, b])


y α, β ∈ C, entonces αf (x) + βg(x) ∈ L1 ([a, b]).

2. f (x) ∈ L1 ([a, b]) si y sólo si |f (x)| ∈ L1 ([a, b]).

3. L1 ([a, b]) es un espacio normado y completo (se dice entonces que es


un espacio de Banach9 ) con la norma
1 b
||f ||L1 := |f (x)| dx.
a
9
Stefan Banach (1892–1945), matemático polaco fundador del moderno análisis
funcional, que efectuó relevantes contribuciones a la teorı́a de espacios vectoriales
topológicos, ası́ como a la teorı́a de la medida e integración. En su tesis doctoral de
1920 presentó la definición axiomática de los espacios que hoy llevan su nombre.
3.2. DEFINICIONES PREVIAS 101

4. C([a, b]), el espacio vectorial de las funciones continuas en [a, b], es


denso en L1 ([a, b]) con la topologı́a de L1 ([a, b]). Es, decir ∀0 > 0 y
∀f ∈ L1 ([a, b]), existe g ∈ C([a, b]) tal que ||f (x) − g(x)||L1 < 0.

5. Si a = −∞ y b = ∞, aún podemos definir el espacio L1 (R) (también


denotado como L(R) o L1 (−∞, ∞)). Estará formado por las fun-
ciones integrables de R a C (no valen integrales impropias o valores
princiales de Cauchy). El espacio L(R) tiene también las propiedades
1 a 3 anteriores.

No insistiremos aquı́ en que, para ser estrictos, las funciones que se usan
han de ser medibles en el sentido de Lebesgue, porque suponemos que este
concepto no es conocido por la mayor parte de los lectores, y porque las
funciones integrables Riemann lo son. En particular, toda función continua
a trozos (con saltos finitos) es medible en el sentido de Lebesgue.
Definición 8: la función f (x) se dice que es de cuadrado integrable en
[a, b] si existe la integral
1 b
|f (x)|2 dx, (3.2.7)
a

y se denota f (x) ∈ L2 ([a, b]).


Definiciones 9: consideremos una serie de funciones

&
fk (x) = f1 (x) + f2 (x) + · · · . (3.2.8)
k=1

a) Diremos que esta serie es convergente para un cierto valor x0 si existe


el lı́mite
n
&
lim fk (x0 ). (3.2.9)
n→∞
k=1

b) Diremos que la serie converge absolutamente en x0 si converge la serie


de los valores absolutos, es decir, si existe el lı́mite
n
&
lim |fk (x0 )|. (3.2.10)
n→∞
k=1

c) Diremos que la serie converge en [a, b] si converge ∀x ∈ [a, b] en el sentido


expresado en (3.2.9).
102 CAPÍTULO 3. SERIES DE FOURIER

d) Diremos que la serie converge uniformemente en [a, b] a una función s(x)


si ∀ 0 > 0, ∃ N tal que
2 2
2 &n 2
2 2
2s(x) − fk (x)2 < 0, ∀ n ≥ N, ∀ x ∈ [a, b]. (3.2.11)
2 2
k=1

Si una serie converge uniformemente en [a, b], entonces converge en [a, b],
pero el recı́proco no es cierto. Damos a continuación un criterio muy útil,
y a la vez sencillo, para verificar la convergencia uniforme de una serie de
funciones; es el llamado criterio M de Weierstrass:
Teorema 1: si la serie de números positivos M1 + M2 + M3 + · · · converge

&
y si además ∀ x ∈ [a, b], |fk (x)| ≤ Mk , entonces la serie fk (x) converge
k=1
absoluta y uniformemente en [a, b].
Demostración: como la serie numérica M1 + M2 + M3 + · · · converge, fijado " > 0, ∃ N
tal que si n > N , entonces MN +1 + MN +2 + · · · + Mn < ". Llamemos

sn (x) = f1 (x) + · · · + fn (x).

Tenemos lo siguiente

|sn (x) − sN (x)| = |sn (x) − sn−1 (x) + sn−1 (x) − sn−2 (x) + · · · + sN −1 (x) − sN (x)|
≤ |sn (x) − sn−1 (x)| + |sn−1 (x) − sn−2 (x)| + · · · + |sN −1 (x) − sN (x)|
= |fn (x)| + |fn−1 (x)| + · · · + |fN +1 (x)|
= ≤ Mn + Mn−1 + · · · + MN +1 < ", ∀ x ∈ [a, b].

Por tanto,
sup |sn (x) − sN (x)| < "
x∈[a,b]

y por el criterio de Cauchy, la sucesión sn (x) converge absoluta y uniformemente.

Recordaremos ahora dos teoremas de gran importancia.



&
Teorema 2: si los términos de la serie fn (x) son continuos en [a, b] y
n=1
en ese intervalo la serie es uniformemente convergente, entonces la suma de
la serie es continua y podemos integrar término a término:
1 b 9& ∞
: ∞ 1 b
&
fn (x) dx = fn (x) dx. (3.2.12)
a n=1 n=1 a
3.2. DEFINICIONES PREVIAS 103


&
Teorema 3: si la serie fn (x) converge, si las funciones fn! (x) existen
n=1

&
y si la serie fn! (x) converge uniformemente en [a, b], entonces podemos
n=1
derivar término a término:
9∞ : ∞
d & &
fn (x) = fn! (x). (3.2.13)
dx
n=1 n=1

Definición 10: sean f (x), g(x) y ω(x) tres funciones de [a, b] en R o en


C, siendo ω(x) ≥ 0. El producto escalar de f (x) con g(x), respecto de la
“función de peso” ω(x) es10
1 b
.f |g/ = f (x) g(x) ω(x) dx, (3.2.14)
a

siempre y cuando esta integral exista (para lo cual basta que f (x), g(x) y
ω(x) estén acotadas y sean continuas a trozos).
Definición 11: bajo las condiciones de la definición precedente, diremos
que f (x) y g(x) son ortogonales, respecto a la función de peso ω(x), si
.f |g/ = 0.
Definición 12: consideremos ahora {φn (x)} una sucesión (finita o infinita)
de funciones de [a, b] en R o en C. Diremos que esas funciones son orto-
gonales entre sı́, respecto de la función peso ω(x) ≥ 0, y que forman un
conjunto ortogonal en el intervalo [a, b] si

.φm |φn / = 0, ∀ m, n, m != n. (3.2.15)

Llamamos norma de la función φn (x) al número


8
6 1 b
||φn || = .φn |φn / = |φn (x)|2 ω(x) dx ≥ 0. (3.2.16)
a

Si se verifica que .φm |φn / = δm,n , siendo δm,n la delta de Kronecker11 ,


el sistema {φn (x)} se llama ortonormal . Nos interesa aquı́ un sistema
10
+f, g, ≡ +f |g,, siendo la última notación la habitual en Mecánica Cuántica.
11
Leopold Kronecker (1823–91), influyente matemático alemán.
104 CAPÍTULO 3. SERIES DE FOURIER

ortonormal muy concreto: el formado por las funciones


/ 0
1 cos x sen x cos 2x sen 2x
√ , √ , √ , √ , √ , ··· (3.2.17)
2π π π π π
consideradas en el intervalo [−π, π], o en [0, 2π], con función peso ω(x) = 1.
En efecto, es fácil verificar que estas funciones son ortonormales, pues para
m, n = 1, 2, . . . se verifica lo siguiente
1 π
cos mx cos nx dx = π δm,n ; (3.2.18)
−π
1 π
sen mx sen nx dx = π δm,n ; (3.2.19)
−π
1 π 1 π 1 π
sen mx cos nx dx = sen mx dx = cos mx dx = 0.(3.2.20)
−π −π −π

Para demostrar estas igualdades es útil recordar las siguientes relaciones


trigonométricas elementales:
cos(α − β) + cos(α + β)
cos α cos β = ; (3.2.21)
2
cos(α − β) − cos(α + β)
sen α sen β = ; (3.2.22)
2
sen (α − β) + sen (α + β)
sen α cos β = . (3.2.23)
2

3.3 Serie de Fourier asociada a una función

3.3.1 Obtención de la serie de Fourier mediante un proceso


de minimización

Dada una función f (x) integrable en el sentido de Riemann en [−π, π],


queremos ver si es posible representarla como una serie trigonométrica, es
decir, como una combinación lineal infinita de las funciones trigonométricas
(3.2.17), que hemos visto que forman un sistema ortonormal en [−π, π].
Teniendo esto en cuenta, escribiremos

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) , (3.3.1)
2
k=1
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 105

indicando con el sı́mbolo “∼” que a cada función f (x) le asociamos los
números {a0 , ak , bk }k∈N de una manera unı́voca que mostraremos a con-
tinuación. No usamos el signo “=” ya que, como veremos, la serie puede
converger o no a f (x). Respecto al término constante, por comodidad
resulta conveniente escribirlo como a0 /2.
Definamos la suma parcial n-ésima de la serie trigonométrica que tene-
mos en (3.3.1) como
n
a0 &
sn (x) = + (ak cos kx + bk sen kx) . (3.3.2)
2
k=1

Para determinar la forma de los coeficientes, impondremos una condición


bastante razonable: les exigiremos que sean tales que sn (x) sea la mejor
aproximación a f (x) en el sentido de los mı́nimos cuadrados. Dicho de otro
modo, los coeficientes han de ser tales que, para cada n fijo, minimicen el
valor de la integral
1 π
In (ak , bk ) = [f (x) − sn (x)]2 dx. (3.3.3)
−π

Obsérvese que esta integral In (ak , bk ) depende de un número finito de coe-


ficientes {a0 , ak , bk }nk=1 , que aún no se han determinado. Ası́ pues, tenemos
que resolver un problema de extremos. Para resolverlo fijamos el valor de n.
Recordemos que una condición necesaria para tener mı́nimo con respecto
a los parámetros {a0 , a1 , b1 , a2 , b2 , . . . , an , bn } es que las primeras derivadas
de In respecto de esos parámetros se anulen. Efectuando las derivadas
y teniendo en cuenta las relaciones de ortogonalidad entre las funciones
trigonométricas (3.2.18)–(3.2.20), tenemos:
1 π+ n
,
∂In a0 &
= − f (x) − − (ak cos kx + bk sen kx) dx
∂a0 −π 2
k=1
1 π
= − f (x) dx + πa0 ;
−π
1 + n
,
∂In π
a0 &
= −2 f (x) − − (ak cos kx + bk sen kx) cos lx dx
∂al −π 2
k=1
1 π
= −2 f (x) cos lx dx + 2πal ;
−π
106 CAPÍTULO 3. SERIES DE FOURIER

1 + n
,
∂In π
a0 &
= −2 f (x) − − (ak cos kx + bk sen kx) sen lx dx
∂bl −π 2
k=1
1 π
= −2 f (x) sen lx dx + 2πbl .
−π

Los valores de los coeficientes que anulan estas derivadas primeras son:
 1
 1 π


 ka = f (x) cos kx dx,
π −π
1 k = 0, 1, 2, . . . (3.3.4)


 1 π
 bk = f (x) sen kx dx,
π −π

Obsérvese que, por simetrı́a, se ha introducido un valor b0 = 0; además


podemos calcular mediante esta fórmula el coeficiente a0 que aparece como
a0 /2 en la serie (3.3.1). Fijémonos también que el resultado obtenido no
depende de n, luego seguirá siendo válido cuando n → ∞. Veamos final-
mente que estos valores proporcionan realmente un mı́nimo de In ; para ello,
analizamos la derivada segunda. Del resultado precedente, es inmediato que

∂ 2 In ∂ 2 In ∂ 2 In
= π, = = 2π, ∀ l ∈ N, (3.3.5)
∂a20 ∂a2l ∂b2l

y las demás derivadas de orden segundo o superior se anulan. Desarrollando


ahora en serie de Taylor las funciones In (ak , bk ) en torno a los valores que
hacen cero las derivadas primeras (3.3.4) tenemos:

In (ak + ∆ak , bk + ∆bk ) =


) n $ 2 2 %*
1 & ∂ 2 In 22 ∂ 2I 2
n 2 (∆bk )2
= In (ak , bk ) + (∆ak )2 +
2! ∂a2k 2min ∂b2l 2min
k=0
) n
*
(∆a0 )2 & 3 4
= In (ak , bk ) + π + (∆ak ) + (∆bk )
2 2
≥ In (ak , bk ).
2
k=1

Por tanto el valor mı́nimo se obtiene para los valores de ak y bk que tenemos
en las fórmulas (3.3.4), que se llaman coeficientes de Fourier de f (x). La
serie trigonométrica que se obtiene con ellos es la serie de Fourier de f (x).
Nota importante: el hecho de representar f (x) mediante una serie de
Fourier no implica que esta serie converja a f (x) en cada punto del intervalo
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 107

que se está considerando. Este problema de convergencia se estudiará más


adelante.

Ejemplo 1: consideremos la función f (x) = | sen x| que es periódica, con


perı́odo 2π. Usando las fórmulas obtenidas para los coeficientes de Fourier
(3.3.4), se puede comprobar que en este caso

4
bk = 0, a0 = , a1 = 0, 


π 
k = 2, 3, 4, . . . (3.3.6)
2(1 + (−1)k ) 

ak = , 

π(1 − k 2 )

Por tanto la serie de Fourier de esta función es



2 4 & cos 2kx
f (x) ∼ + . (3.3.7)
π π 1 − 4k 2
k=1

En la Figura 3.6 se representa la mencionada función | sen x| (en trazo


grueso), ası́ como la suma de los dos primeros términos de su serie de
Fourier (en lı́nea discontinua), y de la suma de los cinco primeros términos
(en trazo normal). Obsérvese que ya con cinco términos la aproximación
de la serie de Fourier a la función original es realmente muy buena.

0.5

-4 -2 2 4

Figura 3.6: Gráfica de | sen x| y de la suma de


varios términos de su serie de Fourier.
108 CAPÍTULO 3. SERIES DE FOURIER

3.3.2 Obtención alternativa de los coeficientes de Fourier

Los coeficientes de Fourier (3.3.4) se suelen deducir de otra manera. Supon-


gamos que f (x) tiene perı́odo 2π y que admite un desarrollo:

a0 &
f (x) = + (ak cos kx + bk sen kx) .
2
k=1

Si damos por válido que la serie puede integrarse término a término (ve-
remos con posterioridad cuáles son las condiciones suficientes para poder
hacer ésto), tenemos:
1 π & ∞ 1 π
a0
f (x) dx = 2π + (ak cos kx + bk sen kx) dx = a0 π. (3.3.8)
−π 2 −π
k=1

Hemos usado los resultados de (3.2.20). Por otro lado, multiplicando f (x)
por cos lx y por sen lx e integrando, se obtiene lo siguiente:
1 π 1
a0 π
f (x) cos lx dx = cos lx dx
−π 2 −π
&∞ 1 π
+ (ak cos kx + bk sen kx) cos lx dx = πal ;
k=1 −π

1 π 1 π
a0
f (x) sen lx dx = sen lx dx
−π 2 −π
∞ 1
& π
+ (ak cos kx + bk sen kx) sen lx dx = πbl .
k=1 −π

Se han tenido en cuenta las expresiones (3.2.18)–(3.2.20). Como vemos,


se obtienen las fórmulas para los coeficientes de Fourier ya halladas en
(3.3.4). Este puede ser un método fácil para deducir las fórmulas en caso
de no recordarlas con exactitud.

3.3.3 Coeficientes de Fourier para funciones pares e impares

Fijémonos que si fp (x) es una función par definida en el intervalo [−π, π], las
integrales que permiten calcular bk en (3.3.4) se anulan por tener integrando
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 109

antisimétrico, y la serie de Fourier será simplemente



a0 &
fp (x) ∼ + ak cos kx. (3.3.9)
2
k=1

Por otro lado, si fi (x) es una función impar definida en el mismo intervalo,
son todos los coeficientes ak los que se anulan, y su serie de Fourier será

&
fi (x) ∼ bk sen kx. (3.3.10)
k=1

Conviene tener en cuenta que para una función no periódica su serie de


Fourier (que es una expresión periódica) puede ser una buena representación
en el intervalo [−π, π], pero fuera de ese intervalo la función y la serie no
tendrán, en principio, nada que ver la una con la otra (para mayor claridad,
véase el Ejemplo 2 expuesto más adelante).
Otra forma diferente de analizar este mismo asunto es suponer que la
función de partida f (x) está sólamente definida en [−π, π] (o en (−π, π) si
ası́ nos conviene mejor, ya que no hay ninguna diferencia desde el punto de
vista de la integración), y que se extiende a toda la recta real R (salvo quizá
algunos puntos) por periodicidad. Desde este punto de vista, si partimos
de una función f (x) definida sólo en (0, π), podemos extenderla a todo R de
dos maneras diferentes, de forma par o impar del siguiente modo: definimos
las extensiones pares e impares en el intervalo (−π, π) como
)
f (x), 0 < x < π,
fp (x) :=
f (−x), −π < x < 0,
)
f (x), 0 < x < π,
fi (x) :=
−f (−x), −π < x < 0,
y en el resto de R por periodicidad: fµ (x+2nπ) = fµ (x), µ = p, i; x ∈ [a, b].

Ejemplo 2: la función f (x) = x2 no es periódica, de manera que si eva-


luamos su serie de Fourier en [−π, π], la expresión que resulta sólo describe
adecuadamente a la función en ese intervalo; fuera de él representa una
función diferente: la extensión periódica de f (x) = x2 . En la Figura 3.7
aparecen dibujadas la función f (x) = x2 y su extensión periódica fuera de
[−π, π].
110 CAPÍTULO 3. SERIES DE FOURIER

15

10

!3 " !2 " !" " 2" 3"

Figura 3.7: La función x2 en trazo continuo y su serie


de Fourier en trazo discontinuo.

Efectuando los cálculos pertinentes, la serie de Fourier es en este caso


& (−1)k
π2
x =
2
+4 cos kx, x ∈ [−π, π]. (3.3.11)
3 k2
k=1

En la Figura 3.8 aparecen representadas tres curvas correspondientes a


diversas sumas finitas de esta serie de Fourier (3.3.11). Se puede observar
que al ir tomando más términos las sumas parciales se van aproximando
cada vez mejor bien al valor exacto de la función (ya para 30 términos la
aproximación es realmente muy satisfactoria).

6
3 sumandos

4 6 sumandos

30 sumandos
2

-4 -2 2 4

Figura 3.8: Tres sumas parciales de la serie de


Fourier de x2 .
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 111

3.3.4 Coeficientes de Fourier en forma compleja

En ocasiones interesa obtener la representación de una función en serie de


Fourier compleja del tipo (3.1.2); para determinarla basta usar la serie de
Fourier real ya vista y hacer en ella las substituciones:
eikx − e−ikx eikx + e−ikx
sen kx = , cos kx = . (3.3.12)
2i 2
Efectuando los cálculos, se obtiene como resultado lo siguiente:

a0 &
f (x) ∼ + (ak cos kx + bk sen kx)
2
k=1
∞ $ ! " ! "%
a0 & ikx ak − ibk ak + ibk
= + e + e−ikx
2 2 2
k=1
∞ '
& (
= c0 + ck eikx + c−k e−ikx ,
k=1

siendo
1
a0 1 π
c0 := = f (x) dx,
2 2π −π
1
ak − ibk 1 π
ck := = f (x) e−ikx dx,
2 2π −π
1
ak + ibk 1 π
c−k := = f (x) eikx dx, k = 1, 2, . . .
2 2π −π

En forma abreviada,

& 1
1 π
f (x) ∼ ck eikx
; ck = f (x) e−ikx dx, k ∈ Z. (3.3.13)
2π −π
k=−∞

3.3.5 Coeficientes de Fourier para un intervalo genérico [a, b]

Hasta ahora hemos considerado, de forma aritraria, funciones definidas en


el intervalo [−π, π] (o en (−π, π)). Ahora bien, en las aplicaciones puede
ocurrir (y de hecho es lo que normalmente sucede) que tengamos que consi-
derar un intervalo genérico de la recta real [a, b]. Afortunadamente podemos
112 CAPÍTULO 3. SERIES DE FOURIER

reducir este nuevo problema al ya estudiado sin más que realizar un sencillo
cambio de variable lineal. En efecto, si hacemos
b+a b−a
x= + t, (3.3.14)
2 2π
el intervalo a ≤ x ≤ b se transforma en −π ≤ t ≤ π y la función f (x) se
transforma en $ %
b+a b−a
f (x) = f + t := F (t), (3.3.15)
2 2π
que se define ∀ t ∈ R al extenderla fuera de [−π, π] por periodicidad. Ahora
se calcula la serie de Fourier de F (t):

a0 &
F (t) ∼ + (ak cos kt + bk sen kt)
2
k=1
con 1
1 π
ak = F (t) cos kt dt;
π −π
1 π
1
bk = F (t) sen kt dt.
π −π
El último paso de este proceso consiste en deshacer el cambio de variable,
pasando de t a x, lo que nos proporciona el desarrollo de la función f (x)
en el intervalo [a, b]:
∞ / ! " ! "0
a0 & kπ(2x − b − a) kπ(2x − b − a)
f (x) ∼ + ak cos + bk sen ,
2 b−a b−a
k=1
(3.3.16)
donde
1 b $ % 
2 kπ(2x − b − a) 
ak = f (x) cos dx,  

b−a a b−a 
$ % k = 0, 1, 2, . . .
1 b 

2 kπ(2x − b − a) 
bk = f (x) sen dx, 
b−a a b−a
(3.3.17)
Es frecuente que el intervalo sea simétrico, de la forma [−', '], en cuyo caso
el resultado precedente adopta la forma siguiente:
∞ / $ % $ %0
a0 & kπx kπx
f (x) ∼ + ak cos + bk sen , (3.3.18)
2 ' '
k=1
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 113

con
1 %
$ 
1 "
kπx 
ak = f (x) cos dx, 


' −" '
1 $ % k = 0, 1, 2, . . . (3.3.19)
1 " kπx 

bk = f (x) sen dx, 

' −" '

3.4 Convergencia de las series de Fourier

Analizaremos a continuación la parte técnicamente más complicada de este


capı́tulo: la referida a determinar la convergencia de la serie de Fourier
asociada a una función. Estudiaremos tres tipos diferentes de convergencia
de las series de Fourier: convergencia en media, convergencia puntual y
convergencia uniforme.

3.4.1 Convergencia en media

Sea f (x) una función real continua a trozos en [−π, π] y que se extiende a
todo R por periodicidad. Consideremos la suma parcial n-ésima de la serie
de Fourier asociada (3.3.2)
n
a0 &
sn (x) = + (ak cos kx + bk sen kx) , (3.4.1)
2
k=1

donde {ak , bk } son los coeficientes de Fourier de f (x).

Definición 13: diremos que la serie de Fourier de f (x) converge en media


a f (x) si
1 π
lim [f (x) − sn (x)]2 dx = 0. (3.4.2)
n→∞ −π

Es inmediato ver que


1 π
0 ≤ [f (x) − sn (x)]2 dx
−π
1 π 1 π 1 π
= f (x) dx − 2
2
f (x)sn (x) dx + s2n (x) dx. (3.4.3)
−π −π −π
114 CAPÍTULO 3. SERIES DE FOURIER

Pero usando (3.4.1) y la definición de los coeficientes de Fourier (3.3.4),


tenemos lo siguiente
1 π 1
a0 π
f (x)sn (x) dx = f (x) dx +
−π 2 −π
&n / 1 π 1 π 0
+ ak f (x) cos kx dx + bk f (x) sen kx dx
k=1 −π −π

& n
a20 π
= +π (a2k + b2k ).
2
k=1

Por otro lado,


1 1 ) n
*2
π π
a0 &
s2n (x) dx = + (ak cos kx dx + bk sen kx) dx
−π −π 2
k=1
' a (2 n
&
0
= 2π +π (a2k + b2k ).
2
k=1

Por tanto, teniendo en cuenta estos dos resultados previos, la desigualdad


(3.4.3) se puede reescribir en la forma
n 1
a20 & 2 1 π
+ (ak + b2k ) ≤ f 2 (x) dx, ∀ n ∈ N. (3.4.4)
2 π −π
k=1

Ası́ pues, como la sucesión que aparece en el término de la izquierda está


acotada, en el lı́mite n → ∞ tendremos
∞ 1
a20 & 2 1 π
+ (ak + b2k ) ≤ f 2 (x) dx, (3.4.5)
2 π −π
k=1

expresión que se conoce con el nombre de desigualdad de Bessel 12 , y que


nos permite enunciar el siguiente resultado.
Teorema 4: para toda función f (x) ∈ L2 ([−π, π]) la suma de los cuadrados
de sus coeficientes de Fourier es una serie convergente.
12
Friedrich Wilhelm Bessel (1784–1846), astrónomo alemán. Realizó el primer estudio
sistemático de las funciones que llevan su nombre (que serán estudiadas en un capı́tulo
posterior) cuando realizaba un estudio sobre el movimiento de los planetas.
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 115

Demostración: es inmediata de la desigualdad de Bessel.


Corolario: lim |ak | = lim |bk | = 0.
k→∞ k→∞

De la demostración de la desigualdad de Bessel se sigue que si la serie


de Fourier converge en media a f (x), entonces en lugar de una desigualdad
en (3.4.3) tenemos una igualdad estricta, la relación de Parseval 13 :
∞ 1
a20 & 2 1 π
+ (ak + b2k ) = f 2 (x) dx, (3.4.6)
2 π −π
k=1

Teorema 5: la serie de Fourier de una función f (x) ∈ L2 ([−π, π]) converge


en media, y por tanto verifica la relación de Parseval.
No daremos aquı́ la demostración, pero conviene indicar que se trata de
un resultado importante ya que hay funciones cuyas series de Fourier no
convergen en el sentido ordinario (punto a punto) pero lo hacen en media.
La demostración de este teorema enlaza con la teorı́a de espacios de Hilbert
y se reduce a demostrar que el conjunto ortonormal dado en (3.2.17)
/ 0
1 cos x sen x cos 2x sen 2x
√ , √ , √ , √ , √ , ··· .
2π π π π π

es completo.

3.4.2 Convergencia puntual

Supongamos que f (x) es una función continua a trozos y de perı́odo 2π,


cuya serie de Fourier es

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) .
2
k=1

Consideremos las sumas parciales n-ésimas de la serie; usando la definición


de los coeficientes de Fourier (3.3.4) podemos deducir lo siguiente:
n
a0 &
sn (x) = + (ak cos kx + bk sen kx)
2
k=1
13
Marc-Antoine Parseval des Chênes (1755–1836), matemático francés.
116 CAPÍTULO 3. SERIES DE FOURIER

1 n 1
1 π
1& π
= f (y) dy + f (y) [cos ky cos kx + sen ky sen kx] dy
2π −π π
k=1 −π
1 + n
,
1 π 1 &
= f (y) + cos[k(y − x)] dy. (3.4.7)
π −π 2
k=1
A continuación usamos la identidad trigonométrica (3.2.23). Tomando allı́
α = a/2 y β = ka, tenemos:
a
2 sen cos ka = sen [(k + 12 )a] − sen [(k − 12 )a] .
2
Por tanto
+ n
, n
a 1 & a & a
2 sen + cos ka = sen + 2 sen cos ka
2 2 2 2
k=1 k=1
n
&
a
= sen + 2 { sen [(k + 12 )a] − sen [(k − 12 )a]}
2
k=1

a 3a a (2n + 1)a (2n − 1)a


= sen + sen − sen + · · · + sen − sen
2 2 2 2 2
(2n + 1)a
= sen .
2
Ası́ pues,
! "
(2n + 1)
n sen (y − x)
1 & 2
+ cos[k(y − x)] = $ % , (3.4.8)
2 y−x
k=1 2 sen
2
que es una función de perı́odo 2π, llamada núcleo de Dirichlet. Obsérvese
además que haciendo y − x = s e integrando se llega a
1 E F 1 ) n
*
1 π sen (n + 12 )s 1 π 1 &
ds = + cos ks ds = 1. (3.4.9)
π −π 2 sen 2s π −π 2
k=1
Volviendo a la forma (3.4.7) de sn (x) y usando (3.4.8):
1 E F
1 π sen (n + 12 ) (y − x)
sn (x) = f (y) dy
π −π 2 sen y−x
2
1 E F
1 π−x sen (n + 12 )s
= f (s + x) ds. (3.4.10)
π −π−x 2 sen 2s
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 117

De la primera igualdad, y debido a la periodicidad del núcleo de Dirich-


let, se deduce que sn (x + 2π) = sn (x). Por hipótesis, f (x) tiene también
perı́odo 2π, al igual que el núcleo de Dirichlet. Por tanto el integrando del
último término de (3.4.10) es también periódico, y entonces el intervalo de
integración puede ser desplazado de [−π − x, π − x] a [−π, π], es decir:
1 E F
1 π sen (n + 12 )s
sn (x) = f (s + x) ds, (3.4.11)
π −π 2 sen 2s
que es la llamada fórmula de Dirichlet para la suma parcial sn (x). Esta
expresión nos va a permitir establecer condiciones bajo las cuales se puede
garantizar la convergencia puntual de la serie de Fourier.
Para demostrar el teorema de la convergencia puntual necesitamos un
resultado que enunciaremos a continuación sin demostrarlo:
Lema de Riemann-Lebesgue: si g(x) es una función continua a trozos
en el intervalo [a, b], entonces
1 b
lim g(x) sen λx dx = 0. (3.4.12)
λ→∞ a

Se puede demostrar el mismo resultado suponiendo que g(x) ∈ L1 ([a, b]), o


también que g(x) ∈ L2 ([a, b]).
Teorema 6: si f (x) es una función de R a C regular a trozos14 en [−π, π]
y de perı́odo 2π, entonces, ∀ x ∈ R la serie de Fourier de f (x) converge a

a0 & 1
+ (ak cos kx + bk sen kx) = [f (x+) + f (x−)]. (3.4.13)
2 2
k=1

Por tanto, en todos aquellos puntos x0 donde la función f (x) es continua,


la serie de Fourier converge al valor f (x0 ); no ocurre lo mismo en los puntos
de discontinuidad: allı́ la serie de Fourier no converge al valor de la función
sino a la semisuma de los lı́mites laterales.
Demostración: retomamos la fórmula de Dirichlet para sn (x) (3.4.11):
1 E F
1 π
sen (n + 12 )s
sn (x) = f (s + x) ds
π −π 2 sen 2s
1 E F 1 E F
1 0
sen (n + 12 )s 1 π
sen (n + 12 )s
= f (s + x) ds + f (s + x) ds
π −π 2 sen 2s π 0 2 sen 2s
= I1 (x, n) + I2 (x, n).
14
Recuérdese que esta regularidad implica que la derivada existe y es continua a trozos.
118 CAPÍTULO 3. SERIES DE FOURIER

Pero
1 E F
1 0
sen (n + 12 )s
I1 (x, n) = [f (x−) − f (x−) + f (s + x)] ds
π −π 2 sen 2s
1 E F 1 ! "
f (x−) 0
sen (n + 12 )s 1 0
f (s + x) − f (x−) 1
= ds + sen (n + )s ds
π −π 2 sen 2s π −π 2 sen 2s 2
1 E 1
F 1 ! " ! "
π 0
f (x−) sen (n + 2
)s 1 f (s + x) − f (x−) 1
= ds + sen (n + )s ds.
2π −π 2 sen 2s π −π 2 sen 2s 2
Ya hemos visto en (3.4.9) que la primera integral vale π. Por otro lado, la función
! "
f (s + x) − f (x−)
2 sen 2s
es continua a trozos. En efecto, el único problema podrı́a estar en s = 0, pero
! " ! "
f (s + x) − f (x−) f (x + s) − f (x−) s/2
lim = lim = f $ (x−), (3.4.14)
s→0− 2 sen 2s s→0− s sen 2s
que existe pues hemos supuesto que f (x) es regular a trozos. Por tanto, podemos aplicar
el lema de Riemann-Lebesgue a I1 (x, n):
1 0 ! " ! "
f (x−) 1 f (s + x) − f (x−) 1 f (x−)
lim I1 (x, n) = + lim sen (n + )s ds = .
n→∞ 2 π n→∞ −π 2 sen 2s 2 2
(3.4.15)
Análogamente se demuestra que
f (x+)
lim I2 (x, n) = , (3.4.16)
n→∞ 2
con lo cual el lim sn (x) nos da efectivamente el importante resultado que ya enunciamos
n→∞
en el teorema:

a0 & 1
+ (ak cos kx + bk sen kx) = [f (x+) + f (x−)].
2 2
k=1

3.4.3 Convergencia uniforme

En la Definición 9 d) de la segunda sección de este capı́tulo hemos explicado


lo que se entiende por convergencia uniforme de una serie de funciones en
un cierto intervalo [a, b]. En este apartado se ofrecen dos resultados que nos
dan información más precisa sobre la convergencia uniforme de las series
de Fourier. El primero es el siguiente:
Teorema 7: sea f (x) una función continua de R a C de perı́odo 2π y sea
f ! (x) continua a trozos en [−π, π]. La serie de Fourier de f (x) converge
absoluta y uniformemente a f (x).
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 119

El mismo resultado es válido si f (x) sólo está definida en el intervalo [−π, π)


y f (−π) = f (π), ya que esto permite extender la función de forma periódica
y continua a todo R.
Demostración: haremos uso del criterio M de Weierstrass que ya estudiamos como
teorema 1 de este tema. Tenemos que analizar la convergencia uniforme de la serie

a0 &
+ (ak cos kx + bk sen kx) .
2
k=1

El criterio M de Weierstrass nos dice que esta serie converge absoluta y uniformemente
en [−π, π] (y por tanto también puntualmente) si podemos encontrar unas constantes
positivas Mk , k = 1, 2, . . . tales que
|ak cos kx + bk sen kx| ≤ Mk , ∀ x ∈ [−π, π],
siendo, además, M1 + M2 + M3 + · · · una serie convergente. Veamos que, en efecto,
podemos construir esta serie numérica convergente. En primer lugar, consideremos las
series de Fourier de f (x) y f $ (x):

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) , (3.4.17)
2
k=1

ã0 & ' (



f $ (x) ∼ + ãk cos kx + b̃k sen kx . (3.4.18)
2
k=1

Los coeficientes de cada serie se calculan usando las bien conocidas fórmulas (3.3.4). En
particular,
1 π
1 1 1
ã0 = f $ (x) dx = [f (x)]π−π = [f (π) − f (−π)] = 0,
π −π π π
ya que f (x) es continua en [−π, π] y periódica. Los otros coeficientes se calculan análo-
gamente, integrando por partes:
1 π / 1 π 0
1 1
ãk = f $ (x) cos kx dx = [f (x) cos kx]π−π + k f (x) sen kx dx
π −π π −π

1
= [f (π) cos kπ − f (−π) cos kπ + kπbk ] = k bk ;
π
1 π / 1 π 0
1 1
b̃k = f $ (x) sen kx dx = [f (x) sen kx]π−π − k f (x) cos kx dx = −k ak .
π −π π −π

Ası́ pues, podemos acotar de manera trivial utilizando estos resultados y obtenemos:
|ãk | |b̃k |
|ak cos kx + bk sen kx| ≤| ak | + |bk | = + := Mk .
k k
Falta probar que la suma de estas constantes Mk , que acabamos de definir, converge.
Pero eso se sigue con facilidad de lo siguiente:
$ %2
1 1 2|ãk |
0≤ |ãk | − = |ãk |2 + − ,
k k2 k
120 CAPÍTULO 3. SERIES DE FOURIER

de modo que
|ãk | 1 1 1 1 1 1
≤ |ãk |2 + = (ãk )2 + .
k 2 2 k2 2 2 k2
Lo mismo es válido con b̃k en lugar de ãk , de modo que
1 1 1 1 1 1
Mk ≤ (ãk )2 + + (b̃k )2 + ,
2 2 k2 2 2 k2
pero entonces

& ∞ ∞
1 & & 1
Mk ≤ [(ãk )2 + (b̃k )2 ] + < ∞,
2 k2
k=1 k=1 k=1

pues la segunda de las series suma ζ(2) = π 2 /6 y la primera es convergente en virtud


de la desigualdad de Bessel (3.4.5). Observemos que se verifica la desigualdad de Bessel
porque al ser f $ (x) continua a trozos en [−π, π], también lo es (f $ (x))2 , y en consecuencia
f $ (x) ∈ L2 ([−π, π]), con lo que se le puede aplicar el resultado del teorema 4. Con esto
queda demostrado el teorema.

Se pueden demostrar teoremas similares al que acabamos de probar,


imponiendo menos exigencias sobre la función f (x); por ejemplo, se puede
prescindir de la continuidad:
Teorema 8: sea f (x) una función regular a trozos en [−π, π] y de perı́odo
2π. Su serie de Fourier converge uniformemente a f (x) en cualquier inter-
valo cerrado que no contenga ningún punto de discontinuidad.
Estrechamente relacionada con la convergencia uniforme de las series de
Fourier se encuentra una curiosa propiedad que pasamos a comentar para
concluir esta sección.

3.4.4 Fenómeno de Gibbs

Se denomina ası́ al hecho de que las sumas parciales de una serie de Fourier
no puedan aproximarse uniformemente a f (x) en intervalos en los que la
función presente discontinuidades. El primero en demostrar la existencia
de este tipo de fenómenos fue un matemático irlandés poco conocido de
nombre Wilbraham, en 1848, aunque su trabajo pasó completamente de-
sapercibido. Fue el fı́sico estadounidense Michelson15 quien, de forma ca-
sual, redescubrió este hecho en 1898. Michelson habı́a diseñado un aparato,
15
Albert Abraham Michelson (1852–1931), premio Nobel de Fı́sica en 1907, bien cono-
cido por la realización del famoso experimento de Michelson-Morley para determinar la
existencia del éter. Edward Williams Morley (1838-1923) fue un destacado quı́mico y
fı́sico estadounidense.
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 121

llamado “analizador armónico”, que era capaz de obtener gáficamente, y de


modo automático, los 80 primeros coeficientes de la serie de Fourier de una
función dada. Al tratar de recomponer con ellos la gráfica de una función
sencilla, tipo escalón de Heaviside, observó una separación extraña en las
cercanı́as del punto en el que se produce el salto (véase por ejemplo la Figura
3.9 que aparece un poco más adelante). Sorprendentemente esta pequeña
separación no desaparecı́a al tomar más términos en la aproximación. En
principio, atribuyó este problema a un fallo en el mecanismo del aparato,
y le comentó el suceso a Gibbs16 , quien investigó el fenómeno y le dio una
explicación, aunque sin dar realmente una demostración, en un artı́culo
publicado en la revista Nature en 1899. Sus comentarios apuntaban a la
falta de convergencia uniforme de la serie de Fourier en las proximidades
del punto de discontinuidad como responsable del fenómeno observado por
Michelson. Posteriormente se pudo probar rigurosamente que en las cer-
canı́as de un punto de discontinuidad a de una función f (x), la serie de
Fourier sobreestima el valor de esta función en el punto a en una cantidad
que es del orden de
1
D ∞
sen x D
dx = −0.2811 ,
π π x π

siendo D = f (a+) − f (a−) la magnitud del salto de la función en la dis-


continuidad a.

0.5

-4 -2 2 4

-0.5

Figura 3.9: El fenómeno de Gibbs aparece en


torno a los puntos de discontinuidad.
16
Josiah Willard Gibbs (1839–1903), eminente fı́sico matemático estadounidense.
122 CAPÍTULO 3. SERIES DE FOURIER

Ejemplo 3: consideremos la función periódica que vale 1 entre 0 y π, y −1


entre −π y 0 (y que se extiende fuera del intervalo periódicamente). Usando
(3.3.4) se puede determinar la serie de Fourier asociada a esta función, que
resulta ser:

4 & sen (2k − 1)x
f (x) ∼ . (3.4.19)
π 2k − 1
k=1
En la Figura 3.9 hemos representado la suma de veinte términos de esta
serie de Fourier, y se puede apreciar que en las proximidades de los puntos
de discontinuidad de la función original (los múltiplos de π) las sumas
parciales de la serie de Fourier (3.4.19) no se van haciendo arbitrariamente
pequeñas: estamos frente al fenómeno de Gibbs. Para profundizar un poco
más en los detalles, en el problema 29 propuesto al final de este capı́tulo se
pide realizar un estudio cuantitativo de este ejemplo.

3.5 Derivación e integración de series de Fourier

En contra de lo que ingenuamente se pudiera pensar, la derivación término


a término de una serie de Fourier no es admisible de modo general. Un
resultado que da información en esta dirección es el siguiente:
Teorema 9: sea f (x) una función continua en el intervalo [−π, π] que veri-
fica f (−π) = f (π) y sea f ! (x) una función regular a trozos en ese intervalo.
La serie de Fourier de f ! (x) puede obtenerse derivando término a término
la serie de Fourier de f (x). La serie ası́ obtenida converge puntualmente a
f ! (x).
Demostración: está implı́cita en la del teorema 7. En efecto, allı́ probamos que si

a0 &
f (x) ∼ + (ak cos kx + bk sen kx)
2
k=1

entonces
ã0 & ' (
∞ ∞
&
f $ (x) ∼ + ãk cos kx + b̃k sen kx = (−kak sen kx + kbk cos kx) ,
2
k=1 k=1

que es precisamente el resultado que se obtiene al derivar término a término la serie de


Fourier de f (x).

Nótese que la convergencia puntual de la nueva serie es la siguiente:



& 1
k (−ak sen kx + bk cos kx) = [f ! (x+) + f ! (x−)], (3.5.1)
2
k=1
3.5. DERIVACIÓN E INTEGRACIÓN DE SERIES DE FOURIER 123

pudiendo ser x un punto de discontinuidad de f ! (x) (es aquı́ donde se precisa


la regularidad a trozos de f ! (x)).
La integración término a término de una serie de Fourier es posible en
condiciones mucho menos restrictivas que la derivación término a término.
A diferencia de la integración de series de funciones genéricas, en este caso
no se exige la convergencia uniforme.
Teorema 10: sea ϕ(x) una función continua a trozos en [−π, π] y de
perı́odo 2π. La serie de Fourier de ϕ(x)

A0 &
ϕ(x) ∼ + (Ak cos kx + Bk sen kx) ,
2
k=1

sea o no convergente, puede integrarse término a término entre dos lı́mites


cualesquiera.
Demostración: queremos probar que
1 q 1 q & ∞ 1 q
A0
ϕ(x) dx = dx + (Ak cos kx + Bk sen kx) dx
p p 2 p
k=1

& 1 ∞
A0
= (q − p) + [Ak ( sen kq − sen kp) − Bk (cos kq − cos kp)] .
2 k
k=1

Para obtener este resultado, definamos la función


1 x ! "
A0
F (x) = ϕ(t) − dt, (3.5.2)
0 2
que es continua, por ser ϕ(x) continua a trozos. Además su derivada
A0
F $ (x) = ϕ(x) − , (3.5.3)
2
es continua a trozos. Pero, más aún, por ser ϕ(x) de perı́odo 2π
1 x ! " 1 x+2π ! "
A0 A0
F (x + 2π) = ϕ(t) − dt + ϕ(t) − dt
0 2 x 2
1 π ! " 1 π
A0
= F (x) + ϕ(t) − dt = F (x) + ϕ(t) dt − πA0 = F (x),
−π 2 −π

es decir, F (x) tiene también perı́odo 2π. Por tanto, como F (x) es continua, de perı́odo
2π y con derivada continua a trozos, según el teorema 7, admite una serie de Fourier que
converge absoluta y uniformemente:

α0 &
F (x) = + (αk cos kx + βk sen kx) .
2
k=1
124 CAPÍTULO 3. SERIES DE FOURIER

Estableciendo un paralelismo entre la notación allı́ usada y la que hemos adoptado ahora,
hemos de efectuar los cambios siguientes:

Teorema 7 → Teorema 10
f (x) → F (x)
ak → αk
bk → βk
A0
f $ (x) → ϕ(x) −
2
ãk = kbk → Ak = kβk
b̃k = −kak → Bk = −kαk

Por tanto

α0 & 1
F (x) = + (−Bk cos kx + Ak sen kx) .
2 k
k=1

Por otro lado, de la definición (3.5.2):


1 x
A0
F (x) = − x+ ϕ(t) dt. (3.5.4)
2 0

Ası́ pues,
1 ∞
x
A0 α0 & 1
ϕ(t) dt = x+ + (−Bk cos kx + Ak sen kx) , (3.5.5)
0 2 2 k
k=1

y finalmente, como 1 1 1
q q p
ϕ(t) dt = ϕ(t) dt − ϕ(t) dt,
p 0 0

y tras reordenar las series (cosa que se puede hacer porque hay convergencia absoluta),
se obtiene
1 q & 1 ∞
A0
ϕ(t) dt = (q − p) + [Ak ( sen kq − sen kp) − Bk (cos kq − cos kp)] ,
p 2 k
k=1

que es lo que se querı́a demostrar.

3.6 Series de Fourier de funciones de varias varia-


bles

En caso de tener que efectuar el análisis armónico de una función de varias


variables, la teorı́a es completamente análoga a la presentada para las fun-
ciones de una variable real. Indicamos los resultados para funciones de
dos variables, por su utilidad al estudiar las ecuaciones diferenciales en
3.6. SERIES DE FOURIER EN VARIAS VARIABLES 125

derivadas parciales. El resultado esencial es el del siguiente teorema, que


únicamente enunciamos:
Teorema 11: consideremos una función f (x, y) continua definida en el
cuadrado C = [−π, π] × [−π, π] de R2 , con derivadas parciales ∂x f (x, y) y
∂y f (x, y) acotadas en C. En esta situación, la serie de Fourier, que en forma
compleja escribiremos

&
f (x, y) ∼ cm,n ei(mx+ny) , (3.6.1)
m,n=−∞
1 1
1
cm,n = f (x, y) e−i(mx+ny) dx dy, m, n ∈ Z, (3.6.2)
4π 2 C

converge a f (x, y) en todo punto interior de C para el que exista un entorno


en el que las parciales segundas ∂xy f (x, y) existan. Si f (x, y) tiene perı́odo
2π en x e y y presenta derivadas parciales continuas ∂x f (x, y), ∂y f (x, y),
∂xy f (x, y), entonces la serie de Fourier de f (x, y) converge a f (x, y) en todo
punto del plano.
Si manejamos funciones que poseen diferentes perı́odos en las variables x
e y, habrá que hacer los correspondientes cambios de variable para obtener
el desarrollo. En particular, si f (x, y) está definida en el rectángulo
R = {x ∈ [−l, l], y ∈ [−h, h]},
con perı́odos 2l en la variable x y 2h en y, efectuamos los cambios de variable
u = πx/l, v = πy/h, con lo que la función f (lu/π, hv/π) ≡ ϕ(u, v) tiene
perı́odo doble de 2π. Se desarrolla ϕ(u, v) y se deshace el cambio, con lo
que llegamos a

& mx
+ ny
f (x, y) ∼ cm,n eiπ( l h
)
, (3.6.3)
m,n=−∞
1 1
1 mx
+ ny
cm,n = f (x, y) e−iπ( l h
)
dx dy; m, n ∈ Z. (3.6.4)
4lh R

Los coeficientes cm,n tienen parte real y parte imaginaria, de modo que
al llevarlos a (3.6.3) resulta una función real. Estos desarrollos en serie de
Fourier se pueden escribir usando exclusivamente funciones trigonométricas
reales, aunque las expresiones resultan más complicadas que la forma com-
pleja comentada con anterioridad, por lo que remitimos al lector interesado
en ellas a la bibliografı́a recomendada al final del capı́tulo.
126 CAPÍTULO 3. SERIES DE FOURIER

3.7 Comentarios finales

A lo largo de este tema hemos demostrado o enunciado un buen número de


teoremas, con hipótesis muy variadas, referidos a propiedades de conver-
gencia de las series de Fourier. Estas hipótesis pueden relajarse aún más,
siendo quizá el resultado más fuerte el siguiente:
Teorema 12 (de Dirichlet): si f (x) está definida y acotada en (−π, π)
y si tiene un número finito de máximos y mı́nimos, y también un número
finito de discontinuidades, siendo además periódica con perı́odo 2π fuera
de (−π, π), entonces la siguiente serie trigonométrica converge a

a0 & f (x+) + f (x−)
+ (ak cos kx + bk sen kx) = . (3.7.1)
2 2
k=1

con ak y bk dadas por (3.3.4).


Otra versión de este teorema es la siguiente:
Teorema 13: sea f (x) absolutamente integrable en (−π, π) y de perı́odo
2π. Si en el intervalo (a, b) la función f (x) es de variación acotada, entonces
∀ x ∈ (a, b) la serie converge a
1
[f (x+) + f (x−)].
2
En general, las funciones que aparecen en las aplicaciones fı́sicas suelen ve-
rificar las condiciones de algunos de los teoremas enunciados anteriormente.

Antes de finalizar este capı́tulo queremos insistir en un detalle: ha de


quedar claro que dada una función f (x), para la cual podemos calcular la
serie de Fourier asociada a ella, puede ocurrir que esa serie no converja a
la función en algunos puntos. Esta observación debe hacer que en ciertas
situaciones procedamos con cautela y analicemos de manera cuidadosa los
resultados que obtengamos de nuestros cálculos. A tı́tulo de ejemplo, se
sabe que existen funciones continuas cuyas series de Fourier divergen en
un punto dado, o incluso en un conjunto de puntos no numerable y denso
en (−π, π). Ciertamente, se trata de funciones muy patológicas. A pe-
sar del comentario anterior, es cierto que la serie de Fourier de cualquier
función continua converge puntualmente casi por doquier a la función, ex-
cepto posiblemente en un conjunto de medida nula. Por otro lado, Kol-
3.8. PROBLEMAS 127

mogorov17 demostró en 1926 que existen funciones integrables cuya serie


de Fourier diverge en todo punto. Además, la convergencia no se conserva
en operaciones simples: por ejemplo, existe al menos una función f (x) que
tiene serie de Fourier uniformemente convergente, pero es tal que la serie
de Fourier de [f (x)]2 diverge en un conjunto de puntos que es infinito no
numerable. Algo similar les ocurre a otra función y a su valor absoluto.

3.8 Problemas
1. Sea f : R → C una función de perı́odo 2π. Pruébese que ∀ α, β ∈ R se
verifica: 1 α+2π 1 β+2π
f (x) dx = f (x) dx.
α β

2. Dada una función que verifica f (−x) = f (x) y f (x + π) = −f (x), demués-


trese que sus coeficientes de Fourier bk , a2k (k = 0, 1, 2, . . .) son nulos.
3. Hállese el desarrollo en serie de Fourier de las funciones que siguen en los
intervalos que se indican. Se recomienda hacer una gráfica de cada una
para poder analizar correctamente la convergencia de las series a la función
correspondiente.

a) f (x) = x2 , [−π, π]; b) f (x) = |x|, [−π, π];

c) f (x) = | sen x|, [−π, π]; d) f (x) = x, (−π, π);

e) f (x) = ecos x cos( sen x); f ) f (x) = x2 , (0, 2π);

g) f (x) = x, (0, 2π); h) f (x) = senh x, (−1, 1).

4. Desarróllese f (x) = Ax2 + Bx + C en (−π, π).


5. Desarróllese f (x) = 1 en el intervalo (0, π), en serie de senos.

 cos πx , 0 ≤ x ≤ l/2,
6. Desarróllese f (x) = l en serie de cosenos.

0, l/2 < x ≤ l,
17
Andrei Nicolaievich Kolmogorov (1903–87), destacado matemático ruso cuyo trabajo
influyó notablemente diversas ramas de la matemática moderna. En concreto contribuyó
a formular la teorı́a de probabilidades de manera tal que pasó a ser considerada como una
parte del análisis matemático y también realizó importantes contribuciones a la teorı́a de
los sistemas dinámicos.
128 CAPÍTULO 3. SERIES DE FOURIER
)
x, 0 ≤ x ≤ l/2,
7. Desarróllese f (x) = en serie de senos.
l − x, l/2 < x ≤ l,
8. Desarróllese f (x) = eax en (−π, π), siendo a != 0.
9. Desarróllese f (x) = cos ax en (−π, π), siendo a ∈
/ Z.
10. Desarróllese f (x) = − ln |2 sen (x/2)|, en [−π, π].
11. Desarróllese f (x) = ln |2 cos(x/2)| en [−π, π].
)
cos x, 0 < x < π,
12. Desarróllese f (x) = en serie de Fourier compleja.
1, −π < x < 0,
13. Desarróllese la función de Heaviside H(x) en serie de Fourier en (−L, L).
14. Establezcanse las siguientes “representaciones” de la δ de Dirac:
∞ $ %
1 1 & nπ
a) δ(x) = + cos x ;
2L L n=1 L

∞ $ % $ %
2 & nπ nπ
b) δ(x − µ) = sen x sen µ ; 0 < µ < L.
L n=1 L L

15. Calcúlese la serie de Fourier de la función f (x) = |x|3 en (−1, 1), y también
de sus cuatro primeras derivadas. Analı́cense con cuidado los resultados.
16. Hállense las relaciones entre los coeficientes de las series de Fourier cuando
éstas se expresan en las tres formas más usuales:

a0 &
a) Serie trigonométrica: + (an cos(ωn x) + bn sen(ωn x)).
2 n=1

&
b) Serie compleja: cn e−iωn x .
n=−∞

a0 &
c) Serie de amplitudes y fases: + hn cos(ωn x − φn ).
2 n=1

En todos los casos ωn = 2πn/T , siendo T el perı́odo.


17. Evalúese el espectro de amplitud y de fase de la función
)
a, x ∈ [−τ /2, τ /2],
f (x) =
0, x ∈ [−T /2, −τ /2) ∪ (τ /2, T /2],

siendo T el perı́odo de la función.


3.8. PROBLEMAS 129

18. Desarróllese la función ex en serie de Fourier compleja primero en el intervalo


(−π, π) y también en (0, 1).
19. Evalúese la serie de Fourier compleja asociada a la extensión periódica de
la función )
1, 0 ≤ x < h,
f (x) =
0, h ≤ x < 2π,
y obténgase luego ese desarrollo en forma real (h=cte.)
20. Considérese la siguiente función definida en el intervalo [−π, π)


 0, −π ≤ x < 0,


f (x) = x + 1, 0 ≤ x < π/2,




2x, π/2 ≤ x < π,
y que se extiende a R por periodicidad: f (x + 2π) = f (x). Discútase la
convergencia de la serie de Fourier de f (x).
21. Calcúlese la suma de las series siguientes
cos 2x cos 3x cos 4x cos(n + 1)x
a) + + + ··· + + ···
1·2 2·3 3·4 n(n + 1)

cos 2x cos 3x cos 4x cos nx


b) − + + · · · + (−1)n 2 + ···
3 8 15 n −1
2 cos 2x 3 cos 3x 4 cos 4x n cos nx
c) − + + · · · + (−1)n 2 + ···
3 8 15 n −1
22. Un punto se mueve en lı́nea recta con una velocidad inicial u. Esta velocidad
recibe incrementos constantes de valor u a intervalos de tiempo iguales τ .
Demuéstrese que la velocidad en cualquier instante t posterior al comienzo
del movimiento es

u ut u & 1 2mπt
+ + sen ,
2 τ π m=1 m τ

y que la distancia recorrida es



ut uτ uτ & 1 2mπt
(t + τ ) + − 2 cos .
2τ 12 2π m=1 m2 τ

23. Pruébese que, en (−π, π), la serie de Fourier de f (x) = x no converge


uniformemente, pero que sı́ lo hace la de f (x) = x2 . En el mismo intervalo,
encuéntrese la serie de Fourier de f (x) = x4 integrando la de f (x) = x2
entre los lı́mites 0 y x.
130 CAPÍTULO 3. SERIES DE FOURIER

24. Considérese la siguiente función definida en el intervalo [−π, π)




 (x + π)2 , −π ≤ x < 0,




 π2 , 0 ≤ x < π/3,
f (x) =

 8, π/3 ≤ x < 2π/3,





5, 2π/3 ≤ x < π,

y que se extiende a R por periodicidad: f (x + 2π) = f (x). Discútase la


convergencia de la serie de Fourier de f (x). Determı́nense los valores de x
en los cuales la serie no converge a f (x) y calcúlese los valores a los que
converge.
25. Demuéstrese que la serie trigonométrica
&∞
sen nx
n=2
ln n

converge para todo valor de x, pero no es la serie de Fourier de ninguna


función integrable en (−π, π).
26. Un oscilador armónico amortiguado unidimensional que está sometido a la
acción de una fuerza externa obedece la ecuación
d2 x dx
m +γ + k x = f (t).
dt2 dt
Usando series de Fourier, hállese el valor de x(t) cuando f (t) es una fuerza
periódica. En particular, supóngase que f (t) es la onda triangular que surge
de la extensión periódica de
)
2at/T, 0 ≤ t < T /2,
f (x) =
2a(1 − t/T ), T /2 ≤ t < T.

27. Una corriente alterna I(t) = I0 sen(ωt) pasa a través de


a) Un rectificador de media onda, el cual transmite la corriente sólo
cuando fluye en el sentido positivo.
b) Un rectificador de onda completa, que transmite el valor absoluto ins-
tantáneo de la corriente.
En ambos casos, hállese la dependencia temporal de la corriente de salida.
28. Determı́nese la serie de Fourier doble de

a) f (x, y) = x sen y, −π < x, y < π. b) f (x, y) = ex+y , −π < x, y < π.


3.8. PROBLEMAS 131

29. En el problema 5 se ha calculado la serie de Fourier la función signo (x) en


el intervalo (−π, π), y resulta ser

4 & sen ((2n + 1)x)
signo (x) ∼ .
π n=0 2n + 1

La función es discontinua en x = 0, luego ahı́, su serie de Fourier presentará


el fenómeno de Gibbs. Pruébese que cerca de x = 0, y para x > 0, las sumas
parciales de la serie de Fourier superan el valor de la función en un cantidad
finita que no tiende a cero al tomar más y más términos en la suma.
30. Pruébese que el lugar geométrico de los puntos dados por la ecuación

&∞
(−1)n+1
sen nx sen ny = 0
n=1
n2

divide al plano en cuadrados de área π 2 .


31. Encuéntrese la ubicación en el plano del conjunto de rectas y arcos de elipse
que forman el lugar geométrico de los puntos determinados por la ecuación

&∞
(−1)n+1
sen nx cos ny = 0.
n=1
n3

32. Calcúlese la serie de Fourier de la función f (x) = |x|3 en (−1, 1), y también
la serie de Fourier de sus cuatro primeras derivadas. Analı́cense con cuidado
los resultados. Recuérdese que las gráficas de las funciones suelen ayudar a
entender mejor el problema.
33. Considérese la función f (x) = (x + π)x(x − π).
a) Dibújese con precisión esta función en toda la recta real, determinando
sus puntos crı́ticos.
b) Calcúlese el desarrollo en serie de Fourier de la función f (x) en el intervalo
[−π, π].
c) Dibújese en R la gráfica del desarrollo en serie obtenido y compárese con
la representada en el apartado a).
d) ¿Qué puede decirse respecto de la serie de Fourier de

g(x) = x(x − π)(x − 2π)?

34. Dibújese la función |sen 2x|. Calcúlese su serie de Fourier comentando dónde
converge o no converge la serie de Fourier a la función, y dónde se presenta
el fenómeno de Gibbs.
132 CAPÍTULO 3. SERIES DE FOURIER

35. Dibújese la función f (x) = π 2 − x2 y calcúlese su serie de Fourier en el inter-


valo [−π, π]. Dibújese la gráfica de la serie de Fourier obtenida. ¿Aparece
en este caso el fenómeno de Gibbs?
36. Una onda triangular viene descrita por la extensión periódica de la función
)
x, 0 ≤ x ≤ π,
f (x) =
−x, −π ≤ x ≤ 0.

Dibújese esta onda y calcúlese su serie de Fourier. ¿Para qué valores de la


recta real la serie de Fourier converge a la extensión periódica de la función?
¿En qué puntos se producirá el fenómeno de Gibbs?
37. Considérese la función f (x) = e−|x| en [π, π] y que se extiende periódica-
mente al resto de la recta real.
a) Dibújese con precisión esta onda, indicando los puntos donde no es deri-
vable.
b) Calcúlese su serie de Fourier.
c) Utilı́cese el resultado anterior para hallar la suma de las series

& ∞
&
1 1
α= ; β= .
n=0
(2n)2 + 1 n=0
(2n + 1)2 + 1

Se sugiere dar a x ciertos valores numéricos en la expresión de la serie de


Fourier.
38. Considérese la extensión periódica de la función
)
x, 0 ≤ x < π,
f (x) =
0, −π < x ≤ 0.

Dibújese esta onda y calcúlese su serie de Fourier. ¿Para qué valores de la


recta real la serie de Fourier converge a la extensión periódica de la función?
¿En qué puntos se producirá el fenómeno de Gibbs? Dando a x un cierto
valor, calcúlese la suma de la serie

& 1
λ(2) = ,
n=1
(2n − 1)2

que está relacionada con la función ζ(2).


39. Desarróllese en serie de Fourier compleja la función
2 2
f (x) = 21 − x2 2 , −π ≤ x ≤ π.

40. Hállese la serie de Fourier de senh x, en el intervalo [−1, 1].


3.9. BIBLIOGRAFÍA 133

41. Dada la función de perı́odo 2' > 2




 0 si −' <x< −1,


f( (x) = 1 si −1 < x < 1,




0 si 1 < x < ',

realı́cese una gráfica de la misma. Determı́nese la serie de Fourier asociada


a esta función (a veces se denomina espectro de amplitudes a la sucesión de
los coeficientes de Fourier). Analı́cese mlo que sucede cuando consideramos
el lı́mite ' → ∞.
42. Evalúense los desarrollos en serie de Fourier de cada una de las funciones
que siguen en el intervalo 0 < x < π:

a) sen2 x.

b) cos2 x.

c) senx cos x.

d) cos x + cos 2x.

e) cos x cos 2x.

3.9 Bibliografı́a
1. Broman, A, Introduction to Partial Differential Equations from Fourier Se-
ries to Boundary-value Problems, Addison-Wesley, 1970.
2. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
3. Carslaw, G.P., An Introduction to the Theory of Fourier’s Series and Inte-
grals, Dover, 1950.
4. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
5. Churchill, R.V., Operational Mathematics, McGraw-Hill, 1972.
6. Edwards, R.E., Fourier Series. A Modern Introduction, Springer, 1979.
7. Edwards Jr., C.H. y Penney, D.E., Ecuaciones diferenciales elementales y
problemas con condiciones en la frontera, Prentice-Hall Hispanoamericana,
1993.
8. Hsu, H. P., Análisis de Fourier , Fondo Educativo Interamericano, 1973.
134 CAPÍTULO 3. SERIES DE FOURIER

9. Myint-U, T., Partial Differential Equations of Mathematical Physics, Else-


vier, 1973.
10. Ross, S.L., Ecuaciones diferenciales, Reverté, 1981.
11. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
12. Tolstov, G.P., Fourier Series, Dover, 1976.
13. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
Capı́tulo 4

LA TRANSFORMACIÓN
DE FOURIER

4.1 Introducción

El uso de las series de Fourier tuvo un impacto enorme en las matemáticas


del siglo XIX, en particular para resolver ecuaciones diferenciales en deri-
vadas parciales (si bien se seguı́a insistiendo en la obtención de soluciones
en forma cerrada, es decir, en términos de funciones elementales y de sus
integrales). En este capı́tulo vamos a estudiar uno de los métodos más
útiles para resolver ecuaciones en derivadas parciales en forma cerrada: el
que hace uso de la integral de Fourier .
Al estudiar las series de Fourier hemos visto que a una función definida
en el intervalo [a, b], y que verifique ciertas condiciones de regularidad, le
podemos asociar una serie de Fourier. Esta serie de Fourier representa de
forma bastante adecuada a la función en [a, b]; si la función no es periódica,
fuera de ese intervalo, la serie representa no a la función sino a su extensión
periódica (véase el ejemplo 2 del capı́tulo precedente). Ahora bien, si lo que
queremos es representar correctamente en toda la recta real una función
definida en R y que no es periódica, no podemos esperar encontrar una
serie de Fourier que lo consiga. Lo que habrá que hacer es generalizar
de alguna manera la idea fundamental que nos sirvió para introducir las
series de Fourier. Esto se consigue definiendo la llamada transformación
de Fourier que permite que una función que toma valores en toda la recta

135
136 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

real sea representada por una integral, en lugar de por una serie. Como
veremos, estas integrales son, en muchos aspectos, análogas a las series de
Fourier. La idea básica de esta generalización se debe a Fourier, Cauchy y
Poisson, siendo difı́cil asignar a uno de ellos la prioridad del descubrimiento,
pues los tres presentaron diversas comunicaciones orales sobre el tema en
la Académie des Sciences de Paris en la segunda decena del siglo XIX.
La transformación de Fourier es una de las herramientas más útiles en
el campo de la matemática aplicada, y su conocimiento y buen uso re-
sulta fundamental para todo cientı́fico teórico o aplicado, ya que aparece
una y otra vez en los campos más diversos, por ejemplo en electromag-
netismo, en óptica (donde existe una rama denominada óptica de Fourier)
o en aplicaciones técnicas, sin olvidar el uso esencial que de ella se hace en
mecánica cuántica. En los últimos años han surgido interesantes desarro-
llos matemáticos relacionados con este tema, como son la transformada de
Fourier discreta, la transformada de Fourier rápida y la teorı́a de onditas
(wavelets en inglés y ondelettes en francés), todos ellos implementables de
forma numérica y con interesantes aplicaciones prácticas.

4.2 De las series de Fourier a la transformación


de Fourier

En primer lugar vamos a mostrar un camino intuitivo o heurı́stico de llegar,


de forma natural, a la definición de la transformada de Fourier de una
función. Los argumentos que exponemos a continuación son, en esencia,
los que ofrecieron Fourier, Cauchy y Poisson en sus trabajos originales.
Supongamos que tenemos una función f" (x) definida en el intervalo
[−', '] que se extiende de forma periódica a toda la recta real. Ya hemos
visto en la ecuación (3.3.18) del capı́tulo anterior que su serie de Fourier es

∞ / $ % $ %0
a0 & kπx kπx
f" (x) = + ak cos + bk sen . (4.2.1)
2 ' '
k=1

Como ya conocemos los detalles referentes a la convergencia de las series


de Fourier, en lo sucesivo prescindimos de poner el sı́mbolo ∼ y utilizamos
sin más la igualdad. Sabemos también que esta ecuación puede escribirse
4.2. DE LAS SERIES A LA TRANSFORMACIÓN DE FOURIER 137

en forma compleja como


∞ ;
& < ∞
&
f" (x) = c0 + ck eikπx/" + c−k e−ikπx/" = cn einπx/" . (4.2.2)
k=1 n=−∞

Los coeficientes complejos cn se calculan haciendo uso de la expresión


1
1 "
cn = f" (x) e−inπx/" dx, n ∈ Z. (4.2.3)
2' −"

Imaginemos ahora que procedemos a ampliar la anchura del intervalo en


el que estamos efectuando el desarrollo, [−', ']. Dicho de un modo más
técnico, queremos ver que ocurre con las expresiones anteriores cuando
consideramos el lı́mite ' → ∞. A primera vista podrı́a parecer que cn → 0,
pero esto no es tan inmediato. Utilicemos una argucia para ver que la
anterior conjetura no es estrictamente cierta: introduzcamos una nueva
variable k = nπ/'. Para dos valores de n adyacentes, la variación en la
variable k es
(n + 1)π nπ π
∆k = − = . (4.2.4)
' ' '
Con esta notación, podemos reescribir (4.2.2) del siguiente modo:

&∞ $ %
' cn
f" (x) = ei(nπ/")x ∆k, (4.2.5)
n=−∞
π

siendo 1
' cn 1 "
= f" (x) e−i(nπ/")x dx. (4.2.6)
π 2π −"

Pasemos ahora completamente a la notación en la variable k, haciendo


desaparecer el ı́ndice n. Para ello llamemos c" (k) al coeficiente (' cn /π) de
la fórmula precedente:
1 "
1
c" (k) = f" (x) e−ikx dx. (4.2.7)
2π −"
&
f" (x) = c" (k) eikx ∆k. (4.2.8)
k

Si ahora pasamos al lı́mite ' → ∞, entonces ∆k → 0 (de modo que la varia-


ble k deja de tomar valores discretos y pasa a ser una variable continua), y
138 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

f" (x) → f (x), ya que la extensión periódica deja paso a la función original.
Con esto, (4.2.7) nos proporciona
1 ∞
1
c(k) ≡ lim c" (k) = f (x) e−ikx dx, (4.2.9)
"→∞ 2π −∞

y la suma que aparece en (4.2.8) se convierte en una integral:


1 ∞
f (x) = lim f" (x) = c(k) eikx dk. (4.2.10)
"→∞ −∞

Estas dos ecuaciones nos sirven para definir la transformación de Fourier.


En esencia, este es el proceso intuitivo que liga las series de Fourier con la
transformación que lleva el mismo nombre.

Ejemplo 1: en los gráficos que siguen se ilustra lo que acabamos de comen-


x2
tar, representando por un lado la función básica f (x) = 16 e− 40 (x2 +4x+4)
y por otro lado diversas funciones f" (x) obtenidas de ella a partir del in-
tervalo [−', '] repetido periódicamente, para ' = 10, 20, 30, 40.

2
fHxL
1

-75 -50 -25 25 50 75

2
f10 HxL
1

-75 -50 -25 25 50 75


4.2. DE LAS SERIES A LA TRANSFORMACIÓN DE FOURIER 139

2
f20 HxL
1

-75 -50 -25 25 50 75

2
f30 HxL
1

-75 -50 -25 25 50 75

2
f40 HxL
1

-75 -50 -25 25 50 75

Una vez que hemos comentado la relación que existe entre las series de
Fourier y la transformación de Fourier, en la siguiente sección daremos, de
manera más formal, las definiciones que manejaremos en lo sucesivo.
140 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.3 Definición de la transformación de Fourier

Definición 1: dada una función real o compleja f (x), definida para valores
x ∈ R, se introduce una nueva función (dependiente de una variable real
que llamaremos k), denominada la transformada de Fourier de la función
f (x), como sigue:
1 ∞
1
F{f (x)} ≡ F{f } ≡ F (k) := √ f (x) e−ikx dx. (4.3.1)
2π −∞
La transformada de Fourier inversa de una función F (k) se define
1 ∞
−1 −1 1
F {F (k)} ≡F {F } ≡ f (x) := √ F (k) eikx dk. (4.3.2)
2π −∞

Observación 1. Si bien las variables x y k son reales, la presencia de


las exponenciales imaginarias hace que en general, aún cuando la función
f (x) sea real, su transformada de Fourier tenga una parte real y una parte
imaginaria.

Observación 2. De las fórmulas (4.3.1) y (4.3.2) se sigue de modo inmedi-


ato lo siguiente:
1 ∞ 1 ∞
1 1
F (0) = √ f (x) dx; f (0) = √ F (k) dk. (4.3.3)
2π −∞ 2π −∞
Vemos ası́ que la transformada de Fourier de una función f (x) contiene
información valiosa acerca de esa función. Esto resulta ser muy útil e
interesante, y no sólo por darnos el valor de la integral de la función. En
las aplicaciones fı́sicas se recurre muchas veces a estudiar la transformada
de Fourier cuando la función es demasiado complicada. Los resultados son
a veces sorprendentes, por la simplificación que se logra.

Observación 3. Otras consecuencias inmediatas de las definiciones ante-


riores son las siguientes
1 ∞ 1 ∞
1 1
|F (k)| ≤ √ |f (x)| dx; |f (x)| ≤ √ |F (k)| dk. (4.3.4)
2π −∞ 2π −∞
La primera desigualdad nos está acotando el valor absoluto de la función
transformada de Fourier de f (x) mediante la integral del valor absoluto de
la propia f (x); la segunda desigualdad establece la acotación recı́proca.
4.3. DEFINICIÓN DE LA TRANSFORMACIÓN DE FOURIER 141

Observación 4. Las definiciones que hemos √ dado se basan en los resulta-


dos de la sección precedente. La aparición de 2π en los denominadores es
debida al deseo de que las fórmulas de la transformación de Fourier y de su
inversa sean simétricas. En algunos libros pueden encontrarse definiciones
equivalentes, que presentan diferentes factores, o incluso discrepancias al
definir esta pareja de transformaciones en el signo del exponente ±ik. Estos
pequeños cambios no son relevantes para la utilidad de esta operación que
acabamos de definir. Ahora bien, hay que ser cauto y no mezclar resultados
obtenidos usando diferentes definiciones, pues el resultado final serı́a incor-
recto (debido a la presencia de factores numéricos inadecuados), y además
completamente confuso a la hora de buscarle una interpretación.

Observación 5. Normalmente se utilizan las variable x y k, y letras


minúsculas y sus correspondientes mayúsculas para las funciones originales
y sus transformadas. No obstante, téngase en cuenta que la denominación
de las variables dependiente e independiente es algo totalmente secundario:
lo importante es saber que esta operación que hemos definido, y que hemos
llamado transformación de Fourier, lo que hace es actuar sobre funciones
para darnos otras funciones. Estas ideas quedarán más claras cuando se
estudien algunos conceptos de análisis funcional en el Capı́tulo 13, donde
realizaremos un estudio más profundo y exahustivo de la transformación
de Fourier.

Observación 6. Una de las primeras preguntas realmente serias que nos


podemos plantear se refiere a la existencia de la integral (4.3.1) que sirve
de definición. Una condición suficiente (no necesaria) para que esa integral
exista es que la función sea integrable en R, es decir f (x) ∈ L1 (R):
1 ∞
|f (x)| dx < ∞. (4.3.5)
−∞

En este caso la integral existe porque es el producto de una función acotada


e±ikx por una función integrable, f (x). Bajo esta condición, la función
F (k) es continua, acotada y tiende a 0 cuando |k| →∞ . Mediante el uso
de otras técnicas matemáticas, la existencia de la integral se puede probar
para situaciones mucho más generales.

Observación 7. Existen tablas que nos proporcionan transformadas de


Fourier directas e inversas de buen número de funciones sin necesidad de
efectuar el cálculo de la integral. Cuando se utilicen estas tablas, debe
142 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

prestarse especial atención a la definición de transformación de Fourier que


el autor esté utilizando. También existen programas de cálculo simbólico
(como Mathematica) que realizan este tipo de operaciones de forma exacta.
Observación 8. Las fórmulas (4.3.1) y (4.3.2), además de lo visto en
la sección precedente, parecen sugerir que si primero calculamos la trans-
formada de Fourier de una función f (x) usando (4.3.1), y luego hacemos
la transformación inversa de ésta última, recuperamos la función origi-
nal. Esto es algo que habrá de ser justificado de manera más precisa, ya
que los argumentos aportados en la sección precedente fueron puramente
heurı́sticos. Nos ocuparemos de esta cuestión en la sección siguiente.

4.4 El teorema de la integral de Fourier

Para verificar si es cierto que al invertir la transformación de Fourier re-


cuperamos la función original, consideremos el resultado de (4.3.1) e intro-
duzcámoslo en (4.3.2), con la salvedad de no igualarlo automáticamente a
f (x), pues es ésto precisamente lo que queremos probar:
1 ∞
−1 1
F {F{f }}(x) = √ F (k) eikx dk
2π −∞
1 ∞ 1 ∞
1
= eikx dk f (y) e−iky dy
2π −∞ −∞
1 ∞ 1 ∞
1
= dk f (y) eik(x−y) dy
2π −∞ −∞
1 ∞ 1 ∞
1
= dk f (y) cos[k(x − y)] dy
2π −∞ −∞
1 1 ∞
1 ∞
= dk f (y) cos[k(x − y)] dy. (4.4.1)
π 0 −∞

Para llegar a este resultado hemos usado el hecho de que cos[k(x − y)] y
sen [k(x − y)] son dos funciones respectivamente par e impar en la variable
k. Además, si f (x) es integrable, el teorema de Fubini1 debe ser válido
aquı́. La igualdad (4.4.1) sirve para demostrar el llamado teorema de la
integral de Fourier , que nos limitamos a enunciar:
1
Guido Fubini (1879–1943), matemático italiano.
4.4. EL TEOREMA DE LA INTEGRAL DE FOURIER 143

Teorema: si f (x) es una función absolutamente integrable en R (es decir,


se cumple (4.3.5)) y regular a trozos en todo intervalo finito, entonces
1 /1 ∞ 0
1 ∞ f (x+) + f (x−)
dk f (y) cos[k(x − y)] dy = . (4.4.2)
π 0 −∞ 2

En los puntos de continuidad de f (x)se obtiene como resultado precisa-


mente el valor de f (x). Obsérvese la similitud existente entre este resultado
y el correspondiente a la convergencia puntual de las series de Fourier. La
demostración del teorema discurre por unas lı́neas similares a las de la de-
mostración del teorema de la convergencia puntual de las series de Fourier,
y hace uso de un resultado análogo al Lema de Riemann-Lebesgue (aunque
la integral se ha de extender ahora a toda la recta real R).

Ejemplo 2: siendo α ∈ R, se puede calcular de forma sencilla la transfor-


mada de Fourier de )
0, x < 0,
f (x) =
e−αx , x ≥ 0.
En efecto, usando la definición (4.3.1) hallamos lo siguiente
1 ∞ 1 ∞
1 −ikx 1 1 1
F (k) = √ f (x) e dx = √ e−αx e−ikx dx = √ .
2π −∞ 2π 0 2π α + ik

La transformada de Fourier inversa se calcula usando (4.3.1), pero los


cálculos son más complicados y es preciso recurrir al teorema de los resid-
uos, de la teorı́a de variable compleja, para evaluar la integral que aparece.
El resultado que se obtiene al hacer el cálculo correctamente (lo cual se
deja como ejercicio para el lector interesado) es el siguiente:

 0, x < 0,

F −1 [F (k)](x) = 1
2 x = 0,


e−αx , x > 0.

Observemos que no se recupera exactamente la función f (x); esto es debido


a que la función original no era continua, sino continua a trozos, de manera
que en el punto de discontinuidad x = 0 se recupera la semisuma de los
lı́mites laterales, en concordancia con el teorema de la integral de Fourier.
Otra manera de interpretar este resultado es el siguiente: en teorı́a de
la integración se consideran idénticas dos funciones que difieren tan sólo
144 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

en un conjunto de medida nula (y un conjunto finito o numerable lo es).


Según ésto, en general una función f (x) está definida, salvo los valores que
pueda tomar en un conjunto de medida nula, y desde este punto de vista
las funciones anteriores f (x) y F −1 [F (k)](x) son idénticas.

4.5 Propiedades fundamentales

Las siguientes propiedades de la transformación de Fourier pueden de-


mostrarse con relativa facilidad y se proponen como ejercicios para el lector:

1. Linealidad: sean F (k) = F{f (x)} y G(k) = F{g(x)}, entonces se


verifica

F{αf (x) + βg(x)} = αF (k) + βG(k), ∀ α, β ∈ R o C. (4.5.1)

2. Propiedad de desplazamiento:

F{f (x − a)} = e−ika F (k), a ∈ R. (4.5.2)

3. Cambio de escala:
1
F{f (ax)} = F (k/a), a ∈ R − {0}. (4.5.3)
|a|

4. Si la función f (x) es real, entonces F (−k) = F (k).


5. Si f (x) es real y par, F (k) es real; si f (x) es real e impar, F (k) es
imaginaria pura.
6. F{f (x) eax } = F (k + ai).
7. Si aplicamos de forma consecutiva la transformación de Fourier re-
sulta lo siguiente:

F 2 {f (x)} ≡ F{F{f (x)}} = f (−x); (4.5.4)


F 4 {f (x)} ≡ F{F{F{F{f (x)}}}} = f (x). (4.5.5)

Ası́ pues, la transformación de Fourier es tal que aplicada repetida-


mente cuatro veces nos da la identidad, y si la aplicamos dos veces
seguidas, recuperamos la función original reflejada respecto del eje de
ordenadas (es decir, cambiando x por −x).
4.5. PROPIEDADES FUNDAMENTALES 145

8. Transformada de Fourier de una derivada:


/ 0
df (x)
F = ik F{f (x)}, (4.5.6)
dx
siempre que f (x) → 0 cuando |x| →∞ , lo cual no siempre es cierto,
aún cuando f (x) sea integrable y continua. Pudiera suceder que f (x)
no tuviera un lı́mite cuando x → ±∞ y ser aún integrable y contı́nua.
Este resultado se generaliza fácilmente del siguiente modo:
; <
F f (n) (x) = (ik)n F{f (x)}, n = 0, 1, 2 . . . , (4.5.7)

siempre que exista la transformada de Fourier y que tanto f (x) como


sus derivadas se anulen en el infinito.
9. Se verifica también la siguiente propiedad: si F (k) = F{f (x)}, en-
tonces
dn F (k)
F {xn f (x)} = in , n = 0, 1, 2 . . . (4.5.8)
dk n
10. Una caracterı́stica importante de la transformación de Fourier es la
siguiente: cuando f (x) es una función “muy concentrada” (queriendo
indicar ası́ que toma valores no nulos sólo en una pequeña región de
la recta real), F (k) es una función “muy extendida” (es decir, toma
valores no nulos en una región muy amplia de la recta), y viceversa.
Ejemplos tı́picos para ilustrar este comportamiento se proponen en
el primer problema, al final del capı́tulo: funciones gaussianas y fun-
ciones lorentzianas. La Figura 4.1 pretende dar una imagen gráfica
de lo que acabamos de decir (por simplicidad, tomamos una función
f (x) que sea real y además par, de manera que F (k) también resulta
ser real y par; al ser ambas reales, las podemos dibujar de manera
sencilla).

2 2

1.5 1.5

1 1

0.5 0.5

-6 -4 -2 2 4 6 -6 -4 -2 2 4 6

Figura 4.1: La función f (x) (izquierda) y su trans-


formada de Fourier F (k) (derecha).
146 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

11. Si se está trabajando con una función de varias variables, puede ha-
llarse la transformada de Fourier respecto de una de ellas solamente.
Por ejemplo, dada la función f (x, y), pueden calcularse
1 ∞
1
F1 {f (x, y)} ≡ F1 (k, y) = √ f (x, y) e−ikx dx; (4.5.9)
2π −∞
1 ∞
1
F2 {f (x, y)} ≡ F2 (x, k) = √ f (x, y) e−iky dy. (4.5.10)
2π −∞
Puede usarse este artificio para evaluar soluciones de ecuaciones or-
dinarias o en derivadas parciales, ya que, por ejemplo,
/ 0 1 ∞
∂f (x, y) 1 ∂f (x, y) −ikx
F1 =√ e dx = ik F1 (k, y);
∂x 2π −∞ ∂x
/ 0 1 ∞
∂f (x, y) 1 ∂f (x, y) −ikx ∂F1 (k, y)
F1 =√ e dx = .
∂y 2π −∞ ∂y ∂y

4.6 Generalizaciones de la transformación de


Fourier

Esencialmente son dos las extensiones que vamos a considerar en este


apartado: la transformación de Fourier multidimensional y las transfor-
maciones de Fourier en seno y coseno.

A) La transformación de Fourier multidimensional generaliza de alguna


manera lo que hemos comentado ya en (4.5.9) y (4.5.10). Supongamos que
tenemos una función real o compleja definida sobre Rn ; podemos definir la
transformada de Fourier n-dimensional como la función siguiente:
1
" 1 *
F (k ) = f ("x ) e−i k·*x d"x, (4.6.1)
(2π)n/2 R n
siendo "x = (x1 , . . . , xn ), "k = (k1 , . . . , kn ) y
"k · "x = k1 x1 + · · · + kn xn

el producto escalar ordinario. La fórmula de inversión es completamente


simétrica, teniendo cuidado en cambiar de signo la exponencial imaginaria
del integrando: 1
1 *
f ("x ) = F ("k ) ei k·*x d"k. (4.6.2)
(2π)n/2 R n
4.6. GENERALIZACIONES DE LA T. DE FOURIER 147

En particular, si hacemos n = 1 tenemos justamente las definiciones (4.3.1)


y (4.3.2). Un caso que aparece con bastante frecuencia en las aplicaciones es
aquel en el que n = 3. Las propiedades ya vistas para el caso unidimensional
siguen siendo esencialmente válidas, salvo pequeñas modificaciones muy
evidentes.
En las aplicaciones aparecen con frecuencia el gradiente, la divergen-
cia, el laplaciano o el rotacional de las funciones que estamos manejando,
de modo que resulta importante conocer cuanto vale la transformada de
Fourier de funciones escalares o vectoriales, dependientes de varias varia-
bles, sometidas a la acción de éstos operadores diferenciales. A continuación
se ofrecen unos resultados que se pueden comprobar como simples ejercicios:

1. Transformación del gradiente de una función escalar: sea F ("k ) la


transformada de Fourier n-dimensional de f ("x ), F{f ("x )}, calculada
según hemos visto en (4.6.1); la transformada de Fourier n-dimensio-
nal del gradiente de f ("x )
$ %
" ∂f ∂f
∇f ("x ) = ,..., ,
∂x1 ∂xn
resulta ser la función vectorial
" ("x )} = i"k F ("k ).
F{∇f (4.6.3)

2. Transformación de la divergencia de una función vectorial: conside-


remos f"("x ) = (f1 ("x ), . . . , fn ("x )), una función vectorial dependiente
de una variable n-dimensional "x, y sea F" ("k ) = F{f"("x )} la transfor-
mada de Fourier n-dimensional de f"("x ), entonces la transformada de
Fourier n-dimensional de la divergencia de f"("x )

" · f"("x ) = ∂f1 + · · · + ∂fn ,



∂x1 ∂xn
es la función escalar
" · f"("x )} = i"k · F" ("k ).
F{∇ (4.6.4)

3. Transformación del laplaciano de una función escalar: usando la no-


tación precedente, sea F ("k ) = F{f ("x )}; la transformada de Fourier
n-dimensional del laplaciano de f ("x )
∂2f ∂2f
∇2 f ("x ) = + · · · + ,
∂x21 ∂x2n
148 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

es la función escalar

F{∇2 f ("x )} = −("k )2 F ("k ). (4.6.5)

4. Transformación del rotacional de una función vectorial: sabemos que


cuando n = 3 se puede definir el rotacional de una función vectorial
f"("x ) = (f1 ("x ), f2 ("x ), f3 ("x )), que en coordenadas cartesianas tiene la
expesión 2 2
2 "ı " "k 22
2
2 2
" × f"("x ) = 2 ∂
∇ ∂ ∂ 2,
2 ∂x1 ∂x2 ∂x3 2
2 2
2 f1 ("x ) f2 ("x ) f3 ("x ) 2

siendo "ı, ", "k los vectores unitarios en la dirección de los ejes coorde-
nados. Se puede demostrar fácilmente que
" × f"("x )} = i "k × F" ("k ).
F{∇ (4.6.6)

En todos los casos se supone que las funciones involucradas tienden a cero
cuando |"x | →∞ . Estos resultados son de gran utilidad al realizar cálculos
en electromagnetismo, en fı́sica atómica y en fı́sica del estado sólido.

B) La transformación de Fourier en seno y coseno aparece de forma natural


al considerar funciones f (x) que presentan una cierta paridad o simetrı́a:

a) Si la función es par, es decir, si f (−x) = f (x), la transformada de


Fourier (4.3.1) es
1 ∞ 1 ∞
1 1
√ f (x) e−ikx dx = √ f (x) (cos kx − i sen kx) dx
2π −∞ 2π −∞
5 1 ∞
2
= f (x) cos kx dx := Fc (k). (4.6.7)
π 0
La última ecuación nos sirve para definir lo que llamaremos transfor-
mada de Fourier en coseno. Observemos que Fc (k) es una función
par, es decir Fc (−k) = Fc (k), por lo que la fórmula de inversión (4.3.2)
es completamente simétrica a la anterior:
1 ∞ 5 1 ∞
1 2
f (x) = √ Fc (k) eikx dk = Fc (k) cos kx dk. (4.6.8)
2π −∞ π 0
4.7. LA CONVOLUCIÓN 149

b) En el caso de que la función que estemos considerando presente sime-


trı́a impar, es decir, si f (−x) = −f (x), es muy fácil comprobar que
la transformada de Fourier (4.3.1) es simplemente
1 ∞ 5 1 ∞
1 −ikx 2
√ f (x) e dx = −i f (x) sen kx dx. (4.6.9)
2π −∞ π 0

Esto nos induce a proponer la siguiente definición de transformada de


Fourier en seno:
5 1 ∞
2
Fs (k) := f (x) sen kx dx, (4.6.10)
π 0
cuya fórmula de inversión resulta ser
5 1 ∞
2
f (x) = Fs (k) sen kx dk. (4.6.11)
π 0
Obsérvese que en esta definición únicamente hemos prescindido de
factores ±i, que son irrelevantes. Estas transformaciones en seno y
en coseno pueden resultar útiles para la resolución de determinados
problemas.

4.7 La convolución

Vamos a introducir ahora una operación entre funciones (aunque también


puede definirse para distribuciones) que tiene gran interés por su utilidad
en las aplicaciones. En realidad, en castellano deberı́amos decir “circun-
volución”, ya que ésta es la traducción correcta del término inglés convolu-
tion, pero la terminologı́a estándar en el campo cientı́fico es “convolución”,
de manera que, en lo sucesivo, usaremos este neologismo (el término inglés
folding o “dobladura” se usó originariamente como traducción del alemán
Faltung).
Definición 2: sean dos funciones f (x) y g(x) cuyas transformadas de
Fourier son, respectivamente, F (k) y G(k). Se define la “convolución” de
las funciones f (x) y g(x), que se denota por (f ∗ g), como
1 ∞ 1 ∞
(f ∗ g)(x) = f (x − y) g(y) dy = f (u) g(x − u) du = (g ∗ f )(x).
−∞ −∞
(4.7.1)
150 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

La segunda igualdad se obtiene sin más que hacer el cambio de variable


y = x − u. Vemos de lo anterior que la convolución de dos funciones es
una operación conmutativa. Este tipo de integrales de convolución apare-
cen en campos muy variados de la matemática aplicada y de la fı́sica. Si
substituimos en (4.7.1) las expresiones de f (x) y g(x) en términos de sus
transformadas de Fourier, tenemos lo siguiente:
1 ∞ 1 ∞
1
(f ∗ g)(x) = dy g(y) √ F (k) eik(x−y) dk
−∞ 2π −∞
1 ∞ 1 ∞
1
= F (k) e ikx
dk √ g(y) e−iky dy
−∞ 2π −∞
1 ∞ √
= F (k) G(k) eikx dk = 2π F −1 {F (k) G(k)}. (4.7.2)
−∞

Tomando la transformación de Fourier del primer y último términos de la


anterior cadena de igualdades, obtenemos el siguiente resultado

F{(f ∗ g)(x)} = 2π F (k) G(k), (4.7.3)
que es de enorme importancia en las aplicaciones, particularmente al utilizar
la transformación de Fourier para resolver ecuaciones diferenciales lineales.
Nótese que hemos permutado las integraciones en k e y, lo cual suele ser
casi siempre posible en los problemas que aparecen.
Dadas dos funciones f (x), g(x) y sus respectivas transformadas de
Fourier F (k), G(k), también puede hallarse el resultado recı́proco de (4.7.3):
1 ∞
1
F{f (x)g(x)}(k) = √ f (x)g(x) e−ikx dx
2π −∞
1 ∞1 ∞1 ∞
1
= F (αeiαx G(β) eiβx e−ikx dx dα dβ
(2π)3/2 −∞ −∞ −∞
1 ∞1 ∞ 1 ∞
1
= F (α) G(β) dα dβ eix(α+β−k) dx
(2π)3/2 −∞ −∞ −∞
1 ∞1 ∞
1
=√ F (α) G(β) dα dβ δ(α + β − k)
2π −∞ −∞
1 ∞
1 1
=√ F (k − β) G(β) dβ = √ (F ∗ G)(k), (4.7.4)
2π −∞ 2π
que puede ser de utilidad en la resolución de algún tipo de problemas.
4.8. RELACIÓN DE PARSEVAL 151

4.8 Relación de Parseval para la transformación


de Fourier

Hemos visto que la transformación de Fourier, por su estrecha relación


con las series de Fourier, hereda bastantes propiedades de éstas. Ası́ por
ejemplo, las condiciones para la existencia de la transformada de Fourier
son análogas a las condiciones de existencia de los coeficientes de la serie
Fourier, y el problema de la inversión de la transformación de Fourier es
análogo al de la convergencia de la serie de Fourier al valor original de la
función f (x). Vamos a demostrar a continuación una importante propiedad
que relaciona la integral de una función y la de su transformada de Fourier,
y que viene a ser el equivalente de la relación de Parseval en el caso de las
series de Fourier.
Sean dos funciones f (x) y g(x), reales o complejas e integrables, cuyas
transformadas de Fourier son, respectivamente F (k) y G(k). Utilizando las
expresiones de f (x) y g(x) como transformadas de Fourier inversas de F (k)
y G(k), y sin más que operar (aplicando el teorema de Fubini, para lo que
se necesita que f (x) y g(x) sean ambas integrables), tenemos lo siguiente:
1 ∞ 1 ∞ !1 ∞ "!1 ∞ "
dα dβ −iβx
f (x) g(x) dx = √ F (α) e iαx
√ G(β) e dx
−∞ −∞ −∞ 2π −∞ 2π
1 ∞1 ∞1 ∞
1
= F (α) G(β) eix(α−β) dx dα dβ
2π −∞ −∞ −∞
1 ∞1 ∞ 1 ∞
1
= F (α) G(β) dα dβ eix(α−β) dx
2π −∞ −∞ −∞
1 ∞1 ∞
1
= F (α) G(β) 2π δ(α − β) dα dβ
2π −∞ −∞
1 ∞
= F (β) G(β) dβ.
−∞

Hemos hecho uso de la representación integral de la δ de Dirac vista en


(11). En las manipulaciones anteriores hemos intercambiado el orden de
integración según nos convenı́a; una condición suficiente para poder hacer
eso es que tanto f (x) y g(x) como F (k) y G(k) pertenezcan al espacio de
funciones L1 (R). En el caso particular de que las funciones f y g sean
la misma, tenemos la relación de Parseval (también llamada de Parseval-
152 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

Plancherel o teorema de Plancherel2 ):


1 ∞ 1 ∞
|f (x)| dx =
2
|F (k)|2 dk, (4.8.1)
−∞ −∞

que es muy útil para evaluar ciertas integrales no triviales. Esta relación
sólo nos dará un resultado relevante si las funciones f (x) y F (k) pertenecen
al espacio L2 (R), ya que de otro modo las integrales tendrán un valor
infinito.

4.9 La transformación de Fourier como operador

Hemos comentado que la definición de transformación de Fourier en una


dimensión tiene sentido, por ejemplo, para funciones f (x) ∈ L1 (R) (recorde-
mos que L1 (R) representa las funciones integrables en el sentido de Lebes-
gue). Ahora bien, resulta que este espacio de funciones no es estable bajo
la transformación de Fourier, es decir, las imágenes de algunas funciones de
L1 (R) no pertenecen a L1 (R) (en general, si f (x) ∈/ L1 (R) su transformada
de Fourier resulta ser una distribución). Existen dos espacios de funciones
que nos han aparecido ya en capı́tulos precedentes y que juegan un papel
destacado en la teorı́a de la transformción de Fourier: se trata del espacio
de Schwartz S(R), que introdujimos al estudiar las distribuciones, y del
espacio de la funciones de cuadrado integrable L2 (R), que nos apareció al
estudiar las series de Fourier. El espacio de Schwartz S(R) es un subespacio
vectorial de L1 (R) y es también un subespacio vectorial denso en L2 (R).
Podemos considerar la transformación de Fourier como un operador que
actúa sobre estos espacios funcionales:

F : S(R) → S(R) (4.9.1)


F : L2 (R) → L2 (R) (4.9.2)

Algunos resultados de interés de este operador son los siguientes3 :

1. El espacio de Schwartz S(R) es estable bajo la transformación de


Fourier, es decir: F(S(R)) = S(R). De hecho F es una biyección
lineal y continua de S(R) sobre S(R), al igual que F −1 .
2
Michel Plancherel (1885-1967), matemático suizo que trabajó esencialmente en
análisis armónico y fı́sica matemática.
3
Para un análisis más cuidadoso de las afirmaciones que siguen, véase el Capı́tulo 13.
4.9. LA TRANSFORMACIÓN DE FOURIER COMO OPERADOR 153

2. Se puede demostrar que los operadores F y F −1 son unitarios en


L2 (R), lo que significa que son isometrı́as (es decir que preservan la
norma de las funciones en L2 (R)) y que son aplicaciones sobreyectivas.
La norma en el espacio L2 (R) es la siguiente
1
||f (x)|| := |f (x)|2 dx, ∀ f (x) ∈ L2 (R). (4.9.3)
R

3. Sea T una distribución y f (x) una función perteneciente a un espacio


de funciones de prueba; se define la transformada de Fourier FT de
la distribución T del siguiente modo:
1
.FT, f (x)/ := .T, F{f (x)}/ = T (k) F (k) dk, (4.9.4)
R

siempre que la expresión del segundo miembro tenga sentido. Esto


es cierto, en particular, para distribuciones temperadas T ∈ S ! (R),
pero no sólo para ellas. Se verifican propiedades análogas a las vistas
para la transformación de Fourier de funciones sin más que usar la
definición (4.9.4).

4. Una fórmula de una enorme utilidad se obtiene al calcular la trans-


formada de Fourier de la distribución δ de Dirac usando (4.9.4). Es
fácil probar que

1
(F{δ(x − a)})(k) = √ e−iak . (4.9.5)

En particular, si elegimos a = 0, el resultado precedente es

1
(F{δ(x)})(k) = √ , (F −1 {(2π)−1/2 })(k) = δ(x), (4.9.6)

que aparece más frecuentemente en la forma ya conocida (11)


1 1
±ikx
e dk = 2π δ(x), δ(x) e±ikx dx = 1. (4.9.7)
R R

Este resultado ha sido utilizado para demostrar la relación de Parseval


en la sección precedente.
154 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.10 La transformación de Fourier rápida (FFT)

En muchos de los problemas que se le pueden presentar al cientı́fico o al


ingeniero en la vida “real” (entendiendo por esto aquellos cálculos que le
surgen en el desempeño de su trabajo y no en los ejercicios más o menos
teóricos o idealizados que se proponen en clase), éste ha de recurrir con fre-
cuencia a encontrar la solución con la ayuda de un ordenador, y ha de hacer,
por tanto, cálculos numéricos aproximados. El caso de la transformación
de Fourier no es una excepción.
Para encontrar numéricamente la transformada de Fourier de una fun-
ción f (x), lo que se suele hacer es discretizar el problema, y en lugar de
considerar que x es una variable continua, se supone que pasa a tomar sólo
valores discretos xj , j = 0, . . . , N − 1, equidistantes en un cierto intervalo
de la recta real. De esta manera, la integral (4.3.1) extendida a toda la
recta real se sustituye por una suma finita:
N
& −1
f˜(k) = f (xj ) e−ikxj ∆xj . (4.10.1)
j=0

Esta nueva función f˜(k) que acabamos de definir se llama “transformación


de Fourier discreta” (en inglés discrete Fourier transform o DFT). Existı́an
algoritmos para hacer el cálculo numérico de expresiones de este tipo para
un número elevado de puntos N , pero presentaban el inconveniente de
que se requerı́a un gran tiempo de cálculo. Por este motivo se desarrolló
un algoritmo denominado “transformación de Fourier rápida” (en inglés
fast Fourier transform o FFT), que es un nuevo modo de calcular (4.10.1)
reordenando adecuadamente los términos de la suma. Fueron Cooley y
Tukey4 quienes introdujeron este algoritmo, cuya importancia estriba en
la drástica reducción del número de operaciones requeridas. Debido a la
tremenda velocidad de cálculo que se ha logrado en los últimos años, ası́
como a la reducción del coste de esos cálculos, la FFT ha supuesto un hito
en el campo del análisis numérico, y es considerada por muchos como uno
de los pocos avances realmente significativos en este campo en los últimos
tiempos.
Para ser más precisos, para una muestra de N puntos (que, en su caso,
pueden ser ciertas medidas experimentales), un cálculo directo de (4.10.1)
4
John Wilder Tukey (1915–), matemático y quı́mico estadounidense que trabaja es-
pecialmente en estadı́stica.
4.11. LA TRANSFORMACIÓN EN “ONDITAS” 155

requiere alrededor de N 2 multiplicaciones. Cuando se elige que N sea una


potencia de 2, la técnica de Cooley y Tukey reduce el número de multipli-
caciones requeridas a (N/2) log2 N . En particular, si N = 210 = 1024, la
FFT reduce el número de cálculos por un factor de 200, y resulta ser 100
veces más rápida que el cálculo directo de la DFT. Esta es la razón de que
se le llame “rápida” y también de que haya revolucionado el procesamiento
digital de señales. No pretendemos entrar en más detalles respecto de este
interesante asunto, pero creemos que hoy en dı́a, dada la importancia que
para casi todo cientı́fico tiene el uso del cálculo numérico, conviene tener
al menos noticia de la existencia de este potentı́simo algoritmo, que quizá
el lector pueda precisar algún dı́a. Para una información más detallada
pueden consultarse las referencias indicadas en la bibliografı́a.

4.11 La transformación en “onditas”

Actualmente las técnicas relacionadas con la transformación de Fourier se


utilizan muchı́simo en las aplicaciones industriales del análisis y tratamiento
de señales, tanto en geofı́sica y sismologı́a, como en análisis y sı́ntesis de
sonido, o en aplicaciones médicas de reproducción de imágenes obtenidas
por tomografı́a, por citar algunos ejemplos. En general, en estas aplica-
ciones se trata siempre de obtener de una señal las informaciones realmente
relevantes bajo la forma de unos valores numéricos caracterı́sticos y poco
numerosos. Las series de Fourier son la más antigua de las herramientas
disponibles en este campo y son realmente útiles desde la invención de la
FFT, ya mencionada, en especial para el análisis de señales periódicas y su-
ficientemente regulares. En este caso los coeficientes de Fourier cn se hacen
rápidamente despreciables según aumenta |n|, de manera que unos pocos
valores numéricos de los coeficientes bastan para caracterizar de forma efi-
ciente la función en el dominio de frecuencias. Ahora bien, cuando la señal
se hace irregular, se hace necesario contar con una lista demasiado numerosa
de valores de los coeficientes, lo cual resulta poco práctico.
Para analizar las señales no periódicas se puede recurrir a la transfor-
mación de Fourier, que nos da un espectro continuo de frecuencias k. Antes
de la invención del algoritmo de la FFT, el interés de la transformación de
Fourier era sobre todo teórica, pues los cálculos efectivos resultaban real-
mente demasiado largos como para resultar eficaces. No obstante, aún con-
tando con la FFT, el análisis de Fourier presenta grandes inconvenientes
156 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

que no permiten realizar un análisis satisfactorio de cualquier tipo de señal.


Ası́ por ejemplo:

1. En el espectro F (k) de una función f (x) todos los aspectos relevantes


en la variable x (que muchas veces es el tiempo) desaparecen; por
ejemplo el comienzo y el final de una señal finita, o el momento en el
que aparece una singularidad.
2. Para el cálculo propiamente dicho del espectro F (k) de una señal
f (x), es preciso conocer el valor de f (x), ∀x ∈ R. Pero ésto, que se
puede realizar como un ejercicio teórico, resulta imposible en el caso
de una señal en tiempo real, en el cual la señal es procesada a medida
que los valores numéricos nos van llegando, siendo imposible conocer
la señal en el futuro lejano. Resulta por tanto imposible conocer el
espectro, aunque sea aproximado, de una señal de la que no se conoce
nada sobre su futuro, ya que podrı́an ir apareciendo frecuencias de
cualquier valor numérico.

Esto hace pensar que serı́a muy útil contar con una descripción de la función
o señal f (x) que efectuara a la vez un análisis en “tiempo” (nuestra varia-
ble x) y en “frecuencia” (nuestra variable k), como lo hace, por ejemplo,
una partitura musical, que nos da a la vez la frecuencia de las notas musi-
cales y su duración temporal. Las onditas o wavelets son una herramienta
diseñada para cumplir esta misión, capaces de descomponer de manera efi-
ciente funciones no periódicas de campos muy diversos, como pueden ser
soluciones de ecuaciones diferenciales con discontinuidades bruscas, señales
unidimensionales o bidimensionales correspondientes a sonidos o imágenes,
soluciones de ecuaciones integrales para operadores singulares, etc. Cu-
riosamente, la teorı́a de wavelets, o transformada en wavelets, es esen-
cialmente una sı́ntesis de los trabajos desarrollados durante la década de
1980 en campos aparentemente tan dispares como la fı́sica cuántica, las
matemáticas puras o la ingenierı́a eléctrica. Vamos a comentar a continua-
ción, de manera muy breve y esquemática, el fundamento que subyace a
esta nueva transformación, o descomposición en “tiempo-frecuencia”.
Consideremos una función f (t) que depende del tiempo. Si nos interesa
su “contenido en frecuencias”, tambien llamado “espectro”, hemos visto
que debemos recurrir a calcular su transformada de Fourier (4.3.1)
1 ∞
1
F (k) = √ f (x) e−iks ds.
2π −∞
4.11. LA TRANSFORMACIÓN EN “ONDITAS” 157

Al igual que todos los armónicos están presentes en f (t), pero no se sabe
cuánto contribuye cada uno, lo mismo sucede con la información temporal
que está presente en F (k), pero que no se puede conocer a primera vista.
¿Cómo realizar la descripción o descomposición de la función en tiempo
y en frecuencia a la vez, al modo de un pentagrama musical? La idea básica
generaliza la transformación de Fourier usando lo que se llama una familia
de funciones ventana ψm,n (t) con las que se muestrea la señal f (t) mediante
el cálculo de productos escalares
1
Wm,n (f ) = f (s) ψm,n (s) ds, (4.11.1)
R

donde m indicará la localización en frecuencia y n la localización en el


tiempo. A Wm,n (f ) le llamaremos transformada en onditas de f (t). La
familia de wavelets u onditas se construye a partir de una ondita analizante
u ondita madre ψ(t), que se elige de manera que esté bien concentrada en
tiempo y en frecuenca, y tal que
1
ψ(t) dt = 0,
R

lo que significa que posee al menos una oscilación en su dominio de defini-


ción. Las otras onditas de la familia se construyen a partir de la original
mediante dilataciones y traslaciones:
−m/2
ψm,n (t) = a0 ψ(a−m
0 t − nb0 ), m, n ∈ Z, (4.11.2)
donde a0 > 1 y b0 > 0 son parámetros fijados que determinan también la
estructura de las onditas. Al variar m las oscilaciones de ψ(t) se aglutinan
o se expanden, en un efecto tipo acordeón. Para m fijo, ψm,n son las
onditas trasladadas de ψm,0 . Es precisamente esta capacidad de traslación
y el efecto acordeón, que permite si es necesario centrar las onditas en
cierta región relevante de la recta real, lo que hace de ellas una herramienta
sumamente potente.
Para dar algún ejemplo concreto necesitaremos partir de una ondita
madre y usar la expresión (4.11.2); en lo sucesivo tomaremos, como suele
ser usual, los siguientes valores de los parámetros: a0 = 2 y b0 = 1.

Ejemplo 3: el primer ejemplo que vamos a ofrecer es el más antiguo y quizá


el más sencillo, son las onditas de Haar5 (conocidas desde 1910, aunque en
5
Alfréd Haar (1885–1933), matemático húngaro recordado sobre todo por sus trabajos
en teorı́a de grupos.
158 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

otro contexto diferente), construidas a partir de la ondita madre siguiente



 1, 0 ≤ t < 12 ,

ψ(t) = −1, 1
2 ≤ t < 1,


0 t∈
/ [0, 1).

Ejemplo 4: las onditas de Morlet se construyen a partir de la función


2 /2
ψ(t) = e−t cos 5t.

Prácticamente cualquier función ψ que sea oscilante, tal que tanto ella como
su transformada de Fourier estén bien localizadas, y que además su integral
sea nula, será útil como ondita madre. Ası́ por ejemplo, la derivada segunda
de una gaussiana, que es un “sombrero mexicano”
2 2
ψ(t) = √ (1 − t2 ) e−t /2 .
3π 1/4

Se propone como ejercicio al lector realizar representaciones gráficas de


algunas de las onditas ψm,n (t) que surgen de los tres ejemplos comentados.
Hemos comentado sólo la existencia de estas familia de onditas, con
las cuales se puede realizar un análisis en tiempo frecuencia de la función
señal f (t) obteniendo unos valores de la transformada en onditas Wm,n (f )
según (4.11.1). Pero para que esta herramienta sea de alguna utilidad en
las aplicaciones han de suceder dos cosas:

1. Que sea posible caracterizar completamente la función f a partir de


la transformada en onditas Wm,n (f ).

2. Que sea posible reconstruir f de forma numérica a partir de Wm,n (f ),


y esto de forma estable.

Pues bien, en la práctica dada una ondita madre como las mostradas en los
ejemplos anteriores o similares, sı́ es posible construir algoritmos explı́citos
que permiten cumplir los dos objetivos anteriormente indicados. Para más
información, se recomienda consultar los libros de Daubechies y Gasquet-
Witomski que se citan al final del capı́tulo, ası́ como la bibliografı́a ofrecida
en ellos.
4.12. PROBLEMAS 159

4.12 Problemas
1. Considérense las funciones:
2
a) f (x) = N e−αx ; N, α = ctes. > 0.
a
b) f (x) = ; a = cte. > 0.
x2 + a2
Hállese la transformada de Fourier de ambas, F (k) = F{f (x)}, compárese
con la función original f (x) y compruébese que F −1 {F (k)} = f (x).
2. Calcúlese la transformada de Fourier de las siguientes funciones:
a) f (x) = cte.; b) f (x) = H(x);
)
b, 0 < x ≤ T,
e) f (x) = k) f (x) = sen ax;
0, en el resto de R;
c) f (x) = signo (x); d) f (x) = xH(x);
)
1, |x| ≤ a,
f ) f (x) = rect (x/a) = h) f (x) = exp(iax);
0, |x| > a;
j) f (x) = cos ax rect(x/d); l) f (x) = x−n ;
)
a − |x|, |x| ≤ a,
g) f (x) = tri (x, a) = i) f (x) = cos(x2 );
0, |x| > a;
m) f (x) = |x|; n) f (x) = cos ax;

ñ) f (x) = xn .
1 ∞
1
3. Si F (k) = F{f (x)}, k != 0 y F (0) = √ f (u) du != 0, demuéstrese
2π −∞
que /1 x 0
F (k)
F f (u) du = −i + πF (0) δ(k).
−∞ k
Hállese el resultado cuando k = 0.
4. Si F (k) = F{f (x)}, demuéstrese que F{F (x)} = f (−k) y aplı́quese este
resultado para hallar la transformada de Fourier de
sen (ax)
f (x) = sinc (ax) = , a = cte.
ax
5. Evalúense las transformadas de Fourier en coseno y en seno de la función
f (x) = e−ax , x > 0, a > 0.
160 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

6. Sea f (x) una función tal que ella y su derivada primera se anulan cuando
x → ∞. Si Fc (k) y Fs (k) son sus transformadas de Fourier en coseno y en
seno respectivamente, demuéstrese que
5 5
2 % 2
Fc {f (x)} = −k Fc (k) −
%% 2
f (0) Fs {f (x)} = −k Fs (k) +
%% 2
kf (0).
π π

7. Hállese Fc −1 [Fc (k)Gc (k)] y Fs −1 [Fs (k)Gs (k)] en función de la convolución


de las funciones originales f (x) y g(x).
8. Suponiendo que en todos los casos a > 0, determı́nese la transformada de
Fourier de las funciones:
a) f (x) = H(x) e−ax . b) f (x) = H(−x) eax .

c) f (x) = sen(βx) H(x) e−ax . d) f (x) = x H(x) e−ax .

e) f (x) = e−a|x| . f ) f (x) = sen(βx) H(−x) eax .


 
&n
1 1
g) f (x) = . h) f ("x ) = exp − Aij xi xj  .
1 + x4 2 i,j=1

9. Evalúense las siguientes integrales indefinidas:


1 ∞ 1 ∞
a sen ax cos ax
a) 2 + b2
da b) 2 + b2
da .
0 a 0 a

Demuéstrese también la siguiente igualdad:


1 $ % 1 )
2a2 ∞
θx dθ θ x2 , 0 ≤ x < a;
c) cos v cos v dv =
2
π 0 a θ3 0 0, x > a.

10. Sea f ("r ) : R3 → R una función con simetrı́a esférica. Demuéstrese que
5 1 ∞
2
F{f ("r )} = r2 f (r) sinc (kr) dr.
π 0

Aplı́quese este resultado para hallar la transformada de Fourier de la función

e−λr
f (r) = .
r

11. Demuéstrese que F 4 = I, es decir que el resultado de aplicar, de manera


sucesiva, cuatro veces la tranformada de Fourier a una función, da como
resultado la función original.
4.12. PROBLEMAS 161

12. Usando algún resultado del problema 2, calcúlese


1 ∞ $ %2
sen t
dt.
−∞ t

13. Resuélvanse las siguientes ecuaciones diferenciales en función de los valores


de f (x) utilizando el recurso de la tranformación de Fourier
a) u%% (x) + u% (x) − 2u(x) = f (x).
b) u%% (x) − u(x) = f (x).
c) u%% (x) + 2u% (x) + u(x) = f (x).
d) u%% (x) + 4u% (x) + 5u(x) = f (x).
e) u%% (x) − 4u% (x) + 5u(x) = f (x).

14. Evalúense las tranformadas de Fourier tridimensionales de


"r −ar
a) f ("r ) = e−ar ; b) f ("r ) = "r e−ar ; c) f ("r ) = e .
r

15. Considérese la función



 β (x − α) si x ∈ [0, α]
2

f (x) = β (x + α)2 si x ∈ [−α, 0]


0 si x ∈
/ [−α, α]

siendo α y β números reales positivos arbitrarios.


a) Dibújese de forma precisa la gráfica de esta función.
b) Calcúlese el parámetro β en función de α para que el área determinada
por la función f (x) y el eje de abscisas valga la unidad.
c) Con esta elección de β, ¿qué cree que sucederá con la función f (x) cuando
consideremos el lı́mite α → 0? No se exige una demostración rigurosa, pero
sı́ una explicación de la respuesta.
d) Calcúlese la transformada de Fourier F (k) de f (x). (¡Cuidado al hacer
las integrales!)
e) ¿Cuánto vale F (0), la transformada de Fourier en k = 0?
f ) En el supuesto de que β tome el valor determinado en el apartado b),
calcúlese el lı́mite lim F (k). ¿Concuerda este resultado con la respuesta
α→0
dada en c)?

16. Dibújese la función f (x) = e−α |x| rect (x), (α ≥ 0) y calcúlese su transfor-
mada de Fourier.
162 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

17. El momento n-ésimo mn de una función f (x) se define


1 ∞
mn = xn f (x) dx, n = 0, 1, 2, . . .
−∞

Si F(k) = F[f (x)], demuéstrese que


√ 2
2π dn F (k) 22
mn = .
(−i)n dk n 2k=0

Pruébese también que



1 & kn
F (k) = √ (−i)n mn .
2π n=0 n!

18. Evalúense las tranformadas de Fourier en seno de


)
sen x, 0 ≤ x ≤ π;
a) f (x) = e−x cos x. b) f (x) =
0, x > π.

c) f (x) = xe−ax . d) f (x) = xa−1 , 0 < a < 1.

19. Resuélvanse las siguientes ecuaciones integrales:


1 ∞
y(u) du 1
a) = 2 , 0 < a < b.
−∞ (x − u) + a
2 2 x + b2
1 ∞
b) y(x) = g(x) + y(u) r(x − u) du; g(x), r(x) conocidas.
−∞

1 )
∞ 1 − a, 0 ≤ a ≤ 1;
c) f (x) sen ax dx =
0 0, a > 1.
1 ∞
2
d) y(u) y(x − u) du = e−x .
−∞


 1, 0 ≤ t < 1;
1 ∞ 

e) y(x) sen xt dx = 2, 1 ≤ t < 2;
0 



0, t ≥ 2.
4.12. PROBLEMAS 163

20. Utilı́cense algunos de los resultados del problema 14 para calcular la “integral
de solapamiento”:
1
e−αr e−β|*r−*x | d3"r, α, β > 0.

Distı́nganse los casos α != β y α = β.


21. Supóngase que tenemos un sistema fı́sico sometido a una excitación descrita
por una función de entrada fi (t), que responde con una función de salida
fo (t). Diremos que tal sistema es lineal si su respuesta a la excitación

fi (t) = a1 fi1 (t) + a2 fi2 (t), a1 , a2 = constantes,

es
fo (t) = S[fi (t)] = a1 fo1 (t) + a2 fo2 (t).
Por “S” indicamos la actuación del sistema sobre la entrada.
La respuesta de un sistema lineal cuando la entrada es el impulso δ(t) se
denota como g(t) y se denomina “función respuesta impulso” del sistema.
La transformada de Fourier de g(t) se denomina “función de transferencia”
del sistema y se denota por G(ω).
Si la respuesta del sistema a la excitación fi (t − t0 ) es

fo (t) = S[fi (t − t0 )] = fo (t − t0 ),

se dice además que el sistema es invariante en el tiempo (t0 es una constante


arbitraria).
a) Demuéstrese que la respuesta fo (t) de un sistema lineal e invariante en el
tiempo a una entrada arbitraria fi (t) se puede expresar como la convolución
de la entrada con la función respuesta impulso del sistema:

fo (t) = g(t) ∗ fi (t) = fi (t) ∗ g(t).

b) Ası́mismo, si Fi (ω) y Fo (ω) son las transformadas de Fourier de fi (t) y


fo (t), respectivamente, demuéstrese que

Fo (ω) = 2π Fi (ω) G(ω),

de modo que en el espacio de frecuencias el sistema lineal actúa multiplicati-


vamente, siendo G(ω) una función que pondera las componentes de diferente
frecuencia de la entrada (se dice que el sistema actúa como un “filtro”).
22. Si G(ω) = R(ω) + iI(ω) es la función de transferencia de un sistema lineal
e invariante en el tiempo, hállese la respuesta del sistema, fo (t), cuando
la entrada es fi (t) = cos ω0 t H(t), en función de R(ω) e I(ω). H(t) es la
función de Heaviside.
164 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

23. El “filtro ideal para frecuencias bajas” o filtro “pasa-baja”, se define como
un sistema cuya función de transferencia G(ω) está dada por:

 1
 √ exp{−iωt0 }, |ω| ≤| ωc |,
G(ω) = 2π


0, |ω| > |ωc |,
donde ωc es la llamada “frecuencia de corte”. Hállese la función respuesta
impulso del sistema g(t) y la respuesta al escalón unitario, comentando el
resultado obtenido.
24. Un sistema fı́sico pasivo tiene la propiedad de que si la fuente es nula para
t < t0 , entonces la respuesta también es nula para t < t0 . Un sistema que
satisface esta condición se denomina causal. Se puede demostrar que todos
los sistemas fı́sicamente realizables son causales. Si G(ω) = R(ω) + iI(ω)
es la función transferencia de un sistema lineal, invariante en el tiempo y
causal, hállese la respuesta del sistema a la función salto y la transformada
de Fourier de la respuesta en función de R(ω) e I(ω).
25. Teorema del muestreo en el dominio de la frecuencia. Demuéstrese que
si una función f (t) es nula en todo su dominio excepto en el intervalo
−T < t < T , entonces su transformada de Fourier F (ω) se puede deter-
minar unı́vocamente a partir de sus valores F (nπ/T ), localizados en puntos
equidistantes separados en π/T . De hecho, F (ω) está dada por:
&∞ $ %

F (ω) = F sinc (ωT − nπ).
n=−∞
T

26. Se denomina modulación al método de procesar una señal para obtener una
transmisión más eficiente. Un tipo de modulación comúnmente utilizado
(modulación de amplitud) se basa en el “teorema de traslación de la fre-
cuencia”, algunas veces llamado “teorema de modulación”. Este teorema
establece que la multiplicación de una señal f (t) por otra sinusoidal o cosi-
nusoidal de frecuencia ωc traslada su espectro en ±ωc radianes. Verifı́quese
este teorema y demuéstrese que si f (t) es una señal de banda limitada (sin
componentes espectrales por encima de una frecuencia dada ωm ), entonces
el espectro de la seǹal f (t) cos(ωc t) es también de banda limitada.
27. Se puede suponer que un átomo de hidrógeno en su estado de energı́a más
baja consiste en una carga nuclear +0 y una distribución de carga negativa
α3 −αr
ρ("r ) = −0 e .

Evalúese la energı́a potencial total de la interacción coulombiana entre dos
átomos de este tipo. Para ello tómese como origen de coordenadas uno de
los átomos, denótese por "x el vector de posición del otro átomo con respecto
a él y utilı́cense unas nociones elementales de electromagnetismo.
4.12. PROBLEMAS 165

28. Considérese una pantalla delgada absorbente cuyo coeficiente de transmisión


de amplitud del campo electromagnético viene expresado por la función
transmitancia:
! " 'x( 'y(
1 m
t(x, y) = + cos(k0 x) rect rect , a, b > 0, m ≤ 1,
2 2 2a 2b
donde k0 = 2π/Γ, siendo Γ el perı́odo espacial de las variaciones de la
transmitancia. Dicha pantalla constituye una red de difracción de amplitud
sinusoidal. Si la pantalla se ilumina bajo incidencia normal con una onda
plana monocromática de amplitud unidad, la distribución de campo sobre
la misma, E(x, y), es precisamente igual a t(x, y). Determı́nese la figura de
difracción de Fraunhofer creada por dicha red.

NOTA: la distribución de intensidad


2 de campo
22 en la figura de difracción
de Fraunhofer es I(kx , ky ) = A 2F[E(x, y)]2 , donde A es un factor de pro-
porcionalidad que depende de la longitud de onda de la luz que ilumina y
de la distancia z de la pantalla al plano de observación; (x, y) son las co-
ordenadas en el plano de la pantalla y kx , ky son las frecuencias espaciales
(relacionadas con las direcciones angulares), dadas por:
$ % % $ % %
2π x 2π y
kx = , ky = ,
λ z λ z
siendo (x% , y % ) las coordenadas en el plano de observación.
29. Considérese una viga delgada de longitud L (en reposo permanece para-
lela al eje horizontal x) que descansa sobre una base elástica. Con esta
condición se quiere indicar que la base es capaz de ejercer una fuerza de
reacción por unidad de longitud que es proporcional a la magnitud de las
deformaciones sufridas por la viga como consecuencia de la actuación de una
fuerza externa sobre ella. Denótese por z(x) la deformación que sufre la viga
respecto a la horizontal; la ecuación diferencial que satisface esta magnitud
es: E I z (iv) (x) = q(x) − C z(x), C = cte., siendo q(x) la fuerza externa
por unidad de longitud. Hállese z(x) cuando la viga se carga con una fuerza
concentrada en su punto medio.
30. Determı́nese el desplazamiento z(x, t) de una cuerda perfectamente elástica
e infinitamente larga, cuya posición de equilibrio es una recta paralela al eje
x, cuando se deja que vibre libremente, sin fricción, en el plano x − z, con
velocidad inicial nula. El desplazamiento inicial está dado por la función
f (x), −∞ < x < ∞.

31. Hállese la transformada de Fourier de la función y = 1 − x2 . Se ofrece
como dato 1 π/2
2 (cos θ)2n dθ = B(1/2, n + 1/2).
0
166 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

32. Dada una función f (x) ∈ L2 (R), que puede representar cierta magnitud
fı́sica, se definen el valor medio de la variable x con esta función, denotado
x̄, y la dispersión de f (x) alrededor de x̄, denotada ∆x, del siguiente modo:
1 ∞ 1 ∞
1 1
x̄ = x |f (x)|2 dx, (∆x)2 = (x − x̄)2 |f (x)|2 dx,
||f ||2 −∞ ||f ||2 −∞
1 ∞
siendo ||f ||2 = |f (x)|2 dx. Definiciones análogas sirven para la trans-
−∞
formada de Fourier F (k), el valor medio k̄ y la dispersión ∆k.

Usando la desigualdad de Schwarz6 para integrales de funciones reales


21 ∞ 22 $1 ∞ % $1 ∞ %
2 2
2 f (x) g(x) dx22 ≤ f (x) dx
2 2
g(x) dx ,
2
−∞ −∞ −∞

demuéstrese el principio de incertidumbre en el análisis de Fourier

1
(∆x)(∆k) ≥ ,
2

y compárese con el principio de incertidumbre de Heisenberg7 de la mecánica


cuántica (véase por ejemplo el ejercicio 5.15, página 289, del libro de Lévy-
Leblond y Balibar mencionado en la bibliografı́a).

33. Calcúlese la transformada de Fourier de la función


)
1 − |x/2|, −2 ≤ x ≤ 2,
f (x) =
0, en el resto de R.

Utilı́cese este resultado para determinar el valor de la integral


1 ∞ $ %4
sen t
dt.
−∞ t

34. Hállese la transformada de Fourier de la función




f (x) = (1 + |x|) e−|x| .
4
6
Karl Herman Amandus Schwarz (1843–1921), matemático alemán que trabajó en
transformaciones conformes y en problemas de cálculo variacional, en concreto sobre
superficies de área mı́nima.
7
Werner Karl Heisenberg (1901–76), fı́sico alemán que fue uno de los fundadores de
la mecánica cuántica, y recibió el premio Nobel de Fı́sica en 1932.
4.12. PROBLEMAS 167

35. Dada la función


1
f (x) = ,
x(x2 + 1)

demuéstrese que
5
π
F (k) = −i (1 − e−|k| ) signo (k).
2

36. Sea f (x, y) una función de dos variables reales. Para cada tres valores fijados
(k1 , k2 ; q) consideremos las rectas γ(k1 , k2 ; q) := k1 x + k2 y = q en el plano
R2 . Se define la transformada de Radon8 de la función f (x, y) como9
1
1 1
R{f (x, y)}(k1 , k2 ; q) = √ 6 f (x, y) d' ≡ FR (k1 , k2 ; q),
2π k12 + k22 γ(k1 ,k2 ;q)
6 (4.12.1)
siendo d' el elemento de lı́nea d' = (dx)2 + (dy)2 .

a) Escrı́base la función FR (k1 , k2 ; q) como una integral en la variable x y


luego como una integral en la variable y.

b) Pruébese que FR (k1 , k2 ; q) es una función homogénea de grado −1, es


decir, verifica
1
FR (λk1 , λk2 ; λq) = FR (k1 , k2 ; q).
|λ|

c) La transformada de Radon que acabamos de definir esta relacionada con


la transformada de Fourier inversa de f (x, y). Encuéntrese la forma precisa
de esta relación evaluando la siguiente integral:
1 ∞
1
Fλ−1 {F (λk1 , λk2 )} ≡ √ F (λk1 , λk2 ) eiλq dλ,
2π −∞

siendo F (k1 , k2 ) = F{f (x, y)}.

d) Obténgase de lo anterior una expresión para FR (k1 , k2 ; q) como una in-


tegral extendida a todo R2 de f (x, y).

8
Johann Radon (1887–1956), matemático austrı́aco.
9
La transformada de Radon es el fundamento matemático que explica una técnica
llamada tomografı́a, que es usada en medicina, en concreto en los aparatos denominados
“scanners”. Para más detalles véase el artı́culo de Cormack que se cita en la bibliografı́a.
168 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.13 Bibliografı́a
1. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
2. G.D. Bergland, A Guided Tour of the Fast Fourier Transform, IEEE Spec-
trum, pp. 41-52 (1969).
3. E.O. Brigham and R.E. Morrow, The Fast Fourier Transform, IEEE Spec-
trum, pp. 63-70 (1967).
4. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
5. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
6. Cooley, J.W. and Tukey, J.W., An algorithm for the machine calculation of
complex Fourier series, Math. Comput. 19, 297-301 (1965).
7. Cormack, A.M., Representation of a function by its line integrals with some
radiologycal applications, J. Appl. Phys. 34, 2722-2727 (1963).
8. Daubechies, I., Ten lectures on wavelets, CMBS Lecture Notes 61, SIAM,
1992.
9. Daubechies, I., Different perspectives on wavelets, Proceedings of Symposia
in Applied Mathematics, Vol. 47, AMS, 1993.
10. Gasquet, C., et Witomski, P., Analyse de Fourier et applications, Masson,
1990.
11. Hsu, H. P., Análisis de Fourier , Fondo Educativo Interamericano, 1973.
12. Lévy-Leblond, J.M. and Balibar, F., Quantics: rudiments of quantum phys-
ics, North-Holland, 1990.
13. J.E. Marsden and M.J. Hoffmann, Basic Complex Analysis, Freeman and
Co., 1987.
14. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
15. M.R. Spiegel, Transformadas de Laplace, Colección Schaum, McGraw-Hill,
1970.
16. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
17. C.R. Wylie, Matemáticas superiores para ingenierı́a, E. del Castillo, 1969.
Capı́tulo 5

LA TRANSFORMACIÓN
DE LAPLACE

5.1 Introducción

Aunque la transformación de Fourier es una herramienta de cálculo muy


poderosa, su uso no resulta satisfactorio para resolver determinados pro-
blemas. Se adapta bien al estudio de funciones definidas en toda la recta
real, pero para no salirnos del ámbito de las funciones y toparnos con las
distribuciones, las funciones que se consideran han de ser tales que tiendan
rápidamente a cero cuando |x| →∞ (pueden ser, por ejemplo, funciones
del espacio de Schwartz). En muchas situaciones fı́sicas el problema que se
estudia tiene existencia y sentido no para todo x ∈ R, sino sólo a partir
de un punto, digamos x = 0, en adelante. A veces la variable indepen-
diente es el tiempo en el que evoluciona un determinado sistema y se desea
estudiar el problema a partir de un instante inicial, ya que no interesa lo
que ocurre con anterioridad. Para analizar este tipo de situaciones existe
una técnica denominada transformación de Laplace 1 , que vamos a estudiar
a continuación. La transformación de Laplace tiene gran utilidad para
resolver determinados tipos de ecuaciones diferenciales lineales, ası́ como
sistemas de ecuaciones diferenciales lineales. Para estudiar en profundidad
los entresijos de esta técnica resulta imprescindible recurrir a determinadas

1
Pierre Simon de Laplace fue el primero que usó este tipo de expresiones en sus
estudios sobre la teorı́a de las probabilidades.

169
170 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

técnicas propias de la teorı́a de funciones de variable compleja, en especial


cuando se trata de invertir la transformacion de Laplace.

5.2 De la transformación de Fourier a la de Laplace

Como acabamos de comentar, en multitud de aplicaciones prácticas la


función que es el objeto de nuestro estudio sólo nos interesa para valores de
la variable independiente en R+ = [0, ∞), o bien ocurre simplemente que la
función se anula para x < 0. Sea f (x) una función como la que acabamos
de mencionar. Su transformada de Fourier será
1 ∞ 1 ∞
1 −ikx 1
F (k) = √ f (x) e dx = √ f (x) e−ikx dx, (5.2.1)
2π −∞ 2π 0
e invirtiendo la transformación tendremos
1 ∞
1
f (x) = √ F (k) eikx dk. (5.2.2)
2π −∞
Estas expresiones pueden ser de utilidad, pero ya hemos visto que funciones
tan sencillas como la de Heaviside H(x) nos hacen salirnos fuera del campo
de las funciones y obtenemos distribuciones temperadas. En este caso, y
en otros similares, la dificultad estriba en que la integral no es convergente.
Un modo de dar sentido a algunas integrales de este tipo es añadir un factor
de atenuación e−ax (a > 0) a la función f (x). En efecto, definamos una
nueva función asociada a f (x) del siguiente modo2 :
)
0, x < 0,
fa (x) := (5.2.3)
e −ax f (x), x ≥ 0.
La función que nos interesa es f (x), que se anula para x < 0. Apliquemos
la transformada de Fourier a la función fa (x) que acabamos de introducir.
Obtendremos una función que depende de k y de a:
1 ∞
1
Fa (k) = F{fa (x)}(k) = √ e−ax f (x) e−ikx dx
2π 0
1 ∞
1
=√ f (x) e−(a+ik)x dx. (5.2.4)
2π 0
2
Obsérvese que siendo a > 0 y x > 0, esta función tiende a cero cuando x → ∞ más
rápidamente que el inverso de cualquier polinomio si, por ejemplo, la función f (x) está
acotada o no crece demasiado deprisa.
5.3. PRINCIPALES RESULTADOS 171

La transformación inversa nos dará en este caso


1 ∞
−ax 1
e f (x) = √ Fa (k) eikx dk, x > 0, (5.2.5)
2π −∞
de donde 1
1 ∞
f (x) = √ Fa (k) e(a+ik)x dk, x > 0. (5.2.6)
2π −∞
Tanto en la transformación directa como en la inversa, vemos que a y k
intervienen mediante la combinación s := a + ik. Debido a este hecho,
podemos escribir

2π Fa (k) := F (a + ik) = F (s). (5.2.7)

Hagamos también el cambio de variable x ≡ t. Con esto, las fórmulas


(5.2.4) y (5.2.6) se escriben en la forma
1 ∞
F (s) = f (t) e−st dt, s = a + ik, a > 0. (5.2.8)
0
1 1
1 ∞
1 a+i∞
f (t) = F (a + ik) e(a+ik)t dk = F (s) est ds. (5.2.9)
2π −∞ 2πi a−i∞

Estas dos fórmulas constituyen un par de transformadas de Laplace. Esta-


mos usando la notación más extendida, pero siempre es posible encontrar
variantes en la bibliografı́a. Nosotros denotaremos habitualmente por letras
minúsculas las funciones definidas en t ∈ [0, ∞), y por las correspondientes
letras mayúsculas sus funciones transformadas, funciones de la variable
compleja s.

5.3 Principales resultados sobre la transformación


de Laplace

Hemos visto como se llega de manera natural a la definición de la transfor-


mada de Laplace a partir de la transformada de Fourier para funciones f (t)
que sean nulas para t < 0. Ahora bien, surgen de forma inmediata algu-
nas preguntas fundamentales, por ejemplo: ¿cuándo existe la integral que
aparece en la fórmula (5.2.8)? Pues bien, puede ocurrir que la integral no
exista debido a que la función f (t) crezca demasiado deprisa cuando t → ∞;
si hay una singularidad demasiado fuerte en algún punto del intervalo de
172 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

integración, tampoco existirá la integral que nos ocupa. Otra pregunta que
habrá que responder es la siguiente: ¿bajo que condiciones nos permite la
fórmula de inversión (5.2.9) obtener f (t) a partir de F (s) por integración en
la recta a + ik, (k ∈ R)?; y aún más: ¿qué papel juega a para el cálculo de
la transformada de Laplace y de su inversa? Analizaremos estas cuestiones
a continuación de manera un poco más detallada. Pero antes necesitamos
introducir algunas definiciones y resultados para precisar un poco más una
clase de funciones para las cuales podemos efectuar la integral (5.2.8), es
decir, funciones para las cuales vamos a poder encontrar su transformada
de Laplace.

Definición 1: sea f (t) una función medible real o compleja definida para
t ∈ [0, ∞). Diremos que f (t) es de orden exponencial si existen dos cons-
tantes A > 0 y b ∈ R tales que

|f (t)| ≤ A ebt , ∀ t ∈ R+ . (5.3.1)

Toda función de este tipo verifica para ' ∈ [0, ∞) lo siguiente:


21 " 2 1 " 1 "
2 2
2 2
f (t) dt2 ≤ |f (t)| dt ≤ A ebt dt < ∞. (5.3.2)
2
0 0 0

Como ejemplos de funciones de orden exponencial tenemos cualquier poli-


nomio o cualquier función acotada; en el campo opuesto tenemos la función
3
f (t) = et , que no es de orden exponencial (y cuya transformada de Laplace
no existe).

Teorema 1: sea f (t) una función real o compleja definida en R+ y tal que

1. f (t) es de orden exponencial;

2. f (t) está acotada y es integrable en cualquier intervalo finito [0, ']


(esta condición queda satisfecha si, por ejemplo, f (t) es una función
continua a trozos ∀ t ∈ R+ ).

Entonces existe un único número real que depende de f (t), y que llamare-
mos σ(f ), que verifica −∞ ≤ σ(f ) < ∞ y es tal que la integral que nos
proporciona la transformada de Laplace de f (t)
1 ∞
L{f (t)}(s) := F (s) = e−st f (t) dt, (5.3.3)
0
5.3. PRINCIPALES RESULTADOS 173

converge si Re(s) > σ(f ), diverge si Re(s) < σ(f ) y, en general, no podemos
afirmar nada cuando Re(s) = σ(f ). Por tanto F (s) es una función de
variable compleja definida en el abierto Re(s) > σ(f ). Resulta además que
F (s) es analı́tica, en el sentido de las funciones de variable compleja, en ese
abierto y ahı́ se verifica
1 ∞
dF (s)
=− t e−st f (t) dt. (5.3.4)
ds 0

En particular, si σ(f ) = −∞, la función F (s) es entera3 .

Definiciones 2: como ya hemos comentado, la función F (s) definida ante-


riormente en (5.3.3) es la transformada de Laplace de f (t). El número real
σ(f ) se denomina abscisa de convergencia de la transformada de Laplace
de f (t). Se llama semiplano de convergencia a la región del plano complejo
determinada por la condición Re(s) > σ(f ).

Fijémonos en que el teorema 1 da condiciones suficientes, no necesarias,


para la existencia de la transformada de Laplace de una función. Existen
funciones que no son de orden exponencial pero que, sin embargo, poseen
transformada de Laplace, por ejemplo
2 2
f (t) = 2t et cos et o f (t) = t−1/2 .

No obstante, hay que decir que funciones de este tipo es poco probable que
aparezcan en las aplicaciones fı́sicas. Otros resultados de interés son los
siguientes:

Proposición 1: la abscisa de convergencia es tal que

σ(f ) ≤ inf { b ∈ R/ existe A > 0 para el que se verifica |f (t)| ≤ A ebt }.

Teorema 2: si f (t) es continua y existe un y0 > σ(f ) tal que ∀ s que


verifique Re(s) > y0 se tiene que L{f (t)} = F (s) = 0, entonces f (t) = 0,
∀ t ∈ [0, ∞).

Corolario: si las funciones f (t) y g(t) son continuas y sus transformadas


de Laplace son iguales, F (s) = G(s), cuando Re(s) > y0 > σ(f ), σ(g),
entonces f (t) = g(t).
3
La demostración de este resultado y de los siguientes puede verse en el libro de
Marsden y Hoffmann citado en la bibliografı́a.
174 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

Observación 1. De este resultado se sigue que la transformación de


Laplace es inyectiva para funciones continuas, lo cual permite invertir la
transformación y hallar f (t) conocida F (s).

Observación 2. En las aplicaciones fı́sicas suelen aparecer con frecuencia


funciones discontinuas. Obviamente, para ellas no serán completamente
válidos los resultados precedentes. En particular, dos funciones que coin-
cidan en todo R+ salvo en un conjunto de medida nula tendrán la misma
transformada de Laplace. Pero esta “no unicidad” no debe hacernos pensar
que la transformada de Laplace se convierte en una herramienta inútil, ya
que, como ya se ha comentado en capı́tulos precedentes, desde el punto de
vista fı́sico dos funciones que difieran sólo en un conjunto de medida nula
se pueden considerar prácticamente “iguales” a casi todos los efectos.

Observación 3. Aunque en general s ∈ C, en la mayorı́a de las apli-


caciones prácticas este hecho es irrelevante, y puede suponerse que s ∈ R.
Pero atención: esto no es verdad cuando hemos de invertir la transformación
de Laplace usando (5.2.9) y precisamos integrar en el plano complejo. En-
tonces el carácter complejo de s es crucial.

Ejemplo 1: la transformada de Laplace de f (t) = t3 se puede calcular del


siguiente modo:

1 1 ∞'

u (3 −u du
L[t3 ] = t3 e−st dt = e
0 0 s s
1
1 ∞
Γ(4) 3!
= u3 e−u du = = 4.
s4 0 s4 s

Para efecectuar este cálculo hemos supuesto en primer lugar que la variable
s es real; luego hemos efectuado el cambio de variable u = st y hemos
integrado usando las propiedades de la función Γ(z) vistas en el Capı́tulo 1.
De forma implı́cita se está usando una hipótesis adicional: que s > 0, para
que la integral sea convergente; éste es precisamente el valor de la abscisa
de convergencia: σ(t3 ) = 0. Que el resultado obtenido sigue siendo válido
cuando la variable s ∈ C, Re (s) > 0 se puede demostrar por continuación
analı́tica, pero aquı́ es suficiente con mostrar cómo efectuar el cálculo para
s real.
5.4. PROPIEDADES FUNDAMENTALES 175

5.4 Propiedades fundamentales

La gran utilidad de la transformación de Laplace se basa en las siguientes


propiedades, que únicamente enunciamos y que pueden demostrarse con
facilidad como simples ejercicios:

1. Linealidad: sean F (s) = L{f (t)} y G(s) = L{g(t)}, entonces se


verifica

L{αf (t) + βg(t)} = αF (s) + βG(s), ∀ α, β ∈ R. (5.4.1)

2. Primer “teorema de desplazamiento”:

L{eat f (t)} = F (s − a). (5.4.2)

3. Segundo “teorema de desplazamiento”:

L{H(t − τ ) f (t − τ )} = e−τ s F (s). (5.4.3)

Este resultado es útil para calcular la transformada de Laplace de fun-


ciones discontinuas que, como ya se ha visto al estudiar las distribu-
ciones, se pueden escribir usando la función de Heaviside H(t − τ ).
4. Cambio de escala:
1
L{f (at)} = F (s/a), a > 0. (5.4.4)
a
5. Transformada de Laplace de las derivadas: siempre que la función
f (t) sea continua, f ! (t) sea continua a trozos y ambas de orden expo-
nencial, se tiene:
L{f ! (t)} = s F (s) − f (0). (5.4.5)
Para derivadas de orden superior se encuentran expresiones seme-
jantes a ésta, aunque un poco más complicadas.
6. Aún cuando la δ de Dirac no es una función, puede calcularse for-
malmente su transformada de Laplace. Este resultado puede ser de
utilidad en algunas aplicaciones:

1 ∞  a < 0, 0,

−st
L{δ(t − a)} = δ(t − a) e dt = a > 0, e−as ,
0 

a = 0, indeterminado.
176 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

Aunque para a = 0 el resultado está indeterminado, es usual asignar


el valor 1/2, que es la semisuma de los lı́mites laterales de la trans-
formada en 0, para lo cual se pueden dar diversos argumentos (por
ejemplo, considerar el lı́mite débil de una sucesión de funciones que
tienda a la δ).
7. Transformada de Laplace de las derivadas de funciones discontinuas:
si la función f (t) es discontinua con salto finito en algún punto, en-
tonces el resultado (5.4.5) sigue siendo válido, pero haciendo el cálculo
con cuidado y recordando sobre todo que la derivada de una función
discontinua hace aparecer una δ de Dirac “centrada” en cada punto
de discontinuidad.
8. Transformada de Laplace de una integral: si L {f (t)} = F (s), en-
tonces
/1 t 0
F (s)
L f (y) dy = ; (5.4.6)
0 s
/1 t 0 1 a
F (s) 1
L f (y) dy = − f (y) dy. (5.4.7)
a s s 0

9. Un resultado de interés, que generaliza lo expuesto en el teorema 1,


es el siguiente:
dn F (s)
L{tn f (t)} = (−1)n , n = 0, 1, 2, . . . (5.4.8)
dsn
10. Integral de una transformada de Laplace: si F (s) = L {f (t)}
1 ∞ / 0
f (t)
F (u) du = L , (5.4.9)
s t
suponiendo que exista el lı́mite
f (t)
lim .
t→0 t

La integración se efectúa sobre el eje real, para s > σ(f (t)/t).


11. Transformada de Laplace de una función periódica: sea f (t) una
función definida para t ≥ 0, continua a trozos y de perı́odo T , en-
tonces 1 T
1
L{f (t)} = e−st f (t) dt. (5.4.10)
1 − e−sT 0
5.4. PROPIEDADES FUNDAMENTALES 177

12. Teorema del “valor final”. Permite obtener f (∞) ≡ lim f (t), cuando
t→∞
este lı́mite exista, a partir de la transformada de Laplace de f (t):

lim f (t) = lim [s F (s)], s ∈ R. (5.4.11)


t→∞ s→0

13. Teorema del “valor inicial”. Es un resultado que permite recobrar


los valores de f (0), f ! (0), f !! (0), . . . a partir de la transformada de
Laplace de f (t). Para funciones de orden exponencial y continuas a
trozos se verifica lo siguiente:

0 = lim F (s); (5.4.12)


s→∞

lim f (t) = lim [s F (s)]; (5.4.13)


t→0 s→∞

lim f ! (t) = lim [s2 F (s) − s f (0)]; (5.4.14)


t→0 s→∞

lim f (n) (t) = lim [sn+1 F (s) − sn f (0) − sn−1 f ! (0) − · · ·


t→0 s→∞

− · · · − sf (n−1) (0)]. (5.4.15)

Lo anterior es válido siempre y cuando existan los lı́mites involucra-


dos. Los lı́mites en la variable s se efectúan considerando s ∈ R.

14. Derivación respecto de un parámetro: si tenemos una función f (t, λ)


y calculamos su transformada de Laplace respecto de la variable t,
nos dará una función F (s, λ). Entonces, siempre y cuando se posible
introducir la derivada dentro de la integral4 , se verifica:
1 ∞
∂F (s, λ) ∂f (t, λ)
= e−st dt. (5.4.16)
∂λ 0 ∂λ

Las propiedades anteriores que hacen referencia a la transformación de


Laplace directa tienen una lectura “simétrica” y nos dan propiedades de
la transformación de Laplace inversa, que a veces representaremos como
L−1 {F (s)} ≡ f (t) .
En la práctica, para calcular la transformada de Laplace de una cierta
función f (t) pueden utilizarse varios métodos:
4
Las condiciones para poder efectuar esta operación pueden consultarse en las páginas
209–210 del libro de Garnir que se cita en la bibliografı́a.
178 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

a) Hacer directamente la integral (5.3.3) que la define.

b) Desarrollar en serie el integrando f (t) de (5.3.3) y efectuar la inte-


gración término a término. Convendrá cerciorarse en cada caso de
que este procedimiento es legı́timo y de que la serie ası́ obtenida es
convergente.

c) Utilizar alguna de las propiedades anteriormente expuestas para obte-


ner una ecuación diferencial que sea satisfecha por F (s), y que habrá
que resolver para hallar la solución a nuestro problema.

d) Derivar respecto de algún parámetro que aparezca en f (t) para obte-


ner una función más fácil de integrar.

e) Utilizar las tablas de transformadas de Laplace directas e inversas


disponibles en la bibliografı́a.

5.5 La convolución

En el caso de la transformación de Laplace, la convolución se introduce de


manera semejante al caso de la transformación de Fourier; las aparentes
diferencias en la definición provienen del hecho de que ahora las funciones
que manejamos se anulan en el eje real negativo.

Definición 3: sean f (t) y g(t) dos funciones de R+ a C integrables. Defi-


nimos su convolución como la integral siguiente
1 ∞
(f ∗ g)(t) = f (t − u) g(u) du, t ≥ 0. (5.5.1)
0

Como hemos comentado, suponemos que f (t < 0) = g(t < 0) = 0, de


manera que la integración se efectúa realmente entre 0 y t.

Propiedad 1: la convolución es una operación “conmutativa”, ya que


1 ∞ 1 t
(f ∗ g)(t) = f (t − u) g(u) du = f (t − u) g(u) du (5.5.2)
0 0
1 0 1 t
=− f (v) g(t − v) dv = g(t − v) f (v) dv = (g ∗ f )(t),
t 0

sin mas que hacer el cambio de variable t − u = v.


5.6. FÓRMULA DE INVERSIÓN 179

Propiedad 2: la transformada de Laplace de la convolución de dos fun-


ciones es el producto ordinario de las transformadas de Laplace, en efecto,
1 ∞ 1 ∞
−st
L{(f ∗ g)(t)} = e f (t − u) g(u) du dt
0 0
1 ∞ 1 ∞
= g(u) du e−st f (t − u) dt
0 0
1 ∞ 1 ∞
= g(u) du e−sτ e−su f (τ ) dτ
0 −u
1 ∞ 1 ∞
= g(u) e−su du e−sτ f (τ ) dτ
0 −u
$1 ∞ % $1 ∞ %
−su −sτ
= g(u) e du e f (τ ) dτ
0 0

= L{f (t)} L{g(t)}.

Hemos efectuado el cambio de variable t = τ + u y además hemos tenido


en cuenta que f (t < 0) = 0. El resultado que acabamos de demostrar es
completamente análogo al que se verifica para la transformación de Fourier.

5.6 Fórmula de inversión de la transformación de


Laplace

Al deducir las fórmulas de la transformación de Laplace a partir de las de


la transformación de Fourier, obtuvimos la fórmula (5.2.9) que nos per-
mitı́a efectuar la inversión. En ese momento no hicimos ningún comentario
repecto a la validez de dicha expresión. Posteriormente hemos dicho que si
bien s ∈ C (o para ser más precisos, s está en cierto semiplano de C), nor-
malmente este hecho no es relevante y se puede suponer s ∈ R. Incluso al
invertir se puede olvidar del carácter complejo de s si se utilizan las tablas
de transformadas de Laplace. Ahora bien, si no disponemos de tales tablas,
o si, por la razón que fuere, nos vemos obligados a calcular la transformada
de Laplace inversa de cierta función F (s), entonces sı́ que es absolutamente
crucial el carácter complejo de la variable s.
En lo referente a la inversión de la transformada de Laplace, el resultado
fundamental es el expresado en el siguiente teorema, que viene a refinar el
180 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

ofrecido en (5.2.9) y que recuerda resultados ya conocidos sobre la inversión


de la transformación de Fourier.

Teorema 3: si F (s) = L{f (t)}, entonces la función L−1 {F (s)} viene dada
por la expresión

1
1 a+i∞  f (t+) + f (t−) , t ≥ 0,
−1
L {F (s)} = e F (s) ds =
st 2 (5.6.1)
2πi a−i∞ 
0, t < 0.
Por supuesto, si la función f (t) es continua en el punto t0 , entonces allı́ la
integral vale f (t0 ). La integración ha de efectuarse en el plano complejo a
lo largo de una recta s = a + iy, y ∈ R, eligiéndose a de tal modo que todas
las singularidades de F (s) (polos, puntos de ramificación o singularidades
esenciales) queden a la izquierda de la recta s = a + iy; por lo demás, a es
arbitrario.
y

J B

a+iT
R

a x
K O

a-iT

A
L

Figura 4.1: Circuito tı́pico para invertir la trans-


formación de Laplace.

En la práctica, la integral de la fórmula de inversión compleja, también


llamada fórmula de inversión de Bromwich 5 , se suele evaluar utilizando la
siguiente integral de contorno
K
1
est F (s) ds, (5.6.2)
2πi γ(R)
5
Thomas John l’Anson Bromwich (1875–1929), matemático inglés.
5.6. FÓRMULA DE INVERSIÓN 181

siendo γ(R) ≡ ABJKLA el circuito que aparece en la Figura 4.1. Está


formado por un segmento vertical de recta que pasa por el punto (a, 0),
unido adecuadamente a un trozo de circunferencia centrada en el origen y
de radio R. La curva γ(R) no puede contener ninguna de las singularidades
del integrando.
Para ver que la integral de contorno (5.6.2) resulta útil, observemos que
la integral que aparece en (5.6.1) guarda relación con la siguiente:
1 K 1
1 a+iT
1 1
est F (s) ds = est F (s) ds − est F (s) ds.
2πi a−iT 2πi γ 2πi BJKLA
(5.6.3)
Analicemos ahora la ecuación (5.6.3), considerando en ella el lı́mite R → ∞:
la integral del primer miembro es justamente la que nos da la inversión de
la transformación de Laplace; la primera integral del segundo miembro la
podremos calcular usando el teorema de los resı́duos; por lo que respecta a
la segunda de las integrales del segundo miembro (la integral a lo largo del
arco de circunferencia de radio R, que se va al infinito), “es de esperar” que
se anule. Finalmente, suponiendo que sucede lo que acabamos de comentar
(cosa que convendrá comprobar en cada caso práctico concreto, para evi-
tarse desagradables sorpresas), y admitiendo que la función F (s) sólo tiene
polos como singularidades, tendrı́amos lo siguiente:
1 a+i∞ &
1
est F (s) ds = {Residuos de est F (s) en cada uno de sus polos}.
2πi a−i∞
(5.6.4)
Sin embargo, siendo realistas, en general no está asegurado que la integral
a lo largo del arco BJKLA tienda a cero cuando R → ∞. Una condición
suficiente para que se verifique ésto es que existan constantes M, k > 0
tales que
M
|F (s)| < k , ∀ s ∈ BJKLA.
R
Esta condición se satisface si, por ejemplo, F (s) = P (s)/Q(s) siendo P (s)
y Q(s) polinomios tales que el grado de Q(s) es mayor que el grado de P (s).
En este caso concreto, y si suponemos además que los ceros de Q(s) son sólo
simples s1 , s2 , . . . , sm , la aplicación del resultado anterior nos proporciona
inmediatamente la fórmula de inversión en la forma siguiente
m
& P (sk ) sk t
f (t) = L−1 {F (s)} = e , (5.6.5)
Q! (sk )
k=1
182 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

expresión conocida con el nombre de “fórmula de Heaviside”. Cuando hay


ceros múltiples en el denominador se pueden encontrar también resultados
similares a éste, aunque las fórmulas resultan más complicadas que la que
acabamos de indicar6 .
El contorno γ que acabamos de utilizar será el adecuado siempre y
cuando las singularidades de la función (que están todas a la izquierda de
la recta s = a + iy) sean polos. Si la función presenta puntos de ramifi-
cación habrá que modificar ese contorno. Por ejemplo, si existe un punto de
ramificación en s = 0 y tenemos un corte en el eje real negativo, podemos
utilizar la siguiente integral de contorno
K
1
est F (s) ds,
2πi γ $ (R,$)

siendo ahora γ ! (R, 0) ≡ ABDEHJKLN A el circuito que aparece repre-


sentado en la Figura 4.2, construido de manera elemental a partir de dos
segmentos horizontales, uno vertical y dos arcos de circunferencia de radios
R y 0. El segundo arco de circunferencia de radio 0 (que haremos tender a
0), se introduce para salvar la lı́nea de corte. En cada caso concreto habrá
que buscar el contorno de integración adecuado, por lo que no insistimos
más en este aspecto del problema.

D B

R a+iT

E H J

L K e a x

a-iT

A
N

Figura 4.2: Un circuito para invertir la trans-


formación de Laplace cuando hay un punto de
ramificación con corte en el eje real negativo.
6
Véanse detalles en el libro de Marsden y Hoffmann.
5.7. RESOLUCIÓN DE ECUACIONES DIFERENCIALES 183

Para calcular la transformación inversa de Laplace de una función F (s),


además de utilizar la fórmula de inversión compleja, pueden aplicarse los
mismos métodos que se comentaron en el caso de la transformación directa,
pero usándolos en sentido inverso. Hablamos del método de desarrollo en
serie (en este caso habrá que desarrollar la función F (s) en potencias nega-
tivas de la variable s), del uso de las tablas de transformadas de Laplace,
de la utilización de las propiedades que posee esta transformación inversa,
de la derivación respecto de un parámetro, etc.
Respecto a la unicidad de la transformación de Laplace inversa, ya se
comentó algún detalle en la Observación 2 de la Sección 5.3. Digamos
simplemente que existe un teorema debido a Lerch7 según el cual si nos
restringimos a funciones f (t) de orden exponencial y continuas a trozos
en cualquier intervalo finito, la inversión de la transformada de Laplace es
única, salvo la suma de funciones que se anulen en un conjunto de medida
nula.

5.7 Aplicación a la resolución de ecuaciones dife-


renciales

La transformación de Laplace es una herramienta que se usa con bastante


frecuencia para hallar la solución de ecuaciones diferenciales con condi-
ciones iniciales dadas8 . Hemos de indicar que, aunque en principio pueden
resolverse ecuaciones diferenciales no lineales, en realidad su mayor utili-
dad se encuentra al resolver ecuaciones diferenciales lineales, y en particular
las de coeficientes constantes. Para este tipo de ecuaciones diferenciales, la
transformación de Laplace convierte la ecuación diferencial en una ecuación
algebraica, que habrá que resolver. La dificultad estribará luego en invertir
la operación para recuperar la función que nos interesa. La idea es muy
sencilla: se transforma la ecuación diferencial aplicando las propiedades
fundamentales que se han establecido anteriormente, en concreto la linea-
lidad de la transformación de Laplace (5.4.1) y la transformada de Laplace
de la derivada de una función (5.4.5).
Para ilustrar la técnica que estamos comentando, consideremos un ejem-
7
Mathias Lerch (1860–1922), matemático checo.
8
El estudio de las ecuaciones diferenciales se aborda en los temas que siguen a éste,
pero esto no es óbice para comentar ahora los aspectos generales de su resolución apli-
cando el método desarrollado en este capı́tulo.
184 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

plo concreto suficientemente ilustrativo del método en su forma general.

Ejemplo 2: resolvamos la siguiente ecuación diferencial lineal de segundo


orden con coeficientes constantes:

y !! (x) + ay ! (x) + by(x) = g(x); y(0) = C0 , y ! (x) = C1 .

Se supone que a y b son constantes reales y que g(x) es una función conocida.
Las constantes C0 y C1 nos ayudan a elegir una de las infinitas soluciones
de la ecuación, fijando lo que se llaman las condiciones iniciales. Hemos
escrito la variable independiente como x en lugar de t para insistir en el
hecho de que se trata de variables mudas, y que por tanto podemos usar la
que convenga en cada caso. Una observación importante es que si usamos
la transformada de Laplace para hallar y(x) estamos dando por supuesto
que esta función es tal que y(x < 0) = 0 (recordemos que las funciones
para las que se calcula la transformación se suponen nulas en el semieje
real negativo; estrictamente hablando, no importa el valor que tenga ahı́ la
función, pero como luego habremos de efectuar una transformación inversa,
ahı́ sı́ es crucial el hecho de que la función que obtengamos haya de ser nula
para x < 0, según afirma el teorema 3).
Para hallar la solución de nuestro problema, evaluamos la transformada
de Laplace de los dos miembros de esta ecuación teniendo en cuenta que

L{y(x)} := Y (s),
L{g(x)} := G(s),
L{y ! (x)} = s L{y(x)} − y(0) = s Y (s) − y(0),
L{y !! (x)} = s L{y ! (x)} − y ! (0) = s(s Y (s) − y(0)) − y ! (0).

Procediendo de este modo encontrarı́amos fórmulas similares para la trans-


formada de Laplace de una derivada de orden arbitrario. Como suponemos
conocida g(x), damos por hecho que somos capaces de evaluar su transfor-
mada G(s). Nuestro interés se centra en evaluar y(x), pero para ello vamos
a determinar primero su transformada Y (s). Observemos que la ecuación
se modifica como sigue:

L{y !! (x) + ay ! (x) + by(x)} = L{g(x)},


s(s Y (s) − C0 ) − C1 + a(s Y (s) − C0 ) + b Y (s) = G(s),
5.8. COMENTARIOS FINALES 185

de donde
C0 (s + a) + C1 G(s)
Y (s) = + 2 .
s + as + b
2 s + as + b
Fijémonos en que hemos sido capaces de determinar Y (s) sin necesidad
de resolver ninguna ecuación diferencial, tan sólo una ecuación algebraica.
Pero no nos engañemos: no buscamos esta función sino y(x), de manera
que para decir que hemos resuelto el problema aún hay que calcular la
transformada de Laplace inversa de esta función Y (s), y en ese cálculo
podemos encontrarnos con algunas dificultades.
Observemos también que la solución hallada se compone de la suma
de dos términos claramente diferenciados: uno de ellos contiene la depen-
dencia en la función inicial g(x) mientras que el otro depende sólo de la
parte homogénea de la ecuación, es decir, de los términos que contienen la
función y(x) y sus derivadas. Este tipo de ecuaciones diferenciales lineales,
que estamos analizando con un ejemplo, aparecen en muchos problemas
prácticos, sea como las ecuaciones de movimiento de un sistema fı́sico, sea
como la salida de una caja negra arbitraria. Por ejemplo, en teorı́a de con-
trol, en electrónica, y también en biologı́a y en medicina, a veces se trabaja
con sistemas que están sometidos a una entrada o excitación y que pro-
ducen una determinada salida o respuesta. Generalmente se denomina a
g(x) la función de entrada o de excitación y a y(x) la función respuesta. Se
denomina función de transferencia o función del sistema a la que aparezce
multiplicando a G(s), en nuestro caso serı́a (s2 + as + b)−1 . Se puede de-
mostrar que precisamente la situación de los polos de la función de transfe-
rencia en el plano complejo informa sobre la estabilidad o inestabilidad del
sistema descrito por la ecuación diferencial9 . El estudio de la estabilidad
de soluciones usando transformada de Laplace es una lı́nea de estudio muy
interesante, pero en la que no profundizaremos en el presente libro.

5.8 Comentarios finales

En la práctica, y al igual que ocurre con la transformación de Fourier,


en muchas ocasiones el cálculo de las transformadas de Laplace directas
o inversas se suelen hacer con ordenador, usando métodos numéricos. A
este respecto, conviene indicar que la transformada de Laplace, como in-
tegración, es una operación muy estable en el sentido de que pequeños
9
Véase por ejemplo el libro de Wunsch citado en la bibliografı́a.
186 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

errores o fluctuaciones en la función f (t) se promedian al hacer la inte-


gral. Además, el factor e−st hace que, salvo para pequeños valores de s, el
comportamiento de f (t) para valores grandes de t es completamente irre-
levante. Como consecuencia de lo que acabamos de comentar, un cambio
grande en el valor de f (t) para valores grandes de t origina, en general,
un cambio insignificante en F (s). Ahora bien, la operación inversa es muy
inestable: una pequeña variación en los valores de la función F (s) puede
originar un cambio enorme en el resultado de la transformación inversa.
Hasta ahora, no existe ningún método numérico completamente satisfac-
torio para invertir transformadas de Laplace arbitrarias; sin embargo, si
restringimos nuestra atención a funciones que se comporten relativamente
“bien”, entonces sı́ que hay algoritmos disponibles.
Un último comentario para dejar constancia de que al igual que existı́a la
transformada de Fourier discreta, tambien existe una versión discreta de la
transformación de Laplace: la llamada transformación Z. Sin ánimo de en-
trar en los detalles, indicar que esencialmente lo que se hace en primer lugar
es sustituir la función f (t), de una variable continua t, por una sucesión de
valores discretos f (tk ), k = 1, 2, . . ., obtenidos al tomar un muestreo de esta
función variando t en saltos de igual magnitud: tk = kT . La transformación
Z se aplica a este conjunto de valores discretos f (tk ). Como consecuencia
de esta modificación, en lugar de tener una integral, nos aparece una suma
infinita como definición de transformada Z. Esta transformación posee
muchas propiedades semejantes a las de la transformación de Laplace, y
entre sus numerosas aplicaciones están la teorı́a de control, los sistemas
de transmisión de datos (señales digitales) y las ecuaciones en diferencias
finitas10 .

5.9 Problemas
1. Sean f, g dos funciones de tipo exponencial y α, β ∈ C. Pruébese que:

a) αf (t) + βg(t) es de tipo exponencial.

b) L{αf (t) + βg(t)}(s) = αL{f (t)}(s) + βL{g(t)}(s).

c) σ(αf + βg) = máx{σ(f ), σ(g)}.

10
Pueden verse más detalles en el libro de Jeffrey citado en la bibliografı́a.
5.9. PROBLEMAS 187

2. Calcúlese la transformada de Laplace y la abscisa de convergencia de las


siguientes funciones:

a) f (t) = e−at , b) f (t) = tα , α > −1,

c) f (t) = e−at cos bt, d) f (t) = (t + 1)n , n ∈ N,

e) f (t) = senh at, f ) f (t) = e−at tn ,



 0,
 0 ≤ t ≤ 1,
g) f (t) = t cos at, h) f (t) = 1, 1 < t < 2,


0, t ≥ 2.

3. Evalúese la transformada de Laplace de cada una de las siguientes funciones:


t
a) f (t) = (sen at)/t , b) f (t) = e−e ,

c) f (t) = log t, d) f (t) = (log t)2 ,

e) f (t) = {t − na, na < t < (n + 1)a, a > 0, n = 0, 1, 2, . . .},

f ) f (t) = {n, log n < t < log(n + 1)},


)
sen t, 0 ≤ t ≤ π, 2 2
g) f (t) = h) f (t) = e−a t
,
0, t > π,
)
t, 0 < t < a,
i) f (t) = j) f (t) = cosh at cos bt
0, t > a,
)
1, t ∈ A = [0, 1] ∪ [2, 3] ∪ [4, 5] ∪ · · ·
k) f (t) =
0, t ∈ R+ − A
1 t √
l) f (t) = e−τ sen τ dτ, m) f (t) = senh t ,
0
√ √ √
n) f (t) = (cos t)/ t , ñ) f (t) = sen t,
√ √
o) f (t) = ebt (1 + 2bt)/ t , p) f (t) = (ebt − eat )/ t3 .
188 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

4. Calcúlense las siguientes transformadas inversas de Laplace:


s2
a) F (s) = , b) F (s) = log−π (s2 + s),
s3 −1
s+1 s
c) F (s) = , d) F (s) = ,
s(s + 3)2 (s + 1)(s + 2)
G(s) 4s2 + 16s + 16
e) F (s) = , f ) F (s) = ,
s2 + 1 s3 + 5s2 + 9s + 5
6s2 + s − 1 1
g) F (s) = , h) F (s) = ,
s3 + s (s + 1)2
3s3 + 8s2 + 9s + 4
i) F (s) = .
s4 + 5s3 + 9s2 + 7s + 2
5. Usando la transformación de Laplace, resuélvase la ecuación del oscilador
armónico de masa unidad y constante de recuperación k = 3, cuando está
sometido a una fuerza exterior que es f (t) = cos 2t. Exigimos además que
x(0) = 0, x(π/2) = −1.
6. Hállese la transformada de Laplace de la función
1
f (t) = √ e−a/t .
t
Se recomienda hacer el cambio de variable st = a/y en la integral, lo que
permitirá mostrar que la transformada de Laplace que se busca verifica una
ecuación diferencial muy sencilla.
1 ∞
7. Obténgase el valor de la integral cos(t3 ) dt.
0
8. Usando la transformación de Laplace, hállense las soluciones particulares de
las ecuaciones diferenciales
a) y %% + 9y = H(t); y(0) = y % (0) = 0. H(t) es la función de Heaviside.

b) y %% + y = t sen t; y(0) = 0, y % (0) = 1.

c) xy %% + y % + xy = 0; y(0) = 1.

d) y %% + 4y = 4x; y(0) = 1, y % (0) = 5.

e) y %% + 9y = H(t − 1); y(0) = y % (0) = 0.

1 )
t 0, 0 ≤ t < 1; t ≥ 2,
f) y +y+
%
y(τ ) dτ = y(0) = 1.
0 1, 1 ≤ t < 2,
5.9. PROBLEMAS 189

9. Utilı́cese el método de Laplace para resolver los siguientes sistemas:


) %
y1 + y2 = 0,
a) y1 (0) = y2 (0) = 0.
y2% + y1 = 0,
)
y1% + y2% + y1 = 0,
b) y1 (0) = y2 (0) = 0.
y2% + y1 = 3,

10. Considérese el circuito de la figura. Supóngase que la intensidad I(t) es cero


en el instante inicial y que la fuerza electromotriz viene dada por una cierta
función E(t). Calcúlese la intensidad en cualquier instante posterior.

11. Demuéstrese que


a) L{f }(s) → 0 cuando Re(s) → ∞.
b) sL{f }(s) → f (0) cuando Re(s) → ∞.
c) ¿Puede un polinomio ser la transformada de Laplace de una función f (t)?
d) ¿Puede una función entera F (s), no idénticamente nula, ser la transfor-
mada de Laplace de una función f (t)?
12. Resuélvanse las siguientes ecuaciones:
1 t
a) y(t) = t + 2 cos(t − u) y(u) du;
0
1 t
b) 2y(t) − 2t + t /6 =
3
y(t − u) y(u) du;
0

c) y % (t) = 2y(t − 1) + t, y(t ≤ 0) = 0;


1 t
d) y (t) =
%
cos(t − u) y(u) du, y(0) = 1.
0
190 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

13. Hállense las transformadas de Laplace de las funciones

a) f (t) = δ(t − t0 ); b) f (t) = erf (t);

1 − cos t
c) f (t) = Si (t); d) f (t) = ;
t2
a
e) f (t) = Ci (t); f ) f (t) = 2 , a > 0;
t + a2

g) f (t) = E1 (t); h) f (t) = erf ( t);
1 ∞ x
t g(x)
i) f (t) = dx.
0 Γ(x + 1)

14. La función de Dawson se define como


1 t
2 2
D(t) = e−t ex dx.
0

2
Demuéstrese que su transformada de Laplace es L{D(t)} = 4es /4
E1 (s2 /4).
15. Resuélvase la ecuación diferencial
∂u ∂u
x + = x,
∂t ∂x
para x > 0, t > 0 y con las condiciones siguientes: u(x, 0) = 1, u(0, t) = et .
16. Encuéntrese la fórmula que da los números de Fibonacci11 , definidos por la
ley de recurrencia siguiente:

an+2 = an+1 + an , con a0 = 0, a1 = 1.

17. Hállense las transformadas inversas de Laplace de las funciones siguientes


$√ %2 $ %
s−1 1 s+2
a) F (s) = , b) F (s) = ln ,
s s s+1
1 1
c) F (s) = , d) F (s) = ,
s2 senh s s3 + 1

e−x s √
e) F (s) = √ , f ) F (s) = e− s
,
s
s √
g) F (s) = , h) F (s) = cosech2 ( s).
s + e−s
11
Leonardo Pisano Fibonacci (1170–1250), matemático italiano.
5.9. PROBLEMAS 191

18. La función de Scorer se define como


/ 0
exp(−t3 /3)
Hi(−s) = L .
π
Sea x(t) la raı́z real de la ecuación x3 + ax − t = 0, siendo a > 0. Pruébese
que
L{x(t)} = 3−1/3 πs−4/3 Hi(−3−1/3 as2/3 ).
19. La difusión de impurezas en un semiconductor suele describirse usando el
siguiente modelo: se tiene una muestra de semiconductor en estado puro; por
simplicidad, la muestra se supone unidimensional y de longitud semi-infinita,
tomándose su extremo como origen de coordenadas; en el instante t = 0
se coloca una gran fuente de impurezas en contacto con el extremo libre,
siendo C0 la concentracion de dichas impurezas; éstas comienzan entonces
a difundirse a través del semiconductor siguiendo la segunda ley de Fick12 :
la variación de la concentración de impurezas a lo largo de la muestra y a lo
largo del tiempo, C(x, t), viene dada por la ecuación en derivadas parciales13
∂C(x, t) ∂ 2 C(x, t)
=D , D = cte. positiva.
∂t ∂x2
Teniendo en cuenta las condiciones fı́sicas del problema, obténgase la función
C(x, t).
20. Hállese la solución de la ecuación diferencial

xy %% + y % + xy = 0, y(0) = 1, y % (0) = 0,

usando la transformación de Laplace. Escrı́base el resultado final como una


serie de potencias en la variable x.
21. Dibújese la función
1 ) ∞
*
∞ &
f (t) = 2 δ(t − (2n + 1)k) dt ,
0 n=0

y pruébese que
1
L{f (t)} = .
s senh ks
22. Hállese la solución de la ecuación diferencial

x%% (t) + 4x% (t) + 4x(t) = t + δ(t − 2),

que verifica la condición x(0) = x% (0) = 0.


12
Adolf Eugen Fick, fisiólogo alemán que en 1856 publicó el que probablemente es el
primer tratado de fı́sica médica.
13
Véase el volumen II del libro de Alonso y Finn, página 971, citado en la bibliografı́a.
192 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

23. Evalúese L{δ % (t)}.


24. Verfı́quese que la solución de la ecuación integral de Abel
1 x
y(ξ)
F (x) = √ dξ,
0 x−ξ
donde F (x) es conocida e y(x) es la incógnita, viene dada por
1 x
1 d F (ξ)
y(x) = √ dξ.
π dx 0 x−ξ

25. Calcúlese la transformada de Laplace de la función sen t. Puede usarse
el método de desarrollos en serie, pero en ese caso habrá que realizar los
cálculos hasta el final, sumando la serie resultante.
26. Siendo α, β y γ tres constantes arbitrarias, calcúlese la función f (t) cuya
transformada de Laplace es
α s2 + β s + γ
F (s) = .
(s + 1)(s2 + s − 2)
¿Bajo qué condiciones la solución obtenida tiende a 0 cuando t → ∞?
27. Calcúlese la transformada inversa de Laplace de la función
s
.
(s + 1)(s + 2)

28. Hállese la transformada de Laplace de la distribución siguiente (sumando la


serie que aparece):
&∞
1
f (t) = δ(t − n).
Γ(t + 1) n=1

29. Calcúlese la transformada de Laplace inversa de F (s) = e1/s .


30. Por cálculo directo, muéstrese que la transformada de Laplace de la función
1 ∞ −τ 1 ∞ −xt
e e
f (t) = E1 (t) = dτ = dx, (t ≥ 0),
t τ 1 x
es L{E1 (t)}(s) = s−1 ln(s + 1).
31. Usando la transformación de Laplace, hállese la solución de la ecuación
integro-diferencial
1 t 1 t
y %% (t) + y(t) + senh (t − u) y(u) du + cosh (t − u) y(u) du = cosh t,
0 0

que verifica y(0) = −1, y % (0) = 1.


5.10. BIBLIOGRAFÍA 193

32. Calcúlese la transformada de Laplace de la función “integral del coseno”,


Ci (t). (Indicación: supóngase que se puede aplicar el teorema de Fubini.)
33. La ecuación del oscilador armónico de frecuencia w0 sometido a la acción de
una fuerza externa F (t) = senh wt es

d2 y
+ w02 y = senh wt.
dt2
Resuélvase dicha ecuación diferencial usando la transformación de Laplace
y exigiendo las siguientes condiciones: y(0) = 0, y % (2) = 1.
34. Pruébese que
/ 0
1 1 t3 t5
L−1 sen =t− + + ···,
s s (3!)2 (5!)2

evaluando con precisión la forma de la serie que aparece.


35. Hállese / 0
1 1
L −1
cos .
s s
36. Determı́nese
/ 0 / 0
−1 1 −1 1
a) L √ . b) L .
1+ s s + e−s

5.10 Bibliografı́a
1. Alonso, M., y Finn, E.J., Fı́sica, Fondo Educativo Interamericano, 1970.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
4. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
5. Garnir, H.G., Fonctions de variables réelles, Vol. II, Gauthier-Villars, 1965.
6. Jeffrey, A., Linear Algebra and Ordinary Differential Equations, Blackwell
Scientific Publications (1990).
7. Kreyszig, E., Advanced Engineering Mathematics, John Wiley & Sons, 1993.
8. Marsden, J.E., and Hoffmann, M.J., Basic Complex Analysis, Freeman and
Co., 1987.
9. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
194 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

10. Spiegel, M.R., Transformadas de Laplace, Colección Schaum, McGraw-Hill,


1970.
11. Watson, E.J., Laplace Transforms, Van Nostrand Reinhold, 1981.
12. Wunsch, A.D., Complex Variables with Applications, Addison-Wesley, 1994.
13. Wylie, C.R., Matemáticas superiores para ingenierı́a, Ediciones del Castillo,
1969.
Capı́tulo 6

ECUACIONES
DIFERENCIALES
ORDINARIAS: MÉTODOS
ELEMENTALES DE
INTEGRACIÓN

6.1 Introducción

Las ecuaciones diferenciales son, sin duda, una de las herramientas de


cálculo más útiles a disposición de todo cientı́fico. Un conocimiento ade-
cuado de ellas y una cierta habilidad para hallar sus soluciones resultan
fundamentales para poder resolver gran parte de los problemas que se
le presentan. Antes de abordar el estudio de la teorı́a de las ecuaciones
diferenciales, resulta muy interesante e ilustrativo comentar someramente
la influencia mutua que durante muchos siglos han tenido la fı́sica y las
matemáticas, de forma muy especial en este campo que nos ocupa ahora.
Desde los tiempos de Newton1 , las ecuaciones diferenciales han sido la forma
natural de describir matemáticamente las leyes naturales, en concreto las
1
Isaac Newton (1642–1727), eminente fı́sico y matemático inglés, descubridor de las
leyes de la mecánica, de la ley de la gravitación y uno de los inventores del cálculo
diferencial e integral.

195
196 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

de la fı́sica (recordemos las palabras de Galileo2 : “el libro de la naturaleza


está escrito con caracteres matemáticos”). Tras el desarrollo del cálculo
infinitesimal por Newton, Leibniz3 y Fermat4 , los matemáticos del siglo
XVII y XVIII usaron las herramientas a su disposición para abordar el
estudio de nuevos problemas fı́sicos. De este modo, pronto se vieron en-
frentados con la necesidad de resolver cuestiones que requerı́an el uso de
nuevas técnicas matemáticas, lo que en particular hizo que se desarrollara
muy ampliamente la teorı́a de las ecuaciones diferenciales.
Entre los principales problemas que contribuyeron al desarrollo las ecua-
ciones diferenciales están los relacionados con la teorı́a de la elasticidad, la
forma de vigas y cuerdas sometidas a fuerzas diversas, las oscilaciones del
péndulo, la forma precisa de la superficie terrestre, y diversos problemas
de astronomı́a (como el estudio del movimiento de la luna y los llamados
problemas de los dos y tres cuerpos). En el análisis de todos estos temas
aparecieron muy diversas ecuaciones diferenciales ordinarias y en derivadas
parciales, y se gestó también el desarrollo posterior de nuevas ramas de las
matemáticas, como son la geometrı́a diferencial y el cálculo variacional.
Con posterioridad las ecuaciones diferenciales también han sido usadas
para formular todas las teorı́as fı́sicas modernas, como son el electromag-
netismo, la mecánica cuántica o la teorı́a de la relatividad general, y para
elaborar modelos matemáticos que describen determinados tipos de sis-
temas biológicos (por ejemplo sistemas ecológicos en los cuales coexisten
varias especies de seres vivos, en los cuales unas actúan como depredadores
y otras como presas), quı́micos (desde los modelos más elementales relacio-
nando velocidades de reacción de diversos compuestos, hasta aquellos que
describen reacciones quı́micas periódicas o caóticas), industriales, económi-
cos (donde se aparece la tı́pica curva logı́stica), en ingenierı́a (ecuaciones
que rigen la transmisión de señales por cables, o ecuaciones en aerodiná-
mica, por citar sólo dos), o en arquitectura (flexiones de vigas, análisis
de esfuerzos y deformaciones de estructuras constructivas), por mencionar
algunas disciplinas tanto teóricas como aplicadas.
En este primer capı́tulo dedicado al tema, tras establecer la notación
2
Galileo Galilei (1564–1642), fı́sico y matemático italiano que realizó importantes
contribuciones cientı́ficas, en especial en mecánica y astronomı́a.
3
Gottfried Wilhelm von Leibniz (1646–1716), matemático y filósofo alemán.
4
Históricamente siempre ha habido una polémica sobre la paternidad del cálculo in-
finitesimal, atribuida por unos a Leibniz y por otros a Newton. Pero según se ha descu-
bierto recientemente, también Pierre de Fermat lo desarrolló de manera independiente.
6.2. NOCIONES GENERALES 197

y la terminologı́a que vamos a usar posteriormente, analizaremos diversas


técnicas de resolución de ecuaciones diferenciales ordinarias que fueron de-
sarrolladas esencialmente en el siglo XVIII, gracias al trabajo de un gran
grupo de brillantes matemáticos (demasiados para mencianar todos aquı́)
que realizaron destacados descubrimientos. Para un interesante y ameno
repaso de la evolución del tema que nos ocupa recomendamos la lectura de
los capı́tulos 21 y 29 del libro de Kline citado en la bibliografı́a.
Debemos quedarnos con la idea de que en los albores de esta disciplina
los matemáticos se ocuparon sobre todo de hallar soluciones a cuestiones
concretas en términos de funciones elementales, y cuando esto no era posi-
ble, en forma de desarrollos en serie. En general no se planteaban dudas
relativas a si el problema que se estudiaba tenı́a o no solución, ya que al es-
tar basados en situaciones fı́sicas concretas, las soluciones “debı́an” existir.
Hacia 1775 se vio que la posibilidad de hallar nuevos métodos generales de
integración de ecuaciones diferenciales estaba esencialmente agotada. Du-
rante el siglo XIX las lı́neas de investigación en el campo de las ecuaciones
diferenciales cambiaron de rumbo, y usando los nuevos métodos rigurosos
del análisis matemático se realizaron avances muy importantes en temas
como la determinación de las condiciones de existencia y unicidad de las
soluciones de las ecuaciones, el estudio sistemático de familias de funciones
especiales de gran relevancia teórica y aplicada, y el análisis de la esta-
bilidad de las soluciones y de su comportamiento cualitativo, entre otros.
Algunos de estos temas serán abordados en capı́tulos posteriores.

6.2 Nociones generales

Precisemos en primer lugar el objeto de nuestro estudio: una ecuación dife-


rencial es una relación existente entre una o varias variables independientes
y una o varias variables dependientes y sus derivadas. Nuestro objetivo será
hallar la solución o soluciones de una expresión de ese tipo. En los siguientes
capı́tulos no nos vamos a ocupar de las ecuaciones en derivadas parciales
(aquellas que presentan varias variables independientes, y que serán objeto
de estudio en el segundo volumen de esta obra), como es por ejemplo

$ % $ %$ %
∂ 3 u(x, y) ∂u(x, y) ∂u(x, y)
u(x, y) = .
∂ 2 x∂y ∂x ∂y
198 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Sólo nos interesarán las ecuaciones diferenciales ordinarias, que son rela-
ciones que involucran únicamente una variable independiente.

Definición 1: si llamamos x a la variable independiente e y, y ! , y !! , . . .


a la variable dependiente y a sus derivadas sucesivas respecto de x, y
F : Rn+2 → R es una función de n + 2 variables, F (x1 , x2 , . . . , xn+2 ),
llamaremos ecuación diferencial ordinaria a toda relación de la forma

F (x, y, y ! , . . . , y (n) ) = 0. (6.2.1)

Llamaremos a y(x) la función incógnita. Diremos que tenemos una solución


a la anterior ecuación diferencial cuando hayamos encontrado una función
y = y(x) que la satisfaga idénticamente.
Como norma general, supondremos que la variable independiente toma
valores reales, al igual que la función, pero podrı́an estudiarse también
las ecuaciones diferenciales en el campo de los números complejos (y de
hecho, un análisis en profundidad de la teorı́a requiere de manera natural
el uso de variables complejas5 . No obstante, dado que en la mayorı́a de las
aplicaciones las variables involucradas son reales, resulta muy conveniente
estudiar precisamente esta situación, que es justamente lo que nosotros
haremos).

Definición 2: se llama orden de la ecuación diferencial al de la derivada


más alta que aparezca en la ecuación. Ası́ por ejemplo, la ecuación (6.2.1)
es de orden n. Supondremos que el orden es siempre finito.

Definición 3: el grado de una ecuación diferencial está definido sólo cuando


ésta pueda escribirse como un polinomio en las derivadas de la función; en
ese caso el grado será el del monomio que contenga la derivada de mayor
orden.
Ası́ por ejemplo,
(y !! )5 − (y ! )7 = e−2x
es una ecuación diferencial ordinaria de segundo orden y quinto grado. Sin
embargo
tan y !! = ex + ln y !
es de segundo orden pero no tiene grado definido.
5
Un excelente referencia para estudiar estos aspectos de la teorı́a es el libro ya clásico
de Ince, que aparece en la bibliografı́a.
6.2. NOCIONES GENERALES 199

Nuestro objetivo será encontrar soluciones a ecuaciones diferenciales del


tipo (6.2.1). Estas soluciones pueden darse de varias maneras diferentes:
pueden ser soluciones analı́ticas, soluciones numéricas o soluciones gráficas.
Las numéricas serán soluciones aproximadas del problema que estemos
considerando, obtenidas utilizando diversos algoritmos implementados en
un ordenador. En este libro no vamos a analizar este tipo de métodos
numéricos, que son estudiados por una especialidad de las matemáticas
denominada Análisis Numérico, que ha realizado grandes progresos en los
últimos tiempos. No obstante usaremos algunos resultados obtenidos numé-
ricamente para ilustrar el contenido del texto.
Las soluciones gráficas son útiles, sobre todo, para analizar ecuaciones
de primer orden del tipo y ! (x) = f (x, y(x)). Se basan en la interpretación
geométrica de esta última ecuación: en cada punto (x, y(x)) de la gráfica de
la curva solución tenemos definido el vector (1, y ! (x)) que es un vector tan-
gente a la misma en el punto x. La ecuación diferencial y ! (x) = f (x, y(x))
nos da el conjunto de tangentes a la curva solución. Se puede proceder a
realizar un dibujo aproximado de los valores de (1, f (x, y(x))) en una cierta
región y conocer ası́ el comportamiento de las curvas solución.
Nosotros nos vamos a centrar en el estudio de las soluciones analı́ticas.
Esto no quiere decir que nos vayan a interesar exclusivamente las solu-
ciones exactas de las ecuaciones diferenciales, entre otras cosas porque sólo
en determinadas ocasiones pueden hallarse tales soluciones analı́ticas exac-
tas. De hecho veremos que a veces la solución tendremos que darla como
una serie infinita, que truncada convenientemente nos puede dar suficiente
información (sin ser la solución exacta del problema).
Matizando un poco más lo que acabamos de decir, cuando hablamos de
la solución analı́tica de una ecuación diferencial conviene distinguir entre
(a) la solución general de una ecuación diferencial, (b) una solución parti-
cular que verifica ciertas condiciones iniciales, (c) lo que se llaman curvas
integrales y (d) la integral completa. De manera más precisa:

Definición 4: una familia de funciones y = ϕ(x, C1 , C2 , . . . , Cn ), que de-


pende de n parámetros independientes, y verifica la relación (6.2.1) se de-
nomina la solución general de la ecuación diferencial.

Definición 5: una solución particular de la ecuación se obtiene asig-


nando unos valores numéricos a las constantes C1 , C2 , . . . , Cn , en princi-
pio arbitrarias, que aparecen en la solución general. Normalmente estos
200 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

valores se determinan imponiendo unas condiciones iniciales de la forma


(n−1)
y(x0 ) = y0 , y ! (x0 ) = y0! , . . . y (n−1) (x0 ) = y0 , que fijan los valores de
la función y sus derivadas hasta el orden n − 1 en un punto x0 , pero las
condiciones iniciales pueden darse de otras formas diferentes.

Definición 6: a veces sucede que no toda solución de la ecuación diferencial


puede ser obtenida a partir de la solución general mediante una adecuada
elección de los parámetros; en este caso diremos que la ecuación presenta
soluciones singulares.

Definición 7: una curva integral de una ecuación diferencial es una curva


de ecuación implı́cita φ(x, y) = 0, que puede ser o puede no ser expresable
en la forma explı́cita y = y(x), y que verifica en todo punto la relación
(6.2.1).

Definición 8: una ecuación ψ(x, y, C1 , C2 , . . . , Cn ) = 0 dependiente de n


parámetros independientes se llama integral completa de la ecuación dife-
rencial (6.2.1) si toda curva integral puede obtenerse a partir de ella, sin
más que elegir convenientemente los n parámetros.

Ejemplo 1: consideremos la ecuación diferencial y ! = −x/y. El campo de


vectores tangentes es (1, −x/y), que está definido en todos los puntos del
plano salvo en el origen (si y = 0 las respectivas tangentes son paralelas al
eje de ordenadas6 ). Las soluciones son
dy x
= − ⇒ ydy = −xdx ⇒
dx y

y2 x2
⇒ = − + C ⇒ x2 + y 2 = 2C ≥ 0. (6.2.2)
2 2
Obsérvese que hemos efectuado algunas manipulaciones en la ecuación; de
hecho la hemos reescrito en forma diferencial, para ası́ hacer más evidente
el proceso de integración que nos lleva a la solución. Hemos obtenido una
familia uniparamétrica de √
circunferencias, todas ellas centradas en el origen
y de radio variable R = 2C. √ Estas curvas √en R , vienen dadas por la
2

unión de dos funciones: y = R2 − x2 , y = − R2 − x2 , con −R ≤ x ≤ R.


6
En efecto, el vector (y, −x) es colineal con el vector (1, −x/y), y por lo tanto es un
vector tangente a la curva en el punto (x, y). Tomando ahora el lı́mite cuando y → 0 del
nuevo vector tangente resulta que (y, −x) → (0, −x), y el vector tangente en los puntos
del eje de abscisas (y = 0) es paralelo al eje ordenadas (x = 0) .
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 201

Por cada punto del plano, excepción hecha del origen, pasa una de estas
circunferencias. Vemos que las soluciones de (6.2.2) no vienen dadas por
funciones de la forma y = y(x), lo cual justifica√la distinción entre soluciones
de la ecuación diferencial (las funciones y = ± R2 − x2 ) y curvas integrales
(o integral completa) de la ecuación diferencial (en este caso x2 + y 2 = R2 ).
Estamos dando por supuesto que el problema que se nos presente en
forma de ecuación diferencial estará bien planteado, pero pudiera suceder
que, por algún motivo (por ejemplo, por un error en el planteamiento del
modelo con el que estemos trabajando), no fuera éste el caso. Si el problema
de ecuaciones diferenciales que se está estudiando no está correctamente
planteado, pudiera ser que la ecuación en cuestión no tuviera solución o
bien que esta solución no fuese única (intuitivamente lo “razonable” serı́a
pensar que un problema concreto posee una única solución). En el capı́tulo
siguiente daremos algunos resultados que nos informan sobre ciertas condi-
ciones bajo las cuales podemos asegurar que una ecuación diferencial tiene
solución con unas condiciones iniciales dadas, y ésta es única.
Antes de pasar a analizar los diversos casos especiales que se mostrarán
en el resto de este tema, queremos hacer un último comentario, a guisa de
consejo, referido a la conveniencia de verificar las soluciones: debido a las
manipulaciones algebraicas que se efectúan durante el proceso de resolución,
a veces sin darnos cuenta puede introducirse como supuesta solución alguna
función que no lo sea (en muchas ocasiones simplemente por errores en
los cálculos), por lo que resulta deseable que siempre se verifique que las
soluciones obtenidas satisfacen la ecuación diferencial de partida.

6.3 Métodos elementales de integración

En esta sección haremos un repaso de algunos de los métodos de resolución


de ecuaciones diferenciales de primer orden. Como ya hemos visto, una
ecuación de ese tipo será una expresión en forma implı́cita

F (x, y, y ! ) = 0. (6.3.1)

Siempre que sea posible, conviene despejar la derivada de mayor orden (en
este caso el orden es uno) y escribir la ecuación anterior en su forma normal:

y ! (x) = f (x, y). (6.3.2)


202 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

En general, una ecuación diferencial de este tipo, por sencilla que en prin-
cipio pueda parecer, es difı́cil de resolver y no existen procedimientos gene-
rales para tratarla. En caso necesario, y como ya hemos comentado, puede
recurrirse a efectuar un cálculo numérico aproximado.
Hay algunos casos sencillos, pero muy útiles, para los cuales sı́ se conocen
métodos de resolución. La existencia de estos métodos está ligada a la
presencia de ciertas simetrı́as en la ecuación, lo que permite utilizar las
técnicas matemáticas de la teorı́a de grupos de Lie 7 para explicar por qué
es posible encontrar solución a esos tipos de ecuaciones. No obstante, no
es éste nuestro objetivo, pues en muchos casos pueden obtenerse resultados
usando métodos no muy complicados, como los que vamos a explicar, de
manera que nos centraremos en mostrar cómo proceder ante determinadas
ecuaciones, en concreto cómo hallar las soluciones generales en los casos
que siguen.

6.3.1 Ecuaciones en variables separables

Son de la forma
dy g(x)
y ! (x) = = o bien g(x) dx = h(y) dy. (6.3.3)
dx h(y)

La solución general se obtiene integrando


1 1
g(x) dx = h(y) dy + C, (6.3.4)

siendo C una constante de integración, en principio arbitraria, de la que no


hay que olvidarse en los cálculos explı́citos. El problema está en principio
resuelto ya que se ha reducido a dos cuadraturas (integrales indefinidas)
que, bien es cierto, pueden ser difı́ciles de evaluar en forma cerrada, o
incluso imposibles. El Ejemplo 1 resuelto en (6.2.2) es de tipo separable.
Otra posibilidad es que, aunque se trate de una ecuación diferencial
que no tenga las variables separadas como se ha indicado, mediante un
cambio de variables adecuado (tanto de la variable dependiente como quizá
de la independiente) la ecuación se transforme en una del tipo (6.3.3). Esta
posibilidad tendrá que ser considerada en cada caso concreto.
7
Marius Sophus Lie (1842–1899), matemático noruego que introdujo los grupos que
llevan su nombre para estudiar sistemáticamente las ecuaciones diferenciales.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 203

6.3.2 Ecuaciones homogéneas

Son aquellas en las que la función f (x, y) que aparece en la forma normal
de la ecuación (6.3.2) es una función homogénea de grado n = 0, es decir,

f (λx, λy) = λn f (x, y), con n = 0, λ ∈ R. (6.3.5)

Este caso se puede resolver efectuando un cambio en la función incógnita


y adoptando como nueva variable dependiente o función incógnita una que
podemos llamar v(x) definida ası́: y(x) = x v(x). Esto permite obtener una
ecuación en variables separables para v(x) del tipo (6.3.3):
dv f (1, v) − v
y ! = v + xv ! = f (x, xv) = f (1, v) ⇒ = .
dx x
Otra forma de resolver las ecuaciones homogéneas es usando coordenadas
polares:

x = r cos θ, y = r sen θ, r ∈ [0, ∞), θ ∈ [0, 2π),


dx = cos θ dr − r sen θ dθ, dy = sen θ dr + r cos θ dθ.

Entonces la ecuación diferencial escrita en la forma dy = f (x, y) dx se


reescribe como:

sen θ dr + r cos θ dθ = f (cos θ, sen θ)(cos θ dr − r sen θ dθ).

De aquı́ se obtiene la siguiente ecuación diferencial en variables separables


de la variable radial r en función del ángulo polar θ:
1 dr cos θ + f (cos θ, sen θ) sen θ
=− .
r dθ sen θ − f (cos θ, sen θ) cos θ
Hemos reducido el problema a cuadraturas y en determinadas circunstan-
cias la integral podrá hallarse sin demasiada dificultad. La técnica expuesta
de pasar de coordenadas cartesianas a polares es bastante útil para resolver
algunos tipos de problemas.
6
Ejemplo 2: la ecuación xy ! + y = x2 + y 2 es homogénea, como se puede
ver al escribirla en forma normal, de manera que podemos efectuar el cam-
bio de función incógnita y = xv(x):
6
! −y + x2 + y 2 dv dx
y = , √ = .
x 1 + v 2 − 2v x
204 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

La integral que resulta en la variable v es complicada, pero puede evaluarse


en forma cerrada, y el resultado final es
6 6
(x2 + 5y 2 − 4y x2 + y 2 )(y + x2 + y 2 ) = C. (6.3.6)

La gráfica de algunas soluciones se muestra en la Figura 6.1. Se han


elegido arbitrariamente los valores C = 1 (curva continua), C = 8 (curva
discontinua de trazo pequeño) y C = −8 (curva discontinua de trazo
grande). Para dibujarlas es mejor representar la solución en coordenadas
polares, en las cuales las curvas solución anteriores adoptan la forma
! "1/3
C
r= . (6.3.7)
(1 + sen θ)(1 − 2 sen θ)2

-4 -2 2 4

-2

-4

Figura 6.1: Varias curvas solución del Ejemplo 2.

Démonos cuenta de que todas las curvas anteriores presentan ası́ntotas


para θ = π/6, 5π/6, 3π/2, valores para los que se anula el denominador de
(6.3.7).
Sobre este ejemplo se puede entender adecuadamente lo que hemos lla-
mado anteriormente la solución general, con C arbitrario (las ecuaciones
(6.3.6) o (6.3.7)), y soluciones particulares, dando diversos valores al pará-
metro C (las curvas representadas en la Figura 6.1). Observemos también
como un cambio de variables puede transformar una solución general de la
forma ψ(x, y, C) = 0, en una solución general del tipo r = ϕ(θ, C) = 0.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 205

6.3.3 Ecuaciones lineales

Las ecuaciones lineales no homogéneas tienen la siguiente estructura:

y ! + P (x) y = Q(x). (6.3.8)

La solución general de esta ecuación se obtiene sumando una solución par-


ticular cualquiera de esta ecuación lineal no homogénea, a la solución ge-
neral de la ecuación lineal homogénea asociada8

y ! + P (x) y = 0, (6.3.9)

que, obviamente, es una ecuación en variables separables y se resuelve por


cuadraturas, como ya se ha explicado anteriormente. Para hallar la solución
particular puede procederse de manera “intuitiva” (buscando por tanteo la
solución, dada la forma concreta que presente el término no homogéneo),
o bien pueden usarse dos métodos que se analizarán con más detalle al
estudiar las ecuaciones diferenciales lineales de orden n: el de los coeficientes
indeterminados y el de variación de las constantes.
Una forma completamente equivalente de hallar la solución general de
la ecuación (6.3.8), y más sistemática, es laL siguiente: se multiplica
Lx toda
x
la ecuación por el “factor integrante” exp{ P (t) dt} (aquı́ denota la
integral indefinida con variable final x), y se observa que ası́ conseguimos
tener en el primer miembro la derivada de un producto
$ /1 x 0% /1 x 0
d
y(x) exp P (t) dt = Q(x) exp P (t) dt ;
dx

sin más que integrar, se llega a la solución general


' Lx (! 1 x ' Lz ( "
− P (t) dt
y(x) = e C+ Q(z) e P (t) dt
dz

' L x ( ' L x (1 x ' Lz (


− −
= C e P (t) dt
+ e P (t) dt
Q(z) e P (t) dt dz.(6.3.10)

En esta última ecuación es evidente lo que ya se anunció anteriormente:


que esta solución puede expresarse como suma de la solución general de la
homogénea (el término resultante de hacer Q(x) = 0 en (6.3.10)) más una
8
La demostración de este aserto se dará de forma general en el Capı́tulo 8 dedicado
al estudio de las ecuaciones lineales de orden n.
206 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

solución particular de la ecuación completa (el término que queda al hacer


C = 0).

Ejemplo 3: la ecuación xy ! − 4y = x3 es lineal no homogénea. La solución


general de la homogénea es muy sencilla: y = Cx4 . Dado que el término no
homogéneo es un monomio, podemos intentar hallar una solución particular
de la ecuación completa en la forma yp = αxβ ; al sustituir esta expresión en
la ecuación diferencial encontramos una solución única con α = −1, β = 3,
de manera que la solución general de la ecuación es

y = Cx4 − x3 .

La misma solución se encuentra aplicando directamente la fórmula (6.3.10),


pero recuérdese que en este caso hay que usar siempre la forma normal de
la ecuación diferencial (6.3.2). En la Figura 6.2 aparecen dibujadas algunas
curvas de la familia de soluciones.

0.2

C=!2
0.1
C=!1

C=1
-1 -0.5 0.5 1
C=2
-0.1

-0.2

Figura 6.2: Varias curvas solución del Ejemplo 3.

6.3.4 Ecuaciones de Bernouilli

Corresponden a un tipo de ecuación diferencial no lineal propuesto por


Jakob Bernouilli9 , que presenta la siguiente forma general:

y ! + P (x) y = Q(x) y α , con α ∈ R, α != 0, 1. (6.3.11)


9
Jakob Bernouilli (1654–1705), matemático suizo.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 207

Se impone α != 0, 1 para no tener una simple ecuación lineal (que acabamos


de ver cómo se resolverı́a). Pues bien, haciendo en (6.3.11) el cambio de
función incógnita v = y 1−α , o bien y = v 1/(1−α) , se transforma la ecuación
y se obtiene una ecuación lineal no homogénea
dv
+ (1 − α)P (x) v = (1 − α)Q(x),
dx
cuya solución general se halla siguiendo el método ya indicado en el apar-
tado precedente. Una vez calculada v(x, C), hay que deshacer el cambio de
variable para llegar finalmente a y(x, C).

Ejemplo 4: la ecuación y ! = xy 2 + 2xy es de Bernouilli. Se efectúa el


cambio y = v −1 , y se obtiene la ecuación lineal
v ! + 2xv + x = 0,
2
cuya solución general resulta ser v = C e−x − 1/2, de modo que la solución
general de la ecuación de Bernouilli inicial es
2
y= .
2C e−x2 −1
En las Figura 6.3 y 6.4 pueden verse algunas curvas solución para diversos
valores de la constante de integración C.

-3 -2 -1 1 2 3
C=0.4
-2
C=0.1

-4 C=0
C=!0.1
-6
C=!10
-8

-10

Figura 6.3: Varias curvas sin singularidades,


solución del Ejemplo 4.

Obsérvese que de la solución se deduce que si 2C ≥ 1 las gráficas presen-


tarán singularidades, cosa que no sucede en caso contrario. En efecto, para
208 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

que la solución presente singularidades, el denominador habrı́a de anularse.


2 2
Esto sucede siempre que 2C e−x − 1 = 0, o equivalentemente 2C = ex .
2
Pero como x2 ≥ 0, entonces ex ≥ 1. De esta manera, habiendo fijado
2
C tal que 2C ≥ 1,6la ecuación 2C = ex admite soluciones en x, que son
justamente x = ± ln(2C), siendo ln(2C) ≥ 0, pues 2C ≥ 1. En todos los
casos las curvas solución son funciones pares de la variable independiente.

4 C=1

2
C=5
-3 -2 -1 1 2 3
-2 C=15

-4

-6

Figura 6.4: Curvas singulares solución del Ejemplo 4.

6.3.5 Ecuaciones de Riccati

Las ecuaciones de Riccati10 son ecuaciones diferenciales no lineales de la


forma:
y ! = A(x) y 2 + B(x) y + C(x). (6.3.12)
En general, sólo podremos hallar la solución general de una ecuación de
este tipo si somos capaces de encontrar primero una solución particular
cualquiera (para lo cual, desafortunadamente, no existe ningún método
conocido). Suponiendo que lo hayamos logrado, y denotando yp (x) la
solución particular, procederemos a efectuar el cambio de función incógnita
1
y(x) = yp (x) + , (6.3.13)
v(x)
10
Jacopo Francesco, Conde Riccati de Venecia (1676–1754). Introdujo la ecuación que
lleva su nombre para facilitar la resolución de ecuaciones de segundo orden.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 209

lo que nos reduce el problema a una ecuación diferencial lineal en v(x)

v ! (x) + (2yp (x)A(x) + B(x))v(x) + A(x) = 0,

que es una ecuación lineal, de las ya estudiadas con anterioridad.

Ejemplo 5: para la ecuación de Riccati y ! + y 2 = x2 + 1 puede hallarse


por inspección una solución particular muy sencilla yp = x. Efectuando las
transformaciones que acabamos de indicar, se llega a la solución general
2 2
e−x e−x
y(x) = x + Lx = x + √ .
C + 0 e−t dt
2
C + 2π erf x

La función erf x que aparece en la solución es la función error, de la que


se habló en el Capı́tulo 1, dedicado a la función Γ(z) y a otras funciones
relacionadas con ella. Debido a las propiedades de la función error, en
concreto al hecho de que sea una función monótona creciente y que toma
valores en el intervalo (−1, 1), cuando la constante C toma valores en el
√ √
intervalo (− 12 π, 12 π), la solución de la ecuación diferencial presentará

una singularidad; en caso contrario, no habrá ninguna singularidad ( 12 π ≈
0.886). En la Figura 6.5 se representan algunas gráficas del sumando que
contiene la función error (se ha prescindido del término lineal que es la
solución particular trivial).

4
C=2
2
C=0.9
-3 -2 -1 1 2 3
C=!0.884
-2
C=!0.9
-4

-6

Figura 6.5: Varias curvas que representan el término


no lineal de la solución del Ejemplo 5 para diversos
valores de la constante de integración.
210 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Ampliación: relación entre las ecuaciones de Riccati y de Schrödinger.


La ecuación de Riccati aparece ı́ntimamente relacionada con una ecuación diferencial
de segundo orden. Para verlo, efectuamos en (6.3.12) el cambio v(x) = A(x) y(x), lle-
gando a la ecuación
$ %
A$ (x)
v$ = + B(x) v + C(x) A(x) + v 2 .
A(x)

Ahora se pasa a la función incógnita z(x) relacionada con v(x) por la relación v = −z $ /z,
y tras algunas operaciones simples se llega a la forma final
$ %
A$ (x)
z $$ − + B(x) z $ + C(x) A(x) z = 0.
A(x)

Conocida la solución general de esta ecuación lineal de segundo orden, la de la ecuación


de Riccati será
z $ (x)
y=− .
A(x) z(x)
Una observación importante: la solución general de la ecuación de segundo orden tendrá
dos constantes arbitrarias. Al deshacer los cambios para hallar y(x) ha de desaparecer una
de ellas, ya que la ecuación de Riccati es de primer orden, y por lo tanto su solución general
sólo puede tener una constante arbitraria. La ecuación de segundo orden que hemos
obtenido es equivalente a la de Riccati, pero en general no será más fácil de resolver. La
importancia de esta relación es, sobre todo, teórica, y aparece en determinados trabajos de
mecánica cuántica de reciente publicación (la ecuación de segundo orden que aquı́ aparece
puede relacionarse directamente con la ecuación de Schrödinger; para más información
véase el trabajo de B. Mielnik citado en la bibliografı́a, y su relación con el Ejemplo 5).

6.3.6 Ecuaciones con coeficientes lineales

Son aquellas del tipo

(a1 x + b1 y + c1 ) dx + (a2 x + b2 y + c2 ) dy = 0, (6.3.14)

o bien, de forma más general, y siendo f (w) una función de una variable,
$ %
! a1 x + b1 y + c1
y =f . (6.3.15)
a2 x + b2 y + c2

Observemos que si igualamos a cero el numerador y el denominador que


aparecen en el argumento de f en (6.3.15) obtenemos las ecuaciones de dos
rectas. Se presentan dos posibilidades:
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 211

a) Las dos rectas son paralelas (o coincidentes). En este caso a1 /a2 =


b1 /b2 = λ, lo que permite elegir como nueva variable u(x) = a2 x+b2 y,
de modo que, derivando respecto de x tendremos u! = a2 + b2 y ! ,
y substituyendo en (6.3.15), obtenemos una ecuación en variables
separables:
$ %
du λu + c1
= a2 + b2 f .
dx u + c2

b) Las dos rectas se cortan en un punto (x0 , y0 ). Se verificará la desigual-


dad a1 /a2 != b1 /b2 , de manera que introduciendo nuevas variables

dy dw
w = y − y0 , t = x − x0 , = ,
dx dt

y aplicando la regla de la cadena, la ecuación se transforma en


$ %
dw a1 t + b1 w
=f ,
dt a2 t + b2 w

que es una ecuación homogénea resoluble, por ejemplo, mediante una


nueva transformación w(t) = t v(t), como ya hemos visto.

Ejemplo 6: la ecuación (3x − 2y − 2)y ! = 2x + 3y + 3 es de coeficientes


lineales; el punto de corte de las dos rectas paralelas es x = 0, y = −1, por
lo que el cambio adecuado es t = x, w = y + 1, seguido de w = tv, llegando
ası́ a la ecuación en variables separables

dv 1 + v2
t =2 .
dt 3 − 2v

Tras integrar y deshacer los cambios de variables se obtiene como solución


general
! $ %"
1+y
exp 3 arctan = C(x2 + (1 + y)2 ).
x

Geométricamente las soluciones son espirales que tienen como punto de


convergencia común (0, −1) y se van abriendo en sentido antihorario (se
propone al lector que verifique esta afirmación).
212 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

6.3.7 Ecuaciones de Lagrange

Las ecuaciones de Lagrange presentan la siguiente estructura general:


y = x g(y ! ) + f (y ! ), (6.3.16)
siendo f y g funciones conocidas y con g(y ! ) != y ! . Para resolver estas
ecuaciones, se efectúa el cambio de variable y ! = p, que pasará a ser la nueva
variable independiente. Derivando los dos miembros de (6.3.16) respecto
de p obtenemos
dy dy dx dx dx
= =p = g(p) + x g ! (p) + f ! (p),
dp dx dp dp dp
es decir
dx g ! (p) f ! (p)
= x+ , (6.3.17)
dp p − g(p) p − g(p)
que es una ecuación lineal que permite, en principio, obtener x = x(p, C).
Con esta ecuación y la original (6.3.16) obtenemos la solución general en
forma paramétrica (siendo p el parámetro y C la constante de integración):
)
x = x(p, C),
y = x(p, C) g(p) + f (p).

Ejemplo 7: consideremos la ecuación de Lagrange y = x (y ! )2 + (y ! )3 .


Introduciendo la variable p = y ! llegamos a la ecuación diferencial lineal
dx 2 −3p
+ x= ,
dp p − 1 p−1
cuya solución general puede determinarse y permite ofrecer la solución de
la ecuación de partida en forma paramétrica:
! "
2C + 3p2 − 2p3 2 2C + 3p − 2p
2 3
x(p, C) = , y(p, C) = p + p
3
.
2(p − 1)2 2(p − 1)2
(6.3.18)
Dando valores a p obtenemos las curvas solución, estando formadas todas
ellas por dos ramas separadas, una obtenida al tomar p ∈ (−∞, 1] y la otra
p ∈ [1, ∞). De (6.3.18) se deduce que para todas estas curvas
lim y(p) = −∞, lim x(p) = ∓∞.
p→±∞ p→±∞

Aparecen además puntos en los cuales la función no es derivable. Véanse


algunas de estas curvas en la Figura 6.6.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 213

10 -6 -4 -2 2 4
-2
5
-4
-6
-4 -2 2 4
-8
-5
-10
-10 -12

Figura 6.6: Dos soluciones de la ecuación de


Lagrange del Ejemplo 7. En la primera se ha
tomado C = 1 y en la segunda C = −1.

6.3.8 Ecuaciones de Clairaut

Las ecuaciones de Clairaut11 son del tipo de las de Lagrange, con g(y ! ) = y ! :

y = x y ! + f (y ! ). (6.3.19)

Sin embargo se analizan separadamente por presentar ciertas particulari-


dades. En principio es fácil ver que estas ecuaciones no pueden resolverse del
mismo modo que las de Lagrange, ya que en la fórmula (6.3.17) tendrı́amos
un 0 en el denominador. Para determinar la solución se deriva en (6.3.19)
respecto de x: y ! = y ! + x y !! + f ! (y ! ) y !! , es decir (x + f ! (y ! )) y !! = 0. De
este modo aparecen dos tipos de soluciones:

a) Si y !! = 0 entonces tendremos y ! = C, que llevado a (6.3.19) propor-


ciona la solución general

y = C x + f (C),

una familia uniparamétrica de rectas.


11
Alexis-Claude Clairaut (1713–1765), matemático francés. Participó en una expe-
dición a Laponia para medir la distancia del grado de longitud terrestre y trabajó en
diversos problemas de geodesia, astronomı́a y matemáticas.
214 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

b) Si x + f ! (y ! ) = 0, como se ha de verificar también (6.3.19), llegamos


a la siguiente solución en paramétricas (con parámetro y ! = p):
)
y = p x + f (p),
0 = x + f ! (p).

Nótese que esta última solución no tiene ninguna constante inde-


terminada. Se trata de una solución singular de la ecuación que,
geométricamente, es la envolvente de la familia de rectas dada en
a). Cuando sea posible, una representación gráfica resulta altamente
ilustrativa de la situación que se presenta. Para más detalles, véase
el apéndice al final de este apartado.

Ejemplo 8: resuélvase la ecuación y = xy ! + ln y ! . Derivando respecto de x


se llega a la condición y !! (x+1/y ! ) = 0. De aquı́ se siguen dos posibilidades:

• Puede ser que y !! = 0, de donde y ! = C, y teniendo en cuenta la


ecuación de partida (y = xy ! + ln y ! ), se deduce la solución general

y = Cx + ln C,

que es una familia uniparamétrica de rectas.

• La segunda opción es que x + 1/y ! = 0. Esta ecuación junto con


la de partida nos proporcionan una solución en paramétricas (con
parámetro y ! ). En este caso particular que estamos analizando, es
posible eliminar el parámetro entre las dos ecuaciones (cosa que no
siempre sucederá en el caso general) y se llega a la solución

y = −1 − ln(−x).

Obsérvense dos detalles importantes: esta solución, que no está in-


cluı́da en la familia de rectas antes halladas, sólo tiene sentido para
x < 0; además no aparece ninguna constante arbitraria, de manera
que es una solución singular (es la envolvente de la familia de rectas,
que está situada en el semiplano x < 0).

Véanse las gráficas que ilustran lo que acabamos de explicar en la Figura 6.7.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 215

-4 -3 -2 -1 1

-2

Figura 6.7: Familia de rectas soluciones de la


ecuación de Clairaut del Ejemplo 8 y en trazo más
grueso la envolvente de la familia uniparamétrica.

Apéndice: envolvente de la familia uniparamétrica de curvas f (x, y, C) = 0.

Definición 9: dada una familia de curvas en el plano, f (x, y, C) = 0, diremos que la


curva γ es una envolvente de la familia si se verifican estas dos condiciones:

i) En cada punto P ∈ γ hay un único miembro de la familia que es tangente a γ.

ii) Todo miembro de la familia es tangente a γ en algún punto.

El siguiente teorema nos da condiciones para hallar envolventes:

Teorema 1: sea z = f (x, y, C) una función de clase C 2 (D), D ∈ R 3 . Si en D se verifica

∂f (x, y, C)
f (x, y, C) = 0, = 0, (6.3.20)
∂C

y también
2 2
2 ∂f (x, y, C) ∂f (x, y, C) 2
2 2
∂ 2 f (x, y, C)
det 2 2 ∂x ∂y
2 2
2 %= 0, %= 0, (6.3.21)
2 ∂ f (x, y, C) ∂ 2 f (x, y, C) 2 ∂C 2
2 2
∂x∂C ∂y∂C

entonces la familia f (x, y, C) = 0 tiene una curva envolvente de ecuaciones paramétricas


(6.3.20).

Ejemplo 9: y = ±1 son las envolventes de la familia de circunferencias (x−C)2 +y 2 = 1.


216 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

0.5

-3 -2 -1 1 2 3

Figura 6.8: Familia de circunferencias del


Ejemplo 9 y sus rectas envolventes.

6.3.9 Ecuaciones diferenciales exactas

Consideremos ahora una ecuación diferencial de primer orden escrita en la


forma
M (x, y) dx + N (x, y) dy = 0, (6.3.22)

con M (x, y), N (x, y) ∈ C 1 (D), siendo D un abierto de R2 . C 1 (D) es el


conjunto de las funciones en D que son continuas y admiten derivadas
primeras continuas. Vamos a introducir en primer lugar algunas nociones
de la teorı́a de formas diferenciales.

Definición 10: llamaremos forma diferencial o 1-forma a toda expresión


del tipo
ω = M (x, y) dx + N (x, y) dy. (6.3.23)

Definición 11: diremos que ω es una forma diferencial exacta si existe


una función f (x, y) ∈ C 2 (D) tal que

∂f (x, y) ∂f (x, y)
= M (x, y), = N (x, y). (6.3.24)
∂x ∂y

Se dice que f (x, y) es la función potencial y se tiene ω = df (x, y).

Definición 12: diremos que ω es una forma diferencial cerrada si dω = 0.


Proposición 1: si ω es una forma diferencial exacta con función potencial
f , entonces una solución de la ecuación diferencial (6.3.22) es

f (x, y) = C. (6.3.25)
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 217

Demostración: si suponemos que ω es exacta, al diferenciar (6.3.25) para


eliminar la constante arbitraria C, teniendo en cuenta (6.3.24), obtenemos

df ∂f ∂f
0= = dx + dy = M (x, y) dx + N (x, y) dy,
dx ∂x ∂y

que es la ecuación diferencial de partida.


La solución (6.3.25) admite una interpretación geométrica muy sencilla.
En efecto, esta ecuación puede escribirse equivalentemente como
)
z = f (x, y),
f (x, y) = C ≡ (6.3.26)
z = C,

de manera que la solución está dada por el corte de dos superficies, en


concreto de z = f (x, y) con los planos z =cte, y son por tanto las curvas
de nivel de la superficie (como se representa en la Figura 6.9).

-10
0
4
-50
-2
-4 0

0 -4
-4
4 -4 -2 0 2 4

Figura 6.9: La superficie z = −x4 /20 − y 2 − x


y algunas de sus curvas de nivel.

Teorema 2: consideremos la forma diferencial ω = M (x, y) dx+N (x, y) dy,


con M, N ∈ C 1 (D), siendo D abierto y simplemente conexo12 en R2 . Con
12
Un abierto D en R 2 es simplemente conexo si es conexo y toda curva cerrada regular
en D puede ser deformada en D, manteniéndose cerrada y regular, hasta contraerse a un
punto z0 ∈ D. No vamos a dar aquı́ una definición precisa de conexión simple (ni del
218 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

estas condiciones, ω es exacta si y sólo si se verifica


∂M ∂N
= . (6.3.27)
∂y ∂x
Demostración:
a) Si ω es exacta, entonces existe una función f tal que se cumple (6.3.24). En virtud de
la igualdad de Schwarz de las parciales cruzadas se tiene
∂2f ∂f ∂M ∂N
= ≡ = .
∂x∂y ∂y∂x ∂y ∂x
b) Supongamos ahora que se verifica (6.3.27). Sea (x0 , y0 ) un punto en D que escogemos
arbitrariamente. Sea (x, y) cualquier otro punto en D y sea γ un camino arbitrario que
va desde (x0 , y0 ) hasta (x, y) manteniéndose en D. Debido a las condiciones impuestas
en el teorema, la integral
1
f (x, y) = (M (x, y) dx + N (x, y) dy) (6.3.28)
γ

no depende de la elección del camino γ. Como D es un conjunto conexo, dos puntos cua-
lesquiera pueden unirse mediante una linea poligonal cuyos segmentos están contenidos
en D. Además la poligonal puede ser escogida de tal forma que los segmentos que la
constituyen sean paralelos a los ejes. Vamos a tomar el camino γ de esta manera. Para
mayor sencillez vamos a suponer que es de la forma que aparece en la Figura 6.10.

(x o,y) (x,y)

(x o, y o)

Figura 6.10: Esquema para la demostración


del teorema 2.

La generalización a una poligonal más complicada es inmediata. En nuestro caso, la


función definida en (6.3.28) puede escribirse como
1 y 1 x
f (x, y) = N (x0 , t) dt + M (t, y) dt. (6.3.29)
y0 x0

concepto relacionada de curva homótopa a un punto), que el lector puede encontrar en


la página 105 del libro de Marsden y Hoffmann citado en la bibliografı́a. Coloquiamente
hablando, suele decirse de manera muy gráfica que un dominio (abierto y conexo) es
simplemente conexo si no tiene agujeros.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 219

La primera integral se realiza sobre el segmento vertical y la segunda sobre el horizontal.


Nuestro objetivo consiste ahora en demostrar que f (x, y) es la función potencial corres-
pondiente a la forma diferencial M (x, y) dx + N (x, y) dy. Sin más que usar el primer
teorema fundamental del cálculo integral llegamos a que

f (x, y) = M (x, y)
∂x
y 1
x
∂ ∂M (t, y)
f (x, y) = dt + N (x0 , y). (6.3.30)
∂y x0 ∂y
Aplicando la hipótesis del teorema, en el sentido que
∂M (t, y) ∂N (t, y)
= ,
∂y ∂t
en la ecuación (6.3.30) se obtiene
1 x
∂ ∂N (t, y)
f (x, y) = dt + N (x0 , y) = N (x, y) − N (x0 , y) + N (x0 , y) = N (x, y),
∂y x0 ∂t
con lo cual hemos demostrado que la forma ω = M (x, y) dx + N (x, y) dy admite una
función potencial, que resulta ser f (x, y). Por lo tanto ω es exacta.

En la práctica, la función potencial f (x, y) se determina resolviendo el


par de ecuaciones diferenciales en derivadas parciales (6.3.24), que son muy
sencillas. Para ello se calcula la integral indefinida de M (x, y) respecto de
x, o equivalentemente la de N (x, y) respecto de y:
1 1
f (x, y) = M (x, y) dx + φ(y) = N (x, y) dy + ψ(x). (6.3.31)

Nos aparecen unas funciones arbitrarias φ(y) o ψ(x) debido a que sólo
se integra respecto de una de las variables, no respecto de la otra; estas
funciones se calculan imponiendo la condición de que f (x, y) en (6.3.31)
sea la función potencial (6.3.24).

Ejemplo 10: sea (3x2 + 2xy) dx + (x2 + y) dy = 0. Se comprueba tri-


vialmente que esta ecuación es exacta pues verifica (6.3.27). Para calcular
la función potencial integramos por ejemplo respecto de x tratando a la
variable y como otra variable independiente:
1
f (x, y) = (3x2 + 2xy) dx = x3 + x2 y + φ(y).

Y ahora evaluamos la derivada parcial respecto de y de lo anterior, y lo


igualamos a N (x, y):
∂ dφ
f (x, y) = x2 + = (x2 + y).
∂y dy
220 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

De aquı́ se deduce una ecuación diferencial para la función φ(y), cuya


solución es φ = y 2 /2 + cte, con lo que la función potencial (que siempre
está definida salvo una constante aditiva arbitraria) es

y2
f (x, y) = x3 + x2 y + .
2
La solución general de la ecuación diferencial es: x3 + x2 y + y 2 /2 = C.
Algunas curvas solución se muestran en la Figura 6.11.

-7.5 -5 -2.5 2.5 5 7.5

-2

-4

-6

-8

Figura 6.11: Algunas curvas solución del Ejemplo


10, con valores C = −30, C = −5, C = 0, C = 5,
C = 30; algunas constan de dos trozos y otras de
uno solo.

Conviene tener presente que si la forma diferencial no verifica (6.3.27)


e intentamos aplicar el método desarrollado anteriormente, llegaremos a
contradicciones insalvables.

6.3.10 Factores integrantes

Si la forma diferencial ω dada en (6.3.23) es tal que


∂M ∂N
!= , (6.3.32)
∂y ∂x
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 221

diremos que ω no es exacta. En este caso, llamamos factor integrante de


la ecuación diferencial a toda función µ(x, y) tal que la forma diferencial
ω ! = µω

ω ! = (µ(x, y) M (x, y)) dx + (µ(x, y)N (x, y)) dy (6.3.33)

sea exacta. Veremos en el capı́tulo siguiente, dedicado al estudio de la


existencia y unicidad de las soluciones de las ecuaciones diferenciales, que
si f (x, y) ∈ C 1 (D), donde D es un abierto de R2 , por cada punto (x0 , y0 ) ∈ D
pasa una única solución de la ecuación y ! = f (x, y(x)). Supongamos que
M (x, y), N (x, y) ∈ C 1 (D), y que en D la función N (x, y) no se anula en
ningún punto. Escribamos la ecuación diferencial
dy M (x, y)
M (x, y) dx + N (x, y) dy = 0 como =− = f (x, y). (6.3.34)
dx N (x, y)
Entonces f (x, y) ∈ C 1 (D) y la ecuación (6.3.34) tiene siempre una única
solución que pasa por (x0 , y0 ) ∈ D. Esto quiere decir que la ecuación
M (x, y) dx + N (x, y) dy = 0 es siempre soluble y, por lo tanto, debe de
existir un factor integrante (otro asunto diferente es que podamos hallarlo
fácilmente o no).
Respecto a la interpretación geométrica de M (x, y) dx + N (x, y) dy = 0
y de su solución, sea {x = x(t), y = y(t)} una solución, siendo t es un cierto
parámetro. Llevando esta solución a la ecuación y derivándola respecto de
t, obtenemos

M (x(t), y(t)) x! (t) + N (x(t), y(t)) y ! (t) = 0. (6.3.35)

Como (x! (t), y ! (t)) es un vector tangente a la solución dada en el punto


determinado por el valor del parámetro t, de la ecuación (6.3.35) inferimos
que el campo vectorial bidimensional (M (x, y), N (x, y)) nos da en cada
punto (x0 , y0 ) ∈ D un vector perpendicular a la solución de la ecuación
diferencial que pasa por ese punto.
En virtud del teorema 2, la existencia de un factor integrante µ(x, y)
equivale a la igualdad
∂(µM ) ∂(µN )
= ,
∂y ∂x
es decir
! "
∂M (x, y) ∂N (x, y) ∂µ(x, y) ∂µ(x, y)
− µ(x, y) = N (x, y) − M (x, y) .
∂y ∂x ∂x ∂y
222 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Llegamos a una ecuación diferencial en derivadas parciales con función


incógnita µ(x, y). Cambiamos un problema por otro equivalente que no
es más sencillo de resolver. No hay un método general que permita ha-
llar la solución de esta ecuación en derivadas parciales, sólo algunas reglas
que se deducen de ella para resolver ciertos casos particulares, como son
los siguientes (usaremos indistintamente las siguientes notaciones para las
derivadas parciales: Mx ≡ ∂x M ≡ ∂M/∂x):

1. Para que exista un factor integrante que sólo dependa de x tendrá


que ocurrir
!1 x "
1 dµ My − N x
= = h(x) ⇒ µ(x) = exp h(t) dt .
µ dx N

2. Para que exista un factor integrante que sólo dependa de y tendrá


que ocurrir
!1 y "
1 dµ My − N x
=− = g(y) ⇒ µ(y) = exp g(t) dt .
µ dy M

Otros casos aparecen como problemas propuestos al final del capı́tulo.


Un detalle importante que conviene tener en cuenta es el siguiente: por
pasar de M (x, y) dx + N (x, y) dy = 0 a

(µ(x, y) M (x, y))dx + (µ(x, y)N (x, y))dy = 0,

puede ocurrir que se elimine alguna solución válida o que se introduzcan


soluciones espúreas, por lo que conviene verificar el resultado obtenido al
final del proceso. Finalizamos este apartado con un resultado que puede
ser de utilidad en ciertas ocasiones.

Proposición 2: si la ecuación diferencial M (x, y) dx+N (x, y) dy = 0 posee


dos factores integrantes α(x, y) y β(x, y) tales que α(x, y) != cte β(x, y),
entonces la solución general de la ecuación diferencial es

α(x, y) = C β(x, y), (6.3.36)

siendo C una constante arbitraria.


Demostración: consideremos las dos formas diferenciales exactas
df = α(x, y)M (x, y) dx + α(x, y)N (x, y) dy, (6.3.37)
dg = β(x, y)M (x, y) dx + β(x, y)N (x, y) dy. (6.3.38)
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 223

Dividiendo término a término tenemos


df α(x, y)
= .
dg β(x, y)
Pero f (x, y), g(x, y) no son funcionalmente independientes, ya que el jacobiano del cambio
de variables (x, y) → (f, g) se anula idénticamente:
9 : 9 :
∂(f, g) fx fy αM αN
det = det = det = 0,
∂(x, y) gx gy βM βN

y la condición de no anulación del jacobiano es la de independencia funcional. Por tanto,


existe una cierta relación entre estas dos funciones: f (x, y) = F (g(x, y)). Con esto,
α(x, y) df dF (g(x, y))
= = ≡ ϕ(g(x, y)).
β(x, y) dg dg
Veamos ahora que (6.3.36) es la solución general de la ecuación diferencial; derivando en
esa expresión respecto de x
! " ! "
dy dy
(∂x α) + (∂y α) β − (∂x β) + (∂y β) α = 0,
dx dx

de donde despejando y $ , usando (6.3.36) y operando, tenemos


(∂x α)β − α(∂x β) (∂x α) − C(∂x β) N (∂x α) − CN (∂x β)
y$ = − =− =−
(∂y α)β − α(∂y β) (∂y α) − C(∂y β) N ((∂y α) − C(∂y β))

[−α(∂x N ) + α(∂y M ) + M (∂y α)] − C[−β(∂x N ) + M (∂y β) + β(∂y M )


= −
N ((∂y α) − C(∂y β))]

[α − Cβ][(∂y M ) − (∂x N )] + M [(∂y α) − C(∂y β)] M (x, y)


= − =− ,
N ((∂y α) − C(∂y β))] N (x, y)
que es la ecuación diferencial de partida. En la serie de igualdades precedente hemos
usado (6.3.36) y el hecho de que (6.3.37) y (6.3.38) son formas exactas.

6.3.11 Ecuaciones de primer orden en forma implı́cita

Comentaremos en esta sección algunos métodos para resolver ecuaciones


del tipo F (x, y, y ! ) = 0 que no puedan ponerse en forma normal. Conside-
raremos los siguientes casos:

a) Ecuaciones resolubles en y. Son de la forma y = f (x, y ! ). Para


intentar resolverlas tomamos y ! = p y derivamos y = f (x, p):

dy dp dp p − (∂x f )
= y ! = p = (∂x f ) + (∂p f ) ⇔ = = ϕ(x, p).
dx dx dx (∂p f )
224 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

La ecuación diferencial resultante queda reducida a la forma normal.


Si pudiéramos resolverla, conocida la solución p(x, C), volverı́amos a
la ecuación de partida y la solución final serı́a y = f (x, p(x, C)).
b) Ecuaciones resolubles en x. Son aquellas que se pueden poner como
x = f (y, y ! ). Tomando y ! = p, queda x = f (y, p), y derivando con
respecto a x se tiene
dy dp dp
1 = (∂y f ) + (∂p f ) = (∂y f ) p + p (∂p f )
dx dx dy
o bien
dp 1 − p (∂y f )
= = ψ(y, p).
dy p (∂p f )
Esta ecuación ya está escrita en la forma normal. Si somos capaces de
encontrar una solución a esta ecuación del tipo p = p(y, C), la solución
que buscamos será x = f (y, p(y, C)), dada en forma implı́cita.
c) Ecuaciones en las que falta alguna de las variables. Son de uno de los
dos tipos siguientes:
ϕ(x, y ! ) = 0, o ψ(y, y ! ) = 0.
Si pueden despejarse las variables x o y en función de y ! ≡ p, el
problema se reduce a una de las cuadraturas siguientes:
1 1
i) x = g(p), y = p(x) dx = p g ! (p) dp + C = y(p, C);
1 1 1
dy dy h! (p) dp
ii) y = h(p), x = = = + C = x(p, C).
y (x)
! p p
En ambos casos la solución viene dada en forma paramétrica (siendo
p el parámetro que describe las curvas).
Si en ϕ(x, y ! ) = 0 no es posible despejar ninguna de las variables, se
puede proceder ası́: llamando y ! = p, la ecuación ϕ(x, p) = 0 es una
curva en el plano (x, p), y conocida una representación paramétrica
suya {x = a(t), p = b(t), ϕ(a(t), b(t)) = 0}, tendrı́amos
1
dy
= b(t) ⇒ dy = b(t) dx = b(t) a (t) dt ⇒ y = a! (t) b(t) dt + C,
!
dx
que junto con x = a(t) nos da la solución en paramétricas.
El mismo procedimiento funciona para las ecuaciones ψ(y, y ! ) = 0,
ψ(y ! , y + xg(y ! )) = 0, ψ(x, P (x)y ! + Q(x)y) = 0, o ψ(y/x, y ! ) = 0.
6.4. PROBLEMAS 225

6.3.12 Ecuaciones de segundo orden reducibles a ecuaciones


de primero

Existen algunas ecuaciones de segundo orden que mediante ciertas trans-


formaciones pueden reducirse a ecuaciones de primer orden. En concreto
veremos dos casos que son resolubles de este modo:

a) Cuando no aparece explı́citamente la variable y: F (x, y ! , y !! ) = 0. Se


efectúa el cambio ya conocido y ! = p, con lo que y !! = dp/dx y la
ecuación pasa a ser de primer orden: F (x, p, dp/dx) = 0. Si somos
capaces de hallar p = p(x, C1 ), aún habrá que efectuar una integración
para tener y = y(x, C1 , C2 ).
b) Cuando no aparece explı́citamente la variable x: F (y, y ! , y !! ) = 0.
Como antes, tomamos y ! = p, de modo que y !! = dp/dx = p dp/dy,
con lo cual tenemos F (y, p, p dp/dy) = 0; si esta ecuación permite
determinar la función p = p(y, C1 ), entoces tras integrar tendremos
x = x(y, C1 , C2 ).

Ejemplo 11: la ecuación y !! = 1 + (y ! )2 puede resolverse usando los dos


métodos anteriores, pues no depende ni de x ni de y. Demuéstrese que
puede hallarse fácilmente la solución, que resulta ser
y = ln[ sen (x + C1 )] + C2 .

6.4 Problemas
1. Calcúlese la solución general de las siguientes ecuaciones diferenciales:
a) (cos2 y − x sec y)y % = sen y. b) (x + ln y)y % = 1.

c) x2 y % + 2xy = y 3 . d) xyy % = (y 2 + 1)1/2 .

e) xy % − 4y = x3 . f ) y % (x + y) = x − y.

g) y % = xy 2 + 2xy. h) y % + y = ex .

i) sen x cos y + y % cos x tan y = 0. j) ex sen y + (ex cos y + 1/y)y % = 0.

k) xy % − y = (x2 − y 2 )1/2 . l) y % = lx + my + n.

m) y % + y = ex y 1/2 . n) x(y % − x cos x) = y.

ñ) y(1 − x2 )1/2 dy = arcsen xdx. o) 4y % − y tan x + y 5 sen 2x = 0.


226 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

2. Resuélvanse las siguientes ecuaciones diferenciales:


a) y % (x + y) = y − x. b) xy % + y = y 2 ln x.
2
c) (y % )−1 + 2xy = e−y . d) 6y(x + y) + x(4x + 9y)y % = 0.

e) (cos y − sen y + x)y % + 1 = 0. f ) (3x2 + y 2 )y % + 3xy = 0.

g) y % + 2y tan x = sen x. h) 4y % + 2y cos x = ( sen 2x)/y.


2
i) xy % = y + xey/x . j) y % + 2xy = e−x .

k) xy % + (x2 + y 2 )1/2 = y. l) (1 + x2 )y % + xy = xy 2 .

m) (3x + y − 3)y % = y − x + 2.

n) (cos x − x cos y)y % = sen y + y sen x.


2 2
ñ) (y 2 exy + 4x3 )dx + (2xyexy − 3y 2 )dy = 0.

o) (x + 1)dy − (y + 1)dx = (x + 1)(y + 1)1/2 dx.

p) (y sen (y/x) − x cos(y/x))xy % = (x cos(y/x) + y sen (y/x))y.

3. Hállese la solución de estas ecuaciones:


a) y % = x3 + 2y/x − y 2 /x. b) y % = 2 tan x sec x − y 2 sen x.

c) y % = 1 + yx−1 − y 2 x−2 . d) y % = x−2 − yx−1 − y 2 .

e) 2xyy % + (1 + x)y 2 = ex . f ) ey (y % + 1) = ex .

g) xy % + y = x2 (1 + ex )y 2 . h) xy % + y = (x2 + y 2 )1/2 .

i) (x − y)2 y % = 4. j) y % cos y + sen y = x2 .

k) (3x + 2y + 1)dy + (4x + 3y + 2)dx = 0. l) (x2 − y 2 )dy = 2xydx.

m) y % sen y + sen x cos y = sen x. n) ydx + (1 + y 2 e2x )dy = 0.

ñ) (x2 y + y 2 )dx + x3 dy = 0. o) y % = (x2 + 2y − 1)2/3 − x.

4. Los aceleradores lineales de partı́culas se usan en fı́sica de altas energı́as


para acelerar partı́culas cargadas. Supóngase que una partı́cula α se somete
a una aceleración constante en un dispositivo de esta tipo, de manera que su
velocidad pasa de ser 2 · 103 m/s a 104 m/s en un lapso de 10−3 s. Evalúese
la aceleración y la distancia recorrida por la partı́cula α en los 10−3 s.
5. Evalúese p y q para que xq y p sea un factor integrante de la ecuación
xr y s (lydx + mxdy) + xα y β (λydx + µxdy) = 0, lµ − mλ != 0.
6.4. PROBLEMAS 227

6. Hállense las envolventes de las siguientes familias uniparamétricas de curvas:

a) x2 + y 2 = C, b) y 2 = 2xC − C 2 ,

c) y = cos(x + C), d) (x − C)2 = 3y 2 − y 3 .

7. Encuéntrese la familia de curvas tales que el segmento determinado sobre


una recta tangente cualquiera por el punto de contacto con la curva y el eje
de ordenadas, es seccionado en su punto medio por el eje de abscisas.
8. Encuéntrese la familia de curvas tales que es constante el área de la región
comprendida por el eje de abscisas, la recta tangente a una cualquiera de
las curvas y una recta paralela al eje de ordenadas que pasa por el punto de
tangencia.
9. Encuéntrese la familia de curvas tales que el ángulo que forman la tangente
y la normal en cualquier punto de una curva de la familia tiene como bisec-
triz al radio vector del citado punto. (En problemas que involucran radios
vectores es preferible usar coordenadas polares.)
10. Encuéntrese la familia de curvas tales que la longitud de arco entre x = a y
x, es igual a x2 /2.
11. Encuéntrese la familia de curvas tales que el área de la región determinada
por la curva, las rectas x = a, x = x y el eje de abscisas, es proporcional a
la diferencia de ordenadas.
12. Encuéntrese la familia de curvas tales que pasan por el origen y el volumen
generado por el giro en torno al eje de abscisas de la superficie determinada
por la curva, el eje de abscisas y una recta paralela al eje de ordenadas por
(x, 0), es igual al volumen generado por el giro en torno al eje de ordenadas
de la superficie determinada por la curva, el eje de ordenadas y una recta
paralela al eje de abscisas por (0, y).
13. Encuéntrese la familia de curvas tales que el radio vector de un punto
cualquiera y la recta tangente a la curva en ese mismo punto se intersectan
según un ángulo constante β.
14. Encuéntrese la familia de curvas tales que el radio vector de un punto
cualquiera y la recta tangente a la curva en ese mismo punto se intersectan
según un ángulo que es k veces el ángulo polar.
15. Si dos familias uniparamétricas de curvas son tales que cada miembro de
una de las familias corta a cada uno de los miembros de la otra según el
mismo ángulo, se dice que son dos familias de trayectorias isogonales. Dada
la familia y = ax2 , encuéntrese una familia de trayectorias isogonales tales
que el ángulo de intersección, medido desde las curvas de la familia buscada
hacia las parábolas, es π/4.
228 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

16. Encuéntrense las trayectorias ortogonales de la familia uniparamétrica de


curvas y = kx5 . Hágase lo mismo para x − y = kex , para ex cos y = k y
2
para sen y = kex .
17. Hállense las curvas ortogonales a las familias uniparamétricas r = k sec θ,
rn sen nθ = k (n ∈ N), r = ekθ , rθ = k y r = sen θ + k.
18. Encuéntrese la familia de curvas tales que el área de la región determinada
por un arco de curva y los dos radios vectores de los extremos del arco es
igual, numéricamente, a la mitad de la longitud del citado arco.
19. Un modelo simplista para describir cómo evoluciona una epidemia supone
que la variación con el tiempo del número de personas infectadas es propor-
cional tanto al número de enfermos como al de personas sanas. Obténgase la
ley de variación temporal del número de enfermos para una población de M
individuos suponiendo que en el instante inicial hay N enfermos. ¿Describe
este modelo la evolución de la epidemia de forma realista?
20. Calcúlense las trayectorias ortogonales a las familias de curvas

a) y 2 + 2cx = c2 ; b) r = c(1 + cos θ).

21. Pruébese que las rectas tales que su intersección con los ejes de coordenadas
determinan un segmento de longitud unidad satisfacen

y%
y = xy % ± 6 .
1 + (y % )2

Hállense las soluciones del par de ecuaciones diferenciales y véase que apare-
ce una “astroide” de ecuación x2/3 + y 2/3 = 1.
22. Un paracaidista salta desde un avión que se mueve horizontalmente a una
gran altura. Tras 10 segundos en caı́da libre, abre el paracaı́das. Hállese
su velocidad a los 15 s de haber saltado y la velocidad aproximada que
tendrá al llegar al suelo. Supóngase que el peso del intrépido individuo
junto con el paracaı́das es de 100 kg La fuerza de resistencia del aire se
supone proporcional a la velocidad, siendo el coeficiente 10 kg/s cuando el
paracaı́das está cerrado y 200 kg/s cuando está abierto. Despreciamos el
desplazamiento horizontal.
23. Un objeto esférico proveniente del espacio interestelar se precipita sobre la
tierra desde una altura r0 de su centro. Encuéntrese su velocidad como
función de su distancia r al centro de la tierra. Hállese también la velocidad
con la que llega a la superficie del planeta y la ecuación del movimiento. Por
último, estı́mese el número
√ de humanos supervivientes teniendo en cuenta
que el radio del objeto es 3πR/5, con R el radio de la tierra. Despréciese
la resistencia del aire.
6.4. PROBLEMAS 229

24. En dı́as de fuerte viento, al barón von Richthofen le gustaba volar de modo
tal que la hélice de su avión siempre estuviera dirigida hacia la torre del
campo de aterrizaje. Suponiendo que el movimiento se efectúa en un plano
horizontal, que la velocidad del viento es constante en módulo y sentido, y
que el módulo de la velocidad del avión es también constante, encuéntrese
la trayectoria del barón en una de sus excursiones.

25. Una gota de lluvia cae desde una nube que se encuentra en reposo. Calcúlese
su velocidad en función de la distancia que recorre. Supóngase que está
sujeta a una fuerza de resistencia que es proporcional al cuadrado de la
velocidad.

26. Un pastor y su perro se encuentran en un prado. El pastor se desplaza


con movimiento rectilı́neo y uniforme; el perro corre hacia él con velocidad
constante en módulo. Encuéntrese la trayectoria del perro.

27. Calcúlese la trayectoria de la rueda posterior de una bicicleta si la rueda


delantera describe una recta.

28. Usando coordenadas cartesianas, dedúzcase la ecuación diferencial de todas


las circunferencias en el plano.

29. Resuélvanse las siguientes ecuaciones diferenciales hallando su solución ge-


neral:

a) y % + y = 2 + 2x. b) (y % )2 − xy % + y = 0.

c) y % − 6y = 10 sen 2x. d) xy % = y(1 − x tan x) + x2 cos x.

e) x2 (y % )2 + xyy % − 6y 2 = 0. f ) yy % − xy 2 + x = 0.

g) (x2 − y)dx − xdy = 0. h) (y % )2 − xy % − y = 0.

i) (1 + e2x )dy + 2ye2x dx = 0. j) 2xy % + y + 3x2 y 2 = 0.

k) 3y % cos x + y sen x = 1/y 2 . l) (y % − x)(y % − 2y)(y % − xy) = 0.

m) (2 + y 2 )dx − (xy + 2y + y 3 )dy = 0.

n) (y − y % x + 2y % )(y − yx + 1) = 0.

ñ) (4x3 y 3 + 1/x)dx + (3x4 y 2 − 1/y)dy = 0.

30. Sea u(x, y) un factor integrante de la forma diferencial ω = M dx + N dy, y


sea f (x, y) su función potencial. Pruébese que v(x, y) = u(x, y)φ(f (x, y)) es
un nuevo factor integrante, siendo φ(z) una función arbitraria de la variable
real z.
230 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

31. Sean φ(x), P (x) y Q(x) funciones reales. Resuélvase la ecuación diferencial

dφ(y) %
y + φ(y)P (x) = Q(x).
dy

32. Sea ω = M dx + N dy una forma diferencial no exacta. Pruébese que


My − Nx L
(a) si = φ(x), sólo función de x, entonces exp{ φ(x)dx} es un
N
factor integrante de ω;
M y − Nx L
(b) si = −g(y), sólo función de y, entonces exp{ g(y)dy} es un
M
factor integrante de ω;
(c) si M y N son funciones homogéneas del mismo grado y (xM + yN ) no
se anula idénticamente, entonces (xM + yN )−1 es un factor integrante
de ω;
(d) si M dx + N dy puede ser escrito en la forma

yf (xy)dx + xg(xy)dy = 0,

donde f (xy) != g(xy), entonces (xM − yN )−1 es un factor integrante


de ω.

33. Resuélvanse las siguientes ecuaciones por el método del factor integrante:

a) xdy − ydx = x2 ex dx. b) (1 + y 2 )dx = x(1 + x)dy.

c) (2y − x3 )dx + xdy = 0. d) y 2 dy + ydx − xdy = 0.

e) yex cos xdx − xex cos xdy = 0. f ) y 2 dx + (x2 − xy − y 2 )dy = 0.

g) xdx + ydy = (x2 + y 2 )dx. h) y(x + y)dx − x2 dy = 0.

i) (x4 + y 4 )dx − xy 3 dy = 0 j) (x2 + y 2 )dx + xydy = −xdx.

k) y(x2 y 2 + 2)dx + x(2 − 2x2 y 2 )dy = 0.

34. Resuélvanse las siguientes ecuaciones diferenciales sin recurrir al método del
factor integrante:

a) y(x − 2y)dx = x2 dy.

b)(x2 + y 2 )dx + xydy = 0.

c) dx = (α2 − x2 )1/2 dy.


6.4. PROBLEMAS 231

35. Resuélvanse las siguientes ecuaciones diferenciales:


6
a) 4y = x2 + (y % )2 . b) x 1 + (y % )2 − y % = 0.

c) x = (y % )3 + 1. d) 3xy 2 y % = −(x2 + y 3 ).

e) y % + y = ex y 2 . f ) yy % − xy 2 + x = 0.
6
g) xdy − ydx = x x2 − y 2 dy. h) y % (1 + ey ) = e−x − ey − y.

36. Considérese el siguiente campo de fuerzas bidimensional


$ 2 %

− 3x − y 2 2y
F = , .
x2 x
Encuéntrese el potencial del cual deriva este campo y las lı́neas de fuer-
za. Compruébese que las lı́neas de fuerza son perpendiculares a las curvas
equipotenciales.
37. Pruébese que la existencia de un factor integrante tipo µ(x, y) = eay p(x) en
la ecuación M (x, y) dx + N (x, y) dy = 0 requiere
−aM + Nx − My
= f (x).
N
38. Resuélvanse las siguientes ecuaciones buscando primero una solución par-
ticular sencilla:
a) x2 (y % + y 2 ) = 1 − xy. b) 4x4 y % = 4x3 y − 4x6 y 2 − 15. (6.4.1)

c) y % = (1 − y)(y − 2). d) y % = 1 + y − e2x y 2 . (6.4.2)

39. Transfórmese en una ecuación de variables separable la siguiente:


y % = h(x( y m )y/x.

40. Sea y(x) la función que representa el coste total para producir x unidades
de un determinado producto (se supondrá que esta variable es continua, en
lugar de discreta). Hállese esta función sabiendo que la razón con la que
varı́a la pendiente de la recta tangente en cualquier punto de la curva y(x) es
constante e igual a −2, y que además la curva pasa por los puntos (1, −15)
y (2, 0). Coméntese el resultado obtenido.
41. La tasa con la que cambia el precio de venta y(x) de un producto con
respecto a su demanda x, está dada por la ecuación diferencial
3x2 + 2xy
y% = − .
x2 + 1
Hállese el precio en función de la demanda si cuando la demanda es de dos
unidades el precio es de 100.000 euros. Coméntese el resultado.
232 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

42. Sea x la demanda de un cierto producto e y(x) el precio de venta de cada


unidad. Sabiendo que el ritmo según el cual cambia el precio respecto a la
demanda viene regulado por la ecuación
y 120
y% = +x− ,
x x
hállese el precio en función de la demanda, sabiendo que el precio de venta
es de 0.5 euros cuando la demanda es de 1000 unidades. Coméntese el
resultado.
43. La ecuación básica de la dinámica de poblaciones es la siguiente:
Tasa de crecimiento = Tasa de natalidad − Tasa de mortalidad,
y se expresa matemáticamente del siguiente modo
dx
= xf (x) + c(t, x),
dt
donde x representa el número de individuos que forman la población con-
siderada (que puede estar formada por seres humanos, o bacterias, o peces,
etc.; se toma como variable continua), f (x) es la tasa relativa neta de cre-
cimiento (que vendrá dada por ciertas condiciones del medio ambiente) y
c(t, x) representa un flujo neto de población por unidad de tiempo (vale 0
para poblaciones aisladas).
Las hipótesis para f (x) son diversas:
(a) Modelo malthusiano13 : f (x) = cte, c(t, x) = 0.
(b) Modelo logı́stico14 : f (x) = a − bx, c(t, x) = 0.
(c) Modelo de Smith: f (x) = a(b − x)/(b + vx), v > 0, c(t, x) = 0.
(d) Modelos pesqueros de Schaefer: c(t, x) = −cx y f (x) = a − bx.
Realı́cese un estudio detenido de estos modelos y de las predicciones que de
ellos se deducen.
44. Resuélvase la ecuación logı́stica con coeficientes variables:
dx
= a(t)x − b(t)x2 .
dt
Para la ecuación logı́stica más general
dx
= a(t)eγx + b(t)
dt
compruébese que el cambio y = ekx nos lleva a una ecuación fácil de resolver.
13
Thomas Robert Malthus (1766–1834), economista y demógrafo inglés.
14
Modelo propuesto por el matemático belga Pierre François Verhulst (1804–49).
6.4. PROBLEMAS 233

45. Existe un modelo debido a von Bertalanffy que da una ley para crecimiento
de un pez en la forma
m% = am2/3 − bm,
donde m(t) es la masa de un pez joven y a, b son constantes positivas.
Resuélvase esta ecuación y hállese la solución que verifica m(0) = 0. In-
terprétese el resultado.
46. Un modelo de crecimiento económico predice la llamada ley de Solow para
la productividad p(t) de un operario:

p% (t) = mpa − np,

siendo m, n > 0 y 0 < a < 1. Hállese la solución que verifica p(0) = 0 e


interprétese el resultado.
47. El modelo de Gompertz15 de desarrollo de un tumor viene descrito por la
ecuación $ %
dy c
= ky ln ,
dt y
siendo y(t) el tamaño del tumor y k, c constantes. Hállese la solución que
verifica y(0) = 0 e interprétese el resultado.
48. Encuéntrese la solución general de la ecuación
2 1
y % = x3 + y − y2 .
x x
NOTA: Pueden buscarse soluciones particulares en forma de monomios.
49. Hállense las soluciones de la ecuación
y%
y+ 6 = x y% .
1 + (y % )2

50. Encuéntrese la solución general de la ecuación (x2 y + 2y 3 ) dx + x3 dy = 0.


51. Determı́nense las soluciones de la ecuación diferencial
$
y = x y % + ey ,

y coméntese el resultado.
52. Encuéntrese la solución general de la ecuación

yy %% + (y % )2 − 2yy % = 0 .
15
Benjamin Gompertz (1779–1865), pionero inglés en el desarrollo de técnicas
matemáticas aplicadas a los seguros. Introdujo las curvas que llevan su nombre, del
tipo y = Cabx , para analizar tablas de mortalidad.
234 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

53. Hállese la solución general de


y
y % (t) = + t3 y 2 − t 5 .
t
54. Hállense las soluciones y dibújense algunas curvas solución de las ecuaciones
diferenciales
a) y = xy % + (y % )2 . b) y = −xy % + (y % )2 .
55. Resuélvanse las ecuaciones
a) y = x(y % )2 + (y % )3 .
b) y = x(1 + y % ) + (y % )2 .
c) y = x(y % )2 .
6
d) y = xy % + 1 + (y % )2 .
e) y = xy % − 2 − y % .

56. Determı́nese la solución general de


$
a) x = ey + y % .
b) x = ay % + b(y % )2 .
y 2 + (y % )3
c) x = .
yy %
57. Resuélvanse las siguientes ecuaciones diferenciales:
a) (1/x)dx − (1 + xy 2 )dy = 0.
b) (3xey + 2y)dx + (xey + 1)xdy = 0.
c) (y 2 − 2x2 ey )dx + (2xy ln x − x3 ey )dy = 0.
d) y(ln y − 2x)dx + (x + y)dy = 0.
e) xdy + ydx − 2x2 y 3 dy = 0.
f) (3x/y 2 + 14 + 5x3 y 3 )dx + (14x/y + 5x4 y 2 + 4y/x)dy = 0.
g) y % + tan y = x sec y.
58. Hállese la solución general de
a) y % = 6 + 5y + y 2 .
b) y % = e2x + (1 + 2ex )y + y 2 .
c) x2 y % = x2 y 2 + xy + 1.
4 y
d) y % = − 2 − + y 2 .
x x
e) y % = −2 − y + y 2 .
f ) y % e−x + y 2 − 2yex = 1 − e2x .
6.5. BIBLIOGRAFÍA 235

59. Hállese la solución que cumple la condición indicada:

y % + 8y = δ(x − 1) + δ(x − 2), y(0) = 0.

60. Siendo f (x) una función conocida, calcúlese la solución general de

xy % − 2y = x3 f (x).

6.5 Bibliografı́a
Existe una cantidad ingente de libros que abarcan el contenido de este
capı́tulo. Nos limitaremos aquı́ a una selección de los que consideramos
más interesantes.

1. Ayres, F., Ecuaciones diferenciales, McGraw-Hill, 1969.


2. Boyce, W.E. y DiPrima, R.C., Ecuaciones diferenciales y problemas con
valores en la frontera, Limusa-Wiley, 1967.
3. Bronson, R., Ecuaciones diferenciales modernas, Schaum, McGraw-Hill,
1978.
4. Campbell, S.L. y Haberman, R., Introducción a las ecuaciones diferenciales,
McGraw-Hill, 1996.
5. Edwards, C.H. y Penney, D.E., Ecuaciones diferenciales elementales, Prenti-
ce-Hall Hispanoamericana, 1993.
6. Elsgoltz, L., Ecuaciones diferenciales y cálculo variacional , MIR, 1969.
7. Fernández, C. y Vegas, J.M., Ecuaciones diferenciales II , Ediciones Pirá-
mide, 1996.
8. Forsyth, A.R., A Treatise on Differential Equations, Dover, 1996.
9. Gray, A., Mezzino, M., and Pinsky, M.A., Introduction to Ordinary Differ-
ential Equations with Mathematica, Springer-Verlag, 1997.
10. Ince, E.L., Ordinary Differential Equations, Dover, 1956.
11. Kiseliov, A., Krasnov, M. y Makarenko, G., Problemas de ecuaciones dife-
renciales ordinarias, Ediciones Quinto Sol, 1994.
12. Kline, M., Mathematical Thought from Ancient to Modern Times, Oxford
University Press, 1972.
13. Kreiszig, E., Advanced Engineering Mathematics, John Wiley & Sons Inc.,
1993.
236 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

14. Marsden, J.E. and Hoffmann, M.J., Basic Complex Analysis, Freeman,
1987.
15. Morga, S., Matemáticas aplicadas a la Economı́a, Editorial AC, 1997.
16. Mielnik, B., J. Math. Phys. 25, 3387 (1984).
17. Minorsky, V.P., Problems in Higher Mathematics, Mir, 1981.
18. Nagle, R.K. y Saff, E.B., Fundamentos de ecuaciones diferenciales, Addison-
Wesley, 1992.
19. Novo, S., Obaya, R. y Rojo, J., Ecuaciones y sistemas diferenciales, Edito-
rial AC, 1992.
20. Pérez, A., Apuntes de Ecuaciones diferenciales, Valladolid 1968 (no publi-
cados).
21. Ross, S.L., Ecuaciones diferenciales, Reverté, 1981.
22. Simmons, F., Ecuaciones diferenciales con aplicaciones y notas históricas,
Editorial McGraw-Hill, 1977.
23. Spiegel, M.R., Transformadas de Laplace, McGraw-Hill, 1970.
24. Spiegel, M.R., Matemáticas superiores para ingenieros y cientı́ficos, Mc-
Graw-Hill, 1971.
25. Zwillinger, D., Handbook of Differential Equations, Academic Press, 1992.
Capı́tulo 7

TEOREMAS DE
EXISTENCIA Y
DEPENDENCIA

7.1 Introducción

A pesar de los casos tan variados de ecuaciones diferenciales que hemos


analizado en el capı́tulo precedente, en muchas ocasiones no es posible
hallar la solución explı́cita de una ecuación diferencial ordinaria. A veces
se procederá a resolver el problema usando técnicas de análisis numérico
(que no vamos a considerar aquı́) y recurriendo a la ayuda de un ordenador.
En todo caso, en determinadas situaciones puede resultar muy útil saber
al menos si un determinado problema está bien planteado, lo que viene a
significar que la ecuación diferencial que estemos considerando tenga una
única solución.
Este va a ser uno de los objetivos del presente capı́tulo, al mismo tiempo
que vamos a plantear otras cuestiones de interés dentro del marco de la
teorı́a de ecuaciones diferenciales. Hemos de advertir al lector que este
es un capı́tulo de matemática dura. Quiere decir esto que a lo largo del
mismo nos dedicaremos, esencialmente, a demostrar por métodos rigurosos
una serie de teoremas relativos a la existencia y unicidad de soluciones de
ecuaciones diferenciales del tipo y ! = f (x, y) con unas condiciones iniciales
fijadas. Veremos también cuando estas soluciones pueden prolongarse más

237
238 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

allá del intervalo determinado por los teoremas de existencia. Asimismo,


discutiremos la variación que sufren estas soluciones al modificar las condi-
ciones iniciales y también cuando cambiamos ligeramente la función f (x, y)
en términos de un parámetro1 .
Este capı́tulo está estructurado de la siguiente manera: en la sección 7.2
probaremos el resultado clásico demostrado primero por Liouville2 (1838) y
retocado después con las contribuciones de Cauchy y Peano3 , siendo Picard4
quien le dio su forma final, sobre la existencia de soluciones de la ecuación
diferencial y ! = f (x, y), siempre y cuando la función f (x, y) sea continua en
un dominio (conjunto abierto y conexo) y satisfaga una propiedad adicional,
llamada condición de Lipschitz5 , que definiremos. Además la solución que
pasa por todo punto (x0 , y0 ) del dominio en el que se cumplen las condi-
ciones exigidas para f (x, y) es única. Esto equivale a decir que la solución de
la ecuación y ! = f (x, y) con la condición inicial y(x0 ) = y0 existe y es única
a condición que f (x, y) satisfaga ciertas condiciones en un dominio del plano
R2 . Esta solución está definida en un cierto entorno V ≡ (x0 − α, x0 + α) de
x0 . Ahora bien, surge la pregunta de si esta solución puede extenderse más
allá del intervalo V . La respuesta es en general positiva y en la sección 7.3
se describe el proceso mediante el cual se prolongan las soluciones.
Una de las cuestiones más interesantes en la teorı́a de ecuaciones dife-
renciales es el de la estabilidad de las soluciones. Este problema tiene una
doble vertiente. Por un lado está el de la estabilidad o inestabilidad con
respecto a los valores iniciales, que puede plantearse de la siguiente forma:
si en lugar de analizar únicamente la solución que pasa por (x0 , y0 ) con-
sideramos también la que pasa por un punto muy próximo (x1 , y1 ), ¿serán
estas soluciones bastante parecidas o por el contrario muy diferentes? En
el primer caso habları́amos de estabilidad y en el segundo de inestabilidad
con respecto a los valores iniciales. Este asunto se plantea en la sección 7.4.
Resulta también importante averiguar si pequeños cambios en la función
f (x, y) conducen a cambios pequeños en la solución. Para estudiar este

1
El material de este capı́tulo ha sido tomado esencialmente de dos fuentes: el libro de
Coddington & Levinson, y los apuntes del Profesor A. Pérez-Gómez, ambos citados en
la bibliografı́a.
2
Joseph Liouville (1809–82), matemático francés.
3
Giuseppe Peano (1858–1932), matemático italiano, bien conocido por dar un ejemplo
de curva que llena completamente una parte del pano R 2 .
4
Charles Emile Picard (1856–1941), matemático francés.
5
Rudolph Lipschitz (1831-1904), matemático alemán.
7.2. ALGUNOS RESULTADOS CLÁSICOS 239

problema tomamos familias de funciones fµ (x, y) dependientes de un pará-


metro µ, que puede suponerse continuo de manera que podemos considerar
a la familia fµ (x, y) como una única función f (x, y, µ) dependiente de tres
variables. Estonces analizamos las condiciones bajo las cuales pequeños
cambios en el parámetro µ originan pequeños cambios en la solución.
Finalmente ofrecemos, sin demostración, un resultado de existencia y
unicidad de soluciones para ecuaciones implı́citas del tipo F (x, y, y ! ) = 0
y damos otro resultado que corresponde a una visión más moderna del
problema de existencia y unicidad, que hace uso del concepto de aplicación
contractiva y del teorema del punto fijo. Tanto éste como el resultado de
Picard son teoremas de suficiencia, de modo que aún cuando alguna de las
hipótesis no se verifique, podrı́a seguir existiendo una única solución, en
algunos casos.
El estudio detallado de este capı́tulo no es estrictamente necesario para
comprender los siguientes, de manera que puede omitirse en una primera
lectura. En realidad los contenidos que aquı́ se incluyen forman parte
del material complementario del libro, de un nivel mayor de complicación
técnica, al igual que los incluidos en los capı́tulos 12 y 13. En cualquier caso,
sı́ se recomienda al menos una lectura de los enunciados de los teoremas
que se presentan a continuación.

7.2 Algunos resultados clásicos sobre existencia y


unicidad de soluciones

Antes de abordar la versión clásica del teorema de existencia y unicidad,


necesitamos introducir una definición:
Definición 1: sea I un intervalo de la recta real y sea f : I → R una
aplicación. Diremos que la función f verifica la condición de Lipschitz, o
bien que es una función lipschitziana, en I si

|f (x) − f (y)| ≤ k |x − y|, ∀x, y ∈ I, (7.2.1)

siendo k una constante que depende del intervalo.


Ejemplo 1: la función f (x) = x2 es lipschitziana en cualquier intervalo
acotado de R (pero no en todo R). En efecto, sea este intervalo [a, b],
con a y b finitos. Entonces |x2 − y 2 | = |x + y||x − y| ≤ M |x − y|.. Si
240 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

a y b son positivos M = 2b; si alguno de los dos números es negativo,


M = 2 máx(|a|, |b|).
Ejemplo 2: otra función lipschitziana es f (x) = sen x en R. Obsérvese
que el teorema del valor medio nos dice que

sen x − sen y = (cos ξ)(x − y), ξ ∈ (x, y).

Entonces |sen x − sen y| ≤| x − y|. Esta desigualdad es cierta para todo


valor real de x e y. Este último ejemplo nos sirve para motivar el siguiente
resultado, que es bastante interesante:

Proposición 1: sea f : I → R una aplicación derivable y con derivada


acotada en I, entonces f es lipschitziana en I.

Demostración: teniendo en cuenta el teorema del valor medio, dados


x < y ∈ I, ∃ ξ ∈ (x, y) tal que

|f (x) − f (y)| = |f ! (ξ)| |x − y|. (7.2.2)

Como por hipótesis |f ! (ξ)| está acotada en I, existe una constante K > 0
tal que |f ! (x)| < K. Como ξ ∈ I, entonces

|f (x) − f (y)| ≤ K |x − y|.

Ejemplo 3: hay funciones que no son derivables pero que, sin embargo,
son lipschitzianas, por ejemplo f (x) = |x| en un entorno al origen, pues
||x| −| y|| ≤ |x − y|. En virtud del resultado anterior, las funciones no
lipschitzianas no serán derivables en algún punto del intervalo considerado
(hablamos aquı́ de derivada como función, no como distribución); un ejem-

plo es f (x) = x, que no es derivable en 0 y no es lipschitziana en [0, ∞).

Definición 2: consideremos ahora una función de dos variables reales,


f (x, y), definida en un dominio D del plano real. Diremos que es lips-
chitziana en la segunda variable si existe una constante positiva k (que no
puede depender de x) tal que para cualesquiera x, y1 , y2 , tales que (x, y1 ) y
(x, y2 ) están en D, se verifica que

|f (x, y1 ) − f (x, y2 )| ≤ k |y1 − y2 |, (7.2.3)


7.2. ALGUNOS RESULTADOS CLÁSICOS 241

Proposición 2: sea D un dominio convexo6 del plano real y f (x, y) una


función de clase7 C 1 (D) tal que ∂f /∂y esté acotada en D. Entonces, f (x, y)
satisface una condición de Lipschitz con respecto a y en D.

Demostración: tomemos dos puntos en D, (x, y1 ) y (x, y2 ). Aplicando el


teorema del valor medio, obtenemos
2 2
2 ∂f (x, ξ) 2
2
|f (x, y1 ) − f (x, y2 )| = 2 2 |y1 − y2 |, (7.2.4)
∂y 2

siendo y1 ≤ ξ ≤ y2 . Como la derivada parcial ∂f /∂y está acotada en D,


existirá una constante K > 0 tal que |∂f (x, y)/∂y| ≤ K, ∀ (x, y) ∈ D. Por
consiguiente:
|f (x, y1 ) − f (x, y2 )| ≤ K |y1 − y2 |, (7.2.5)

que es lo que se pretendı́a demostrar.

Definición 3: si tenemos una función f : I × D → Rn , con D ⊂ Rn ,


diremos que es lipschitziana respecto de "y ∈ D si

||f (x, "y1 ) − f (x, "y2 )|| ≤ k ||"y1 − "y2 ||, (7.2.6)

siendo || · · · || la norma en Rn , es decir, si "y = (y1 , . . . , yn ) ∈ Rn , entonces


7
||"y || = y12 + · · · + yn2 .

Tras estos prolegómenos, estamos en condiciones de enunciar el siguiente


resultado, que es el fundamental de este tema.

Teorema 1 (de existencia y unicidad de soluciones): si f (x, y) es


continua y satisface una condición de Lipschitz con respecto de y en un do-
minio D del plano real, entonces para todo punto (x0 , y0 ) de dicho dominio
existe una única solución, y = y(x), de la ecuación diferencial y ! = f (x, y)
tal que y0 = y(x0 ). Esta solución8 está definida en un cierto entorno del
punto x0 .
6
Un dominio D ⊂ R es convexo si dados dos puntos cualesquiera de D, el segmento
de recta que les une está totalmente contenido en D.
7
Diremos que una función es de clase C n (D) si admite derivadas parciales continuas
hasta orden n en D.
8
La solución es una curva en R 2 pasando por el punto (x0 , y0 ).
242 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

La existencia se demuestra usando la continuidad de f (x, y); la condición


de Lipschitz asegura la unicidad, y puede ser substituida por la condición
de existencia de la derivada parcial ∂f /∂y en D.
Demostración: la prueba de este resultado es una labor bastante prolija,
de manera que vamos a realizarla en diversas etapas9 . En primer lugar de-
mostraremos la existencia (para lo cual hemos de introducir algunas nuevas
definiciones y demostrar además algún lema auxiliar) y después la unicidad.

A.– Demostración de la existencia.


Es la parte más ardua, de manera que la desglosaremos en varios pasos.

• PASO 1.
Definición 4: sea I un cierto intervalo real. Diremos que una función
ϕ(t) definida en I es una solución 0-aproximada de y ! = f (x, y) si:
a) (t, ϕ(t)) ∈ D, ∀ t ∈ I.
b) ϕ ∈ C 1 (I), aunque se puede admitir que exista en I un con-
junto finito de puntos para los cuales ϕ! (t) tenga discontinuidades
de primera especie10 . Llamaremos S a dicho conjunto.
c) |ϕ! (t) − f (t, ϕ(t))| ≤ 0, ∀ t ∈ I − S.
Consideremos ahora un punto (x0 , y0 ) ∈ D. Debido a que D es
abierto, existe un rectángulo cerrado R centrado en (x0 , y0 ) y total-
mente contenido en D. Este rectángulo está formado por el siguiente
conjunto de puntos:

R := {|x − x0 | ≤ a; |y − y0 | ≤ b}, (7.2.7)

donde hemos escogido a y b de tal manera que el rectángulo esté en


D.
Como f (x, y) es continua en D, lo es en R, y por ser R compacto,
está acotada en R. Sean
$ %
b
M := max |f (x, y)| y α = mı́n a, . (7.2.8)
(x,y)∈R M
9
Para probar este resultado vamos a seguir las lı́neas maestras del libro de Coddington
and Levinson.
10
Son aquellas para las cuales ϕ$ (t) tiene un salto finito.
7.2. ALGUNOS RESULTADOS CLÁSICOS 243

Para continuar, necesitamos demostrar ahora el siguiente resultado:


Lema 1: para cada 0 > 0 existe una solución 0-aproximada, ϕ(x),
de la ecuación diferencial, definida en I = (x0 − α, x0 + α), tal que
ϕ(x0 ) = y0 .
Demostración: vamos a construir una solución 0-aproximada en el
intervalo [x0 , x0 + α]. Una construcción similar puede hacerse para
[x0 − α, x0 ]. Esta solución aproximada va a ser una lı́nea poligonal.
Como f (x, y) es continua en R y R es compacto, entonces f (x, y) es
uniformemente continua en R. Esto significa que, fijado 0 > 0, existe
δ > 0 tal que si (x, y), (x! , y ! ) ∈ R con |x − x! | ≤ δ; |y − y ! | ≤ δ,
entonces
|f (x, y) − f (x! , y ! )| ≤ 0. (7.2.9)
Dividamos ahora el intervalo [x0 , x0 + α] en n trozos

x0 < x1 < x2 < . . . < xn = x0 + α, (7.2.10)

de tal manera que


$ %
δ
máx |xk+1 − xk | ≤ mı́n δ, , (7.2.11)
M
para todo k = 0, 1, . . . , n − 1. A continuación, partiendo de (x0 , y0 ),
trazamos un segmento de recta que tenga como pendiente f (x0 , y0 ).
Este segmento va del punto (x0 , y0 ) al punto (x1 , y1 ) en donde se corta
la recta y = f (x0 , y0 )x + b0 (siendo b0 = y0 − f (x0 , y0 )x0 ) con la recta
x = x1 . Partiendo de (x1 , y1 ) y con pendiente f (x1 , y1 ), construimos
el segmento de recta que va desde el punto (x1 , y1 ) al punto (x2 , y2 ),
intersección de la recta y = f (x1 , y1 )x + b1 , (b1 = y1 − f (x1 , y1 )x1 )
con la recta x = x2 . Procedemos de esta manera, hasta llegar a la
recta x = x0 + α. Hemos construido una lı́nea poligonal encerrada
en la banda limitada por las rectas y = M x + C+ e y = −M x + C− ,
donde C± = y0 ∓ M x0 (véase la Figura 7.1). Esto es debido a que las
pendientes de los segmentos son, en módulo, menores que M . Vamos
a llamar ϕ(x) a esta linea poligonal y vamos a ver que es una solución
0-aproximada. La expresión analı́tica de ϕ(x) es

ϕ(x0 ) = y0 , ϕ(x) = ϕ(xk ) + f (xk , ϕ(xk )) (x − xk ), (7.2.12)


k = 0, 1, . . . , n − 1; xk < x ≤ xk+1
244 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

(x 0 ,y 0 )

x1 x2 x3 x 0+a

Figura 7.1: Esquema de la demostración del


lema 1.

Por construcción, las condiciones a) y b) de la definición de solución


0-aproximada se cumplen. Veamos que verifica la restante. En efecto,
la pendiente de ϕ(x) es siempre, en módulo, menor que M . Por este
motivo

|ϕ(x) − ϕ(x! )| ≤ M |x − x! |, ∀ x, x! ∈ [x0 , x0 + α]. (7.2.13)

Pero si x está en el intervalo (xk , xk+1 ], de (7.2.12) se tiene que


δ
|ϕ(x) − ϕ(xk )| ≤ M |x − xk | ≤ M = δ.
M
Derivando (7.2.12) y calculando el valor de la derivada en el punto x,
se obtiene
ϕ! (x) = f (xk , ϕ(xk )), x ∈ (xk , xk+1 ].
Si ahora tomamos x ∈ (xk , xk+1 ], por (7.2.11) |x − xk | ≤ δ. Entonces,
podemos aplicar la continuidad uniforme de f (x, y) en R para concluir
que

|ϕ! (x) − f (x, ϕ(x))| = |f (xk , ϕ(xk )) − f (x, ϕ(x))| ≤ 0.

• PASO 2.
Definición 5: sea F = {fj }j∈J una familia de funciones definidas
en un intervalo I ⊂ R, siendo R, la recta real. Diremos que F es
equicontinua en I, si para cada 0 > 0, existe δ > 0, que es indepen-
diente de j ∈ J, tal que si |t − t! | < δ, entonces |fj (t) − fj (t! )| < 0,
∀ j ∈ J, ∀ t, t! ∈ I.
7.2. ALGUNOS RESULTADOS CLÁSICOS 245

Lema 2 (de Ascoli11 ): si F es una familia infinita de funciones


definidas en un cierto intervalo acotado I ⊂ R, uniformemente aco-
tada12 y equicontinua, entonces contiene una sucesión {fn }n∈N de
funciones que es uniformemente convergente en I.
Demostración: puesto que el conjunto de los números racionales
contenidos en I es numerable, los podemos escribir como una sucesión:
α1 , α2 , . . . , αn , . . . Consideremos ahora fj (α1 ) con j ∈ J. Este con-
junto de números está acotado por la hipótesis de acotación uniforme
en el lema 2. Luego existe una sucesión {fn1 } de funciones de F para
las cuales la sucesión de números {fn1 (α1 )} es convergente. Como la
sucesión {fn1 (α2 )} está acotada, existe una subsucesión de {fn1 }, a
la que llamaremos {fn2 }, para la cual {fn2 (α2 )} es convergente. Con-
tinuando con el proceso, vamos encontrando sucesiones de funciones
{fn1 }, {fn2 }, . . . , {fn" } tales que {fn" (αi )} converge siempre y cuando
i ≤ '.
Tomemos ahora un racional cualquiera, αk ∈ I, y sea n ≥ k. Defina-
mos la sucesión {fn } de funciones en I de la siguiente manera: ∀x ∈ I,
fn (x) := fnn (x), donde fn" son funciones en la familia F definidas en
el párrafo anterior. Entonces fn (αk ) = fnn (αk ), ∀ α1 , α2 , . . . , αk , . . .
Por construcción las sucesiones numéricas {fmn (αk )}m∈N con k ≤ n
convergen13 todas ellas a un cierto ak . Ası́ pues, fn (αk ) → ak cuando
n → ∞ y la sucesión de funciones {fn } converge, cuando n → ∞, en
los racionales contenidos en I.
De esta manera, dado 0 > 0 y un racional αk ∈ I, existe un entero
N (αk ), que depende de 0 y de αk tal que si n, m > N (αk ), se tiene
que
|fn (αk ) − fm (αk )| < 0.
Para este 0, existe un δ tal que si t, t! ∈ I con |t − t! | < δ y fj ∈ F , se
verifica que |fj (t) − fj (t! )| < 0. Este δ es independiente de t, t! y de
j ∈ J.
Dividamos ahora el intervalo I en p subintervalos de longitud menor
que δ, lo cual se puede hacer porque I está acotado por hipótesis. Sean
11
Giulio Ascoli (1843–96), matemático italiano.
12
Esto significa que si F = {fj }j∈J , existe una constante K > 0 tal que |fj (t)| ≤ K,
para todos j ∈ J y t ∈ I.
13
El ı́ndice n denota una sucesión y el ı́ndice m un elemento de la sucesión. El número
αk es fijo.
246 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

estos subintervalos I1 , I2 , . . . , Ip con ∪pj=1 Ij = I. Para cada subinter-


valo Ij , escojamos un racional βj ∈ Ij . Si t ∈ I, entonces existe un
cierto subintervalo Ii para el cual t ∈ Ii . Tomemos ahora n, m >
N := máx{N (β1 ), N (β2 ), . . . , N (βp )}, con βj ∈ Ij , j = 1, 2, . . . , p.
Sumando y restando a fn (t) − fm (t), primero fn (βi ), luego fm (βi ),
tomando módulos y haciendo uso de la desigualdad triangular, tene-
mos:

|fn (t) − fm (t)| ≤| fn (t) − fn (βi )| + |fn (βi ) − fm (βi )|


+|fm (βi ) − fm (t)| < 30. (7.2.14)

Teniendo en cuenta que N no depende de t, la desigualdad (7.2.14) de-


muestra la convergencia uniforme de la sucesión de funciones {fn (t)}
en I.

• PASO 3.
Proposición 3: si f (x, y) ∈ C 0 (R), es decir, la función es continua
en nuestro rectángulo original R, existe una solución, y = ϕ(x), de
la ecuación diferencial y ! = f (x, y) con ϕ ∈ C 1 ([x0 − α, x0 + α]) e
y0 = ϕ(x0 ).
Demostración: tomemos la sucesión 0n = 1/2n . Según lo que hemos
visto anteriormente, para cada n existe una solución 0n -aproximada,
ϕn (x), de la ecuación diferencial. Esta solución 0n -aproximada está
definida en el intervalo [x0 − α, x0 + α] y verifica ϕn (x0 ) = y0 . Ten-
gamos ahora en cuenta que la ecuación (7.2.13) también es válida si
x, x! ∈ [x0 − α, x0 ]. De aquı́, que para cualquier x ∈ [x0 − α, x0 ], se
cumpla:

b
|ϕn (x) − ϕn (x0 )| ≤ M |x − x0 | ≤ M α ≤ M = b.
M
La última desigualdad proviene de (7.2.8). Por otro lado, sabemos
que:

| |ϕn (x)| −| ϕn (x0 )| | ≤ |ϕn (x) − ϕn (x0 )| ≤ b. (7.2.15)

Independientemente del signo de |ϕn (x)| −| ϕn (x0 )|, (7.2.15) implica


que:
|ϕn (x)| ≤| ϕn (x0 )| + b = |y0 | + b. (7.2.16)
7.2. ALGUNOS RESULTADOS CLÁSICOS 247

Como el x que aparece en (7.2.16) representa un número real arbi-


trario en el intervalo [x0 − α, x0 ], deducimos que la sucesión {ϕn (x)}
está uniformemente acotada por la constante positiva |y0 | + b. Lo
mismo sucede para todo x en el intervalo [x0 , x0 + α].
Probemos ahora que

x, x! ∈ [x0 − α, x0 + α] ⇒ |ϕn (x) − ϕn (x! )| ≤ M |x − x! |.

En efecto, esto es cierto si x y x! son ambos bien mayores o bien


menores que x0 (véase (7.2.13)). Si x < x0 < x! tenemos que

|ϕn (x) − ϕn (x! )| ≤| ϕn (x) − ϕn (x0 )| + |ϕn (x0 ) − ϕn (x! )|


≤ M (|x − x0 | + |x0 − x! |) = M |x − x! |. (7.2.17)

Con esta idea tan simple podemos demostrar la equicontinuidad de


la familia F := {ϕn (x)}. En efecto, sea 0 > 0. Para este 0 fijemos
δ = 0/M . Entonces, si |x − x! | < δ, se tiene que

|ϕn (x) − ϕn (x! )| ≤ M |x − x! | < M δ = M 0/M = 0,

independientemente de n, lo que demuestra la equicontinuidad de la


familia {ϕn (x)}.
Pero {ϕn (x)} es una familia infinita, uniformemente acotada y equi-
continua. Estamos en condiciones de poder aplicar el lema de Ascoli
y concluir que debe de existir una subsucesión, {ϕnj (x) = ϕj (x)}, de
{ϕn (x)} tal que sea uniformemente convergente en I = [x0 −α, x0 +α]
hacia una función ϕ(x), la cual, por ser lı́mite uniforme de funciones
continuas, es una función continua.

• PASO 4.
Sea ahora g(x) una solución 0-aproximada cualquiera de nuestra ecua-
ción diferencial. Para x > x0 , podemos escribir
1 x
g(x) = y0 + (f (t, g(t)) + ∆(t)) dt, (7.2.18)
x0

donde ∆(t) := g ! (t) − f (t, g(t)). La integral en (7.2.18) existe porque


g(t) y f (t, g(t)) son continuas y g ! (t) es continua a trozos. Para los
puntos x < x0 podemos escribir una ecuación similar, donde los
248 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

lı́mites de integración variarán entre x y x0 . La comprobación de


la ecuación (7.2.18) es inmediata.
Ahora bien f (x, y) es uniformemente continua en el compacto R y en
el intervalo [x0 −α, x0 +α], la sucesión de funciones {ϕnj (x)} converge
uniformemente a la función ϕ(x). De aquı́ que la sucesión de funciones
f (x, ϕnj (x)) converja uniformemente a la función f (x, ϕ(x)).
Cuando la convergencia es uniforme, los sı́mbolos lı́mite e integral
pueden intercambiarse. De esta forma si ∆nj (t) = ϕ!nj (t)−f (t, ϕnj (t))
1 x
ϕ(x) = lim ϕnj (x) = y0 + lim (f (t, ϕnj (x)) + ∆nj (t)) dt
nj →∞ nj →∞ x
0
1 x 1 x
= y0 + lim {f (t, ϕnj (x))+∆nj (t)} dt = f (t, ϕ(t)) dt. (7.2.19)
x0 nj →∞ x0

De esta manera vemos que ϕ(x) es derivable, pues puede ponerse


como una integral entre x0 y x. Derivando en (7.2.19), obtenemos

ϕ! (x) = f (x, ϕ(x)), (7.2.20)

lo que demuestra que ϕ(x) es una solución de la ecuación para x ≥ x0 .


De una manera análoga demostramos (7.2.20) para x ≤ x0 . Resu-
miendo, la función ϕ(x)
(i) está definida en el intervalo [x0 − α, x0 + α],
(ii) es solución de la ecuación diferencial,
(iii) pertenece a la clase C 1 ([x0 − α, x0 + α]).

Hemos probado, pues, la existencia de soluciones.

B.– Demostración de la unicidad.


Para demostrar esta parte razonaremos por reducción al absurdo suponiendo
que existen dos soluciones y1 (x) e y2 (x) pasando por (x0 , y0 ). Por ser ambas
soluciones de la ecuación diferencial, han de satisfacer la misma

y1! (x) = f (x, y1 (x)), y2! (x) = f (x, y2 (x)).

Restando estas dos expresiones, obtenemos

y1! (x) − y2! (x) − f (x, y1 (x)) + f (x, y2 (x)) = 0.


7.2. ALGUNOS RESULTADOS CLÁSICOS 249

Integrando ahora entre x0 y t (con t > x0 ), llegamos a


1 t
y1 (t) − y2 (t) − y1 (x0 ) + y2 (x0 ) − {f (x, y1 (x)) − f (x, y2 (x))} dx = 0.
x0

Como las gráficas de las funciones yi (x), i = 1, 2, pasan por el punto (x0 , y0 ),
entonces −y1 (x0 ) + y2 (x0 ) = 0. Tomando módulos y usando la condición
de Lipschitz con respecto a y (que se verifica por la hipótesis del teorema)
se obtiene que
1 t
|y1 (t) − y2 (t)| ≤ K |y1 (x) − y2 (x)| dx. (7.2.21)
x0
1 t
Llamando p(t) = y1 (t) − y2 (t) y R(t) = |p(x)| dx, por (7.2.21) tenemos
x0

|p(t)| = R! (t) ≤ KR(t),

de donde
R! (t) − KR(t) ≤ 0, t ∈ (x0 , b),
siendo b es un cierto número real mayor que x0 . Multipliquemos ahora
esta última expresión por e−Kt e integremos entre x0 y x, (x ∈ (x0 , b)).
Obtenemos lo siguiente
1 x 2x
−Kt !
2
−Kt 2
0 ≥ e {R (t) − KR(t)} dt = R(t) e 2
x0 x0

= R(x) e−Kx − R(x0 ) e−Kx0 ⇒ R(x) ≤ R(x0 ) eK(x−x0 ) . (7.2.22)

Ahora bien, por su propia definición, R(x) ≥ 0. Asimismo, R(x0 ) = 0, lo


que implica por (7.2.22) que R(x) = 0, x ∈ (x0 , b) ⇒ |p(x)| = 0 para casi
todo x. Como p(x) es una función continua, esto implica que p(x) = 0, ∀ x ∈
(x0 , b), lo cual implica que, en este intervalo, y1 (x) = y2 (x). Un argumento
similar prueba esta igualdad para un intervalo de la forma (a, x0 ). En x0 la
igualdad se verifica por hipótesis. Por lo tanto, y1 (x) = y2 (x), ∀ x ∈ (a, b).

Teorema 2 (de Picard): sea f (x, y) una función de clase C 1 (D), siendo
D un dominio del plano real. Entonces, dado (x0 , y0 ) ∈ D, existe una única
solución y = y(x) de la ecuación diferencial y ! = f (x, y), tal que y0 = y(x0 ).
Esta solución está definida en un cierto entorno de x0 .
250 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Demostración: como D es un abierto, existe un disco cerrado V centrado


en (x0 , y0 ) y totalmente contenido en D. La función ∂f /∂y está acotada en
V , ya que es continua allı́, y por lo tanto también ha de estar acotada en el
interior V de V . Además V es convexo, por ser un disco. Estamos pues en
condiciones de aplicar el teorema anterior y concluir que existe una única
solución de y ! = f (x, y) cuyo grafo14 está contenido en V .
Nota. Diremos que una función es localmente lipschitziana en D si para
todo punto (x0 , y0 ) ∈ D, existe un entorno del mismo en el cual dicha
función es lipschitziana. Si f (x, y) ∈ C 1 (D), es obviamente localmente
lipschitziana en D con respecto a ambas variables.
Corolario: si la función f (x, y) ∈ C 1 (D), la solución general de la ecuación
y ! = f (x, y) depende sólo de una constante arbitraria.
Demostración: supongamos que la solución general dependiera de n cons-
tantes arbitrarias C1 , C2 , . . . , Cn , entonces habrı́a de escribirse en la forma
y = y(x, C1 , C2 , . . . , Cn ). Tomemos la solución particular que pase por el
punto (x0 , y0 ). Ésta ha de cumplir la condición y0 = y(x0 , C1 , C2 , . . . , Cn ).
Si queremos que esta ecuación algebraica determine las constantes Ci , el
número de éstas no podrá ser mayor que uno. Ası́, y = y(x, C) es la solución
general de y ! = f (x, y).

7.3 Teoremas de prolongación de soluciones

A lo largo de esta sección vamos a suponer que se verifican las condiciones


del teorema anterior. De esta manera, para cada punto (x0 , y0 ) ∈ D, existe
una única solución y(x) de la ecuación diferencial y ! = f (x, y) pasando por
dicho punto. Esta solución está definida en un cierto intervalo de la forma
[x0 − α, x0 + α].
La unicidad significa que si existe otra solución, g(x), pasando por el
mismo punto, ésta ha de coincidir con y(x) en el intervalo [x0 − α, x0 + α].
Pero pudiera suceder que g(x) estuviera definido en un conjunto mayor que
[x0 − α, x0 + α]. En ese caso g(x) serı́a una prolongación de y(x).
Sea P ≡ {yj (x)}j∈J el conjunto de todas las prolongaciones de y(x)
14
Recordemos que el grafo de una función de la forma y = f (x) es el conjunto de
puntos del plano de la forma (x, f (x)). El grafo coincide con lo que solemos llamar la
“gráfica” de la función.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 251

donde J es un cierto conjunto de ı́ndices. Cada función, yi de P está


definida sobre un cierto intervalo Ii ⊂ R. Diremos que dadas yj , yi ∈ P,
yi prolonga a yj si Ij ⊂ Ii y además yj (x) = yi (x), ∀ x ∈ Ij . Escribiremos
entonces yj ≺ yi .
Debemos de notar que las prolongaciones de y(x) son soluciones de la
ecuación y ! = f (x, y). Para ellas se aplica el teorema de unicidad, lo que
significa que yj ≺ yi ⇒ yi (x) = yj (x), ∀ x ∈ Ij .
La relación ≺ es una relación de orden en P. Consideremos ahora un
subconjunto H de funciones en P verificando la siguiente propiedad: para
todo par de funciones f y g en H, o bien f ≺ g o bien g ≺ f . Esto quiere
decir que H está totalmente ordenado, en el sentido que dos elementos
cualesquiera de H están conectados mediante la relación de orden. Sea
ahora I := ∪Ij la unión de todos los intervalos de definición de las funciones
en H. En I definimos una función, ϕ(x), de la siguiente manera: si x ∈ I
⇒ ∃ i ∈ J tal que x ∈ Ii y entonces:

ϕ(x) := yi (x).

Esta función está bien definida, como puede demostrarse fácilmente usando
la unicidad de las soluciones en cada uno de los Ii . Es además una solución
de la ecuación diferencial pasando por el punto (x0 , y0 ) que verifica la si-
guiente propiedad: yi (x) ≺ ϕ(x), ∀ yi ∈ P. La función ϕ(x) es un extremo
superior15 de H, según la relación de orden ≺ de P.

Definición 6: sea P un conjunto ordenado, con una relación de orden ≺.


Diremos que H ⊂ P es una cadena en P si H es un subconjunto totalmente
ordenado de P.

Vemos que toda cadena de P admite un extremo superior. Por el axioma


de Zorn16 , debe de existir un maximal de P, es decir una función F (x)
solución de la ecuación y ! = f (x, y) pasando por el punto (x0 , y0 ) y tal
que prolongue a cualquier otra solución de y ! = f (x, y) que pase por dicho
punto.
15
La función ϕ(x) es extremo superior de H si yi ≺ ϕ, ∀ yi ∈ H.
16
Max Zorn (1906), matemático alemán. El lema de Zorn es un axioma de la teorı́a de
conjuntos que puede enunciarse ası́: sea A un conjunto ordenado (esto quiere decir que
en él se ha definido una relación de orden). Se llama cadena en A a todo subconjunto de
A totalmente ordenado. Pues bien, si toda cadena admite un extremo superior, entonces
existe un maximal, es decir un cierto b ∈ A tal que ∀a ∈ A, b > a.
252 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Nuestro objetivo es buscar un procedimiento que nos permita encontrar


esta solución F (x), la cual no pueda ya prolongarse. Vamos a conseguirlo
a través de una serie de etapas que desarrollaremos a continuación, pero
antes necesitaremos una serie de lemas preliminares.
Lema 3: sea y(x) una función continua sobre un intervalo cerrado [a, b], tal
que sea derivable en su interior (a, b). Si la derivada y ! (x) tiende hacia un
lı́mite A cuando x → a, entonces y(x), admite en el punto a, una derivada a
la derecha igual a A. Análogamente, si la derivada y ! (x) tiende a un lı́mite
B cuando x → b, la función y ! (x) admite, en el punto b, una derivada a la
izquierda igual a B.
Demostración: supongamos que y ! (x) → A si x → a. Entonces, fijado
0 > 0, existe δ > 0 tal que si 0 < x − a < δ, entonces |y ! (x) − A| < 0.
Aplicando la fórmula de los incrementos finitos (teorema del valor medio)
a la función y(x), obtenemos

y(x) − y(a) = y ! (ξ) (x − a) ⇒ |y(x) − y(a) − A(x − a)| = |(y ! (ξ) − A) (x − a)|,

donde ξ ∈ (a, x). Si x ∈ (a, a + δ), entonces 0 < x − ξ < δ y |y ! (ξ) − A| < 0.
Por lo tanto, la igualdad de la derecha en la ecuación anterior es menor que
0|x − a|, lo cual implica que
2 2
2 y(x) − y(a) 2
2 − A22 < 0.
2 x−a

Ası́ queda probado el resultado para a. En b la demostración es totalmente


idéntica.
Definición 7: sea (x0 , y0 ) ∈ D. Al rectángulo de la forma

S = {|x − x0 | < α, |y − y0 | < M α}, (7.3.1)

donde M y α están definidos en (7.2.8) se le llama rectángulo de seguridad


para el punto (x0 , y0 ), al cual se le llama centro de S. Por la definición
S ⊂ D. Recordemos que las soluciones aproximadas que se discutı́an en el
Paso 1 del apartado anterior estaban incluidas en el rectángulo de seguridad
de (x0 , y0 ).
Es fácil probar que todo punto de D es centro de un rectángulo de seguridad.
El siguiente resultado nos indica que si S es un rectángulo de seguridad de
y ! = f (x, y), la solución de esta ecuación pasando por (x0 , y0 ) dada por
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 253

el teorema de existencia, está en S. Este es el motivo para llamar a S


rectángulo de seguridad.
Lema 4: supongamos que la solución y = y(x) de la ecuación y ! = f (x, y)
está definida en un intervalo I y pasa por (x0 , y0 ) ∈ D. Sea S un rectángulo
de seguridad del punto (x0 , y0 ) como se ha definido en (7.3.1). Vamos a
llamar J al intervalo [x0 − α, x0 + α]. Entonces para todo punto x ∈ I ∩ J
se verifica que (x, y(x)) ∈ S.
Lo que nos dice este lema es que en el intervalo I ∩ J, la gráfica de la
función y(x) está contenida en el rectángulo S. Véase la Figura 7.2.

(x 0 ,y 0 )

I»J

Figura 7.2: Esquema de la demostración del


lema 4.

Demostración: como y(x) es continua en el punto x0 , fijado 0 = M α,


existe h > 0 tal que si x ∈ [x0 − h, x0 + h], entonces17

|y(x) − y0 | < M α. (7.3.2)

Designemos por a y b respectivamente los extremos inferior y superior de


I ∩ J. Vemos entonces que se han de verificar las siguientes desigualdades:

x0 − α ≤ a < x0 < b ≤ x0 + α. (7.3.3)

Razonemos ahora por reducción al absurdo y supongamos que en el inter-


valo (x0 , b) existen puntos x para los cuales (x, y(x)) no está contenido en
el rectángulo S. La desigualdad (7.3.2) nos muestra que estos puntos no
pueden estar contenidos en el intervalo (x0 , x0 + h). Luego el conjunto de
17
Obsérvese que h hace el papel de δ.
254 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

tales puntos está acotado inferiormente. Llamemos β a su extremo inferior


(β ≥ x0 +h). Por nuestra hipótesis de absurdo β < b, ya que de lo contrario
para todos los puntos en (x0 , b), (x, y(x)) ∈ S. El extremo inferior de un
conjunto es siempre adherente, de tal manera que en todo entorno de β
existirán puntos x para los cuales
|y(x) − y0 | > M α.
Pero resulta que y(x) es continua en el punto β ya que β ∈ I ∩ J y la
función módulo es continua. De esta manera
M α ≤ lim |y(x) − y0 | = |y(β) − y0 |. (7.3.4)
x→β

Como β < x0 + α, para todos los puntos del intervalo [x0 , β) se verificará
(7.3.2). Ası́, la gráfica de la función y(x) en [x0 , β) está contenida en S. De
esta manera, si x ∈ [x0 , β) se tiene que
|y ! (x)| = |f (x, y(x))| ≤ M =⇒ ±y ! (x) ≤ M.
Integrando estas dos últimas desigualdades entre x0 y β, obtenemos
|y(β) − y(x0 )| ≤ M (β − x0 ) < M α. (7.3.5)
Hemos llegado a una contradicción entre (7.3.4) y (7.3.5), debido a nues-
tra hipótesis según la cual en el intervalo (x0 , b) existen puntos x para los
cuales (x, y(x)) no está contenido en el rectángulo S. Para eliminar la con-
tradicción hemos de aceptar la falsedad de esta hipótesis. Un razonamiento
análogo serı́a válido en el intervalo (a, x0 ].
Definición 8: diremos que B = (b, β) ∈ R2 es un valor de adherencia
de (x, y(x)) cuando x → b si existe una sucesión convergente {xi }, for-
mada por puntos del intervalo de definición de la solución y(x), tal que
{(xn , y(xn ))} → B. Nótese que entonces si B = (b, β), y(xn ) → β.
Teorema 3 (teorema fundamental de la prolongación de solu-
ciones): consideremos la ecuación diferencial y ! = f (x, y), donde f (x, y)
es una función continua en un dominio D del plano real. Sea y = y(x) una
solución de esta ecuación diferencial definida en un intervalo abierto (a, b),
tal que (x, y(x)) ∈ D, ∀ x ∈ (a, b).
Es condición necesaria y suficiente para que la prolongación de la solución
más allá del punto b sea posible, que uno de los valores de adherencia de
(x, y(x)) cuando x → b esté en D.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 255

Demostración:

• Suficiencia.
Sea (b, β) un valor de adherencia de (x, y(x)) cuando x → b y supon-
gamos que este punto está en D. Sabemos que existe un rectángulo
de seguridad S centrado en este punto. Por supuesto S ⊂ D. S está
definido mediante las desigualdades (véase la Figura 7.3)

|x − b| ≤ α, |y − β| ≤ M α.

S
Ma
(b, b)

Figura 7.3: Esquema de la demostración del teo-


rema 3.

Por ser (b, β) un valor de adherencia de (x, y(x)), en todo entorno


de este punto podemos encontrar puntos de la gráfica de y(x). En
particular, existe sobre esta gráfica un punto (b1 , β1 ) tal que

α Mα
|b − b1 | < , |β − β1 | < . (7.3.6)
3 3
De esta forma, el rectángulo S1 de centro en (b1 , β1 ) y definido me-
diante
2α 2M α
|x − b1 | < , |y − β1 | <
3 3
está contenido en S y es un rectángulo de seguridad para el punto
(b1 , β1 ). Como este punto pertenece a la gráfica de y(x), está claro que
b1 < b. Por la ecuación (7.3.6) sabemos que b < b1 + α/3 < b1 + 2α/3.
256 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Si J = [b1 − 2α/3, b1 + 2α/3], el intervalo (b1 , b) está contenido en


la intersección de J con I = (a, b) (recordemos que la solución y(x)
está definida en I). Aplicando el lema 4, la gráfica de y(x) está en el
rectángulo de seguridad, lo que equivale a decir que para todo punto
x ∈ (b1 , b)

|y ! (x)| = |f (x, y(x)| ≤ M ⇒ ±y ! (x) ≤ M. (7.3.7)

Integrando la desigualdad de la derecha de (7.3.7) entre x! y x!! , ambos


en (b1 , b) y tomando módulos, se obtiene

|y(x! ) − y(x!! )| ≤ M |x! − x!! |, ∀ x! , x!! ∈ (b1 , b). (7.3.8)

Vamos a demostrar que (7.3.7) implica que y(x) → β cuando x → b.


Por ser (b, β) un valor de adherencia de (x, y(x)), existe una sucesión
{xn }, convergiendo a b tal que ∀ 0 > 0, ∃ δ ! > 0 tal que si |xn − b| < δ ! ,
entonces |y(xn ) − β| < 0. Sea
' 0 (
δ := min δ ! , .
M
Escojamos x ∈ (b1 , b) tal que |b − x| < δ y un xn en la sucesión {xn },
definida en el párrafo anterior, con |b − xn | < δ. Entonces

|y(x) − β| ≤| y(x) − y(xn )| + |y(xn ) − β| ≤ M |x − xn | + |y(xn ) − β|


≤ M (|x − b| + |b − xn |) + |y(xn ) − β|
≤ 2M δ + 0 ≤ 30, (7.3.9)

con lo que está demostrado que lim y(x) = β.


x→b
Recordemos ahora que el punto (b, β) está en el abierto en el cual
f (x, y) es continua. De aquı́:

lim y ! (x) = f (b, β).


x→b

Volviendo al lema 3, la función y = y(x) admite derivada a la izquierda


en el punto b y esta derivada coincide con f (b, β). De esta forma,
hemos probado que:
1.– y ! (b) = f (b, β).
2.– y(b) = β.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 257

Aplicando el teorema de existencia se infiere que existe al menos una


solución y = y1 (x) que verifica estas dos propiedades. Esta solución
está definida en un entorno de b y prolonga la solución inicial y = y(x).

Nota. Este resultado no nos garantiza la unicidad de la prolongación


ya que no hemos hecho ninguna hipótesis sobre la continuidad de la
derivada parcial ∂f /∂y. Si añadimos esta condición vemos que la
prolongación y = y1 (x) de y = y(x) coincide con ésta a la izquierda
de b y es una prologación definida unı́vocamente a la derecha de b (al
menos en un cierto entorno de b).

• Necesidad.
Si la prolongación de y(x) al otro lado de b es posible, esta función
ha de ser continua en b. Por lo tanto debe de existir el lı́mite de y(x)
cuando x → b, llamémosle β. Entonces el punto (b, β) pertenece a
la gráfica (o al grafo) de y(x), el cual debe de estar contenido en D.
Claramente debe de existir una sucesión xn → b tal que

(xn , y(xn )) → (b, β).

Comentamos al comienzo de la presente sección que las soluciones maxi-


males deberı́an de existir como consecuencia del axioma de Zorn. El si-
guiente resultado nos permite ver como se pueden obtener estas soluciones
maximales.
Teorema 4: sea la ecuación diferencial y ! = f (x, y) donde f (x, y) es una
función continua en un dominio D, en el cual existe ∂f /∂y y es continua.
Entonces dado un punto (x0 , y0 ) ∈ D, existe una solución y = ϕ(x) de la
ecuación definida en un cierto intervalo (m1 , m2 ), pasando por (x0 , y0 ) y
tal que el intervalo de definición de cualquier otra solución pasando por el
mismo punto, está contenido en (m1 , m2 ).
Por el teorema de unicidad, si y = ψ(x) es esta segunda solución, ha
de coincidir con y = ϕ(x) en el intervalo de definición de la primera. La
solución y = ϕ(x) es entonces la solución maximal pasando por (x0 , y0 ),
respecto al abierto D.
Demostración: cada solución de la ecuación diferencial y ! = f (x, y)
pasando por (x0 , y0 ) y contenida en el abierto D, está definida en un cierto
intervalo. Designaremos por R2 al conjunto de los extremos superiores
258 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

de estos intervalos y por R1 al conjunto de los extremos inferiores de los


intervalos.
Sea m1 el extremo inferior de R1 (eventualmente −∞) y m2 el extremo
superior de R2 (que puede ser ∞). Vamos a construir una solución y = ϕ(x)
pasando por (x0 , y0 ) y definida en (m1 , m2 ) y vamos a ver que ella es la
solución deseada.
Sea x∗ un punto arbitrario del intervalo (m1 , m2 ). Por la definición
del mismo, existe una solución y = φ(x) pasando por (x0 , y0 ), definida
en un intervalo (r1 , r2 ), el cual contiene al punto x∗ . Definamos entonces
ϕ(x∗ ) := φ(x∗ ).
Veamos que ϕ(x∗ ) está efectivamente bien definido, es decir, que no
depende de la solución φ(x) elegida. En efecto, sea y = η(x) otra solución
definida en un intervalo (s1 , s2 ) al cual también pertenece x∗ . Entonces,
por el teorema de unicidad, φ(x) y η(x) coinciden en la parte común de sus
intervalos de definición y, por lo tanto, η(x∗ ) = φ(x∗ ) = ϕ(x∗ ). Ası́, ϕ(x∗ )
está bien definido.
Veamos que y = ϕ(x) constituye una solución de la ecuación en el
intervalo (m1 , m2 ). En efecto, dado cualquier punto x∗ perteneciente a
este intervalo, podemos considerar una solución y = φ(x∗ ) de la ecuación
pasando por (x0 , y0 ) y cuyo intervalo de definción contenga al punto x∗ . En
un entorno de dicho punto x∗ , la función φ(x) es solución de la ecuación
diferencial con los valores iniciales dado y, por lo tanto, φ(x) = ϕ(x). De
esta manera, vemos que y = ϕ(x) es una solución de la ecuación diferencial.
Dada cualquier otra solución y = φ(x) pasando por (x0 , y0 ), estará
definida en un cierto intervalo (r1 , r2 ) donde r1 ∈ R1 y r2 ∈ R2 . Luego
entonces m1 ≤ r1 y r2 ≤ m2 . De esta manera el intervalo (m1 , m2 ) contiene
a (r1 , r2 ), lo que significa que la solución y = ϕ(x) es maximal.

Nota. Este tipo de resultados no nos garantizan que las soluciones sean
prolongables hasta la frontera de D. Por ejemplo, aunque f (x, y) esté
definida y sea continua en todo el plano real, esto no significa que toda
solución y = y(x) de la ecuación diferencial y ! = f (x, y) pueda ser in-
definidamente prolongable. Pudiera suceder que y(x) tendiera a infinito
cuando x tienda hacia un valor finito a y, en este caso, no existen valores
adherentes interiores al dominio.

Ejemplo 4: consideremos la ecuación diferencial dy/dx = y 2 . Sus solu-


7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 259

ciones son de la forma:


1
y= .
a−x
Sus soluciones maximales estarán definidas en intervalos de la forma (−∞, a)
y (a, ∞).

7.4 Dependencia respecto a los valores iniciales

Una de las cuestiones más interesantes que nos podemos plantear en la


teorı́a de las ecuaciones diferenciales es el de la estabilidad con respecto a
las condiciones iniciales. Dada la única solución que pasa por el punto
(x0 , y0 ) ∈ D y dado un punto (x1 , y1 ) ∈ D muy próximo al anterior, la
cuestión puede formularse como: ¿bajo qué condiciones la solución de la
ecuación pasando por ambos puntos se mantiene próxima a lo largo de la
intersección sus intervalos de definición? Vamos a tratar de dar algunas
respuestas parciales a esta pregunta a lo largo de esta sección.
El lector se preguntará el porqué del interés de semejante problema.
Pues bien, sabemos que la dinámica de un punto material (por ejemplo en
una dimensión) está regida por un sistema de dos ecuaciones diferenciales

dp(t) dx(t) p(t)


= f (x, p, t), = ,
dt dt m
donde x(t) y p(t) son respectivamente la posición y el momento del punto
en el instante t. La constante m es la masa del mismo y F (x, p, t) es la
fuerza exterior aplicada que puede depender de estas variables. Aunque
este sistema no tiene, en principio, la forma y ! = f (x, y), vamos a ver que
puede escribirse de esta manera en dos dimensiones. En efecto, escribamos
$ %
! dx(t) dp(t)
"y (t) = (x(t), p(t)) ⇒ y" (t) = ,
dt dt

= (p/m, f (x, p, t)) = F" (x, p, t) = F" ("y , t), (7.4.1)

donde hemos definido F" (x, p, t) en la lı́nea precedente. Este tipo de ecua-
ciones obedece un teorema de existencia y unicidad análogo al estudiado
hasta ahora. En efecto, si F es de clase C 1 (D) donde D es un dominio de
R3 y (x0 , p0 , t0 ) ∈ D, entonces existe una única solución en D x = x(t),
p = p(t), verificando las condiciones iniciales x0 = x(t0 ), p0 = p(t0 ).
260 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Se comprende ahora que nos preguntemos si, variando ligeramente las


condiciones iniciales de nuestro punto material, la trayectoria del mismo en
el espacio de las fases va a ser o no similar a la anterior. Recordemos que uno
de los orı́genes de la teorı́a clásica del caos es el llamado efecto mariposa,
que podrı́amos resumir ası́: bajo ciertas condiciones, un ligerı́simo cambio
en las condiciones iniciales de un sistema fı́sico puede producir cambios
enormes en el estado del mismo al cabo de un cierto tiempo finito.
Esta es una de las motivaciones del estudio de la dependencia de las
soluciones con respecto a las condiciones iniciales. Como quiera que para
analizar lo que sucede en sistemas complejos es necesario previamente en-
tender lo que pasa en los más simples, vamos a limitarnos, de momento al
estudio de la dependencia para las ecuaciones del tipo y ! = f (x, y). De-
mostraremos un teorema de estabilidad de soluciones con respecto a los
valores iniciales. Pero antes, necesitamos un par de lemas previos
Lema 5: sean V (x) y ϕ(x) continuas en [a, b] y V (x) derivable en (a, b). Si
se cumple que V ! (x) ≤ kV (x) + ϕ(x) con V (a) = 0, siendo k una constante,
se verifica que 1 x
V (x) ≤ ekx ϕ(u) e−ku du.
a

Demostración: ciertamente si V ! (x) − kV (x) ≤ ϕ(x), existe una función


χ(x) ≤ 0 tal que
V ! (x) − kV (x) = ϕ(x) + χ(x).
Esta es una ecuación diferencial lineal de primer orden que se integra in-
mediatamente y se tiene
1 x
V (x) = ekx
e−ku [ϕ(u) + χ(u)] du (7.4.2)
a
1 x 1 x 1 x
= ekx e−ku ϕ(u) du + ekx e−ku χ(u) du ≤ ekx ϕ(u) e−ku du.
a a a
1 x
pues ekx e−ku χ(u) du ≤ 0 al ser ekx y e−ku positivos y χ(u) negativa.
a

Lema 6: sea y ! = f (x, y) una ecuación diferencial ordinaria de primer


orden tal que:

1. f (x, y) es continua en la banda [A, B] × R (x varı́a entre A y B,


mientras que y es arbitrario);
7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 261

2. f (x, y) es lipschitziana en el mismo conjunto.

Entonces la solución de la ecuación pasando por un punto (x0 , y0 ) del in-


terior de la banda tiene como soporte el intervalo [A, B] (obsérvese que el
lema 6 nos proporciona un ejemplo en el cual la solución llega hasta la
frontera del dominio D de continuidad de f (x, y)).

Demostración: llamemos φ(x) a la solución. Está claro que φ(x) debe de


verificar que18 1 x
φ(x) = y0 + f (u, φ(u)) du,
x0
de donde deducimos que
21 x 2
2 2
|φ(x) − y0 | = 22 f (u, φ(u)) du22
x0
21 x 2
2 2
2
≤ 2 [f (u, φ(u)) − f (u, y0 ) + f (u, y0 )] du22
x0
21 x 2 21 2
2 2 2 x 2
2
≤ 2 [f (u, φ(u)) − f (u, y0 )] du22 + 22 f (u, y0 ) du22 . (7.4.3)
x0 x0

Aplicando aquı́ la condición de Lipschitz con respecto a la segunda variable,


resulta que (7.4.3) es menor o igual que
21 x 2 21 x 2
2 2 2 2
2 2 2
k|φ(u) − y0 | du2 + 2 f (u, y0 ) du22 . (7.4.4)
2
x0 x0

Apliquemos ahora el lema 5. Para ello, identifiquemos:


21 x 2 21 x 2
2 2 2 2
2
V (x) = 2 2
|φ(u) − y0 | du2 , ϕ(x) = 22 f (u, y0 ) du22 .
x0 x0

Vemos que V ! (x) = |φ(x) − y0 |, lo que implica que V ! (x) ≤ kV (x) + ϕ(x)
(por (7.4.3) y (7.4.4)) y V (x0 ) = 0. Entonces, el lema 5 nos dice que
21 x 2 1 x 21 u 2
2 2 2 2 −ku
2 |φ(u) − y | du 2 ≤ ekx 2 f (s, y ) ds 2e du.
2 0 2 2 0 2
x0 x0 x0

Sea ahora b el punto en el que φ(x) no se puede prolongar hacia la derecha.


Supongamos que b < B. Vimos que, siendo b un punto interior al intervalo
18
Para comprobarlo basta derivar la expresión que sigue.
262 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

[A, B] la solución no se podı́a prolongar más allá de b cuando el lı́mite


lim φ(x) era infinito. Pero esto no puede pasar, ya que |φ(x) − y0 | está
x→b−
acotada por 2 2
1 x 21 u 2
2 f (s, y0 ) ds22 e−ku du,
2
x0 x0

que tiene un lı́mite finito cuando x → b−. Sea lim φ(x) = H. Vemos
x→b−
que (b, H) pertenece obviamente a la banda y es un valor de adherencia de
φ(x) cuando x → b−, luego, puede ser prolongado por la derecha. Hemos
llegado a una contradicción que se resuelve si b = B. Si razonamos de
manera análoga por la izquierda concluimos que el soporte de φ(x) es el
intervalo [A, B].

Teorema 5: consideremos la ecuación diferencial ordinaria de primer orden


y ! = f (x, y). Supongamos que la función f (x, y) está definida y es continua
en un dominio D del plano real. En D, ∂f /∂y es también continua. Sea
(x0 , y0 ) ∈ D. Llamemos φ(x, x0 , y0 ) a la solución maximal que pasa por el
punto (x0 , y0 ). Bajo estas condiciones, por cada punto de D pasa una de
estas soluciones maximales, y sólo una. Además, la función φ(x, x0 , y0 ) es
continua respecto a sus tres variables.

Nota: obsérvese que la continuidad de la función φ(x, x0 , y0 ) con respecto


al valor inicial (x0 , y0 ), nos garantiza la estabilidad de la solución: pequeños
cambios en las condiciones iniciales tienen una repercusión pequeña en la
solución obtenida.

Demostración: supongamos que para la terna (u, u0 , w0 ) está definida


la función φ(u, u0 , w0 ). Supongamos que u > u0 , si fuera lo contrario
razonarı́amos de manera análoga.
Tomemos w = φ(u, u0 , w0 ). Como el punto (u, w) es interior a D, el
teorema de prolongación nos dice que la solución de la ecuación, pasando
por (u0 , w0 ), φ(x, u0 , w0 ), se puede prolongar por la derecha más allá de u.
Asimismo se puede prolongar por la izquierda má allá de u0 . Ası́ tendremos
una solución definida en un intervalo de la forma [u0 − α, u + α], α > 0, a
la que denominaremos como g(x).
Dado β > 0, consideremos ahora la siguiente banda, a la que llamaremos
B, formada por los puntos (x, y) tales que:

u0 − α ≤ x ≤ u + α, g(x) − β ≤ y ≤ g(x) + β, (7.4.5)


7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 263

escogiendo β para que B esté contenido en D. Obsérvese que esta banda


siempre puede construirse eligiendo un β adecuado. En efecto, cuando
x ∈ [u0 − α, u + α], la gráfica de la función g(x) es el conjunto de puntos
de la forma (x, g(x)) (véase la Figura 7.4). Este conjunto es acotado y
cerrado y por lo tanto compacto (véase la figura). Los puntos (x, g(x)) con
x ∈ [u0 − α, u + α] son interiores a D, pues en ellos está definida la solución
g(x). Pero los puntos
(u0 − α, g(u0 − α)) y (u + α, g(u + α))
también están en D, pues la solución puede prolongarse a la izquierda de
u0 − α y a la derecha de u + α. Ahora bien, el complementario de D
en R2 es un cerrado y entre un cerrado y un compacto siempre hay una
distancia mayor que cero. Sea d la distancia entre el complementario de D
y la gráfica de g(x) en el intervalo [u0 − α, u + α]. Entonces β es cualquier
número 0 < β < d.

g(x)

B
b
w0
b

u0-a u0 u+a

Figura 7.4: Esquema de la demostración del teo-


rema 5.

La banda B es cerrada y acotada, ergo compacta, y por lo tanto existe


k > 0 tal que 2 2
2 ∂f (x, y) 2
2 2
2 ∂y 2 ≤ k , ∀ x, y ∈ B.

Sea ahora (x0 , y0 ) otro punto interior de la banda, tal que cumpla las
siguientes condiciones:
|x0 − u0 | < δ1 , |y0 − w0 | < δ2 . (7.4.6)
264 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Más tarde veremos como se fija δ2 . Una vez que tenemos δ2 , por la con-
tinuidad de la función g(x), debe de existir un δ1 tal que si |x0 − u0 | < δ1 ,
entonces, |g(x0 ) − w0 | < δ2 . Este es el δ1 que aparece en (7.4.6).
El criterio para elegir el δ2 es que la solución h(x) pasando por el punto
(x0 , y0 ) esté definida en el intervalo [u0 −α, u+α] y permanezca en la banda
cuando x ∈ [u0 − α, u + α]. Vamos a ver como es esto posible (Figura 7.5).

(x 0,y 0)

h(x)

x g(x)
x

(u 0,w 0)
Figura 7.5: Segundo esquema de la demostración
del teorema 5.

Sea x ∈ (x0 , u + α), y definamos la función


1 x
V (x) := |h(x) − g(x)| dx.
x0

Por ser f (x) y g(x) soluciones de la ecuación diferencial, tenemos que


1 x 1 x
h(x) = y0 + f (s, h(s)) ds, g(x) = g(x0 ) + f (s, g(s)) ds.
x0 x0

Estas fórmulas nos dan


21 x 2
2 2
V (x) = |h(x) − g(x)| = 2 [f (s, h(s)) − f (s, g(s))] ds + y0 − g(x0 )22
! 2
x0
1 x
≤ |f (s, h(s)) − f (s, g(s))| ds + |y0 + ω0 − ω0 − g(x0 )|
x0
1 x
≤ |f (s, h(s)) − f (s, g(s))| ds + |y0 − ω0 | + |ω0 − g(x0 )|. (7.4.7)
x0
7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 265

Los dos últimos módulos han sido escogidos menores que δ2 . Por otro lado,
como B es un conjunto convexo y ∂f /∂y está acotada en B, resulta que f
satisface la condición de Lipschitz para y en B. Esto quiere decir que existe
una constante positiva K tal que

|f (s, h(s)) − f (s, g(s))| ≤ K |f (s) − g(s)|,

de manera que
V ! (x) ≤ K V (x) + 2δ2 . (7.4.8)
Aplicando ahora el lema 5, con ϕ(x) = 2δ2 , resulta que
2δ2 ' K|x−x0 | (
V (x) ≤ e −1 . (7.4.9)
K
Aplicando (7.4.7), (7.4.8) y (7.4.9) vemos que

|h(x) − g(x)| = V ! (x) ≤ 2δ2 eK|x−x0 | .

Ahora bien, si queremos que la solución h(x) esté en la banda, se ha de


verificar que |h(x) − g(x)| < β, lo cual garantiza que h(x) admita una
prolongación que esté definida en el intervalo (x0 , u + α). Este criterio es el
que nos va a permitir elegir δ2 . En efecto, quedará satisfecho si escogemos δ2
de tal manera que 2δ2 eK|x−x0 | ≤ β. Estos x están acotados superiormente
por u + α. Luego escojamos
1
δ2 ≤ β e−K|u+α−x0 | .
2
Fijamos ahora 0 de tal manera que 0/2 < β. Este 0/2 puede hacer el papel
de nuevo β y puedo construir nuevos δ2 y δ1 correspondiendo a esta nueva
elección de la anchura de la banda. Recordemos que la solución g(x) es
continua en el punto u, de tal manera que para este 0/2 existirá un δ3 tal
que si |x − u| < δ3 , entonces |g(x) − g(u)| < 0/2. De esta manera, tomando
para el punto (u, u0 , w0 ) el entorno (con los nuevos δi )

|u0 − x0 | < δ1 , |w0 − y0 | < δ2 , |u − x| < δ3 ,

se tiene que

|φ(u, u0 , w0 )−φ(x, x0 , y0 )| = |g(u)−h(x)| ≤| g(u)−g(x)|+|g(x)−h(x)| < 0,

con lo que el teorema queda demostrado.


266 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

7.5 Dependencia respecto a los parámetros

En este apartado vamos a considerar una familia de funciones f (λ, x, y)


donde λ es un parámetro que varı́a en un cierto intevalo de la recta, y
vamos a estudiar la dependencia de las soluciones y = y(λ, x) de la ecuación
diferencial y ! = f (λ, x, y) con respecto al parámetro λ. El primer resultado
es el que exponemos a continuación:
Lema 7 (de Peano-Gronwall): sea f (t) una función real y continua
definida en el intervalo [t0 , t1 ], verificando la siguiente desigualdad:
1 t
0 ≤ f (t) ≤ λ + µf (x) dx (7.5.1)
t0

donde λ y µ son constantes positivas y t ∈ [t0 , t1 ]. Si llamamos T := t1 − t0 ,


se verifica entonces que
f (t) ≤ λ eµT .

Demostración: definamos en primer lugar una función g(t) como

g(t) := e−µ(t−t0 ) f (t). (7.5.2)

Esta función es obviamente continua en el intervalo [t0 , t1 ] por ser producto


de funciones continuas en dicho intervalo. Este es compacto y la función
admitirá un máximo. Esto quiere decir que existe un punto t∗ ∈ [t0 , t1 ] tal
que
g(t∗ ) = γ := max g(t).
t∈[t0 ,t1 ]

Pero entonces
∗ −t
f (t∗ ) = g(t∗ ) eµ(t 0)

y como t∗ ∈ [t0 , t1 ], utilizando (7.5.1) y (7.5.2) vemos que


1 t∗

f (t ) ≤ λ + µ eµ(x−t0 ) g(x) dx.
t0

Como g(x) ≤ g(t∗ ) = γ, esto es menor o igual que


1 t∗ ' (

λ+γ µ eµ(x−t0 ) dx = λ + γ eµ(t −t0 ) − 1 ,
t0
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 267

donde la última integral se obtiene mediante integración. De esta manera



' ∗
(
γ eµ(t −t0 ) ≤ λ + γ eµ(t −t0 ) − 1 ,

o equivalentemente γ ≤ λ. Ası́ pues, aplicando de nuevo (7.5.1) y (7.5.2)


tenemos que
1 t 1 t
f (t) ≤ λ + µ g(x) eµ(x−t0 ) dx ≤ λ + γ µ eµ(x−t0 ) dx
t0 t0
' ( ' (
= λ + γ eµ(t−t0 ) − 1 ≤ λ + λ eµ(t−t0 ) − 1

= λ eµ(t−t0 ) ≤ λ eµT , (7.5.3)


y el lema está demostrado.
Lema 8: sea f (x, y) una función continua en un compacto K del plano
real, donde satisface una condición de Lipschitz respecto a la variable y
con constante K. Sean (a0 , b0 ) y (a1 , b1 ) dos puntos en el interior de K e
I un intervalo real que contenga a los puntos a0 y a1 y en el cual existan
las soluciones de la ecuación diferencial y ! = f (x, y) pasando por los dos
puntos mencionados. Llamemos a estas dos soluciones respectivamente
ϕ(x, a0 , b0 ) ≡ ϕ(x) y ϕ(x, a1 , b1 ) ≡ ψ(x).
Entonces
|ϕ(x) − ψ(x)| ≤ (|b0 − b1 | + M |a0 − a1 |) eK|x−a0 | ,
donde M es el máximo de |f (x, y)| en K.
Demostración: la prueba se obtiene tras la siguiente cadena de desigual-
dades:
2 1 x 2
2 2
2
|ϕ(x) − ψ(x)| = 2ϕ(a0 ) − ψ(a0 ) + (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
21 x 2
2 2
≤ |b0 − b1 + b1 − ψ(a0 )| + 22 (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
21 x 2
2 2
≤ |b0 − b1 | + |b1 − ψ(a0 )| + 22 (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
1 x
≤ |b0 − b1 | + M |a1 − a0 | + K|ϕ(t) − ψ(t)| dt.
a0
268 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

La última desigualdad proviene de aplicar la condición de Lipschitz a f (x, y)


y de tener en cuenta que

|b1 − ψ(a0 )| = |ψ(a1 ) − ψ(a0 )| = |ψ ! (ξ)| |a1 − a0 |


= |f (ξ, ψ(ξ))| |a1 − a0 | ≤ M |a1 − a0 |,

usando el teorema del valor medio.


Utilizando ahora el lema de Peano-Gronwall con f (t) = |ϕ(t) − ψ(t)|,
µ = K y λ = |b0 − b1 | + M |b1 − a1 |, obtenemos trivialmente el resultado
apetecido.

Veamos a continuación uno de los resultados más importantes relativos


a la dependencia de las ecuaciones con respecto a los parámetros.
Teorema 6: sea f (x, y, µ) es una familia de funciones parametrizada por
µ y consideremos la familia de ecuaciones diferenciales y ! = f (x, y, µ).
Supongamos que, como función de tres variables, f (x, y, µ) es continua
y admite derivada parcial continua con respecto a y, ∂f /∂y, en un cierto
dominio Γ ⊂ R3 . Sea (x0 , y0 , µ0 ) un punto arbitrario de Γ. Entonces exis-
ten dos números positivos r y ρ tal que para |µ − µ0 | ≤ ρ, la solución
y = ϕ(x, µ) que satisface la condición inicial y0 = ϕ(x0 , µ) está definida en
el intervalo |x − x0 | ≤ r y es una función continua de las variables x y µ de
las cuales depende.
El resultado anterior puede resumirse como sigue: si f (x, y, µ) es con-
tinua en las tres variables y admite derivada parcial continua con respecto
de y en un cierto dominio, las soluciones dependen de manera continua del
parámetro. Pequeñas variaciones del mismo producen pequeñas variaciones
en la solución verificando unos valores iniciales fijos.
Demostración: vamos a realizarla en varios pasos.

• PASO 1.
Tomemos el punto (x0 , y0 , µ0 ) ∈ Γ. Como Γ es abierto, existe un para-
lelepı́pedo cerrado P centrado en (x0 , y0 , µ0 ) totalmente contenido en
Γ (véase la Figura 7.6). Supongamos que la longitud de los lados de
P es 2a, 2b y 2ρ, de tal manera que está caracterizado por:

|x − x0 | ≤ a, |y − y0 | ≤ b, |µ − µ0 | ≤ ρ.
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 269

2r

. (x 0,y 0,m 0)

2b
G
2a

Figura 7.6: Esquema de la demostración del teo-


rema 6.

Ovbiamente P es un conjunto compacto. Como f y ∂f /∂y son con-


tinuas en Γ, estarán acotadas en P, de tal manera que si (x, y, µ) ∈ P,
existirán dos constantes positivas M y K tales que
2 2
2 ∂f 2
|f (x, y, µ)| ≤ M, 2 (x, y, µ) 2 ≤ K. (7.5.4)
2 ∂y 2

Recordemos ahora los teoremas de existencia y prolongación de solu-


ciones. Estos resultados garantizan que si
$ %
b 1
r < min a, , (7.5.5)
M K
para cualquier valor fijo µ que verifique |µ − µ0 | ≤ ρ, entonces la
solución y = ϕ(x, µ) pasando por (x0 , y0 ) está definida en el intervalo
|x − x0 | ≤ r. Para ello bastará tomar a y b suficientemente pequeños.
• PASO 2.
Sea ahora el compacto K del plano real, definido como:

K = {|x − x0 | ≤ r, |µ − µ0 | ≤ ρ} .
270 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Llamamos F a el conjunto de las funciones continuas de K en R. Sea


φ(x, µ) ∈ F. Definamos una aplicación lineal B de F en F de la
manera siguiente::
1 x
(B f )(x, µ) := y0 + f (t, φ(t, µ), µ) dt.
x0

Claramente (B f )(x, µ) es una función continua en K y B es ob-


viamente lineal. Consideremos la siguiente sucesión de funciones
definidas y continuas en K:

ϕ0 (x, µ) ≡ y0 , ϕ1 (x, µ) := Bϕ0 , ϕ2 := Bϕ1 = B 2 ϕ0 , . . . , ϕn = B n ϕ0 .

Notemos que
1 x
ϕn = y0 + f (t, ϕn−1 (t, µ), µ) dt. (7.5.6)
x0

• PASO 3.
Fijémonos ahora en que
1 x
b
|ϕ1 (x, µ) − y0 | ≤ |f (t, y0 , µ)| dt ≤ M r < M = b.
x0 M
Estas desigualdades son inmediatas. la primera es consecuencia de
(7.5.6), la segunda de (7.5.4) y del hecho que |x − x0 | ≤ r y la tercera
de (7.5.5).
Por lo tanto, ϕ1 (x, µ) está en el cuadrado {|x − x0 | < r, |y − y0 | < b}.
Para ver que todas las ϕn están en el mismo cuadrado, utilizaremos
el método de inducción fijándonos en que
1 x
|ϕn (x, µ) − y0 | ≤ |f (t, ϕn−1 (t, µ), µ)| dt ≤ M r < b.
x0

• PASO 4.
Demostremos ahora que existe el siguiente lı́mite:

lim ϕn (x, µ).


n→∞

Sea φ ∈ F. Definamos

||φ|| := sup |φ(x, µ)|.


(x,µ)∈K
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 271

Sabemos que si φ ∈ F ⇒ Bφ ∈ F. Sean φ y ψ dos funciones de F.


Consideremos
1 x
Bφ − Bψ = [f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)] dt.
x0

Tomando módulos
1 x
|Bφ − Bψ| ≤ |f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| dt. (7.5.7)
x0

Por el teorema del valor medio, para cada t se ha de verificar que

∂f
f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ) = (t, θ, µ) (φ − ψ), (7.5.8)
∂y

donde θ está comprendido entre φ(t, µ) y ψ(t, µ) (que son dos números
reales). Tomemos φ y ψ como funciones de {|x−x0 | < r, |y−y0 | < b},
lo cual va a ser el caso de las φ y ψ que hemos de considerar. Entonces
θ ∈ (y0 − b, y0 + b) y, por lo tanto, (t, θ, µ) ∈ P. De esta suerte
2 2
2 ∂f 2
2 (t, θ, µ)2 ≤ K,
2 ∂y 2

y además por (7.5.8)19

|f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| ≤ K |φ(t, µ) − ψ(t, µ)|
≤K sup |φ(t, µ) − ψ(t, µ)| ≤ K ||φ − ψ||.
(x,µ)∈K

Ası́, como |x − x0 | ≤ r:
1 x
|f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| dt ≤ Kr ||φ − ψ||,
x0
19
Definimos la norma de una función continua f (x, µ) en el compacto K como

||f || := sup |f (x, µ)|.


(x,µ)∈K

Dado que K es un compacto, el supremo siempre existe. Sabemos que ||f || es efectiva-
mente una norma en F , lo que confiere a F la estructura de espacio normado. Es más,
se trata de un espacio de Banach (véase el libro de Burkill and Burkill), es decir, en él
toda sucesión de Cauchy por la norma de F admite lı́mite.
272 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

lo que implica utilizando (7.5.7) que:

|Bφ − Bψ| ≤ Kr ||φ − ψ|| ⇒


||Bφ − Bψ|| = sup |Bφ(x, µ) − Bψ(x, µ)| ≤ Kr ||φ − ψ||.
(x,µ)∈K

Como r < 1/K por (7.5.5) , poniendo α := Kr < 1,

||Bφ − Bψ|| ≤ α ||φ − ψ||.

De este modo

||ϕm − ϕn || = ||Bϕm−1 − Bϕn−1 || ≤ α||ϕm−1 − ϕn−1 ||


≤ α2 ||ϕm−2 − ϕn−2 || ≤ . . . ≤ αn ||ϕm−n − ϕ0 ||,

donde hemos supuesto que m > n (si n > m razonarı́amos igual-


mente). Al ser α < 1, tomando n suficientemente avanzado, αn es
tan pequeño como queramos. Luego, para cualesquiera m, n, con n
suficientemente avanzado (m > n), existirá 0 > 0 tal que:
0
αn < =⇒ ||ϕm − ϕn || < 0.
||ϕm−n − ϕ0 ||

De aquı́ deducimos que {ϕn } es una sucesión de Cauchy por la norma


en F. Como F es completo, ϕn converge a una función ϕ ∈ F. Esta
convergencia es igual a la convergencia uniforme, pues hemos elegido
la norma del supremo para las funciones F. Por lo tanto

lim ϕn (x, µ) = ϕ(x, µ)


n→∞

uniformemente en K. La función ϕ(x, µ) es continua en K por ser


lı́mite uniforme de funciones continuas.

• PASO 5.
La función ϕ(x, µ) es solución de la ecuación diferencial y ! = f (x, y, µ)
para este valor fijo de µ.
En realidad aquı́ no hará falta demostrar nada, pues la afirmación
anterior es consecuencia del teorema del punto fijo (que se comentará
en la sección siguiente), dado que B es una aplicación contractiva20 .
20
Véase el libro de Burkill & Burkill, pág. 52.
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 273

Sin embargo, el demostrar esta cuestión es, en nuestro caso particular,


muy sencillo:

||Bϕ − ϕ|| = ||Bϕ − ϕn+1 + ϕn+1 − ϕ|| ≤ ||Bϕ − ϕn+1 || + ||ϕn+1 − ϕ||
= ||Bϕ − Bϕn || + ||ϕn+1 − ϕ||
≤ α ||ϕ − ϕn || + ||ϕn+1 − ϕ|| → 0.

Esto equivale a decir que para cada 0 > 0,

||Bϕ − ϕ|| < 0 =⇒ ||Bϕ − ϕ|| = 0 =⇒ Bϕ = ϕ.

• PASO 6.
Finalmente démonos cuenta que ya hemos demostrado el teorema,
pues y0 = ϕ(x0 , µ) y ϕ(x, µ) es una función continua de las dos vari-
ables x y µ.

Vamos ahora a demostrar un resultado concerniente a la derivabilidad


de las soluciones con respecto a los parámetros. Con este resultado ter-
minaremos la presente sección, pero para su demostración necesitamos un
lema previo.
Lema 9 (de Hadamard)21 : sea G un dominio del espacio Rn+m convexo
en las n primeras variables22 . Sea F (x1 , . . . , xn , z1 , . . . , zm ) : G → R ad-
mitiendo derivadas parciales continuas respecto a las n primeras variables.
Entonces existen n funciones de 2n + m variables

Φi (x1 , x2 , . . . , xn , y1 , y2 , . . . , yn , z1 , z2 , . . . , zm ), i = 1, 2, . . . , n,

tales que
n
&
F (x1 , . . . , xn , z1 , . . . , zm ) − F (y1 , . . . , yn , z1 , . . . , zm ) = (yi − xi ) Φi .
i=1

Demostración: como G es convexo con respecto a las n primeras variables,


sean "x, "y ∈ G con sus últimas coordenas iguales, es decir, tales que

"x = (x1 , x2 , . . . , xn , z1 , z2 , . . . , zm ), "y = (y1 , y2 , . . . , yn , z1 , z2 , . . . , zm ).


21
Jacques Hadamard (1865–1963), influyente matemático francés.
22
Esto quiere decir que si + y ∈ G y sus m últimas coordenadas coinciden, entonces si
x, +
0 ≤ λ ≤ 1 tenemos que (1 − λ)+ y ∈ G. Dicho de otra manera, el segmento que une
x + λ+
+x e +
y está contenido en G.
274 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Si 0 ≤ t ≤ 1, entonces (1 − t)"x + t "y ∈ G por la convexidad. Para cada valor


de t, este punto tiene como n primeras coordenadas

x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ),

siendo las restantes zp + t(zp − zp ) = zp ; p = 1, 2, . . . , m. Consideremos

F (x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm )

como una función de t cuando las demás variables quedan fijas. Llamemos
Ft a su derivada con respecto a t y Fi , i = 1, 2, . . . , n, a sus derivadas
parciales con respecto a las n primeras variables. Por la regla de la cadena

Ft (x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm )


n
&
= (y1 − xi ) Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm ).
i=1

Por otro lado, la fórmula de Barrow nos indica que:


1 1
Ft (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm ) dt
0

= F (y1 , . . . , yn , z1 , . . . , zm ) − F (x1 , . . . , xn , z1 , . . . , zm )
&n 1 1
= (yi − xi ) Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , . . . , zm ),
i=1 0

con lo que eligiendo


1 1
Φi ≡ Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , . . . , zm ),
0

con i = 1, 2, . . . , n, queda probado el lema.


Teorema 7: sea el conjunto de ecuaciones diferenciales y ! = f (x, y, µ) pa-
rametrizado por µ. Supongamos que estamos bajo las mismas condiciones
que en el teorema 6 y que además la derivada parcial ∂f /∂µ existe y es
continua en el dominio Γ. Entonces la solución y = ϕ(x, µ) de la ecuación
diferencial y ! = f (x, y, µ), con µ fijo, pasando por el punto (x0 , y0 ), admite
derivada parcial continua con respecto a µ y verifica la siguiente ecuación
diferencial
$ %
∂ ∂ϕ(x, µ) ∂f ∂ϕ(x, µ) ∂f
= (x, ϕ(x, µ), µ)) + (x, ϕ(x, µ), µ), (7.5.9)
∂x ∂µ ∂x ∂µ ∂µ
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 275

con la condición inicial


∂ϕ(x0 , µ)
= 0.
∂µ
Demostración: sea ϕ(x, µ) la solución de y ! = f (x, y, µ). La función
ϕ(x, µ) es continua respecto a las dos variables de las que depende para
|x − x0 | ≤ r y |µ − µ0 | ≤ ρ, con unos ciertos r y ρ, como consecuencia del
teorema anterior. Definamos ahora:
1
ψ(x, u1 , u2 ) := (ϕ(x, u2 ) − ϕ(x, u1 )). (7.5.10)
u2 − u1
Notemos que esta función está definida cuando u1 != u2 . En caso contrario,
el numerador y el denominador son simultáneamente cero. Veremos luego
lo que sucede en este caso (u1 = u2 ). Puesto que ϕ(x, u) es solución de la
ecuación diferencial con µ = u, tenemos que
! "
∂ 1 ∂ϕ ∂ϕ
ψ(x, u2 , u1 ) = (x, u2 ) − (x, u1 )
∂x u2 − u1 ∂x ∂x
1
= [f (x, ϕ(x, u2 ), u2 ) − f (x, ϕ(x, u1 ), u1 )]. (7.5.11)
u2 − u1
Vamos ahora a aplicar el lema de Hadamard, donde las “n primeras varia-
bles” van a ser x1 = u y x2 = ϕ(x, u), y la única variable z la x. De esta
manera23 , existen dos funciones h1 y h2 continuas en todos sus argumentos
x, u2 , u1 , tales que:
f (x, ϕ(x, u2 ), u2 ) − f (x, ϕ(x, u1 ), u1 )
= h1 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ) (ϕ(x, u2 ) − ϕ(x, u1 ))
+ h2 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ) (u2 − u1 ),
Para abreviar, escribiremos:
g1 (x, u2 , u1 ) := h1 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ),
g2 (x, u2 , u1 ) := h2 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ).
De esta manera, escribiremos la ecuación (7.5.11) como:

ψ(x, u2 , u1 ) = g1 (x, u2 , u1 ) ψ(x, u2 , u1 ) + g2 (x, u2 , u1 ). (7.5.12)
∂x
23
Démonos cuenta que en el lema de Hadamard da igual a lo que llamemos las n
primeras variables, pudiendo ser estas n variables cualesquiera.
276 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Esto representa una ecuación diferencial cuya función incógnita, ψ(x, u2 , u1 ),


satisface la siguiente condición inicial:
1 1
ψ(x0 , u2 , u1 ) = (ϕ(x0 , u2 ) − ϕ(x, u1 )) = (y0 − y0 ) = 0.
u2 − u1 u2 − u1
(7.5.13)
En principio, la función ψ(x, u2 , u1 ), definida en (7.5.10), no está definida
para u2 = u1 . Vamos a ver que ψ(x, u1 , u1 ) tiene realmente sentido. Por el
teorema anterior, aplicado al caso de varios parámetros, la ecuación (7.5.12)
admite solución única pasando por el punto (x0 , y0 ) y esta solución es con-
tinua en x, u1 y u2 a condición de que

|x − x0 | ≤ r, |u1 − µ0 | ≤ ρ y |u2 − µ0 | ≤ ρ.

La solución coincide con ψ(x, u2 , u1 ) para todo valor de u1 y u2 con u1 != u2 .


Parece lógico definir entonces ψ(x, u1 , u1 ) = limu2 →u1 ψ(x, u2 , u1 ), función
que satisface la ecuación (7.5.12) con la condición inicial (7.5.13) y u2 = u1 .
De esta manera poniendo u := u1 tenemos:
ϕ(x0 , u2 ) − ϕ(x, u1 ) ∂ϕ
lim ψ(x, u2 , u1 ) = lim = (x, u1 ) = ψ(x, u1 , u1 ).
u2 →u1 u2 →u1 u2 − u1 ∂u1
(7.5.14)
Como la función ψ(x, u1 , u1 ) es continua en sus dos variables, también lo
es (∂ϕ/∂u1 )(x, u1 ). De paso hemos demostrado su existencia.
Una vez probada la continuidad de la derivada con respecto a µ, vamos
a obtener la ecuación diferencial (7.5.9) que esta derivada satisface. Para
u := u2 = u1 , la ecuación (7.5.12) puede escribirse como:
$ % $ %
∂ ∂ ∂ϕ(x, u) ∂ϕ(x, u)
ψ(x, u, u) = = g1 (x, u, u) + g2 (x, u, u),
∂x ∂x ∂x ∂x
(7.5.15)
por (7.5.14). Aplicando de nuevo el lema de Hadamard para identificar g1
y g2 , tenemos que
∂f ∂f
g1 (x, u, u) = (x, ϕ(x, u), u), g2 (x, u, u) = (x, ϕ(x, u), u), (7.5.16)
∂y ∂u
con lo que finalmente deducimos de (7.5.15) y (7.5.16) la ecuación diferen-
cial pedida (7.5.9).
Nota: obsérvese como el teorema 7 implica una mayor regularidad en la de-
pendencia de las soluciones con respecto a los parámetros que el teorema 6.
7.6. OTROS RESULTADOS SOBRE EXISTENCIA Y UNICIDAD 277

7.6 Otros resultados sobre existencia y unicidad

Con frecuencia las ecuaciones diferenciales pueden aparecer bajo una forma
más general que la considerada anteriormente

F (x, y, y ! ) = 0,

y no pueden ponerse en la forma normal y ! = f (x, y), requerida para aplicar


directamente los teorema de existencia y unicidad que acabamos de de-
mostrar. El siguiente es un resultado válido para las ecuaciones diferen-
ciales de este tipo.
Teorema 8: dada una función F (x, y, y ! ) = 0 existe una única solución
y = y(x) que verifica las condiciones y(x0 ) = y0 , y ! (x0 ) = y0! (donde y0! es
una de las raı́ces de F (x0 , y0 , y0! ) = 0), válida en un entorno suficientemente
pequeño de x0 , si en un entorno del punto (x0 , y0 , y0! ) ∈ R3 la función
F (x, y, y ! ) verifica las tres condiciones siguientes:

a) La función F (x, y, y ! ) es continua en sus tres argumentos.


b) La derivada parcial ∂F/∂y ! existe y es no nula.
c) Existe ∂F/∂y y su valor absoluto está acotado.

La demostración, que hace uso del teorema de la función implı́cita, puede


verse también en el libro de Elsgoltz.
Los puntos (x, y) en los que no se verifica la unicidad de la solución se
llaman puntos singulares y su estudio enlaza con la existencia de envolventes
de familias de curvas, que ya se comentó en el capı́tulo anterior.

7.6.1 Nuevos puntos de vista

Como ya se ha comentado, existen versiones del teorema de existencia y


unicidad que se demuestran usando el teorema del punto fijo 24 , una de
cuyas versiones demostraremos a continuación. Pero antes necesitamos
una definición:
Definición 9: sea (E, d) un espacio métrico, siendo d(x, y) la distancia
definida entre los puntos del espacio x, y ∈ E, y sea T una aplicación de E
24
Existen diversos teoremas del punto fijo, varios de los cuales fueron probados por el
matemático holandés Luitzen Egbertus Jan Brouwer (1881-1966).
278 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

en E. Se dice que la aplicación T es contractiva si ∃ a ∈ (0, 1) tal que


d(T (x), T (y)) ≤ a d(x, y), ∀x, y ∈ E. (7.6.1)
Un primer resultado es:
Proposición 4: toda aplicación contractiva en E es continua en E.
Demostración: es trivial ya que fijado un x0 ∈ E, ∀0 > 0 ∃ δ = 0 tal que
si d(x, x0 ) < δ entonces d(T (x), T (x0 )) < 0. En efecto, la condición de ser
aplicación contractiva nos dice que d(T (x), T (x0 )) ≤ d(x, x0 ) < δ = 0.

Una versión del teorema del punto fijo, suficiente para lo que queremos
demostrar, es la siguiente.
Teorema 9 (del punto fijo): sea (E, d) un espacio métrico completo y
sea T : E → E una aplicación contractiva de constante a. Existe un único
punto fijo de la aplicación T en E, es decir, existe un único x ∈ E tal que
T (x) = x.

Demostración: la prueba de la existencia del punto fijo es constructiva,


es decir, somos capaces de mostar cómo se determina este punto fijo.

a) Demostración de la existencia. Tomemos un x0 ∈ E y consideremos


la sucesión de puntos de E
x0 , x1 = T (x0 ), x2 = T (x1 ) = T 2 (x0 ), . . . , xn = T n (x0 ), . . .
Veamos que esta sucesión es de Cauchy en E. En primer lugar, ob-
servemos que
d(xn , xn+1 ) = d(T (xn−1 ), T (xn )) ≤ a d(xn−1 , xn )
≤ · · · ≤ an d(x0 , x1 ). (7.6.2)
Entonces, aplicando la desigualdad triangular25 , el resultado (7.6.2)
y teniendo en cuenta que 0 < a < 1, tenemos
d(xn , xn+m ) ≤ d(xn , xn+1 ) + d(xn+1 , xn+2 ) + · · · + d(xn+m−1 , xn+m )
an+m − an
≤ (an + · · · + an+m−1 ) d(x0 , x1 ) = d(x0 , x1 )
a−1
an an
= (1 − am ) d(x0 , x1 ) ≤ d(x0 , x1 ) < 0,
1−a 1−a
25
La desigualdad triangular dice que ∀ x, y, z ∈ E, d(x, y) ≤ d(x, z) + d(z, y).
7.6. OTROS RESULTADOS SOBRE EXISTENCIA Y UNICIDAD 279

si, fijado 0, tomamos un n suficientemente grande. Por tanto, {xn } es


una sucesión de Cauchy en E. Como el espacio E es, por hipótesis,
completo, esa sucesión de Cauchy tendrá un lı́mite en el espacio E,
que es el punto fijo x. Usando la continuidad de T (que se sigue de
la Proposición 4), vemos que

T (x) = T ( lim xn ) = lim T (xn ) = lim xn+1 = x. (7.6.3)


n→∞ n→∞ n→∞

b) Demostración de la unicidad del punto fijo: si hubiera dos puntos


fijos x e y tendrı́amos que

d(x, y) = d(T (x), T (y)) ≤ a d(x, y). (7.6.4)

Pero como a < 1, la única posibilidad para que se verifique lo anterior


es que d(x, y) = 0, y como d es una distancia se sigue que x = y.

Usando este teorema que acabamos de demostrar se puede probar el


Teorema 10 (de Picard-Lindelöf )26 : consideremos el sistema de ecua-
ciones diferenciales
d"y
= f"(x, "y ), "y ! (x0 ) = "y0 , x0 ∈ [a, b], (7.6.5)
dx

siendo f" : [a, b] × Rn → Rn una función continua y lipschitziana en las


variables "y en todo su dominio de definición:

||f"(x, "y1 ) − f"(x, "y2 )|| ≤ k||"y1 − "y2 ||, ∀x ∈ [a, b], ∀"y1 , "y2 ∈ Rn . (7.6.6)

Existe entonces una única solución "y (x) que satisface la condición inicial
"y ! (x0 ) = "y0 y está definida en [a, b]. La demostración se efectúa probando
que la aplicación T definida como
1 x
T : "y (x) → (T "y )(x) = "y0 + f"(u, "y (u)) du (7.6.7)
x0

es contractiva y posee, por tanto, un punto fijo que será la única solución
del problema. (Observación: si n = 1 en lugar de un sistema tenemos
simplemente una ecuación.)
26
Ernst Leonard Lindelöf (1870–1946), matemático finlandés.
280 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Existen gran variedad de resultados diferentes de los comentados en las


hipótesis y en las restricciones que se imponen a la función f". Aunque los
expuestos no son los más potentes, sı́ son lo suficientemente generales y son
bastante sencillos para que puedan ser aplicados en la mayor parte de las
ocasiones.

Ejemplo 5: consideremos la ecuación diferencial y ! = x + y. Apliquemos


el método de Picard para hallar la solución que verifica y(x = 0) = 0. Se
trata de una ecuación lineal muy simple, cuya solución general se puede
hallar con facilidad, y es y(x) = C ex − x − 1; la solución particular con la
condición inicial especificada es y(x) = ex − x − 1. Veamos que se obtiene
al aplicar el método de Picard; en este caso f (x, y) = x + y, de modo que
la sucesión de funciones que tiende hacia la solución buscada se obtendrá
a partir de
1 x
y(x) = (u + y(u)) du,
0

en concreto
1 x
x2
y1 (x) = (u + 0) du = ;
0 2
1 x
u2 x2 x3
y2 (x) = (u + ) du = + ;
0 2 2 2·3
1 x
u2 u3 x2 x3 x4
y3 (x) = (u + + ) du = + + ;
0 2 3! 2! 3! 4!
... ... ... ...
1 x
u2 un x2 x3 xn+1
yn (x) = (u + + ··· + ) du = + + ··· .
0 2 n! 2! 3! (n + 1)!

En el lı́mite obtenemos obviamente:

x2 x3 xn
y(x) = lim yn (x) = + + ··· + · · · = ex − 1 − x,
n→∞ 2! 3! n!

que es precisamente la solución particular hallada anteriormente. Con este


ejemplo se ha pretendido mostrar que en determinadas ocasiones la apli-
cación directa del método de Picard permite hallar la solución del problema
que se está estudiando.
7.7. BIBLIOGRAFÍA 281

7.7 Bibliografı́a
1. Burkill, J. C., and Burkill, H., A Second Course in Mathematical Analysis,
Cambridge University Press, 1970.
2. Coddington, E.A., and y Levinson, N., Theory of Ordinary Differential
Equations, TMH, 1985.
3. Elsgoltz, L., Ecuaciones diferenciales y cálculo variacional , MIR, 1969.
4. Ince, E.L., Ordinary Differential Equations, Dover, 1956.
5. Novo, S., Obaya, R. y Rojo, J., Ecuaciones y sistemas diferenciales, Edito-
rial AC, 1992.
6. Pérez-Gómez, A., Apuntes de Ecuaciones diferenciales, Valladolid 1968 (no
publicados).
Capı́tulo 8

SISTEMAS Y
ECUACIONES
DIFERENCIALES
LINEALES

8.1 Introducción

Tras haber estudiado las ecuaciones diferenciales de primer orden, vamos


ahora a proceder al análisis de los sistemas de n ecuaciones diferenciales
lineales de primer orden, y también de las ecuaciones diferenciales lineales
de orden n. En un capı́tulo posterior analizaremos los sistemas no linea-
les. Aunque unos y otros aparecen con mucha frecuencia en los problemas
que aparecen al estudiar diversos sistemas mecánicos, eléctricos, biológicos,
etc., son sobre todo los lineales los que se utilizan de forma rutinaria en
las aplicaciones cientı́ficas. Podrı́amos preguntarnos por qué aparecen tan
frecuentemente; el motivo es, esencialmente, que al plantear un problema
se suelen hacer un cierto número de simplificaciones de manera que éste
sea abordable (pero no se pueden hacer demasiadas, o de lo contrario la
solución no tendrá mucho que ver con la “realidad”). Pues bien, en la
mayor parte de los casos, las simplificaciones que se efectúan tienden a li-
nealizar el problema, es decir, se procede de modo tal que las ecuaciones
que describen el sistema que se estudia sean lineales (y esto se hace porque

283
284 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

la solución de estos sistemas o ecuaciones lineales es relativamente sencilla,


ya que se requiere únicamente la aplicación de técnicas de álgebra lineal).
La notación habitual para el estudio de estos sistemas, y que nosotros
adoptaremos también, consiste en denominar t a la variable independien-
te (que en muchas aplicaciones será precisamente una variable tempo-
ral) y xk (t) a las funciones incógnitas. Además, denotaremos con letras
mayúsculas en negrita a las matrices y para los vectores usaremos la no-
tación "v .

8.2 Sistemas lineales homogéneos

Consideremos un conjunto de n funciones de la variable real t

x1 (t), x2 (t), . . . , xn (t)

que satisfacen un sistema de ecuaciones diferenciales del siguiente tipo

x!1 (t) = a11 (t) x1 (t) + a12 (t) x2 (t) + · · · + a1n (t) xn (t),
x!2 (t) = a21 (t) x1 (t) + a22 (t) x2 (t) + · · · + a2n (t) xn (t), (8.2.1)
.. .. ..
. . .
x!n (t) = an1 (t) x1 (t) + an2 (t) x2 (t) + · · · + ann (t) xn (t),

donde la prima significa derivación con respecto a la variable t. Las fun-


ciones aij (t) se suponen conocidas, y nuestro problema es obtener las n
funciones xi (t). Vamos a admitir que todas estas funciones son reales de
variable real. Un estudio similar puede hacerse en el caso de que las fun-
ciones, tanto datos como incógnitas, fueran complejas de variable real t,
siendo sus resultados totalmente análogos. Trabajamos en el caso real so-
lamente por simplicidad en la notación.
El sistema de ecuaciones (8.2.1) puede escribirse más elegantemente en
forma vectorial. Ası́, si "x(t) es el vector columna cuyas componentes son las
funciones incógnita xi (t), escritas en orden correlativo y A(t) es la matriz
n × n cuyos elementos vienen dados por aij (t), el sistema (8.2.1) se puede
escribir en forma compacta como

"x ! (t) = A(t) "x(t), (8.2.2)


8.2. SISTEMAS LINEALES HOMOGÉNEOS 285

o más explı́citamente:
 !    
x1 (t) a11 (t) · · · a1n (t) x1 (t)
 ..   .. .. ..   .. 
 . = . . .  . . (8.2.3)
xn (t)
! an1 (t) · · · ann (t) xn (t)

Recordemos que, por definición, la derivada con respecto a t de una matriz


cuyos elementos son funciones derivables de t es la matriz que se obtiene
derivando los elementos de matriz.
A un sistema de ecuaciones diferenciales como el dado por (8.2.1), (8.2.2)
u (8.2.3) se le denomina lineal homogéneo. Una forma aún más general de
un sistema homogéneo es H(t) "x ! (t) = A(t) "x(t). Si la matriz H(t) es inver-
tible se reduce al caso (8.2.2). Si la matriz H(t) no es invertible, entonces
las n variables de "x(t) no son independientes y existen ligaduras algebraicas
entre ellas, como se muestra a continuación con un ejemplo.

Ejemplo 1: consideremos el siguiente sistema de coeficientes variables


H(t) "x ! (t) = A(t) "x(t), en el cual det H(t) = 0:
$ %$ ! % $ %$ %
t 1 x1 0 t x1
= .
t2 t x!2 t 1 x2

En forma desarrollada:

tx!1 + x!2 = tx2 ; t2 x!1 + tx!2 = tx1 + x2 .

Multiplicando la primera ecuación por t y restándole la segunda, resulta


que
t2 x2 = tx1 + x2 ⇒ x1 = (t − 1/t)x2 ,
y vemos que las dos variables x1 y x2 no son independientes. Eliminando
la variable x1 de cualquiera de las dos ecuaciones diferenciales de partida,
encontramos la solución para x2 , que a su vez nos permite obtener x1 . Los
resultados finales son los siguientes
2 2)
x1 = C (t − 1/t) e1/(2t ) , x2 = C e1/(2t

Como vemos, aparece una única constante de integración.

Volviendo al sistema homogéneo en cualquiera de sus formas (8.2.1),


"
(8.2.2) u (8.2.3), notemos que si ψ(t) "
y φ(t) son dos soluciones del mismo,
286 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

cualquier combinación lineal de ellas es también una solución. Por tanto,


el conjunto de las soluciones del sistema (8.2.1), cuando existan, forman un
espacio vectorial.
Ofrecemos a continuación un teorema de existencia y unicidad de las
soluciones de un sistema como el que estamos considerando1 .

Teorema 1: si todas las funciones aij (t) del sistema (8.2.1) están definidas
y son continuas en un cierto intervalo I ⊂ R, entonces, dados τ ∈ I y un
vector ξ" T = (a1 , a2 , . . . , an ) ∈ Rn (aquı́ ξ" T = (ξ1 , ξ2 , . . . , ξn ) es el vector fila
que se obtiene por transposición del vector columna ξ" ), existe una única
solución "x(t) del sistema definida en todo el intervalo I y tal que "x(τ ) = ξ. "
El teorema tiene dos consecuencias inmediatas:

i) Si una solución "x(t) del sistema verifica "x(t0 ) = "0 para un cierto
t0 ∈ I, entonces "x(t) es igual a "0 para todo valor de t. El motivo es
que la solución "x(t) coincide con la solución idénticamente nula del
sistema para t = t0 , y por el teorema anterior deben de coincidir.

ii) Si dos soluciones "x1 (t) y "x2 (t) coinciden en un cierto t0 ∈ I, han de
coincidir en todo I. En efecto, la diferencia "x1 (t) − "x2 (t) es solución
del sistema y se anula en t0 , de modo que por el comentario precedente
ha de ser "x1 (t) − "x2 (t) = "0, ∀t ∈ I.

Proposición 1: si aij ∈ C 0 (I), i, j = 1, . . . n, el conjunto de las soluciones


del sistema (8.2.1) forma un espacio vectorial de dimensión n.
Demostración. Ya se indicó que el conjunto de soluciones forma un es-
pacio vectorial (real). Vamos a probar que su dimensión es exactamente
n.

a) Probemos en primer lugar que hay al menos n soluciones linealmente


independientes. Para ello, escojamos en Rn , n vectores linealmente
independientes: ξ"1 , ξ"2 , . . . , ξ"n , y tomemos τ ∈ I. Por el teorema 1
sabemos que existen n soluciones del sistema, φ " 1 (t), φ
" 2 (t), . . . , φ
" n (t),
" " " " " "
tales que φ1 (τ ) = ξ1 , φ2 (τ ) = ξ2 , . . . , φn (τ ) = ξn . Veamos que estas
1
Su demostración puede estudiarse en el libro de Coddington y Levinson citado en la
bibliografı́a. Como se comenta en la sección 7.6, el teorema es una consecuencia directa
del teorema de Picard-Lindelöf, presentado al final del capı́tulo anterior
8.2. SISTEMAS LINEALES HOMOGÉNEOS 287

soluciones son linealmente independientes: si existiera una combi-


nación lineal del tipo
n
&
" k (t) = "0,
ck φ ∀ t ∈ I,
k=1

S
pondrı́amos t = τ , quedando nk=1 ck ξ"k = "0. Como, por hipótesis,
los vectores ξ"i son linealmente independientes, resulta que

c1 = c2 = . . . cn = 0,

probando la independencia lineal de las soluciones.

b) El espacio de soluciones tiene, al menos, dimensión n. Mostremos


que esta dimensión es exactamente igual a n. Sea ψ(t) " una solución
arbitraria de (8.2.1). Su valor en el punto τ es igual a ψ(τ " ). Este es
un vector de Rn , y por lo tanto podremos ponerle como combinación
lineal de los vectores de una base de Rn . Pero una base de este tipo
es la formada por los vectores ξ"1 , ξ"2 , . . . , ξ"n . Por lo tanto, podremos
escribir:

" ) = λ1 ξ"1 + λ2 ξ"2 + · · · + λn ξ"n = λ1 φ


ψ(τ " 1 (τ ) + λ2 φ
" 2 (τ ) + · · · + λn φ
" n (τ ).

Consideremos ahora la función λ1 φ" 1 (t) + λ2 φ


" 2 (t) + · · · + λn φ
" n (t), que
es una combinación lineal de soluciones y, por tanto, es una solución.
"
Coincide con ψ(t) en el punto t = τ , de modo que ambas soluciones
deben de coincidir en I. Es decir,

ψ(t) " 1 (t) + λ2 φ


" = λ1 φ " 2 (t) + · · · + λn φ
" n (t) ∀ t ∈ I.

Vemos que cualquier solución puede ponerse como combinación lineal


de las mismas n soluciones. De aquı́ que sea justamente n la dimensión
del espacio2 .

Definición 1: diremos que una matriz Φ(t) de dimensiones n × n es una


matriz solución de (8.2.1) si cada una de sus columnas es un vector solución
2
Es interesante darse cuenta que esta demostración se generaliza de manera inmediata
al caso complejo. Insistimos que ello sucede con todos los resultados del presente capı́tulo.
288 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

del sistema (8.2.1). Como sus columnas verifican el sistema, ella habrá de
verificar la ecuación del mismo en forma matricial, es decir:

Φ! (t) = A(t) Φ(t), t ∈ I. (8.2.4)

Proposición 2: si existe un punto de I para el cual el determinante de


Φ(t) es distinto de cero, entonces este determinante es distinto de cero para
todo valor de t ∈ I. Recı́procamente, si este determinante se anula en un
punto, se anula para todo t ∈ I.
Demostración. Si el determinante se anula en un punto, eso significa que,
en ese punto, una de las columnas es una combinación lineal de las demás.
Como las columnas de esta matriz son soluciones del sistema, resulta que
esta combinación lineal se mantendrá para todo valor de t ∈ I. De aquı́
que el determinante sea siempre cero, ya que sus columnas son linealmente
dependientes.
Supongamos ahora que el determinante es distinto de cero en un punto
t0 ∈ I. Si fuese igual a cero en otro punto t! ∈ I, eso significarı́a que serı́a
igual a cero en todos los puntos del intervalo I, y en particular en t0 . Por
lo tanto, ha de ser distinto de cero en todos los puntos de I.

Definición 2: diremos que una matriz solución es una matriz fundamental


cuando su determinante es distinto de cero. Es evidente que una matriz
fundamental es una matriz n×n cuyas columnas son soluciones linealmente
independientes del sistema (8.2.1).

Proposición 3: si C es una matriz constante e invertible (det C != 0)


n×n y Φ(t) es una matriz fundamental del sistema (8.2.1), entonces Φ(t)C
es también una matriz fundamental del sistema. Si Φ1 (t) y Φ2 (t) son
matrices fundamentales, existe una matriz constante e invertible C tal que
Φ2 = Φ1 C.
Demostración. Si Φ(t) una matriz fundamental, satisface la ecuación
(8.2.4), que multiplicada por la derecha por C resulta

(Φ(t)C)! = Φ! (t)C = A(t)(Φ(t)C),

por lo cual Φ(t)C es una matriz solución. Pero

det(Φ(t)C) = det(Φ(t)) det C != 0,


8.3. SISTEMAS LINEALES NO HOMOGÉNEOS 289

y por consiguiente Φ(t)C es una matriz fundamental.


La segunda parte de esta Proposición se demuestra como sigue: sean
Φ1 (t) y Φ2 (t) dos matrices fundamentales y sea Ψ(t) = Φ−1 1 (t)Φ2 (t), es
decir, Φ2 (t) = Φ1 (t)Ψ(t). Derivando esta última igualdad con respecto a
t, se obtiene: Φ!2 (t) = Φ!1 (t)Ψ(t) + Φ1 (t)Ψ! (t), de donde

Φ!2 (t) = A(t)Φ2 (t) = A(t)Φ1 (t)Ψ(t) + Φ1 (t)Ψ! (t)

= A(t)Φ2 (t) + Φ1 (t)Ψ! (t), (8.2.5)

es decir, Φ1 (t)Ψ! (t) = O, la matriz idénticamente nula, lo que implica


Ψ! (t) = O, ya que Φ1 (t) es invertible, con lo cual resulta Ψ(t) = C, matriz
constante e invertible por ser C = Ψ(t) = Φ−1 1 (t)Φ2 (t).

8.3 Sistemas lineales no homogéneos

Consideremos ahora el siguiente sistema de n ecuaciones diferenciales:

x!1 (t) = a11 (t) x1 (t) + a12 (t) x2 (t) + · · · + a1n (t) xn (t) + b1 (t),
x!2 (t) = a21 (t) x1 (t) + a22 (t) x2 (t) + · · · + a2n (t) xn (t) + b2 (t),
··· ··· ···
x!n (t) = an1 (t) x1 (t) + an2 (t) x2 (t) + · · · + ann (t) xn (t) + bn (t),

donde tanto las funciones aij (t) como las bi (t) son conocidas y están defi-
nidas en un cierto intervalo I ⊂ R. Le llamaremos un sistema lineal no
homogéneo y puede ser escrito también en forma vectorial:

"x ! (t) = A(t)"x(t) + "b(t), (8.3.1)

donde "b es el vector columna cuyas componentes son las funciones bi (t).
Para este tipo de sistemas también puede probarse el siguiente teorema de
existencia y unicidad (que no demostraremos).

Teorema 2: consideremos el sistema (8.3.1) y supongamos que tanto las


funciones aij (t) como las bi (t) son todas ellas continuas en un cierto inter-
valo I. Entonces, fijados τ ∈ I y ξ" ∈ Rn , existe una única solución "x(t) al
"
sistema tal que "x(τ ) = ξ.
290 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Proposición 4: sea Φ(t) una matriz fundamental del sistema lineal ho-
" h (t) una solución del mismo verificando
mogéneo "x ! (t) = A(t) "x(t) y sea φ
" " "
la condición inicial φh (τ ) = ξ. La solución φ(t) del sistema lineal no ho-
mogéneo "x (t) = A(t)"x(t) + "b(t) verificando φ(τ
! " ) = ξ" es:
1 t
" "
φ(t) = φh (t) + Φ(t) Φ−1 (s) "b(s) ds. (8.3.2)
τ

L
Demostración. En primer lugar veamos que ψ(t) " = Φ(t) t Φ−1 (s)"b(s) ds
τ
es la solución del sistema no homogéneo que cumple ψ(τ " ) = "0. Para ello
"
derivemos esta ψ(t):
1 t
" ! −1 "
ψ (t) = Φ(t) {Φ (t) b(t)} + Φ(t) !
Φ−1 (s) "b(s) ds
τ
1 t
= "b(t) + A(t) Φ(t) Φ−1 (s) "b(s) ds = "b(t) + A(t) ψ(t).
"
τ

"
Luego ψ(t) es una solución. Tomando t = τ resulta
1 τ
" ) = Φ(t)
ψ(τ Φ−1 (s)"b(s) ds = "0.
τ

Por tanto se comprueba inmediatamente que φ(t) " = φ "


" h (t) + ψ(t) es una
solución del sistema lineal no homogéneo que satisface la condición inicial
pedida.
Para los sistemas lineales arbitrarios (con coeficientes variables en gene-
ral) poco más se puede decir. Existe un tipo particular de sistemas lineales
muy importante que son aquellos que tienen los coeficientes constantes,
y vamos a centrarnos en ellos a continuación. Pero antes de comenzar
su estudio detallado vamos a repasar brevemente algunos resultados sobre
formas canónicas de matrices.

8.4 Teorema de Jordan

Vamos a exponer a continuación un resultado muy importante de álgebra


lineal, conocido con el nombre de teorema de Jordan3 , que tiene aplicación
3
Marie Ennemond Camille Jordan (1838–1922), matemático francés conocido por sus
trabajos en análisis y teorı́a de grupos.
8.4. TEOREMA DE JORDAN 291

en multitud de situaciones, y veremos que desempeña un papel importante


al resolver los sistemas de ecuaciones lineales. Nosotros no ofreceremos
aquı́ la prueba de este teorema, pero para ver una demostración pueden
consultarse algunos de los libros indicados en la bibliografı́a.
Definición 3: sean A y B dos matrices n × n complejas. Diremos que son
similares o semejantes si existe una matriz S invertible tal que

A = S−1 B S. (8.4.1)

La relación de semejanza entre matrices es una relación de equivalencia.


Teorema 3 (de Jordan): toda matriz n × n compleja A es similar a una
matriz de la forma
   
J1 λi 1
 . 
λi . .
 J2   
   ,
J= .  , donde Ji =  . (8.4.2)
 . .  . 
 . 1 
Jp λi

siendo Ji matrices de dimensión ni ×ni y λi los autovalores o valores propios


de J. Los elementos de matriz que no aparecen son nulos. Obviamente

n = n1 + n2 + · · · + np .

Llamaremos a la matriz J la forma canónica de Jordan de la matriz A.


Las matrices Ji son llamadas las cajas o bloques de Jordan de esta forma
conónica. Un autovalor λi puede aparecer en una o varias cajas. Llamare-
mos multiplicidad de un autovalor λi al número de veces que aparezca en la
forma de Jordan. Una matriz es diagonalizable si y sólo si todas sus cajas
tienen dimensión uno. En particular, toda matriz simétrica real es diago-
nalizable y sus autovalores son reales (la matriz S en este caso es ortogonal,
es decir, verifica S ST = I, donde ST es la traspuesta de la matriz S, e I
es la matriz identidad). Es muy sencillo verificar las siguientes relaciones
para el determinante y la traza de la matriz:
p
# p
&
det A = (λi )
mi
= det J ; tr A = mi λi = tr J, (8.4.3)
i=1 i=1

donde mi es la multiplicidad del autovalor λi .


292 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

La estructura de cada una de las cajas es Ji = λi Ii + Ni , donde


 
  0 0 1
0 1  .. .. .. 
 .. ..  
 . . . 

 . .   .. .. 
Ni = 
 ..
,
 N2i =  . . 1  , etc.
 . 1   
 .. 
0  . 0 
0
(8.4.4)
Vemos que la matriz Ji , de dimensiones ni × ni , es la suma del autovalor λi
por la matriz identidad ni × ni más esta matriz Ni , que tiene la propiedad
llamada nilpotencia: existe un natural k tal que Nki es la matriz nula. Si
convenimos en que el grado de nilpotencia de una matriz es el mı́nimo nú-
mero natural tal que, elevada la matriz a este número, se anula, resultará
entonces que el grado de nilpotencia de Ni es justamente ni , es decir, su
dimensión. También concluimos que la propia matriz de Jordan J admite
una descomposición como suma de una matriz diagonal y otra nilpotente.
El grado de nilpotencia de esta última coincide con la dimensión de la mayor
de las cajas.
Vamos ahora a trabajar con una idea que es esencial en el estudio de
los sistemas lineales de coeficientes constantes. Este tipo de sistemas son
los únicos que pueden resolverse completamente en todos los casos, y por
eso merecen una atención especial.

Definición 4: sea A una matriz n × n, se define su exponencial mediante


la siguiente fórmula:


& ∞
&
Am Am
eA = I + ≡ , (8.4.5)
m! m!
m=1 m=0

donde la serie converge en el sentido de la norma de las matrices, que


pasamos a comentar.

Ejemplo 2: en algunas ocasiones se puede calcular la exponencial de forma


sencilla; sea
$ % $ %
0 2 2 0
A= ; A =
2
= 2I; A3 = 2A; A4 = 22 I; . . .
1 0 0 2
8.4. TEOREMA DE JORDAN 293

Por tanto se tiene para la serie de la exponencial de A:


9 √ :
2 2 22 22 √ sinh 2
eA = I + A + I + A + I + A + · · · = (cosh 2)I + √ A,
2! 3! 4! 5! 2

es decir  √ √ √ 
cosh 2 2 sinh 2
eA =  √ √ .
sinh
√ 2
2
cosh 2

El conjunto de las matrices complejas n × n forman un espacio vectorial


complejo de dimensión n2 . Lo mismo sucede si las matrices son reales; en
este caso el espacio vectorial de las matrices n × n es real de dimensión
n2 . En este espacio vectorial todas las normas son equivalentes en el sen-
tido de que nos proporcionan la misma topologı́a. Entonces, en principio,
podrı́amos escoger cualquiera de ellas. Por razones que luego se compren-
derán fácilmente, nos interesa elegir una norma que verifique la propiedad
||A B|| ≤ ||A|| ||B||, cosa que no todas las normas satisfacen. Sı́ la cumple
la siguiente:
||A|| = sup ||A "x||. (8.4.6)
||*
x||=1

Ahora vamos a demostrar el siguiente resultado:

Proposición 5: la serie dada en (8.4.5) es convergente en el espacio vec-


torial de las matrices (en el cual la suma de matrices y el producto por
escalares se define de la manera usual).

Demostración. Para probarlo consideremos la siguiente sucesión:

N
& An
SN = .
n!
n=0

Si consiguiéramos demostrar que es una sucesión de Cauchy en el espacio


de las matrices, puesto que dicho espacio es normado de dimensión finita (y
por lo tanto completo), entonces habrı́amos demostrado que que la sucesión
de las SN tiene un lı́mite dentro del espacio. Este lı́mite será una matriz
n × n que llamaremos exponencial de A, por analogı́a con los números
complejos. Veamos que la sucesión SN es en efecto de Cauchy. Sea 0 > 0 y
294 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

sean M > N suficientemente avanzados:


22 22
22&M
An & An 2222
N M
& ||An ||
M
& ||A||n
22
||SM − SN || = 22 − 22 ≤ ≤ < 0.
22 n! n! 22 n! n!
n=0 n=0 n=N +1 n=N +1
(8.4.7)
La primera de estas desigualdades es consecuencia de la desigualdad trian-
gular de las normas. La segunda lo es de que hemos escogido una norma
verificando la propiedad ||A B|| ≤ ||A|| ||B||. La última suma en (8.4.7) es
el resto de la exponencial e||A|| , cuyo desarrollo en serie conocemos bien.
Proposición 6: si las matrices A y B son similares, sus respectivas expo-
nenciales también lo son.
En efecto, si A = S−1 B S:

& ∞
&
(S−1 B S)n −1 Bn
e =
A
=S S = S−1 eB S. (8.4.8)
n! n!
n=0 n=0

Nótese que el producto S−1 B S S−1 B S · · · S−1 B S con n veces el mismo


factor S−1 B S es igual a S−1 Bn S. Además, de (8.4.8) se sigue un resultado
bastante útil que probaremos a continuación.
La propiedad que acabamos de demostrar es fundamental para hallar
la exponencial de matrices no triviales, ya que para las matrices en forma
de Jordan el cálculo de la exponencial es mucho más sencillo. Veamos a
continuación un ejemplo de lo que acabamos de comentar.

Ejemplo 3: vamos a determinar la exponencial de la matriz A del Ejemplo


2 usando la Proposición 6 (en este caso los cálculos van a ser más compli-
cados que los efectuados en el mencionado ejemplo, pero el procedimiento
que vamos a usar es válido en general, mientras que no siempre es posible
evaluar de forma directa la exponencial). En primer lugar determinamos
la forma de Jordan de A, calculando sus autovalores:
2 2
2 −λ 2 2 √
2 2
2 1 −λ 2 = 0 ⇒ λ = ± 2.

Como aparecen dos autovalores diferentes, la matriz será diagonalizable.


Calculamos los vectores propios asociados a cada valor propio, y resulta lo
siguiente
$ % $ %
√ 2 √ 2
λ+ = + 2 : "v+ = √ , λ− = − 2 : "v− = √ .
2 − 2
8.4. TEOREMA DE JORDAN 295

Con estos vectores propios formamos la matriz invertible P que nos sirve
para establecer semejanza:
$ % $ √ %
2 2 −1 1 2 2
P= √ √ , P = √ √ .
2 − 2 4 2 2 −2
Se comprueba fácilmente que el producto P−1 AP nos da la forma de Jordan
de la matriz A, que en este caso es puramente diagonal y llamaremos D:
$ √ %
2 0
D= √ .
0 − 2
Por tanto, usando (8.4.8) se llega a que
$ % 9 √2 :$ √ %
1 2 2 0
e =Pe P = √
A D −1 √ √ e √ √2 2 ,
4 2 2 − 2 0 e− 2 2 −2

y efectuando los productos de estas matrices se obtiene el mismo resultado


que en el Ejemplo 2.

Proposición 7: se verifica que det eA = etr A .


Demostración.
a) Supongamos primero que la matriz A esté escrita en su forma canónica
de Jordan J. Entonces
     2 
I1 J1 J1
 ..   ..  1  .. 
eJ =  . + . +  .  + ···
2!
Ip Jp Jp
2

 
I1 + J1 + 12 J21 + . . .

=  .. 
. 
Ip + Jp + 12 J2p + . . .
 
eJ1

=  .. 
. .
eJp
Calculemos ahora las exponenciales en cada una de las cajas, teniendo en
cuenta que Ji = λi Ii + Ni , y que las matrices Ii , Ni conmutan:
eJi = eλi Ii +Ni = eλi Ii eNi ;
296 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

1 2 1
eλi Ii = Ii + λi Ii + λi Ii + · · · + λni Ii + · · · = eλi Ii ;
2! n!
1 1
eNi = Ii + Ni + N2i + · · · + Nni −1 .
2! (ni − 1)! i

De esto se sigue que eJi es una matriz triangular del siguiente tipo:
 1 λi 1 
eλi eλi 2! e ... (ni −1)! eλi
 
 0 eλi eλi ... 1
(ni −2)!eλi 
 .
 ... ... ... ... ... 
 
0 0 0 ... eλi

Con estas cajas calculamos la matriz eJ . Por todo lo comentado, vemos que
se trata de una matriz triangular superior, cuyos elementos en la diagonal
principal son exactamente

eλ1 , .n.1., eλ1 , . . . , eλp , .n.p., eλp ,

cuyo producto es exactamente etr J .


b) Si A no estuviera escrita en forma de Jordan, sabemos que debe de
existir una matriz S tal que A = S−1 JS. Entonces

det eA = det eJ = etr J = etr A ,

pues, al ser la traza invariante frente a la permutación circular de sus ar-


gumentos4 , se tiene que tr A = tr {S−1 JS} = tr {S S−1 J} = tr J.

8.5 Sistemas lineales de coeficientes constantes

Vamos a estudiar ahora los sistemas lineales, homogéneos o no, para los
cuales la matriz A es independiente de t. Para el caso homogéneo, el teo-
rema de existencia y unicidad nos asegura que, en este caso, las soluciones
están definidas para todo valor t ∈ R. Estudiaremos separadamente las dos
situaciones.
4
Es decir: tr {A1 A2 · · · An } = tr {An A1 A2 · · · An−1 } = tr {An−1 An A1 A2 · · · An−2 },
etc.
8.5. SISTEMAS LINEALES DE COEFICIENTES CONSTANTES 297

8.5.1 Caso homogéneo: "x! (t) = A "x(t)

Teorema 4: en el caso de un sistema homogéneo de coeficientes constantes,


una matriz fundamental del sistema viene dada por Φ(t) = et A para todo
"
t ∈ R. La solución φ(t) " ) = ξ"
de (8.2.1) verificando la condición inicial φ(τ
es
" = e(t−τ ) A ξ.
φ(t) " (8.5.1)

Demostración.
a) Probemos en primer lugar que et A es realmente una matriz solución del
sistema. Para ello es preciso comprobar que

d tA
e = A et A = et A A.
dt

Como A y B son dos matrices que conmutan, se verifica5 :

eA+B = eA eB .

Es evidente que las matrices t A y τ A conmutan, de modo que

e(t+τ ) A − et A eτ A − I eτ A − I t A
= etA = e .
τ τ τ

Tomando lı́mites en ambos miembros y usando la definición de derivada:


/ 0 / 0
d tA eτ A − I eτ A − I
e = et A lim = lim et A ,
dt τ →0 τ τ →0 τ

pudiendo conjeturar que


/ 0
eτ A − I
lim = A. (8.5.2)
τ →0 τ

Demostrar (8.5.2) no es complicado. Recordemos que todo lı́mite en el


espacio vectorial de las matrices cuadradas n × n debe de tomarse con res-
pecto a la topologı́a generada por cualquiera de sus normas. Usaremos aquı́
la norma (8.4.6) por poseer la propiedad adicional que hemos comentado.
5
Téngase en cuenta que, en general, eA+B %= eA eB .
298 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Escribamos
22 τ A 22 2222 ∞ k k 2222 ∞
22 e − I 22 22 1 & A τ 22 1 & ||Ak || |τ |k
22 − A 22 = 22 2 2 ≤
22 τ 22 22 τ k! 22 |τ | k!
k=2 k=2

1 ; ||A|| |τ | <

&
1 ||A||k |τ |k
≤ = e − 1 − ||A|| |τ |
|τ | k! |τ |
k=2

e||A|| |τ | − 1 τ →0
= − ||A|| −→ 0,
|τ |

lo cual prueba (8.5.2). De esta manera resulta que et A es una matriz


solución, ya que satisface la ecuación del sistema.
b) Veamos a continuación que et A es también una matriz fundamental.
Para ello calculemos su determinante: det et A = et tr A != 0. Ahora pode-
mos probar fácilmente que (8.5.1) es una solución del sistema: para ello
derivemos (8.5.1) teniendo en cuenta que para derivar productos de ma-
trices procedemos como con el producto ordinario de funciones. De esta
manera:
" ! (t) = A e(t−τ ) A ξ" = A φ(t).
φ "

Queda por demostrar que (8.5.1) satisface la condición inicial, lo cual es


" ) = e0 ξ" = I ξ" = ξ.
trivial, ya que: φ(τ "

Ejemplo 4: en relación con los Ejemplos 2 y 3, vamos a hallar la solución


general del sistema
$ %
! 0 2
"x (t) = A "x(t), con A= .
1 0

Ya hemos comentado que la solución viene dada en términos de la expo-


nencial de la matriz A, evaluada anteriormente, de modo que
 √ √ √  
cosh 2 t 2 sinh 2 t C1
"x(t) = etA ξ" =  √ √  ,
sinh

2
2 t
cosh 2 t C2

siendo C1 y C2 dos constantes arbitrarias, que pueden determinarse si se


fijan unas condiciones iniciales para el problema.
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 299

8.5.2 Caso no homogéneo: "x! (t) = A "x(t) + "b(t)

Las soluciones de este sistema existirán en el intervalo I de continuidad


de las componentes del vector "b(t). La solución del sistema que cumple la
" ) = ξ" será, según (8.3.2):
condición inicial φ(τ
1 t 1 t
"
φ(t) = e (t−τ )A "
ξ+e tA
e−sA "
b(s) ds = e(t−τ )A "
ξ+ e(t−s)A"b(s) ds.
τ τ

Tanto en el caso homogéneo como en el no homogéneo, lo que hay que


hacer es, esencialmente, evaluar la exponencial de la matriz A. Para hacer
esto se recurre, como ya se ha comentado, a la Proposición 6 (8.4.8) y se
calcula la exponencial de la forma de Jordan J asociada a la matriz, tal
como se hizo en la demostración de la Proposición 7. Este procedimiento
casi siempre es mucho más fácil que el cálculo directo de la exponencial
de A, pero requiere, eso sı́, calcular previamente la forma de Jordan de la
matriz con la que trabajamos.

8.6 Ecuaciones lineales homogéneas de orden n

Sean ai (t), a2 (t), . . . , an (t), n funciones definidas y continuas en un inter-


valo I de la recta real. Vamos a suponer que estas funciones son reales,
aunque la generalización al campo complejo no conlleva problema alguno.
Consideremos ahora la siguiente ecuación diferencial:
dn dn−1
n
y(t) + a1 (t) n−1 y(t) + · · · + an (t) y(t) = 0. (8.6.1)
dt dt
A veces se representa esta ecuación diferencial que verifica y(t) como la
acción del operador diferencial
dn dn−1
Ln = + a 1 (t) + · · · + an (t) = 0
dtn dtn−1
sobre la función: Ln y(t) = 0. La anterior es una ecuación lineal homogénea
y de orden n. Tiene la interesante propiedad de que cualquier combinación
lineal de soluciones es también una solución, por consiguiente, el conjunto
de sus soluciones forma un espacio vectorial.
Vamos a asociar a la ecuación diferencial (8.6.1) un sistema lineal ho-
mogéneo de orden n. Para ello definamos las siguientes funciones:
x1 (t) = y(t), x2 (t) = y ! (t), . . . , xn (t) = y (n−1) (t).
300 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Al derivarlas obtenemos el siguiente sistema lineal de ecuaciones diferen-


ciales de primer orden:

x!1 (t) = x2 (t),


x!2 (t) = x3 (t),
... ...
x!n (t) = −a1 (t)xn (t) − a2 (t)xn−1 (t) − · · · − an (t)x1 (t),

es decir, "x ! (t) = M(t) "x(t) con


 
0 1 0 ··· 0
 0 0 1 ··· 0 
 
M= .. .. .. .. .. . (8.6.2)
 . . . . . 
−an (t) −an−1 (t) −an−2 (t) · · · −a1 (t)

Gracias a esta transformación, vamos a ser capaces de obtener un teorema


de existencia y unicidad de soluciones para este tipo de ecuaciones diferen-
ciales. Para ello hemos de tener en cuenta lo siguiente:
a) Si y(t) es una solución de la ecuación Ln y(t) = 0, entonces
 
y(t)
 
 y ! (t) 
" =
φ(t) 


 .. 
 . 
y (n−1) (t)

es una solución del sistema. La demostración consiste simplemente en llevar


"
esta φ(t) al sistema y comprobar que se verifica idénticamente.
b) Recı́procamente, si  
x1 (t)
 
 x2 (t) 
" =
φ(t)  .


 .. 
 
xn (t)
es una solución del sistema asociado a la ecuación diferencial, veamos que
"
x1 (t) es una solución de la ecuación diferencial. Llevando φ(t) al sistema,
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 301

obtenemos:
   
x!1 (t) x1 (t)
 !   
 x2 (t)   x2 (t) 
"
" ! (t) = M(t) φ(t)    
φ =⇒  .  = M(t)  . ,
 ..   .. 
   
x!n (t) xn (t)

o lo que es lo mismo:

x!1 (t) = x2 (t) ⇒ x2 (t) = x!1 (t),


x!2 (t) = x3 (t) ⇒ x3 (t) = x!2 (t) = x!!1 (t),
... ... ... (8.6.3)
(n−1)
x!n−1 (t) = xn (t) ⇒ xn (t) = x!n−1 (t) = x1 (t),
x!n (t) = −an (t) x1 (t) − . . . − a1 (t) xn (t).

La última expresión puede ponerse como:


(n) (n−1)
x1 (t) + a1 (t)x1 (t) + . . . + an (t)x1 (t) = 0.

Esto nos demuestra que x1 (t) es una solución de la ecuación diferencial.


Pero además comprobamos, sin más que echar un vistazo al conjunto de
" son las derivadas
las ecuaciones (8.6.3), que las demás componentes de φ(t)
sucesivas de x1 (t) hasta el orden n − 1.
Teorema 5: supongamos que las funciones ai (t), i = 1, 2, . . . , n son todas
continuas en un cierto intervalo de la recta real I. Fijados τ ∈ I y ξ" ∈ Rn ,
existe una única solución de la ecuación (8.6.1), y(t), con la condición inicial
siguiente: y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn .
Demostración. Consideremos el sistema asociado a la ecuación diferen-
cial. Sabemos que existe una única solución del mismo
 
y1 (t)
 
 y2 (t) 
" = 
φ(t)  . 
 .. 
 
yn (t)
302 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

" ) = ξ,
que verifica φ(τ " es decir, y1 (τ ) = ξ1 , y2 (τ ) = ξ2 , . . . , yn (τ ) = ξn . Pero
(n−1)
y1 (t) es una solución de la ecuación e y2 (t) = y1! (t), . . . , yn (t) = y1 (t),
con lo que existe una solución de (8.6.1) verificando
(n−1)
y1 (τ ) = ξ1 , y1! (τ ) = y2 (τ ) = ξ2 , . . . , y1 (τ ) = yn (τ ) = ξn .

Veamos que esta solución es única con estas condiciones iniciales. Si hubiera
otra h(t) verificando h(τ ) = ξ1 , . . . , h(n−1) (τ ) = ξn , entonces el vector
 
h(t)
 
 h! (t) 
" =
ψ(t) 


 .. 
 . 
h (n−1) (t)

"
serı́a una solución del sistema asociado verificando ψ(t) " Pero esta
= ξ.
" = φ(t)
solución es única, lo que implica que ψ(t) " ⇒ y1 (t) = h(t) ∀ t ∈ I.

Definición 5: sean y1 (t), y2 (t), . . . , yn (t), n funciones definidas en el mismo


intervalo I de la recta real y de clase C n−1 (I). Por wronskiano 6 de estas n
funciones entendemos el siguiente determinante:
2 2
2 y1 (t) y2 (t) · · · yn (t) 2
2 2
2 ! (t) ! (t) ! (t) 2
2 y 1 y 2 · · · yn 2
2 2
W (y1 , y2 , . . . , yn )(t) = 2 .. 2. (8.6.4)
2 ··· ··· . ··· 2
2 2
2 (n−1) 2
2 y (n−1)
(t) y2
(n−1)
· · · yn (t) 2
1

Teorema 6: la condición necesaria y suficiente para que n soluciones


y1 , y2 , . . . , yn de la ecuación diferencial Ln y(t) = 0 sean linealmente in-
dependientes es que
W (y1 , y2 , . . . , yn )(t) != 0.

Demostración. Observemos que la matriz cuyo determinante nos da el


wronskiano de n soluciones de la ecuación diferencial, es una matriz solución
del sistema asociado, por lo que dicho wronskiano, o bien se anula en todos
los puntos del intervalo I, o bien no se anula en ninguno.
6
Jósef Maria Hoëné de Wronski (1776–1853), matemático y mı́stico polaco.
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 303

i) Supongamos que el wronskiano sea distinto de cero. Entonces las


columnas de su matriz
   
y1 (t) yn (t)
   
 y1! (t)   yn! (t) 
φ" 1 (t) = 


, ... " n (t) = 
φ 

 (8.6.5)
 ..   .. 
 .   . 
(n−1) (n−1)
y1 (t) yn (t)

son linealmente independientes.


Sn Construyamos una combinación lineal
de las funciones yi (t), α y
i=1 i i (t) = 0. Derivando k veces obtenemos
Sn (k)
i=1 αi yi (t) = 0, para k = 1, 2, . . . , n − 1. Esto implica que
n
&
" i (t) = "0.
αi φ
i=1

" i (t) resulta que α1 = α2 = . . . = αn = 0,


Por la independencia lineal de los φ
lo que demuestra la independencia lineal de las funciones yi (t).
ii) Supongamos ahora que las funciones yi (t) son linealmente indepen-
dientes. A partir de ellas construiremos las soluciones (8.6.5) del sistema
asociado. Escribamos la siguiente combinación lineal de esos vectores:
" 1 (t) + α2 φ
α1 φ " 2 (t) + . . . αn φ
" n (t) = "0.

La primera componente de esta combinación lineal es

α1 y1 (t) + α2 y2 (t) + . . . + αn yn (t) = 0.

Como las yi (t) son linealmente independientes resulta que

α1 = α2 = . . . = αn = 0,

lo que significa que los vectores φ " 2 (t), . . . , φ


" 1 (t), φ " n (t) son linealmente inde-
pendientes. Estos vectores forman las columnas del wronskiano

W (y1 , y2 , . . . , yn )(t),

el cual será, por lo tanto, distinto de cero.


Corolario: el espacio vectorial de las soluciones de la ecuación Ln y(t) = 0
tiene dimensión n.
304 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Demostración. Sea y(t) una solución de la ecuación Ln y(t) = 0 y sea ψ(t) "
la correspondiente solución del sistema asociado. Sabemos que ψ(t) " es una
combinación lineal de n soluciones del sistema, linealmente independientes:
"
ψ(t) " 1 (t) + α2 φ
= α1 φ " 2 (t) + . . . + αn φ
" n (t). Esta es una igualdad entre
vectores que debe de verificarse componente a componente. La igualdad de
las primeras componentes nos da

y(t) = α1 y1 (t) + α2 y2 (t) + . . . + αn yn (t).

Las soluciones de la ecuación, y1 (t), y2 (t), . . . , yn (t) son linealmente inde-


pendientes ya que, al serlo φ " 2 (t), . . . , φ
" 1 (t), φ " n (t), el correspondiente wrons-
kiano es distinto de cero. Pero entonces cada solución de la ecuación puede
ponerse como una combinación lineal de exactamente n soluciones lineal-
mente independientes, como querı́amos demostrar.

8.7 Ecuación lineal no homogénea de orden n

Estas ecuaciones son de la forma


dn dn−1
y(t) + a1 (t) y(t) + . . . + an (t) y(t) = b(t), (8.7.1)
dtn dtn−1
donde a1 (t), . . . an (t), b(t) son funciones de la variable real t, la cual está
definida en un cierto intervalo I ⊂ R. Esta ecuación puede escribirse en
forma abreviada Ln y(t) = b(t), y su sistema asociado se construye de la
misma manera que en el caso homogéneo. La única diferencia consiste en
que ahora el sistema asociado es
 
0
 0 
! " "  
"x (t) = M(t)"x(t) + b(t) con b(t) =  .  . (8.7.2)
 .. 
b(t)

La forma de la matriz M(t) es exactamente igual a la que tiene en el caso


homogéneo (8.6.2). También aquı́ hay una correspondencia biunı́voca entre
las soluciones de la ecuación y las del sistema asociado. La relación que
existe entre ambas es exactamente la misma que en el caso homogéneo:
el primer elemento de la matriz columna que representa una solución del
sistema es una solución de la ecuación y, dada una solución de la ecuación,
8.7. ECUACIÓN LINEAL NO HOMOGÉNEA DE ORDEN N 305

la correspondiente solución del sistema es el vector columna cuyas compo-


nentes son las derivadas de la solución de la ecuación, escritas en orden
correlativo desde la derivada de orden cero hasta la de orden n − 1.
Es idéntico también el teorema de existencia y unicidad de soluciones:
si todas las funciones a1 (t), . . . an (t), b(t) son continuas en I entonces dados
el vector ξ"T = (ξ1 , ξ2 , . . . , ξn ) y τ ∈ I, existe una única solución y(t) de la
ecuación, definida en I y que verifica la condición inicial

y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn .

Este resultado es una consecuencia directa del teorema 1. En efecto, si


a1 (t), . . . , an (t) y b(t) son continuas en I, también lo son los elementos de
matriz en el sistema (8.7.2); por el teorema 1 el sistema (8.7.2) admite una
única solución
     
y(t) y(τ ) ξ1
     
 y ! (t)   y ! (τ )   ξ2 
     
 ..  con la condición inicial  ..  =  . .
 .   .   . 
     . 
y (n−1) (t) y (n−1) (τ ) ξn

Contamos también con un teorema que nos permite hallar dicha solución,
y que probaremos a continuación.
Teorema 7: la solución general de (8.7.1) viene dada como la suma de
la solución general de la ecuación homogénea más una solución particular
de la no homogénea. Para ser más precisos, si y1 (t), y2 (t), . . . , yn (t) es una
base del espacio de soluciones de la ecuación diferencial Ln y(t) = 0, la
solución, y(t), de la ecuación no homogénea Ln y(t) = b(t) que verifica
y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn , viene dada por
n !
& 1 t$ % "
Wk (y1 , y2 , . . . , yn )(s)
y(t) = yh (t) + yk (t) b(s) ds , (8.7.3)
τ W (y1 , y2 , . . . , yn )(s)
k=1

donde yh (t) es la solución de L!n , y(t) = 0 con


(n−1)
yh (τ ) = ξ1 , yh! (τ ) = ξ2 , . . . , yh (τ ) = ξn

y Wk (y1 , y2 , . . . , yn )(s) es el determinante que se obtiene reemplazando la


columna k-ésima en W (y1 , y2 , . . . , yn )(s) por (0, 0, . . . , 1)T . Recordemos
306 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

que (0, 0, . . . , 1)T es justamente el vector columna transpuesto del vector


(0, 0, . . . , 1); utilizamos esta notación simplemente para ahorrar espacio.
Observación: la forma que adopta la solución particular es realmente
enrevesada. En la Sección 8.9 detallaremos dos métodos más eficaces para
calcular las soluciones particulares.
Demostración. Consideremos la ecuación Ln y(t) = b(t) y sea + x$ (t) = M(t) +x(t) + +b(t)
su sistema asociado. La solución de la ecuación, y(t), que verifica la condición inicial
y(τ ) = ξ1 , y $ (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn
se obtiene hallando la solución del sistema asociado:
   
y(t) ξ1
   
 y $ (t)   ξ2 
+ =
φ(t) 

 que cumple + )=
φ(τ 
 +
 = ξ.
 ..   .. 
 .   . 
y (n−1) (t) ξn
Esta solución puede ponerse como
1 t
+ =φ
φ(t) + h (t) + Φ(t) Φ−1 (s) +b(s) ds,
τ

+ h (t) la solución del sistema +


siendo φ x$ (t) = M(t) + + h (τ ) = ξ.
x(t) con la condición inicial φ +

Para demostrar el teorema, bastará calcular la primera componente de la igualdad


vectorial (8.7.3). Como +b(s) tiene todas sus componentes nulas salvo la última, el ele-
mento relevante de Φ(t) Φ−1 (s) = B(t, s) = {bij (t, s)} es bin (t, s). De esta manera,
escribiendo la primera componente de (8.7.3) y recordando que b(s) es la función en el
término inhomogéneo de la ecuación, obtenemos
1 t
y(t) = yh (t) + b1n (t, s) b(s) ds.
τ

Calculemos b1n (t, s). Como Φ(t) es una matriz fundamental arbitraria del sistema ho-
x$ (t) = M(t) +
mogéneo + x(t), tendrá la forma siguiente:
 
y1 (t) y2 (t) ... yn (t)
 y1$ (t) y2$ (t) ... yn$ (t) 
 
 
Φ(t) =  .. .. .. ,
 
 . . ... . 
(n−1) (n−1) (n−1)
y1 (t) y2 (t) ... yn (t)
donde y1 (t), y2 (t), . . . , yn (t) son n soluciones linealmente independientes de la ecuación
homogénea Ln y(t) = 0. Evaluemos Φ−1 (s):
 
α11 α12 ... α1n
 
1  α21 α22 ... α2n 
Φ−1 (s) = 

,
det Φ(s)  ... ... ... ... 

αn1 αn2 ... αnn
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 307

donde:
2 2
2 y1 ... yi−1 yi+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. 2
2 . . . . . . 2
2 2
2 (j−2) (j−2) (j−2) (j−2) 2
2 y ... yi−1 yi+1 ... yn 2
2 1 2
αij = (−1)i+j aji ; aji =2 2.
2 y (j) ...
(j)
yi−1
(j)
yi+1 ...
(j)
yn 2
2 1 2
2 2
2 .. .. .. .. .. .. 2
2 . . . . . . 2
2 2
2 (n−1) (n−1) (n−1) (n−1)
2
2 y ... yi−1 yi+1 ... yn 2
1

Ahora bien, como


 
última
 
 columna 
b1n (t, s) = (primera fila de Φ(t)) 

,
 (8.7.4)
 de 
Φ−1 (s)

llevando a (8.7.4) los resultados anteriores se obtiene


n
& & n
αkn (s) (−1)k+n ank (s)
b1n (s, t) = yk (t) = yk (t) , (8.7.5)
det Φ(s) W (y1 , y2 , . . . , yn )(s)
k=1 k=1

con
2 2
2 y1 ... yk−1 yk+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. 2
(−1)k+n ank (s) = (−1)k+n 2 . . . . . . 2
2 2
2 (n−2) (n−2) (n−2) (n−2)
2
2 y ... yk−1 yk+1 ... yn 2
1

2 2
2 y1 ... yk−1 0 yk+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. .. 2
=2 . . . . . . . 2 = Wk (y1 , y2 , . . . , yn ). (8.7.6)
2 2
2 (n−1) (n−2) (n−2) (n−1)
2
2 y ... yk−1 1 yk+1 ... yn 2
1

De esta manera, obtenemos (8.7.3), a través de (8.7.5) y (8.7.6).

8.8 Ecuaciones lineales de orden n con coeficientes


constantes

Son ecuaciones del tipo siguiente

dn dn−1
y(t) + a1 y(t) + . . . + an y(t) = b(t), (8.8.1)
dtn dtn−1
308 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

siendo a1 , . . . an constantes reales. Como ya hemos indicado en la sección


8.6, la resolución de una ecuación de este estilo puede relacionarse como la
del sistema de ecuaciones diferenciales asociado a ella. No obstante, por la
frecuencia con la que aparecen este tipo de ecuaciones, es conveniente dar
explı́citamente los resultados para ellas. Aquı́ se ofrecerán estos resultados
sin demostrarlos, pero sı́ queremos indicar que la justificación de lo que se
expone a continuación es una consecuencia del análisis del sistema lineal
asociado. Consideraremos en primer lugar el caso homogéneo y luego el no
homogéneo.

8.8.1 Caso homogéneo: b(t) = 0

Fijémonos en que la solución ha de ser tal que sus derivadas sucesivas


multiplicadas por ciertas constantes y sumadas han de dar cero. Existe
una función que se acomoda a estas propiedades: la exponencial. Por este
motivo buscamos soluciones del tipo y(t) = eλ t , siendo λ la incógnita7 .
Sustituyendo en la ecuación tenemos:

(λn + a1 λn−1 + · · · + an−1 λ + an ) eλ t = 0,

como eλ t != 0, habrá de verificarse la siguiente ecuación algebraica de orden


n:
λn + a1 λn−1 + · · · + an−1 λ + an = 0. (8.8.2)
Esta es exactamente la ecuación caracterı́stica que saldrı́a de considerar el
determinante det(A − λ I) = 0, siendo A la matriz del sistema asociado.
Las raı́ces de este polinomio caracterı́stico serán

(λ1 , m1 ), (λ2 , m2 ), . . . (λp , mp ); m1 + m2 + · · · + mp = n.

Los números naturales mk son las multiplicidades de las raı́ces λk . Se


presentan diversos casos:

a) Si λk tiene mk = 1, entonces la solución asociada es simplemente

yλk (t) = Ck eλk t , (8.8.3)

con Ck una constante arbitraria.


7
Otra manera de convencerse de que las funciones exponenciales son realmente rele-
vantes en este caso es recordar la forma que presenta la solución de un sistema lineal de
coeficientes constantes, tras desarrollar la exponencial etA .
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 309

b) Si λk tiene mk ≥ 1, entonces la solución asociada es

yλk (t) = (Ck,0 +Ck,1 t+Ck,2 t2 +· · ·+Ck,mk −1 tmk −1 ) eλk t = pk (t) eλk t ,

siendo pk (t) un polinomio de grado mk − 1, con mk coeficientes arbi-


trarios. Observemos que el caso a) está incluido aquı́ como un caso
particular (mk = 1).

La solución general de la ecuación será

y(t) = (C1,0 + C1,1 t + C1,2 t2 + · · · + C1,m1 −1 tm1 −1 ) eλ1 t


+(C2,0 + C2,1 t + C2,2 t2 + · · · + C2,m2 −1 tm2 −1 ) eλ2 t + · · ·
+(Cp,0 + Cp,1 t + Cp,2 t2 + · · · + Cp,mp −1 tmp −1 ) eλp t . (8.8.4)

Obsérvese que hay m1 + m2 + · · · + mp = n constantes arbitrarias, como


corresponde a la solución general de una ecuación de orden n.
En lo anterior estamos suponiendo que los coeficientes de la ecuación
diferencial son reales y por tanto nos interesan las soluciones reales. Si
todos los λk resultan ser reales no hay problema, ya que la solución es au-
tomáticamente real eligiendo las constantes Ci,j reales. Ahora bien, pudiera
haber alguna raı́z del polinomio caracterı́stico que fuera compleja. Vamos
a analizar esta posibilidad.
Supongamos que el polinomio caracterı́stico tiene una raı́z compleja
λ = a + b i, a, b ∈ R, con multiplicidad m. Como los coeficientes de la
ecuación caracterı́stica son reales, necesariamente admitirá otra solución
compleja, la conjugada de la anterior, λ̄ = a−b i con la misma multiplicidad.
Por tanto, la parte de la solución asociada a estas dos raı́ces se podrá escribir
como
yλ (t) = pm (t) e(a+ib) t + qm (t) e(a−ib) t ,
siendo pm (t) y qm (t) polinomios de grado (m − 1) en la variable t, cada
uno con m constantes arbitrarias, como ya se ha visto en (8.8.4). Pero esta
solución se puede reescribir como sigue:

yλ (t) = pm (t) ea t eib t + qm (t) ea t e−ib t


= ea t {pm (t)[cos b t + isen bt] + qm (t)[cos b t − isen bt]}
= {[pm (t) + qm (t)] cos b t + [i pm (t) − i qm (t)]sen bt} ea t ,
310 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

o bien
yλ (t) = (rm (t) cos b t + sm (t) sen bt) ea t , (8.8.5)
siendo rm (t) y sm (t) polinomios de grado (m − 1) como los anteriores, cada
uno con m constantes arbitrarias que podemos elegir reales para que la
solución lo sea también.
Si los coeficientes de la ecuación caracterı́stica fueran complejos, no
podrı́amos hacer esta transformación. No obstante, los casos a) y b) estu-
diados en esta sección serı́an válidos, con la única modificación de que ahora
habrı́amos de permitir soluciones complejas para la ecuación caracterı́stica.

Ejemplo 5: para determinar la solución general de la ecuación diferencial


y !!! (t)− 5y !! (t) + 8y ! (t)− 4y(t) = 0 se han de hallar en primer lugar las raı́ces
de su ecuación caracterı́stica λ3 − 5λ2 + 8λ − 4 = 0, que son λ = 1 y λ = 2
doble. Con esta información se determina la solución

y(t) = C1 et + (C2 + C3 t) e2t ,

siendo C1 , C2 , C3 constantes arbitrarias.


Ejemplo 6: para la ecuación y (iv) (t) + 2y !! (t) + y(t) = 0, las raı́ces del poli-
nomio caracterı́stico λ4 +2λ2 +1 = 0 son λ = ±i dobles. La solución general
se puede expresar en cualquiera de las dos formas equivalentes siguientes

y(t) = (C1 + C2 t)eit + (C3 + C4 t) e−it = (K1 + K2 t) cos t + (K3 + K4 t) sen t,

siendo C1 , C2 , C3 , C4 , K1 , K2 , K3 , K4 constantes arbitrarias.

8.8.2 Caso no homogéneo: b(t) != 0

Sabemos, por el teorema 7, que la solución general de la ecuación

dn dn−1
y(t) + a1 y(t) + . . . + an y(t) = b(t), (8.8.6)
dtn dtn−1
será la suma de la solución general de la ecuación diferencial homogénea
asociada, más una solución particular de la no homogénea. Hemos indicado
en el apartado anterior cómo calcular la solución general de la homogénea.
Para hallar la solución particular de la no homogénea contamos con dos
métodos que se describirán en la sección siguiente.
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 311

8.8.3 Ecuaciones de Cauchy o de Euler

Existe un tipo de ecuaciones diferenciales lineales con coeficientes varia-


bles, que suelen aparecer con frecuencia en las aplicaciones, y que tienen
la particularidad de que pueden convertirse en ecuaciones diferenciales de
coeficientes constantes, sin mas que efectuar un cambio en la variable in-
dependiente. Su forma general es la siguiente
a0 (at + b)n y (n) + a1 (at + b)n−1 y (n−1) + . . . + an−1 (at + b)y ! + an y = f (t)
y se denominan ecuaciones de Euler o de Cauchy. Observemos que el coe-
ficiente de la derivada k-ésima de la función incógnita es precisamente la
potencia k-ésima de (at + b). Pues bien, efectuando el cambio de variable
(at+b) = ez , obtenemos una ecuación diferencial de coeficientes constantes.

Ejemplo 7: vamos a hallar la solución general de la ecuación


2 !!! 1 1
y (iv) + y − 2 y !! + 3 y ! = 0,
x x x
que es de Euler o de Cauchy, como se comprueba sin más que multiplicar por
x4 la ecuación (en esta ocasión se ha llamado x a la variable independiente).
Efectuamos el cambio de variable x = ez y aplicamos la regla de la cadena
para obtener
$ 2 %
d 1 d d2 1 d d
= , = 2 − ,
dx x dz dx2 x dz 2 dz
$ %
d3 1 d3 d2 d
3
= 3 3
− 3 2
+2 , ,
dx x dz dz dz
$ %
d4 1 d4 d3 d2 d
4
= 4 4
− 6 3
+ 11 2
−6 , ,
dx x dz dz dz dz
lo que nos conduce a la ecuación diferencial lineal de coeficientes constantes
d4 w d3 w d2 w
− 4 + 4 = 0, w(z) ≡ y(x).
dz 4 dz 3 dz 2
El polinomio caracterı́stico de esta ecuación tiene dos raı́ces dobles, λ = 0
y λ = 2, por tanto, la solución es
w(z) = (C1 + C2 z) + (C3 + C4 z) e2z .
312 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Pero como hicimos el cambio z = ln x, tenemos finalmente

y(x) = (C1 + C2 ln x) + (C3 + C4 ln x) x2

= C1 + C3 x2 + C2 ln x + C4 x2 ln x.

8.9 A la búsqueda de soluciones particulares

Mostraremos a continuación dos procedimientos de gran utilidad para hallar


soluciones particulares de ecuaciones diferenciales lineales no homogéneas.
Se trata del método de los coeficientes indeterminados y del método de
variación de las constantes.

a) Método de los coeficientes indeterminados


La ventaja que presenta este método es que resulta bastante sencillo y
útil en la práctica. En general este procedimiento no es aplicable a
las ecuaciones de coeficientes variables (aunque en determinadas
ocasiones sı́ funciona). Para poder aplicarlo a las ecuaciones de coe-
ficientes constantes, se requiere que la función b(t) que aparece como
parte no homogénea sea una combinación lineal finita de productos
de funciones seno, coseno, exponenciales y polinomios, de manera que
al efectuar las derivadas sucesivas de b(t) lleguemos a un punto en el
que las funciones que van apareciendo se repiten y no aparecen nuevas
funciones.
Ası́ pues, supongamos que b(t) = c1 u1 (t) + c2 u2 (t) + · · · + cr ur (t), y
consideremos todas las derivadas diferentes de estas funciones uk (t):
(d1 )
u1 , u!1 , u!!1 , . . . , u1 ;
(d2 )
u2 , u!2 , u!!2 , . . . , u2 ;
··· ···
ur , u!r , u!!r , . . . , ur(dr ) .

La solución particular se busca como combinación lineal de todas


las funciones diferentes que hayan aparecido; los coeficientes de esta
combinación lineal se determinan imponiendo que se trate de una
solución de la ecuación lineal no homogénea.
8.9. A LA BÚSQUEDA DE SOLUCIONES PARTICULARES 313

Hay que tener en cuenta una salvedad: si una de la funciones uk (t)


que aparecen en b(t) es solución de la ecuación homogénea, correspon-
diendo a una raı́z con multiplicidad p, entonces en el procedimiento
anteriormente descrito en lugar de uk (t) y sus derivadas habrá que
intruducir tp uk (t) y sus derivadas; si en b(t) aparece tq uk (t), entonces
tomaremos como función de partida tp+q uk (t).

Ejemplo 8: consideremos la ecuación

y !! − 2y ! + 4y = t3 e2t .

El polinomio caracterı́stico tiene un raı́z doble λ = 2, dando lugar a


la solución de la ecuación homogénea

yh (t) = (C1 + C2 t) e2t .

Es evidente que el término no homogéneo de la ecuación diferencial


está asociado a la raı́z λ = 2, con un factor t3 (es decir, q = 3 en
la explicación precedente). Por tanto, hemos de buscar la solución
particular de la no homogénea como una combinación lineal de la
función t2+3 e2t y sus derivadas, es decir:

yp (t) = A t5 e2t + B t4 e2t + C t3 e2t + D t2 e2t + F t e2t + G e2t .

Derivando esta expresión y sustituyendo en la ecuación diferencial


inicial llegamos a un sistemas de ecuaciones algebraicas que ha de
permitir evaluar la solución particular (un detalle que permite reducir
cálculos es darse cuenta de lo siguiente: el término F t e2t + G e2t es
justamente la solución de la homogénea, por tanto podemos prescindir
de él al hallar la solución particular; si nos empeñamos en trabajar
con esta parte, al final del cálculo veremos que los coeficientes F y G
no se pueden determinar, deben ser libres). En este caso el sistema
es particularmente sencillo:

20A = 1, 12B = 0, 6C = 0, 2D = 0,

de modo que la solución general del sistema lineal no homogéneo es


$ 5 %
t
y(t) = + C1 + C2 t e2t .
20
314 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

b) Método de variación de las constantes


Las limitaciones del procedimiento anterior son evidentes: si por ejem-
plo b(t) = ln t, al hacer las derivadas sucesivas, estas no se repiten
nunca y nos encontrarı́amos ante una infinidad de términos. En estos
casos podemos aplicar otro método que describimos a continuación.
El método se denomina variación de las constantes por razones ob-
vias: lo que se hace es tomar la solución de la ecuación homogénea
asociada, que contiene n constantes arbitrarias Ck , y suponer que,
permitiéndolas ser funciones de t, Ck (t), nos van a generar la solución
de la no homogénea. Mostremos con un ejemplo cómo funciona este
procedimiento: elijamos una ecuación diferencial lineal de segundo
orden con coeficientes variables

y !! + a1 (t) y + a2 (t) y = b(t). (8.9.1)

Sean y1 (t) e y2 (t) dos soluciones linealmente independientes de la


ecuación homogénea y !! + a1 (t) y + a2 (t) y = 0. Su solución general
será
y(t) = C1 y1 (t) + C2 y2 (t).
Sustituimos las constantes C1 y C2 por dos funciones de t que habrá
que determinar, llamémoslas v1 (t) y v2 (t), y tendremos la función

y(t) = v1 (t) y1 (t) + v2 (t) y2 (t),

a la que imponemos que sea solución de (8.9.1). Nótese que hemos


introducido dos funciones y de momento sólo hemos impuesto una
condición, de manera que tenemos aún una cierta libertad con la que
jugar. Al derivar la función y(t) tenemos lo siguiente:

y ! = v1! y1 + v2! y2 + v1 y1! + v2 y2! ;


y !! = v1!! y1 + 2v1! y1! + v1 y1!! + v2!! y2 + 2v2! y2! + v2 y2!! .

Llevando esto a (8.9.1), y tras una sencilla simplificación, resulta lo


siguiente:

(v1!! y1 + 2v1! y1! + v2!! y2 + 2v2! y2! ) + a1 (v1! y1 + v2! y2 ) = b(t),

o bien

[(v1! y1 + v2! y2 )! + v1! y1! + v2! y2! ] + a1 (v1! y1 + v2! y2 ) = b(t). (8.9.2)
8.9. A LA BÚSQUEDA DE SOLUCIONES PARTICULARES 315

Para evitar tener una derivada de orden dos en v1 (t) y v2 (t), hacemos
uso de la libertad que nos queda en la elección de estas funciones y
tomamos
v1! y1 + v2! y2 = 0, (8.9.3)
con lo cual (8.9.2) se reduce a

v1! y1! + v2! y2! = b(t). (8.9.4)

Entonces (8.9.3) y (8.9.4) forman un sistema de dos ecuaciones lineales


de primer orden con incógnitas v1 (t) y v2 (t) que podrá ser integrado
para hallar la solución del problema que estudiamos.
Si la ecuación es de primer orden, sólo habrá una función arbitraria y
no habrá libertad tras imponer la verificación de la ecuación diferen-
cial. Si la ecuación es de orden mayor que dos, tendremos aún más
grados de libertad, que deberemos usar sensatamente para simplificar
los cálculos. Para ser más precisos, si conocemos la solución general de
la ecuación homogénea asociada a (8.8.6) en términos de n funciones
linealmente independientes y1 (t), . . . , yn (t), dada en la forma

y(t) = C1 y1 (t) + · · · Cn yn (t), (8.9.5)

introducimos nuevas funciones v1 (t), . . . , vn (t) que habrá que deter-


minar de manera que

y(t) = v1 (t) y1 (t) + · · · + vn (t) yn (t), (8.9.6)

sea solución de (8.8.6). Si, de manera completamente análoga al caso


de la ecuación de segundo orden desarrollado anteriormente, se im-
pone a las n funciones desconocidas v1 (t), . . . , vn (t) el satisfacer el
siguiente sistema de ecuaciones diferenciales de primer orden

v1! y1 + · · · + vn! yn = 0,
v1! y1! + · · · + vn! yn! = 0,
v1! y1!! + · · · + vn! yn!! = 0, (8.9.7)
.. .. .. ..
. . . .
(n−1)
v1! y1 + · · · + vn! yn(n−1) = b(t),
316 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

entonces la función (8.9.6) es una solución de la ecuación no ho-


mogénea de orden n. Para determinar v1 (t), . . . , vn (t) del sistema
(8.9.7), primero hay que despejar las funciones v1! (t), . . . , vn! (t) (esto
puede resultar bastante tedioso si n > 3), pudiendo expresar los re-
sultados en términos de wronskianos de las funciones y1 (t), . . . , yn (t);
una vez hecho esto, ya sólo habrá que obtener v1 (t), . . . , vn (t) me-
diante cuadraturas. Si en estas cuadraturas (integrales) no incluimos
las constantes arbitrarias de integración, al sustituir en (8.9.6) obten-
dremos una solución particular de la ecuación (8.8.6); ahora bien, si
tenemos en cuenta las constantes de integración, entonces al sustituir
en (8.9.6) se obtendrá la solución general de la ecuación diferencial
(8.8.6).

Ejemplo 9: utilizaremos el procedimiento que acabamos de describir


para resolver la ecuación y !! + y = cot t. La solución de la ecuación
homogénea es muy sencilla

yh (t) = C1 cos t + C2 sen t.

Suponiendo ahora que la solución general se obtiene admitiendo que


en la solución precedente C1 (t) y C2 (t), y derivando llegamos a

y ! (t) = C1! cos t + C2! sen t − C1 sen t + C2 cos t,

donde imponemos la anulación de los términos que contienen deriva-


das de C1 (t) y C2 (t):

C1! cos t + C2! sen t = 0. (8.9.8)

Calculamos ahora la derivada segunda

y ! (t) = −C1! sen t − C1 cos t + C2! cos t − C2 sen t,

y sustituimos en la ecuación de partida, llegando a lo siguiente

−C1! sen t + C2! cos t = cot t. (8.9.9)

De las ecuaciones (8.9.8) y (8.9.9) es posible despejar las derivadas


de C1 (t) y C2 (t):

cos2 t
C1! (t) = − cos t, C2! (t) = .
sen t
8.10. REDUCCIÓN DEL ORDEN 317

Integrando estas dos ecuaciones obtenemos


$ %
t
C1 (t) = K1 − sen t, C2 (t) = K2 + cos t + ln tan ,
2
de modo que la solución general de la ecuación no homogénea es
! $ %"
t
y(t) = (K1 − sen t) cos t + K2 + cos t + ln tan sen t
2
$ %
t
= K1 cos t + K2 sen t + (sen t) ln tan .
2

8.10 Reducción del orden

Volvamos a la ecuación (8.6.1) en su forma más general Ln y(t) = 0.


Supongamos que hemos encontrado una solución de la misma, a la que
vamos a llamar yp (t): Ln yp (t) = 0. Efectuando el cambio de variable
dependiente
y(t) = u(t) yp (t) (8.10.1)
vamos a ser capaces de reducir el orden de (8.6.1) en una unidad. En
efecto, desarrollando Ln y(t) = Ln [u(t) yp (t)] = 0 obtenemos una ecuación
diferencial lineal de orden n con función incógnita u(t); en esta ecuación el
coeficiente del término sin derivada, u(t), ha de ser cero, ya que en virtud
de (8.10.1) al hacer u(t) ≡ 1 hemos de obtener la solución y(t) = yp (t). Ası́
pues, tendremos una ecuación del tipo

u(n) (t) + α1 (t) u(n−1) (t) + · · · αn−1 (t) u! (t) = 0.

Realizando ahora el cambio u! (t) = z(t) obtenemos una ecuación diferencial


de un orden menor en la variable z(t).

Ejemplo 10: dada la ecuación diferencial lineal de coeficientes variables

(1 − t2 ) y !! − 2t y ! + 2y = 0,

puede buscarse una solución particular en forma de monomio. En concreto,


y = t es solución, como fácilmente se puede comprobar. Si efectuamos el
cambio de función y(t) = t u(t) y llegamos a la ecuación

(1 − t2 )t u!! + 2(1 − 2t2 ) u! = 0,


318 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

que, como no tiene término en u(t), pasa a ser de primer orden tomando
u! (t) = z(t):
$ %
2 dz dz 1 t
(1 − t )t + 2(1 − 2t ) z = 0 ⇒
2
= −2 − dt,
dt z t 1 − t2
ecuación que se integra fácilmente:
C1 C1 C1 1 C1 1 du
z(t) = = 2 + + = ,
t2 (1−t )
2 t 2 1−t 2 1+t dt
de modo que la solución general buscada es
$ %
C1 C1 1+t
u(t) = C2 − + ln .
t 2 1−t

8.11 Problemas
1. En el circuito de la figura suponemos que el generador tiene una f.e.m.
ε = E sen wt, donde E y w son constantes. Si la resistencia y la capacidad
son constantes, calcúlese sin hacer uso de la transformada de Laplace la
intensidad como función del tiempo.

M1

R ε
g

ω
M2
C
Prob. 1 Prob.2 Prob. 3
2. Determı́nese usando el formalismo hamiltoniano,8 el movimiento del sistema
de dos masas que se muestra en la figura. Estas masas están cayendo en el
campo gravitatorio terrestre que supondremos constante. El muelle que las
une tiene constante de recuperación k. La distancia de equilibrio entre estas
masas es l.
8
Sir William Rowan Hamilton (1805–65), matemático irlandés que inventó una ex-
tensión de los números complejos, los cuaterniones.
8.11. PROBLEMAS 319

3. Un tubo delgado y hueco gira en un plano vertical alrededor de un eje


horizontal perpendicular a dicho plano como se muestra en la figura. La
velocidad de giro w es constante. Prescindimos de rozamientos. Estúdiese
el movimiento de una partı́cula de masa m en el interior del tubo.
4. Un objeto de masa constante m es proyectado verticalmente hacia arriba
con una velocidad inicial v0 en un medio que presenta una resistencia k|"v |,
donde k es una constante. Despreciando cambios en la fuerza gravitacional,
determı́nese la altura máxima xm alcanzada por el cuerpo y el tiempo in-
vertido. Estudiar el lı́mite k → 0.
5. Consideremos un foco luminoso colocado en el origen. Queremos averiguar
la forma que ha de tener un espejo para que todo rayo emitido por el foco
y que se refleje en el espejo salga paralelo a una dirección dada.
6. Encuéntrese la solución general de las siguientes ecuaciones diferenciales:
a) y %% + 2y % − 15y = 0.
b) y iv − 6y %%% + 12y %% − 8y % = 0.
c) y %%% − 5y %% + 3y % + 9y = 0.

7. Sean A y B dos matrices que conmutan. Pruébese que: eA+B = eA eB .


8. Sea A(t) una matriz n × k y B(t) una matriz k × m, cuyos elementos de
matriz son funciones derivables de la variable independiente t. Pruébese
que:
d
[A(t) · B(t)] = A% (t) · B(t) + A(t) · B% (t).
dt
9. Se considera una familia de n elementos radiactivos que sufren desintegra-
ciones según la siguiente ley: en un tiempo ∆t el elemento i–ésimo pierde
una fracción ki ∆t de su masa y recibe una fracción kij ∆t de la masa del
j–ésimo elemento.
a) Escrı́banse las ecuaciones de este sistema fı́sico.
b) Estudiése la existencia de configuraciones del sistema tales que los por-
centajes de cada constituyente permanezcan constantes, y véase a qué tipo
de problema conduce esta cuestión.
10. La propulsión de los cohetes se debe a la reacción del momento de los gases
expelidos por su cola. Como estos gases proceden de la reacción quı́mica de
los combustibles transportados por el cohete, la masa de éste disminuirá a
medida que vaya consumiéndose aquel. Encuéntrese la ecuación que nos da
el movimiento de un cohete proyectado verticalmente suponiendo el campo
gravitatorio uniforme y despreciando toda resistencia. Supóngase que la
pérdida de masa se efectua a ritmo constante y que también es constante
la velocidad con que son expulsados los gases desde el cohete. Intégrese la
ecuación obtenida para hallar v = v(m).
320 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

11. Resuélvanse los siguientes sistemas de ecuaciones diferenciales:


a) ẋ = 5x − 2y, ẏ = 4x − y.
b) ẋ = 5x − y, ẏ = 3x + y.
c) ẋ = x + 2y, ẏ = 3x + 2y.
d) ẋ = 2x + 3y, ẏ = −x − 2y.
e) ẋ = 3x + y, ẏ = 4x + 3y.
En todos los casos ż(t) ≡ z % (t); esta notación para las derivadas es frecuente
en Mecánica, cuando la variable independiente t representa el tiempo.
12. Resuélvanse los siguientes problemas de valores iniciales:

a) y %% − y % − 12y = 0, y(0) = 3, y % (0) = 5.


b) y %% + 4y % + 4y = 0, y(0) = 3, y % (0) = 7.
c) y %% + 6y % + 58y = 0, y(0) = −1, y % (0) = 5.
d) y %%% − 6y %% + 11y % − 6y = 0, y(0) = 0, y % (0) = 0, y %% (0) = 2.
e) y %%% − 2y %% + 4y % − 8y = 0, y(0) = 2, y % (0) = 0, y %% (0) = 0.
f ) y %%% − 3y %% + 4y = 0, y(0) = 1, y % (0) = −8, y %% (0) = −4.
g) y %%% − 5y %% + 9y % − 5y = 0, y(0) = 0, y % (0) = 1, y %% (0) = 6.

13. Resuélvanse los siguientes sistemas:


   
1 1 −1 1 −1 −1
d"x   d"x  
a) =  2 3 −4  "x, b) = 1 3 1  "x,
dt dt
4 1 −4 −3 1 −1
   
3 1 −1 1 −1 −1
d"x   d"x  
c) =  1 3 −1  "x, d) = 1 3 1  "x,
dt dt
3 3 −1 −3 −6 6
   
0 1 0 1 −2 4
d"x   d"x  
e) = 0 0 1  "x, f ) =  −2 3 0  "x.
dt dt
2 −5 4 4 0 2

14. Considérese el sistema lineal tẋ = a1 x + b1 y, tẏ = a2 x + b2 y, donde a1 ,


b1 , a2 y b2 son constantes reales. Demuéstrese que el cambio t = ew trans-
forma este sistema en otro lineal con coeficientes constantes. Aplı́quese esta
transformación para resolver los siguientes sistemas:

a) tẋ = x + y, tẏ = −3x + 5y. b) tẋ = 2x + 3y, tẏ = 2x + y.


8.11. PROBLEMAS 321

15. Hállese la solución general de los siguientes sistemas, donde D = dt :


d

a) (D2 + 4)x(t) + y(t) = sen 2 α,

(D2 + 1)y(t) − 2x(t) = cos2 α.

b) (D2 + D + 1)x(t) + (D2 + 1)y(t) = et ,

(D2 + D)x(t) + D2 y(t) = e−t .

16. Hállese la solución general de los siguientes sistemas:

a) ẋ = 5x + 2y + 5t, ẏ = 3x + 4y + 17t.

b) 2ẋ + ẏ + x + y = t2 + 4t, ẋ + ẏ + 2x + 2y = 2t2 − 2t.

c) 3ẋ + 2ẏ − x + y = t − 1, ẋ + ẏ − x = t + 2.

d) 2ẋ + 4ẏ + x − y = 3et , ẋ + ẏ + 2x + 2y = et .

e) 2ẋ + ẏ − x − y = −2t, ẋ + ẏ + x − y = t2 .

f) 2ẋ + ẏ − x − y = 1, ẋ + ẏ + 2x − y = t.

g) ẋ + ÿ = e2t , ẋ + ẏ − x − y = 0.

h) ẋ + ÿ + x − y = 1, ẋ + ẏ + x − y = 0.

i) −ẋ + ÿ = t + 1, ẋ + ẏ + x − 3y = 2t − 1.

j) 4ẋ + ÿ − 4x + y = 0, ẋ + ẏ + 9x − y = e2t .

17. Demuéstrese que dada una matriz n × n arbitraria A, se verifica:

det(eA ) = etrA .

18. Dar un ejemplo de una matriz B para la cual no exista ninguna otra matriz
A tal que B = eA .
 
0 0 0
 
 
19. Dada la matriz A =  1 0 0 , hállense: sen A, cos A y exp A.
 
0 1 0
20. Dar un método para el cálculo de una raı́z cuadrada de una matriz cualquiera
de M (n, C).
322 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

21. Encuéntrese una solución particular de las siguientes ecuaciones diferenciales


usando el método de variación de las constantes:

a) y %% + y = 1/ sen x; b) y %% − 4y % + 3y = (1 + e−x )−1 .

22. Encuéntrese una solución particular de las siguientes ecuaciones diferenciales


utilizando el método de los coeficientes indeterminados:

a) y %% + 2y = ex + 2; b) y %% − y = ex sen 2x.

23. Hállese la solución de los siguientes sistemas de ecuaciones diferenciales, con


las condiciones x1 (0) = x2 (0) = x3 (0) = 1. Téngase en cuenta que D = dt d
.

a) ẋ1 (t) = 2x2 (t) + x3 (t),


ẋ2 (t) = 2x1 (t) + x3 (t),
ẋ3 (t) = x1 (t) + x2 (t) + x3 (t).

b) (D − 1)x1 (t) + (D + 2)x2 (t) = 1 + et ,


(D + 2)x2 (t) + (D + 1)x3 (t) = 2 + et ,
(D − 1)x1 (t) + (D + 1)x3 (t) = 3 + et .

c) Dx1 (t) + (D + 1)x2 (t) = 1,


(D + 2)x1 (t) − (D − 1)x3 (t) = sen t,
(D + 1)x2 (t) + (D + 2)x3 (t) = et .

24. Encuéntrese una solución particular a las siguientes ecuaciones diferenciales:


a) 2y %% + 2y % + 3y = x2 + 2x − 1.
b) y %%% − 4y %% + 3y % = x2 .
c) y (iv) + 2y %%% − 3y %% = x2 + 3e2x + 4 sen x.
d) y %% − 4y = x2 e3x .
e) y %% + 2y % + 4y = ex sen 2x.
f) y %% + 3y % + 2y = x sen 2x.
g) y %% − 4y % + 4y = ex + xe2x .
h) y %% + 4y = sen 2x.
25. Resuélvanse las siguientes ecuaciones diferenciales:
a) x2 y %% − 3xy % + 4y = x + x2 ln x. b) (2x + 1)2 y %% − 2(2x + 1)y % − 12y = 6x.
8.11. PROBLEMAS 323

26. Transfórmese la ecuación

a0 xn y (n) + a1 xn−1 y (n−1) + . . . + an−1 xy % + an y = f (x),

llamada por algunos autores de Euler, y por otros de Cauchy, en una


ecuación lineal con coeficientes constantes haciendo el cambio x = ez . Há-
gase algo similar con la ecuación

a0 (ax + b)n y (n) + a1 (ax + b)n−1 y (n−1) + . . . + an−1 (ax + b)y % + an y = f (x)

mediante el cambio (ax + b) = ez .


27. Considérense los operadores

d
D= y F (D) = a0 Dn + a1 Dn−1 + . . . + an .
dt
La ecuación
a0 y (n) + a1 y (n−1) + . . . + an y = f (x)
puede escribirse en la forma F (D)y = f (x). Pruébese que
a) Si f (x) = eαx , entonces una solución particular de la ecuación viene dada
por y(x) = eαx /F (α) siempre que F (α) != 0.

F (α) = a0 αn + a1 αn−1 + . . . + an .

b) Si f (x) = sen (ax + b) ó f (x) = cos(ax + b) las soluciones particuales


respectivas tendrán la forma
1 1
y(x) = sen (ax + b), y(x) = cos(ax + b), F (−a2 ) != 0.
F (−a2 ) F (−a2 )

En este caso F (D) contiene únicamente potencias pares de D.


28. Encuéntrese la solución general de las siguientes ecuaciones diferenciales:

a) y %% − 4y % + 3y % = 1; b) y %% − 6y % + 9y = e2x ;

c) y (iv) − 4y %%% = 5; d) y %% + y % − 2y = 2(1 + x − x2 ).

29. Considérese la ecuación diferencial y %% + R(x)y % + S(x)y = 0. Pruébese que


a) y(x) = x es una solución particular si R + xS = 0.
b) y(x) = ex es una solución particular si 1 + R + S = 0.
c) y(x) = e−x es una solución particular si 1 − R + S = 0.
d) y(x) = emx es una solución particular si m2 + mR + S = 0.
324 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

30. Resuélvanse las siguientes ecuaciones diferenciales:


3 % 3
a) y %% − y + 2 y = 2x − 1.
x x
$ %
2 2
b) y %% − y % + 1 + 2 y = xex .
x x
3 4
c) y %% − (1 + 4ex )y % + 3e2x y = exp 2(x + ex ) .

31. Obténgase la solución de las siguientes sistemas:


     
3 0 0 0 1
d"x(t)  










a) = 0 1 5  "x(t) +  1 ; "x(0) =  0 .
dt      
0 −5 1 sen 5t 1
   
1 0 0 1
d"x(t)    
  
b) =  0 −1 6  "x(t); "x(1) =  1 .
dt    
0 −2 6 1
   
1 0 0 1
d"x(t)  






c) =  0 3 1  "x(t); "x(0) =  1 .
dt    
0 0 3 0
   2   
0 2 −3 t 0
d"x(t) 










d) =  0 −2 4  "x(t) −  0  ; "x(0) =  0 .
dt      
0 1 2 1 0
     
10 4 13 t 0
d"x(t)       
    
e) = 5 3 7  "x(t) +  0  ; "x(0) =  0 .
dt      
−9 −4 −12 0 1

32. Hállese una matriz tal que al exponenciarla nos de la del caso d) en el
problema anterior. Hállese otra cuyo cuadrado sea de nuevo la misma matriz
que aparece en d).
 
17 3 −6
d"x  


33. Resuélvase el sistema =  −4 0 2  "x.
dt  
28 5 −9
8.11. PROBLEMAS 325

L
34. Dada la matriz A(t), se considera la matriz B(t) = A(t)dt y se supone
que estas dos matrices conmutan para todo t. Demuéstrese que eB(t) es una
matriz fundamental del sistema "x% (t) = A(t)"x(t).
35. y (iv) − 3y %%% + 2y %% = 3e−x + 6e2x − 6x.
36. a) y %% + 4y = 12x2 − 16x cos 2x; b) y %% + y = x sen x.
37. y (iv) + 2y %%% − 3y %% = 18x2 + 16xex + 4e3x − 9.
38. Considérese la ecuación diferencial de orden n

p0 (x)y (n) + p1 (x)y (n−1) + . . . + pn−1 (x)y % + pn (x)y = 0.

Sean u1 (x), . . . , un (x) soluciones de la ecuación. El wronskiano del sistema


de soluciones se define ası́
2 2
2 u1 (x) ··· un (x) 2
2 2
2 2
2 u% 1 (x) ··· u n (x) 22
%
2
2 2
W [u1 , . . . , un ] ≡ W (x) = 2 .. .. 2.
2 2
2 . . 2
2 2
2 2
2 u(n−1) (x) . . . u(n−1) (x) 2
1 n

Demuéstrese que el wronskiano verifica: p0 (x)W % (x) + p1 (x)W (x) = 0.


39. Pruébese que si W (x0 ) != 0 para un cierto x0 ∈ (a, b) y si p0 (x) != 0,
∀x ∈ (a, b), entonces W (x) != 0, ∀x ∈ (a, b).
40. Si x1 (t) es solución de x%% + a(t)x% + b(t)x = 0, pruébese que una segunda
solución linealmente independiente es
1 t / 1 z 0 1 t
dz W [x1 (z), x2 (z)]
x2 (t) = x1 (t) exp − a(u)du = x1 (t) dz.
t0 x1 (z) x21 (z)
2
t0 t0

41. Sabiendo que sen x es una solución de y (iv) + 2y %%% + 6y %% + 2y % + 5y = 0,


hállese la solución general.
42. Consideremos la ecuación diferencial y % = a(x)y, donde a(x) es una función
de perı́odo T . Pruébese que la solución verifica y(x + T ) = ekT y(x). De-
termı́nese k.
43. Dado el sistema "x% (t) = A(t)"x(t), t ∈ R, donde A(t + T ) = A(t), ∀t ∈ R,
demuéstrese el teorema de Floquet9 (1883): toda matriz fundamental Ψ(t)
para el sistema periódico puede representarse en la forma Ψ(t) = B(t)etL ,
donde L es una matriz constante y B(t) es una matriz de perı́odo T .
9
Gaston Floquet (1847–1920), matemático francés.
326 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

44. Sean a(t), b(t) funciones de perı́odo T . Sean ψ1 (t), ψ2 (t) soluciones de la
ecuación x%% + a(t)x% + b(t)x = 0, con las condiciones ψ1 (0) = 1, ψ1% (0) = 0,
ψ2 (0) = 0, ψ2% (0) = 1. Pruébese que los multiplicadores son las soluciones
de la ecuación algebraica λ2 − Aλ + B = 0, siendo
) 1 *
T
A = ψ1 (T ) + ψ2% (T ) y B = exp − a(t)dt .
0

; xL + a(t)x<+ b(t)x = 0 el cambio de variable s = F (t),


45. Hágase en la ecuación %% %
t
siendo F % (t) = exp − 0 a(z)dz y t = G(s). Pruébese que ésto transforma
la ecuación en 2
d2 x b(t) 22
+ x(s) = 0.
ds2 (F % (t))2 2t=G(s)

46. Sean a, b constantes reales y p(t) una función real y continua de perı́odo T .
Consideremos la ecuación x%% + [a + bp(t)]x = 0. Sean ψ1 (t), ψ2 (t) como en
el problema anterior. Sea F (a, b) = ψ1 (T ) + ψ2% (T ). Pruébese que:
• Si −2 < F (a, b) < 2, los multiplicadores son complejos conjugados de
módulo unidad y toda solución está uniformemente acotada, ası́ como
su primera derivada, en (−∞, ∞).
• Si F (a, b) > 2 ó F (a, b) < −2, no existen soluciones uniformemente
acotadas en (−∞, ∞).
• Si F (a, b) = 2 hay al menos una solución de perı́odo T y si F (a, b) =
−2, hay al menos una solución de perı́odo 2T .
47. Obténgase la solución general de los sistemas asociados a las matrices:
   
1 −1 1 0 −1 0 1 0
   
 −1 0 1 0   0 0 2 1 
A=  1
. B = 
  1 2
.
 1 1 1   0 0  
0 0 1 −1 0 1 0 1

48. Resuélvase el sistema asociado a las matrices:


 
5 −1 1 1 0 0
 1  
 3 −1 −1 0 0 
 1 1 0 1
   
 0 0 4 0 1 1   1 −2 00 
   .
M=  . N = 
 0
 0 0 4 −1 −1 
  0 0 −1 −1 

 
 0 0 0 0 3 1  1 0 −1 1
0 0 0 0 1 3
8.11. PROBLEMAS 327

49. y (iv) − 5y %%% + 7y %% − 5y % + 6y = 5 sen x − 12 sen 2x.


50. y %% + 6y % + 13y = xe−3x sen 2x + 2xe−2x sen 3x.

51. y (iv) + 3y %%% + 4y %% + 3y % + y = 2xe−x + 3e−x/2 cos( 3x/2).
52. y (iv) − 16y = x2 sen 2x + x4 e2x .
53. y (iv) + 2y %% + y = x2 cos x.
54. y (vi) + 2y (v) + 5y (iv) = x3 + x2 e−x + e−x sen 2x.
√ √ √ √
55. y (iv) + 16y = xex 2 sen x 2 + e−x 2 cos x 2.
56. y (iv) + 3y %% − 4y = cos2 x − cosh x.
57. La ecuación de Schrödinger unidimensional independiente del tiempo, se
escribe
!2 d2 Ψ(x)
− + V (x)Ψ(x) = EΨ(x)
2m dx2
donde ! es la constante de Planck, m la masa, E un parámetro que identi-
ficamos con la energı́a y V el potencial. Resuélvase dicha ecuación cuando
)
0, si x < 0,
V (x) =
V0 , si x ≥ 0,

siendo V0 una constante. Considérense todos los posibles valores positivos


del parámetro E.
NOTA: El teorema de existencia y unicidad es válido para nuestra ecuación
aunque V (x) no es una función continua de x. Ciertamente, si V (x) fuera
continua el teorema serı́a válido, pero ésto es sólo una condición suficiente
para la validez del teorema. Realmente basta con que V (x) sea localmente
integrable, es decir, que su integral extendida a intervalos acotados sea finita.
58. Resuélvanse los siguientes problemas de valores iniciales:

a) x2 y %% − 2xy % − 10y = 0, y(1) = 5, y % (1) = 4.

b) x2 y %% − 5xy % + 8y = 2x3 , y(−2) = 1, y % (−2) = 7.

c) x2 y %% − 6y = ln x, (x > 0), y(1) = 1/6, y % (1) = −1/6.

d) (x + 2)2 y %% − (x + 2)y % − 3y = 0, y(0) = 1, y % (0) = 1.

e) (2x − 3)2 y %% − 6(2x − 3)y % + 12y = 0, y(0) = 1, y % (0) = 0.

59. ( sen 2 x)y %% − 2y % sen x cos x + (cos2 x + 1)y = sen 3 x.


60. y (iv) + y %% = 3x2 + 4 sen x − 2 cos x.
328 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

61. y %%% + 2y %% − 3y % − 10y = 8xe−2x .

62. x2 (x + 3)y %%% − 3x(x + 2)y %% + 6(1 + x)y % − 6y = 0.

63. (x2 + 1)y %% − 2xy % + 2y = 6(x2 + 1)2 .

64. y %% − 2y % + y = xex ln x, (x > 0).

65. y %% − 2y % + y = ln2 x, (x > 0).

66. y %% + 3y % + 2y = (1 + ex )−1 , (x > 0).

67. x2 y %% − x(x + 2)y % + (x + 2)y = x3 .

68. x(x − 2)y %% − (x2 − 2)y % + 2(x − 1)y = 3x2 (x − 2)2 ex .

69. (2x + 1)(x + 1)y %% + 2xy % − 2y = (2x + 1)2 .

70. y %% + y % = (1 + sen x)−1 .

71. Obténgase la solución general de los sistemas asociados a las matrices:


     
1 1 0 1 2 2 1 −3 9
     
     
A= 1 0 1 ; B =  2 0 3  ; C =  0 −5 18  .
     
0 1 1 2 3 0 0 −3 10

72. Encuéntrese la solución general de la ecuación y %% − 2y % + y = xex .

73. Hállese la solución del sistema lineal de segundo orden

"x%% = A "x,

siendo A una matriz constante.

74. Encuéntrese la solución general de la ecuación y %% − 2y % + y = xex .

75. Hállese la solución general de la ecuación

y %%% (x) − 5y %% (x) + 9y % (x) − 5y(x) = 0.

Hállese luego la solución que verifica

y(0) = 0, y % (0) = 1, y %% (0) = 6.

76. Hállese la solución de la ecuación y % + y − y 3 sen x = 0 que verifica y(0) = 2.


8.11. PROBLEMAS 329

77. Dada la ecuación

(2x + 1)(x + 1) y %% + 2x y % − 2y = (2x + 1)2 ,

se desea evaluar su solución general. Para ello se recomienda seguir los


siguientes pasos:
1.– Hallar la solución general de la homogénea, para lo cual es muy útil
encontrar primero una solución particular muy sencilla de la homogénea.
2.– Hallar a continuación la solución particular de la completa según uno de
los métodos tradicionales.
78. Hállese la solución general de la ecuación

y %% (x) + y % (x) − 2y(x) = 2(1 + x − x2 ).

79. Encuéntrese la solución general de la ecuación x2 y %% + 4xy % − 4y = sen(ln x).


80. Hállese la solución general de la ecuación diferencial:

y %% − ay % − a2 y = 0, a ∈ R.

Según los posibles valores del parámetro a, ¿qué soluciones están acotadas
cuando x → +∞?
81. Encuéntrese la solución general de la ecuación y %% + 2y % + y = ex sen 2x.
82. Utilizando el método matricial, determı́nese la solución general del sistema
$ % $ %$ %
d x 0 i x
= .
dt y −i 0 y

Observación: puede verificarse que la solución hallada es la correcta re-


solviendo el sistema de otra manera más directa y sencilla.
83. Hállese la solución de la ecuación diferencial

y (iv) − 16 y = e−x

que verifica las condiciones

y(0) = 0, lim y(x) = 0.


x→∞

84. Usando la transformación de Laplace, evalúese la solución de

d3 y(t)
+ y(t) = 0, y(0) = 1, y % (0) = −1, y %% (0) = 1; y(t < 0) = 0.
dt3
330 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

85. Hállese la solución general del sistema


    
x −2 −2 4 x
d 
y  =  −2 0 2  y .
dt
z −3 −2 5 z

Resuélvase el problema utilizando el método matricial, para lo cual habrá


que calcular la forma de Jordan de la matriz, etc. ¿Cuáles han de ser las
condiciones iniciales de modo que el vector solución tenga su norma acotada
para todo valor del parámetro t?
86. La evolución de un sistema fı́sico con el tiempo viene descrita por el sistema
de ecuaciones diferenciales:
    
x 1 2 2 x
d 
y  =  2 0 3  y .
dt
z 2 3 0 z

Hállese su solución general utilizando el método matricial, para lo cual habrá


que calcular la forma de Jordan de la matriz, etc.
Hállese la solución que para t = 0 toma el valor
   
x(0) 0
 y(0)  =  0  .
z(0) 1

Dése una solución para la cual las componentes del vector no divergen
cuando el tiempo va hacia infinito.
87. Considérese el siguiente sistema de ecuaciones diferenciales con coeficientes
variables
ẋ = (cos t)y , ẏ = (cos t)x.
Encuéntrese la solución que verifica la condición inicial x(0) = 1, y(0) = 0.
Para resolverlo se recomienda:
a) Escribir el sistema en forma matricial.
b) Efectuar una sencilla transformación de la variable independiente para
obtener un sistema de coeficientes constantes.
c) Resolver el sistema de coeficientes constantes anteriormente obtenido us-
ando el método matricial habitual, y no de otra forma.
d) Obtener finalmente la solución x(t), y(t) que verifica las condiciones ini-
ciales exigidas.
88. Hállese la solución general de la siguiente ecuación diferencial, comentando
los aspectos más relevantes del proceso de resolución:

y %% + 4y = 12x2 − 16x cos 2x.


8.11. PROBLEMAS 331

89. Encuéntrese la solución general de la ecuación diferencial:

y %% − 6y % + 9y = xe−3x .

De esa infinidad de soluciones, ¿cuáles están acotadas cuando x → +∞?


90. Encuéntrese la solución general de la ecuación
1 % 1
y %% − y + 3y = 0 .
x2 x

91. Considérese el siguiente sistema de ecuaciones diferenciales con coeficientes


variables:  
−2 2 1
d"x 
t = 0 −3 0  "x.
dt
−1 −2 −4

i) Transfórmese en un sistema con coeficientes constantes y resuélvase éste


haciendo uso de la forma de Jordan de la matriz.
ii) Éste es un paso intermedio para obtener la solución del sistema de coefi-
cientes variables, sujeto a la condición inicial
 
2
"x(t = 1) =  −1  .
−1

Para estar seguro de no haberse equivocado, es conveniente comprobar que la


solución obtenida verifica el sistema y cumple la condición inicial estipulada.
92. Encuéntrese la solución general del siguiente sistema, utilizando para ello la
forma canónica de Jordan de la matriz que aparece en el sistema:
   
2 1 6 1
d"x 
= 0 2 5  "x +  0  .
dt
0 0 2 0

93. Hállese la solución general del sistema


 
1 1 0
d"x 
= 1 0 1  "x.
dt
0 1 1

94. Encuéntrense todas las matrices B de dimensiones n × n y diagonalizables


tales que no exista ninguna matriz A que verifique B = eA .
95. Encuéntrese la solución general de la siguiente ecuación diferencial

y %% − 2y % + y = xex ln x, (x > 0).


332 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

96. Resuélvase el siguiente sistema: "x% (t) = A "x(t), donde


 
1 −1 −1
A= 1 3 1 .
−3 1 −1

97. Hállese la solución de y %%% − 9y %% + 15y % + 25y = 0 que verifica y(0) = 0 y está
acotada cuando x → ∞.
98. Dada la ecuación y %% + ay % + by = f (x), donde a y b son constantes y f (x)
es una función continua a trozos y de orden exponencial, demuéstrese que
el efecto de substituir f (x) por f (x) + c δ(x) tiene el mismo efecto que
aumentar el valor de y % (0) en la constante c. El mismo resultado es válido
para ecuaciones de orden superior.
99. Siendo A, a, b, c > 0 constantes, considérese el siguiente problema de condi-
ciones iniciales:

y %% + y = A δ(x − c), y(0) = a, y % (0) = b.

¿Existen condiciones bajo las cuales y(x) = 0 para x ≥ c? Dicho de otro


modo: ¿es posible elegir la intensidad y la localización del impulso de forma
que la oscilación se anule completamente?

8.12 Bibliografı́a

Los libros mencionados en el Capı́tulo 6 serán también útiles para el estudio


de este tema. Además los siguientes:

1. Aroca, J.M. y Fernández, M.J., Álgebra Lineal y Geometrı́a, Servicio de


Publicaciones de la Universidad de Valladolid, 1988.
2. Coddington, E.A. and Levinson, N., Theory of Ordinary Differential Equa-
tions, Tata McGraw-Hill 1985.
3. Shilov, G.E., Linear Algebra, Prentice-Hall, 1971.
Capı́tulo 9

SISTEMAS NO LINEALES
Y ECUACIONES
DIFERENCIALES DE
PFAFF

9.1 Introducción

En el capı́tulo precedente hemos realizado un amplio estudio de los sistemas


lineales, tanto homogéneos como no homogéneos, y los hemos relacionado
con las ecuaciones diferenciales lineales de orden n. Ya se comentó que
un detenido análisis de este tipo particular de sistemas y ecuaciones li-
neales está justificado, además de por su interés teórico, por sus muchas
aplicaciones en multitud de campos, debido a que las aproximaciones que
más frecuentemente se efectúan tienden a linealizar el problema que se esté
estudiando, para ası́ poderlo resolver fácilmente.
No obstante, en ciertas ocasiones, y por diferentes motivos (por ejem-
plo, para obtener mayor precisión, o por resultar demasiado groseras cier-
tas simplificaciones), no será posible linealizar las ecuaciones, y deberemos
afrontar el estudio de un sistema no lineal de ecuaciones diferenciales. A
este tipo de sistemas (que aparecen muy frecuentemente al estudiar pro-
blemas de mecánica) dedicaremos el presente capı́tulo. Las técnicas que se
desarrollan en él resultan también de gran utilidad para efectuar el análisis

333
334 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

de las ecuaciones diferenciales en derivadas parciales de primer orden (cuyo


estudio se pospone para el siguiente volumen de esta obra).
Conviene dejar claro que, en la mayor parte de las ocasiones, el análisis
de sistemas o ecuaciones no lineales va a requerir ciertas técnicas que caen
dentro de lo que es un estudio numérico del problema, recurriendo a la uti-
lización de algoritmos que resuelvan las ecuaciones de forma aproximada,
para luego obtener quizá una representación gráfica del resultado. Nosotros
no nos vamos a adentrar en estos métodos de resolución, aunque si quere-
mos indicar al lector que existen multitud de algoritmos y programas muy
eficientes disponibles para resolver situaciones no lineales.
En este capı́tulo tampoco se abordará el análisis de un aspecto funda-
mental y muy intereante de los sistemas y ecuaciones no lineales: el de su
estabilidad. Esta cuestión tiene que ver con el análisis cualitativo de las
ecuaciones diferenciales, que es sumamente adecuado cuando no es posible
encontrar soluciones exactas (lo cual sucede en la amplia mayorı́a de los ca-
sos). El análisis cualitativo de los sistemas y ecuaciones no lineales es una
campo de investigación muy activo cuyo estudio conduce a la aparición de
fenómenos tan llamativos como el caos, los atractores extraños de dimensión
fractal o el efecto mariposa.

9.2 Sistemas de ecuaciones no lineales de primer


orden

Vamos a centrarnos en el estudio de los sistemas de ecuaciones no lineales


de primer orden debido a que, al igual que sucedı́a para los sistemas y
ecuaciones lineales, podemos convertir una ecuación no lineal de orden n,
dada en forma normal, en un sistema no lineal de primer orden, y en general
también lo contrario. Además los sistemas no lineales de primer orden son
los que más frecuentemente aparecen en las aplicaciones.
Consideremos un conjunto de n funciones de la variable real t (a la que
en ocasiones llamaremos “tiempo”, porque en las aplicaciones mecánicas
suele ser éste el significado fı́sico de esta variable)

x1 (t), x2 (t), . . . , xn (t),

que satisfacen un sistema de ecuaciones diferenciales del siguiente tipo


9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 335

x!1 (t) = f1 (t, x1 , . . . , xn ),


x!2 (t) = f2 (t, x1 , . . . , xn ), (9.2.1)
.. ..
. .
x!n (t) = fn (t, x1 , . . . , xn ),

en el cual las funciones reales fi , i = 1, 2, . . . , n, que dependen de (n + 1)


variables reales, son conocidas y al menos de clase C 1 (D), siendo D es un
dominio de Rn+1 . Las funciones xi (t) son las incógnitas, y una solución
del sistema (9.2.1) es un conjunto de n funciones xi (t), i = 1, 2, . . . , n, que
satisfaga idénticamente el sistema. Éste puede escribirse en forma vectorial
del siguiente modo
"x ! (t) = f"(t, "x), (9.2.2)
siendo
   
x1 (t) f1 (t, x1 , . . . , xn )
   
 x2 (t)   f2 (t, x1 , . . . , xn ) 
   
"x(t) =  . , f"(t, "x) =  .. . (9.2.3)
 ..   . 
   
xn (t) fn (t, x1 , . . . , xn ).

Normalmente se busca una solución que cumpla ciertas condiciones iniciales


" Se suele decir que el sistema anterior tiene orden global n,
"x(τ ) = ξ.
pues como ya hemos comentado es equivalente a una ecuación diferencial
ordinaria de orden n. En efecto, consideremos la siguiente ecuación de
orden superior escrita en forma normal:

dn y(t)
= F (t, y, y ! , y !! , . . . , y (n−1) ). (9.2.4)
dtn
Si definimos las nuevas variables

y1 (t) = y(t),
y2 (t) = y ! (t),
..
.
yn (t) = y (n−1) (t),
336 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

la ecuación (9.2.4) es equivalente al sistema


dy1
= y2 = F1 (t, y1 , y2 , . . . , yn ),
dt
.. ..
. . (9.2.5)
dyn
= F (t, y1 , y2 , . . . , yn ) ≡ Fn (t, y1 , y2 , . . . , yn ).
dt
Al igual que en el caso de los sistemas lineales, existe una correspondencia
biunı́voca entre las soluciones de la ecuación (9.2.4) y las del sistema (9.2.5).
Toda solución del sistema (9.2.5) será de la forma
 
y(t)
 
 y ! (t) 
 
 ..  (9.2.6)
 . 
 
y (n−1) (t)

donde y(t) es una solución de la ecuación (9.2.4). La demostración de estas


afirmaciones es idéntica a la que se hizo en el caso lineal. También puede
probarse que imponiendo ciertas condiciones a las funciones fk (t, x1 , . . . , xn )
que aparecen en (9.2.2), las funciones desconocidas que allı́ aparecen xk (t)
satisfacen ciertas ecuaciones de n-ésimo orden1 .
Hemos considerado con anterioridad los sistemas (9.2.2): aparecieron
cuando enunciamos el teorema de Picard-Lindelöf en el capı́tulo dedicado
a los teoremas de existencia y unicidad de las soluciones. Allı́ indicamos
que las condiciones suficientes para la existencia y unicidad de la solución
de (9.2.2), con las condiciones iniciales indicadas, son:

1. La continuidad de todas las funciones fi (t, x1 , . . . , xn ) en un cierto


entorno de las condiciones iniciales.

2. El cumplimiento de la condición de Lipschitz para cada una de las


funciones fi (t, x1 , . . . , xn ) en sus argumentos xk , k = 1, . . . , n.

Para precisar un poco el lenguaje que usaremos a continuación, intro-


duciremos la siguiente definición.
1
La demostración de esta afirmación no se efectuará aquı́ y puede consultarse en el
libro de Elsgoltz.
9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 337

Definición 1: la solución del sistema (9.2.2) será, en términos geométricos,


una curva llamada curva integral en el espacio euclı́deo de (n + 1) dimen-
siones, que vendrá descrita por las ecuaciones

t = t, x1 = x1 (t), . . . , xn = xn (t).

Cuando se verifican las condiciones del teorema de existencia y unicidad,


por cada punto de ese espacio pasa una única curva integral. Las curvas
integrales dependen de n parámetros (las condiciones iniciales "x(τ ) = ξ" );
fijadas unas condiciones iniciales, tendremos una curva integral. Obsérvese
que de aquı́ se sigue el teorema de existencia y unicidad de los sistemas
lineales y, “a fortiori”, de las ecuaciones lineales del tipo Ln y(t) = b(t).
Existe otra interpretación que es muy interesante por su relación con
la mecánica, que se puede visualizar de manera simplificada considerando
un punto material de masa m que se mueve a lo largo de una recta. Este
movimiento puede describirse en un espacio de fases de dos dimensiones:
una de ellas nos da la posición de la partı́cula en cada instante x(t), y la
otra su momento m x! (t) (también llamado cantidad de movimiento). Para
mayor sencillez, supongamos también que las fuerzas que actúan sobre nues-
tro punto material son de naturaleza exclusivamente mecánica (es decir, no
hay campos electromagnéticos, por ejemplo) y que su velocidad siempre
será muy pequeña comparada con la velocidad de la luz (para prescindir
de efectos relativistas). Con estas hipótesis, las ecuaciones que rigen la
trayectoria descrita por la partı́cula en el espacio de fases, también llamadas
ecuaciones del movimiento, son las siguientes:
dp dx 1
p! (t) = = f (t, x), x! (t) = = p, (9.2.7)
dt dt m
donde f (t, x) es la fuerza que actúa sobre el punto material cuando se
encuentra situado en la coordenada x en el instante t (la presencia de fuerzas
de naturaleza exclusivamente mecánica hace que f (t, x) no dependa de p;
la hipótesis no relativista nos permite usar de las ecuaciones de Newton, y
no tener que recurrir a la dinámica relativista de Einstein2 ). En notación
2
Albert Einstein (1879–1955), destacado fı́sico teórico alemán, entre cuyos traba-
jos sobresalen la explicación del efecto fotoeléctrico (1905), del movimiento browniano
(descubierto en 1828 por el botánico escocés Robert Brown (1773–1858) al analizar el
movimiento errático e incesante del polen sobre el agua) y, sobre todo, la formulación de
las teorı́as de la relatividad especial (1905) y general (1915). Recibió el premio Nobel de
Fı́sica en 1921 por sus trabajos sobre el efecto fotoeléctrico.
338 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

vectorial, este sistema de ecuaciones se puede escribir como


d"x
"x ! (t) ≡ = f"(t, x, p),
dt
con
9 : 9 : 9 :
x(t) f1 (t, x, p) p(t)/m
"x(t) = , f"(t, x, p) = = .
p(t) f2 (t, x, p) f (t, x)
El teorema de existencia y unicidad de soluciones, aplicado a este caso, nos
dice que si la función f (t, x) es continua en un cierto dominio D ∈ R y
además lipschitziana con respecto a x, entonces dados un valor del tiempo
t0 , un valor de la posición x0 (con (t0 , x0 ) ∈ D) y un valor del momento p0 ,
existe una única solución del sistema
9 : 9 :
x1 (t) x0
"x1 (t) = , tal que "x1 (t0 ) = .
p1 (t) p0
Esto significa que la solución particular de las ecuaciones del movimiento
(9.2.7) verificando la condición inicial de que en el instante t0 el punto
material está en x0 y tiene un momento p0 es justamente "x1 (t). Dos solu-
ciones pueden eventualmente cortarse: sean t0 y t1 dos valores del tiempo
distintos; entonces las soluciones del sistema satisfaciendo las condiciones
iniciales x(t0 ) = x0 , p(t0 ) = p0 y x(t1 ) = x0 , p(t1 ) = p0 , respectivamente,
son diferentes y, sin embargo, tienen el punto (x0 , p0 ) como intersección.
Pero en lugar de considerar el movimiento de la partı́cula en el espacio
de fases (x, p), podemos analizar este movimiento en un espacio de tres
dimensiones (x, p, t). La ecuación del movimiento es ahora
x = x1 (t), p = p1 (t), t = t. (9.2.8)
El teorema de existencia y unicidad de soluciones nos dice que las curvas
de la forma (9.2.8), con x1 (t), p1 (t) soluciones del sistema, nunca pueden
cortarse. En efecto, si dos de tales curvas se cortasen en el punto (x1 , p1 , t1 ),
tendrı́amos dos soluciones del sistema
9 : 9 :
xa (t) xb (t)
"xa (t) = , "xb (t) = ,
pa (t) pb (t)
verificando la misma condición inicial
9 :
x1
"xa (t1 ) = "xb (t1 ) = ,
p1
9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 339

lo cual está prohibido por el teorema de unicidad. Sin embargo, las solu-
ciones respectivas a la ecuación del movimiento en el espacio de fases, "xa (t)
y "xb (t), sı́ pueden cortarse (véase la Figura 9.1, donde de hecho las dos
curvas no sólo se cortan, sino que coinciden al proyectarlas sobre el espacio
de fases bidimensional). Pero si sucede esto, debe producirse en tiem-
pos distintos, es decir que eventualmente tendrı́amos "xa (ta ) = "xb (tb ), con
ta != tb .

p
x

Figura 9.1: Ejemplo de dos soluciones que no


se cortan en R3 pero cuyas proyecciones en el
espacio de fases R2 coinciden.

Las ideas que acabamos de exponer se puede generalizar de la manera


siguiente: sea "x ! (t) = f"(t, "x), como en (9.2.2), y sea "xa (t) una solución del
sistema
   
x1 (t) x10
 .   . 
 ..  , tal que para t = t0 , "xa (t0 ) = "xa =  ..  .
"xa (t) =    

xn (t) xn0

Escribamos esta solución como una curva integral en Rn+1 de la siguiente


forma
t = t, x1 = x1 (t), . . . , xn = xn (t). (9.2.9)
340 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Por el teorema de unicidad, estas curvas no pueden cortarse, mientras que


sus proyecciones al espacio de las variables xi , las trayectorias en el espacio
de fases, podrı́an eventualmente cortarse a tiempos diferentes (la proyección
de la curva (9.2.9) es justamente la curva en Rn dada por "xa (t)). Véase de
nuevo la Figura 9.1.
Por analogı́a a lo que sucede en el análisis de los sistemas mecánicos
anteriormente comentados, llamaremos espacio de fases al espacio Rn en el
que habitan las soluciones "x(t) del sistema (9.2.2), "x ! (t) = f"(t, "x), que suele
denominarse de forma general sistema dinámico. Como ya se ha comentado
anteriormente, en el caso más general estas soluciones pueden cortarse. No
obstante, existe un tipo de sistemas dinámicos especialmente interesante en
el cual las soluciones no se cortan en el espacio de las fases. Se trata de los
sistemas llamados autónomos, que estudiaremos en la siguiente sección.

9.3 Sistemas autónomos

Definición 2: llamaremos autónomo a un sistema de ecuaciones diferen-


ciales de primer orden del tipo (9.2.1) o (9.2.2) en el que f" no dependa
explı́citamente del tiempo, es decir, f" = f"(x1 , . . . , xn ).
Proposición 1: si "x(t) es una solución del sistema autónomo "x ! (t) = f"("x),
también lo es "y (t) := "x(t + a), donde a es un número real arbitrario.
Demostración:
d"y (t) d"x(t + a) d"x(t + a)
= = = f"(x1 (t + a), . . . , xn (t + a))
dt dt d(t + a)

= f"(y1 (t), . . . , yn (t)) = f"("y ),


de manera que "y (t) satisface idénticamente el sistema.
Observación: las funciones "y (t), "x(t) son distintas y, por lo tanto, repre-
sentan dos soluciones diferentes del sistema. Sin embargo pueden verse
como dos parametrizaciones distintas de la misma curva en Rn . Si con-
sideramos las curvas en Rn+1 , como "y (t) = "x(t + a), resulta que una está
desplazada de la otra en una cantidad a. Una ilustración de este hecho se
muestra en la Figura 9.1.
Proposición 2: si "y (t) y w(t)
" son dos soluciones distintas de un sistema
autónomo, "x ! (t) = f"("x), entonces bien ∃ a ∈ R tal que "y (t + a) = w(t),
"
9.3. SISTEMAS AUTÓNOMOS 341

o bien las curvas en Rn dadas por "y (t) y w(t)


" no tienen ningún punto en
común.
Demostración: acabamos de ver que el primer caso es perfectamente posi-
ble. Supongamos que no se verifica y que "y (t) y w(t) " se cortan. Entonces
existen t0 y t1 para los cuales "y (t0 ) = w(t
" 1 ). Escogiendo b = t0 − t1 , por la
Proposición 1 sabemos que "z (t) = "y (t+b) es una nueva solución del sistema
con
"z (t1 ) = "y (t1 + b) = "y (t0 ) = w(t
" 1 ).
Luego "z (t) y w(t)
" deben de coincidir por el teorema de existencia y unicidad.
Por lo tanto, w(t)
" = "y (t + b) en contra de nuestra hipótesis de que no se
cumplı́a la primera de las posibilidades. Por reducción al absurdo hemos
obtenido que dos soluciones de un sistema autónomo no pueden cortarse,
a no ser que coincidan.
Volvamos sobre el ejemplo mecánico desarrollado en la sección 9.2 para
extraer la siguiente conclusión: si la fuerza que allı́ aparece no depende del
tiempo, las soluciones del sistema dinámico en cuestión son tales que no se
cortan unas a otras en el espacio de fases.
Para ilustrar la diferencia entre los sitemas autónomos y los no autóno-
mos, consideremos un ejemplo de cada uno de ellos.
Ejemplo 1: consideremos el siguiente sistema no autónomo
x1 1
x!1 = + , x!2 = −x22 .
t x1 x2
Es fácil de resolver, porque en la segunda ecuación la variable x2 está
desacoplada, de manera que integrando obtenemos
1
x2 = .
t+C
llevando este resultado a la primera ecuación
x1 t + C x21
x!1 = + ⇒ x1 x!1 = + t + C,
t x1 t
que se convierte en una ecuación lineal mediante el cambio z = x21 , y se
integra dando como resultado final
6 1
x1 = ± Kt2 − 2Ct + 2t2 ln t, x2 = .
t+C
342 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Este par de funciones nos dan las ecuaciones de las curvas integrales en
R3 o de las trayectorias en el plano de fases R2 (bien en paramétricas, con
parámetro t, o bien en implı́citas, ya que en este caso es posible eliminar t
entre las dos ecuaciones solución). Observemos que hay dos posibilidades
para x1 , y también que aparecen dos constantes arbitrarias C y K.
Ejemplo 2: el caso anterior no era autónomo, debido a la presencia
explı́cita de la variable t en las ecuaciones diferenciales. Analicemos ahora
el sistema autónomo que resulta al eliminar el término que contiene t, es
decir
1
x!1 = , x!2 = −x22 .
x1 x2
Procediendo como en el caso anterior, podemos llegar a la siguiente solución:
6 1 1
x1 = ± (t + C)2 + K, x2 = ⇒ x21 = K + .
t+C x22
Observemos aquı́ un hecho destacado: la dependencia en la variable t es tal
que va siempre asociada a una constante arbitraria aditiva (t+C), cosa que
no ocurrı́a para el ejemplo no autónomo. Este hecho es una manifestación
palpable de la Proposición 1 que acabamos de demostrar. Se recomienda al
lector realizar una representación gráfica de las soluciones de este ejemplo,
al menos en el caso particular K = 0 (podrá comprobar entonces que todas
las curvas integrales se proyectan sobre una misma trayectoria en el espacio
de fases, que resulta ser una rama de hipérbola).

9.4 Integrales primeras de un sistema

El concepto de integral primera de un sistema diferencial tiene una gran


importancia tanto desde el punto de vista matemático (ya que desempeña
un papel importante en la teorı́a de las ecuaciones en derivadas parciales)
como por sus aplicaciones en fı́sica, especialmente en mecánica. Es por
tanto conveniente ocuparnos de las integrales primeras con cierto deten-
imiento.

9.4.1 Definición

La integración de un sistema de ecuaciones diferenciales no lineales como el


dado en (9.2.1) suele efectuarse manipulando adecuadamente las ecuaciones
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 343

del sistema para lograr determinar una cierta combinación de algunas de


las variables dependientes en función de t, que se pueda integrar con rela-
tiva facilidad. Se denominan combinaciones integrables a esas ecuaciones
diferenciales obtenidas del sistema diferencial, pero que son integrables de
forma inmediata. Un ejemplo tı́pico serı́a una expresión como
d G(t, x1 , . . . , xn ) = 0.
Una combinación integrable como la anterior permite, por tanto, obtener
una ecuación en forma finita del tipo
G(t, x1 , . . . , xn ) = C,
siendo C una constante arbitraria. Este hecho motiva la siguiente defini-
ción.
Definición 3: llamaremos integral primera de un sistema de ecuaciones
diferenciales a toda función G(t, x1 , . . . , xn ) que toma un valor constante
cuando se sustituyen las variables x1 , . . . , xn por cualquier solución del
sistema x1 (t), . . . , xn (t).

Si la integral primera es tal que G(t, "x) ∈ C 1 (D), siendo D un cierto


dominio de Rn+1 , resulta que a lo largo de cualquier trayectoria
dG ∂G ∂G dx1 ∂G dxn
= + + ··· + = 0,
dt ∂t ∂x1 dt ∂xn dt
es decir,
∂G(t, "x) ∂G(t, "x) ∂G(t, "x)
+ f1 (t, "x) + · · · + fn (t, "x) = 0. (9.4.1)
∂t ∂x1 ∂xn
Cualquier integral primera del sistema (9.2.1) debe verificar esta ecuación
diferencial en derivadas parciales de primer orden, lineal y homogénea,
denominada “ecuación de las integrales primeras” (por desgracia el encon-
trar soluciones de una ecuación de este tipo no suele ser asunto sencillo).
Recı́procamente, si G(t, "x) es una solución de (9.4.1), entonces es una inte-
gral primera de (9.2.1).

9.4.2 Significado geométrico

Si G(t, x1 , x2 , . . . , xn ) es una integral primera del sistema, la ecuación


G(t, x1 , x2 , . . . , xn ) = C (9.4.2)
344 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

representa una hipersuperficie en D ⊂ Rn+1 . Si (t0 , a1 , a2 , . . . , an ) es un


punto cualquiera de esta hipersuperficie, por él pasará una solución del
sistema no lineal, "x(t) = (x1 (t), . . . , xn (t)), que verifica la condición:
G(t, x1 (t), . . . , xn (t)) = G(t0 , a1 , a2 , . . . , an ) = C.
Como G(t, x1 , x2 , . . . , xn ) es una integral primera, la curva integral corres-
pondiente a esta solución estará totalmente contenida en la hipersuper-
ficie (9.4.2). Por el teorema de existencia y unicidad, dos curvas inte-
grales nunca se cortan, de modo que por cada punto de la hipersuperficie
G(t, x1 , x2 , . . . , xn ) = C pasa una y sólo una curva integral del sistema. Por
tanto la hipersuperficie está fibrada por las curvas integrales del sistema,
cuya unión es la propia hipersuperficie.

9.4.3 Independencia funcional

Lo que se pretende con la búsqueda de integrales primeras es hacer más


simple el proceso de integración del sistema no lineal dado. Sucede que
toda función que depende de un cierto número de integrales primeras cono-
cidas es también una integral primera del sistema; sin embargo este tipo
de integrales primeras ligadas entre sı́ por dependencia funcional son, en
general, irrelevantes a la hora de efectuar la integración. Interesan sólo las
integrales primeras que sean funcionalmente independientes.
A continuación enunciamos un resultado importante referente a las in-
tegrales primeras de un sistema diferencial.
Teorema 1: si se verifican las condiciones del teorema de existencia y unici-
dad en torno a un punto (t0 , a1 , a2 , . . . , an ) ∈ D, entonces existen solamente
n integrales primeras funcionalmente independientes, G1 (t, "x), . . . , Gn (t, "x),
en un entorno de (t0 , a1 , a2 , . . . , an ).
Si consiguiéramos obtener n integrales primeras funcionalmente inde-
pendientes podrı́amos plantearnos el siguiente sistema de ecuaciones alge-
braicas:
G1 (t, "x) = C1 , . . . , Gn (t, "x) = Cn . (9.4.3)
Si en este sistema fuéramos capaces de despejar "x en función de t y de
la parámetros C1 , . . . , Cn , podrı́amos conseguir la solución general del sis-
tema "x = "x(t, C1 , . . . , Cn ), al menos en una cierta región del espacio Rn .
Este procedimiento para hallar soluciones del sistema presenta dos graves
dificultades:
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 345

• En la mayorı́a de los casos resulta muy difı́cil obtener de forma explı́ci-