Está en la página 1de 92

2011

apuntes de
ecuaciones
diferenciales II
(EDPs)

Pepe Aranda
Métodos Matemáticos
Físicas Complutense

http://jacobi.fis.ucm.es/pparanda/EDPs.html
Índice
Bibliografía
Sobre las versiones de los apuntes

Introducción 1

1. Características; problemas clásicos 3


1.1 EDPs lineales de primer orden 4
1.2 EDPs lineales de segundo orden; clasificación 7
1.3 Los problemas clásicos; unicidad 11

2. Problemas de contorno para EDOs 15


2.1 Problemas de Sturm-Liouville homogéneos 16
2.2 Series de Fourier 21
2.3 Problemas no homogéneos; función de Green 25

3. Separación de variables 29
3.1 Separación de variables para calor y ondas 30
3.2 Separación de variables para Laplace 39
3.3 Algunos problemas en tres variables 46
3.4 Funciones de Green 53

4. Otros métodos en EDPs 55


4.1 Ecuación de la cuerda vibrante 56
4.2 Ondas en tres y dos dimensiones 61
4.3 Transformadas de Fourier 65

Apéndice 69

Problemas 1 i
Problemas 2 ii
Problemas 3 (calor y ondas) iii
Problemas 3 (Laplace y 3 variables) v
Problemas 4 vii
Problemas adicionales 1 I
Problemas adicionales 2 III
Problemas adicionales 3 V
Problemas adicionales 4 VII
Bibliografía
H Haberman. ECUACIONES DIFERENCIALES EN DERIVADAS PARCIALES con Series de Fourier
y Problemas de Contorno. Pentice Hall
Ss Strauss. PARTIAL DIFFERENTIAL EQUATIONS. An Introduction. Wiley
W Weimberger. ECUACIONES DIFERENCIALES EN DERIVADAS PARCIALES. Reverté
MU Myint-U. PARTIAL DIFFRENTIAL EQUATIONS OF MATHEMATICAL PHYSICS. Elsevier
T Tijonov-Samarski. ECUACIONES DE LA FISICA MATEMATICA. Mir
Sp Stephenson. INTRODUCCION A LAS ECUACIONES EN DERIVADAS PARCIALES. Reverté
Ch Churchill. SERIES DE FOURIER Y PROBLEMAS DE CONTORNO. McGraw-Hill
J John. PARTIAL DIFFERENTIAL EQUATIONS. Springer-Verlag
Sk Stakgold. GREEN’S FUNCTIONS AND BOUNDARY VALUE PROBLEMS. Wiley
BD Boyce-Di Prima. ECUACIONES DIFERENCIALES y problemas con valores en la frontera.
Limusa
Si Simmons. ECUACIONES DIFERENCIALES (con aplicaciones y notas históricas).
McGraw-Hill
Br Braun. ECUACIONES DIFERENCIALES Y SUS APLICACIONES. Interamericana
R Ross. ECUACIONES DIFERENCIALES. Reverté
E Elsgoltz. ECUACIONES DIFERENCIALES Y CALCULO VARIACIONAL. Mir
MCZ Marcellán-Casasús-Zarzo. ECUACIONES DIFERENCIALES. PROBLEMAS LINEALES Y
APLICACIONES. McGraw-Hill
PA Puig Adam. CURSO TEORICO-PRACTICO DE ECUACIONES DIFERENCIALES
APLICADO A LA FISICA Y TECNICA.

Los 9 primeros libros son propiamente de EDPs: H, Ss, W, MU y T incluyen casi todos los
temas de los apuntes (y muchos otros que no se tratan en ellos). Sp y Ch tienen bastantes
menos páginas (y sirven para parte del curso). J y Sk son de mayor nivel y bastante más
difíciles de leer. Los 5 siguiente son básicamente de EDOs, pero tienen introducciones a las
EDPs. En concreto, BD, Br, R y Si estudian los problemas de contorno para EDOs y el método
de separación de variables. R clasifica también las EDPs de segundo orden con coeficientes
constantes. E trata con detalle las EDPs de primer orden. Los 2 últimos, el MCZ y el clásico
PA (de 1950), son mixtos de EDOs y EDPs y abarcan una mayor parte del curso.
Gran parte de los libros de EDPs, en vez de organizarse en torno a los métodos de resolu-
ción (como en los apuntes), estudian por separado y con diferentes técnicas las ecuaciones
hiperbólicas, elípticas y parabólicas.
Las EDPs de primer orden se estudian en H, E, PA y J, aunque se centran más en las
ecuaciones cuasilineales (también tratan las no lineales). La reducción a forma canónica y
las cuestiones de unicidad se ven en casi todos los libros de EDPs, por ejemplo en MU, W o
T. Un estudio serio de los problemas de Cauchy se hace en J. La deducción de las ecuaciones
y el significado físico de los problemas se puede mirar, por ejemplo, en Bd, W, H, Ss o T.
Para el 2 es recomendable leer BD, Si y H. La teoría general avanzada de problemas de
contorno, funciones de Green, desarrollos en autofunciones. . . en el Sk. Hay demostraciones
menos generales (con matemáticas más elementales) en Ss, W o Ch.
La separación de variables (3) está en casi todos los libros. Buenas introducciones hay en
Sp, BD, Si, Br o R. El libro más recomendable para todo este capítulo es el H. Para precisiones
de convergencia y problemas de varias variables ver Ss, W, MU o T. La sección 3.4 sigue más
o menos el MU. Ss, W, T y Sp también estudian las funciones de Green por otros caminos.
Para las secciones 4.1 y 4.2 se puede consultar el H, Ss, W, MU, T, PA o J. En ellos se
deducen las fórmulas de 4.2 no demostradas en los apuntes. Para la 4.3 ver Ch, Ss, MU, Sp
y, sobre todo, H y W que utilizan también la transformada de Laplace para EDPs (W tiene
una introducción a la variable compleja).
El MCZ, el H y el Ss dan métodos numéricos para problemas de contorno y EDPs (lo que
no hacen los demás libros, salvo unas pocas ideas del W).
Sobre las versiones de los apuntes

Versión 2011. Adaptación al ‘grupo residual’ de la licenciatura (2010/11, último año con clases). Se
pasan a ‘letra pequeña’ algunos temas que en otros grupos no se contaban (como las ondas en 3 y 2
dimensiones, tras retocar 4.1 y 4.2), los ‘problemas 3’ se dividen en dos partes, bastantes problemas
pasan a adicionales y se incluyen nuevos y nuevos ejemplos inventados para el piloto del 08/09.

Versión 2009. Bastantes novedades, empezando por la letra, que pasa a ser Bitstream-Vera (sin serif),
lo que obliga a reescribir (y de paso a retocar) muchas partes del texto.
1.1 y 1.3 se modifican levemente y 1.2 se vuelve a reordenar.
2 tiene ahora 3 secciones. Los ejemplos de la vieja 2.1 desaparecen (se incluyen, además de otros
ejemplos nuevos) en la nueva 2.1. También aparecen más ejemplos en series de Fourier y en problemas
no homogéneos.
3.1 incluye dos ejemplos nuevos del calor y las ideas sobre subproblemas pasan al final de 3.2. Esta
sección incluye dos ejemplos más en cartesianas y uno en polares. 3.3 cambia poco y como 3.4 (antes
4.4) aparece la introducción a las funciones de Green para Laplace.
En todo el 4 aparecen bastantes ejemplos nuevos (y algunos viejos se detallan más). En 4.1, uno de
cuerda semi-infinita y otro de cuerda acotada, y dos de ondas en 3 dimensiones en 4.2. Las transfor-
madas de Fourier F de 4.3 tienen tres ejemplos nuevos.
Aparece un apéndice en el que se repasan algunos resultados de EDOs, de convergencia uniforme y
cálculo en varias variables.
Los problemas (y los adicionales) tienen bastantes cambios (los grupos piloto exigen inventar muchos
problemas para entregar, para parcialillos,... y eso se nota).

Versión 2008. Escasas novedades en teoría. Además de algunas correcciones de ejemplos, erratas,
estéticas... se reordenó la sección 1.2 y se añadieron ejemplos en 3.1. Los problemas incluyeron los de
examen del curso anterior, algunos de los del curso 06-07 pasaron a adicionales y otros se convirtieron
en problemas a entregar en el grupo piloto.

Versión 2007. Fue la primera de los apuntes de Ecuaciones Diferenciales II (EDPs) y es heredera
directa de los apuntes de ecuaciones en derivadas parciales.
Los viejos apuntes estaban destinados a la asignatura ‘Métodos Matemáticos de la Física II’, que se
impartió por última vez en 1997-98 (la última versión, 2000, en Word, contenía mis apuntes de ese año,
pero con los dibujos a ordenador). La asignatura era de tercer curso, los estudiantes habían cursado
en segundo unos ‘Métodos I’ (variable compleja y espacios de Hilbert) y había 5 horas semanales de
clase. Las ‘Ecuaciones Diferenciales II’, en cambio, se cursan en segundo, tienen 4 horas semanales y
previamente sólo se ha estudiado Álgebra y Cálculo en primero y las ecuaciones ordinarias del primer
cuatrimestre de segundo.
Adaptar los apuntes, exigía, pues, reducir contenidos. Y no lo conseguí demasiado. Porque los temas se
mantuvieron (reordenados de otra forma), aunque algunos pasaron a estar ‘en letra pequeña’ (sólo a
título informativo). Más funcionó la tijera apartando de las hojas de problemas fundamentales bastantes
de los más complicados del pasado.
Yendo al detalle, el tema 1 es el antiguo tema 5, con algún ejemplo más de primer orden, algún recorte
en unicidad y se deduce ya la fórmula de D’Alembert (pues el viejo capítulo 6 se trasladó, reduciendo
su tamaño, a las primeras secciones del 4).
El actual 2 es el viejo 7 de problemas de contorno, centrándose más en las condiciones separadas,
eliminando resultados sobre comparación de autovalores y poniendo las alusiones a la δ de Dirac en
letra pequeña.
El nuevo 3 de separación de variables es el antiguo 8, pero bastante reordenado. En vez de separar los
problemas homogéneos de los no homogéneos, se tratan ambos sucesivamente, primero para el calor
y ondas, y en otra sección para Laplace. Aparecen, como novedad, unas escasas líneas dedicadas a los
armónicos esféricos.
El 4 reune en esa versión las ondas en 1, 3 y 2 dimensiones espaciales (estudiadas con menos intensidad
que en Métodos II, sobre todo en problemas), la transformada de Fourier, y, a título informativo, el
método de las imágenes.
Los problemas se dividieron en ’problemas’ (los que se hacen en clase) y ’problemas adicionales’ (a ellos
fueron exiliados los más largos, laterales al curso o repetidos). Unos cuantos de los viejos problemas (y
varios apartados de otros) desaparecieron del todo.
Los apuntes se hicieron en LATEX, utilizando el programa TeXShop para Mac y eligiendo ese año 2007,
para distinguirse de las letras habituales, el tipo ’palatino’.
Introducción
Estos apuntes están dedicados al estudio de las ecuaciones en derivadas par-
ciales (EDPs), aunque también se estudiarán los problemas de contorno para las
ecuaciones diferenciales ordinarias (EDOs). Una ecuación en derivadas parciales
es una ecuación en la que aparece una función incógnita de varias variables y al-
gunas de sus derivadas parciales. Todas las EDPs que veremos serán lineales. Más
en concreto, salvo un breve estudio de las lineales de primer orden, trataremos de
EDPs lineales de segundo orden, del tipo:
n n
∂2  ∂
X X
[1] L[] ≡ Aj ∂ ∂j
+ Bj ∂j
+ C = F
,j=1 j=1

donde  , Aj , Bj , C y D son funciones de (1 , . . . , n ) . Una solución de [1] será


una función (1 , . . . , n ) de clase C2 en una región Ω de Rn que sustituida en la
ecuación la convierte en una identidad.
Entre las EDPs lineales de segundo orden se encuentran muchas ecuaciones de
la física. Entre ellas las tres clásicas:
ecuación de ondas tt − c2 Δ = 0
ecuación del calor t − kΔ = 0
y ecuación de Laplace Δ = 0
que son ejemplos, respectivamente, de los tres grandes tipos en que se clasifican:
hiperbólicas, parabólicas y elípticas. La teoría avanzada de EDPs viene a ser
la generalización del estudio de estas tres ecuaciones. Sus propiedades son tan
diferentes que no existen teorías generales como la de las EDOs lineales.
En el capítulo 1 se verá que, normalmente, no se puede hallar la solución gene-
ral de una EDP. Sólo la tendremos para algunas de primer orden en dos variables
(y aparecerá una función arbitraria en esa solución) y para muy pocas de segundo
(en particular, para la de ondas, con dos funciones arbitrarias). Además veremos
qué condiciones adicionales (iniciales o de contorno) hay que imponer a las EDPs
clásicas para que tengan solución única que dependa de forma continua de los
datos. En la búsqueda de soluciones generales y en la unicidad será importante el
concepto de curva característica, solución de una EDO muy ligada a la EDP.
El capítulo 3 trata el viejo método de separación de variables para resolver
las ecuaciones clásicas (homogéneas y no homogéneas y en 2 o más variables)
en recintos sencillos (y acotados, al menos, en una de las variables). Se supone la
solución como producto de funciones de cada una de las variables, lo que lleva a
resolver EDOs en cada una de ellas, alguna con condiciones de contorno. Resueltas
todas, las soluciones quedan expresadas en términos de series de Fourier. La
necesaria teoría de problemas de contorno para EDOs (muy diferente de la de
los de valores iniciales) y una descripción de dichas series se dará previamente en
el capítulo 2. En ambos capítulos hablaremos brevemente de las funciones de
Green.
El capítulo 4 estudia varios temas independientes. Analizaremos y dibujaremos
las soluciones de la ecuación de ondas a partir de fórmulas integrales, primero
para una (, t) (ecuación de la cuerda vibrante) y luego, con menos detalles,
para tres y dos dimensiones espaciales. También utilizaremos la transformada
de Fourier para resolver algunas EDPs en recintos no acotados (en particular, la
del calor en la recta infinita).
Los apuntes acaban con un apéndice en el que se repasan algunos conocimien-
tos matemáticos previos (de EDOs, de cálculo en varias variables y de convergen-
cia uniforme) que se utilizan en los capítulos anteriores.

1
Para acabar esta introducción, describamos el significado físico de las ecuaciones
clásicas. Interpretémoslas únicamente en sus versiones más sencillas (que son las
más tratadas en los apuntes): cuando la  es función de dos variables.
Empecemos con la ecuación de ondas unidimensional o ecuación de la cuerda
vibrante. Consideremos las oscilaciones de una cuerda totalmente elástica, tensa
y fija en sus extremos. Se supone que sus oscilaciones son siempre transversales
y de pequeña amplitud. En esas condiciones se puede u
ver que si (, t) representa el desplazamiento verti- instante t
cal del punto de abscisa  en el instante t , la función u(x,t)
(, t) satisface la EDP:
x x
tt − c2  = F(, t)
donde c2 = To / ρ , con To fuerza de tensión en los extremos, ρ masa por unidad
de longitud (densidad lineal) y F(, t) fuerza externa por unidad de masa que
actúa en dirección vertical sobre el punto  en el instante t . Para determinar la
evolución de una cuerda concreta, se verá que debemos fijar la posición de la
cuerda y la distribución de velocidades verticales en el instante inicial, es decir,
(, 0) y t (, 0) . También se deberá de tener en cuenta que permanece fija en
los extremos  = 0 y  = L , o sea, que (0, t) = (L, t) = 0 . No olvidemos que el
modelo matemático de esta cuerda ideal es sólo una simplificación de la realidad;
lo mismo ocurre con las siguientes.
La distribución de temperaturas a lo largo del tiempo en una varilla delgada (que
podemos suponer unidimensional) viene regida por la ecuación del calor:
t − k = 0
donde (, t) representa la temperatura del punto  en el instante t y k > 0 es
una constante proporcional a la conductibilidad e inversamente proporcional a la
densidad y al calor específico. Si existiesen fuentes de calor en el interior de la
varilla deberíamos escribir una F(, t) en el segundo miembro de la ecuación. A
diferencia de la de ondas, aquí bastará dar sólo la distribución inicial de tempera-
turas (, 0) (junto con las condiciones de contorno) para determinar la solución.
La ecuación de Laplace:
 + yy = 0
puede describir, entre otras situaciones físicas, la distribución estacionaria de tem-
peraturas en una placa bidimensional. La existencia de fuentes de calor en el inte-
rior de la superficie aportaría una F en el segundo miembro (ecuación de Poisson).
Frente a las dos ecuaciones anteriores que describían la evolución de un sistema a
lo largo del tiempo, ésta describe situaciones estacionarias y los problemas que se
plantean para ella son siempre con condiciones de contorno.

2
1. Características; problemas clásicos
En las EDOs se planteaban problemas de valores iniciales, que casi siempre te-
nían solución única. Para resolverlos (las pocas veces que se podía) se solía hallar
primero la solución general e imponer después una o varias condiciones, depen-
diendo del orden de la ecuación, en un to dado. En este capítulo intentamos ver
cuáles son los problemas análogos para las EDPs. La variedad y complicación será
mucho mayor que en las ordinarias.
Comenzamos en la sección 1.1 tratando las EDPs lineales de primer orden en
dos variables, es decir, ecuaciones del tipo:
[1] A(, y) y + B(, y)  = C(, y)  + D(, y) ,
que no tienen muchas aplicaciones físicas, pero que plantean de forma sencilla los
problemas de las de segundo orden. Veremos que pueden resolverse si es posible
integrar una EDO de primer orden, cuyas curvas integrales son llamadas caracte-
rísticas de [1]. En la solución general de [1] aparecerá una función p arbitraria
(como en el sencillo ejemplo  = 0 , de solución (, y) = p(y) , para cualquier p ).
Para precisar esta p fijaremos el valor de la solución a lo largo de una curva G
del plano y (problema de Cauchy) y la solución quedará determinada de forma
única si G no es tangente a las curvas características.
En 1.2 abordamos las EDPs lineales de segundo orden en dos variables:
[2] Ayy + By + C + Dy + E + H = F
con  y los coeficientes funciones de  e y . Para intentar resolverlas, busca-
remos escribirlas, mediante cambios de variables, en la forma más sencilla posi-
ble (forma canónica). Esto nos llevará a la clasificación de [2] en hiperbólicas,
parabólicas y elípticas. Otras curvas características volverán a jugar un papel
esencial. En unos pocos casos, a partir de la forma canónica, se podrá calcular la
solución general, que dependerá de dos funciones arbitrarias. Uno de esos casos
será la ecuación de ondas.
Para aislar una única solución de [2] podrían darse unos datos de Cauchy análo-
gos a los de [1]. Pero esto sólo funciona para algunos problemas ligados la ecuación
de ondas (para ella deduciremos la fórmula de D’Alembert que expresa sus so-
luciones en términos de la posición y velocidad iniciales) y carece de sentido físico
y plantea problemas matemáticos para las otras ecuaciones clásicas. Las condicio-
nes iniciales y de contorno ligadas a un problema físico real son muy diferentes
para cada ecuación. Incluso a una misma ecuación aparecen asociadas condicio-
nes de diferentes tipos. No existe una teoría general de EDPs que pueda abarcar
todas las posibilidades. En cada caso habrá que comprobar que el problema está
’bien planteado’, es decir, que tiene solución única que depende continua-
mente de los datos (lo que era en las EDOs de comprobación trivial). La sección
1.3 se dedica a describir diferentes problemas asociados a las ecuaciones clásicas
y a estudiar su unicidad.

3
1.1. EDPs lineales de primer orden

Sea [E] A(, y) y + B(, y)  = C(, y)  + D(, y) ,  = (, y) .

Para resolverla consideramos la EDO de primer orden:


dy A(, y)
[e] = ecuación característica
d B(, y)

Suponemos A y B de C1 y que no se anulan simultáneamente en una región del


plano. Entonces [e] tendrá en ella unas curvas integrales:

ξ(, y) = K curvas características de [E]

(se podrán hallar explícitamente si [e] es separable, lineal, exacta. . . )


Veamos que el cambio de variable
ξ = ξ(, y)


η=y (o bien η =  )
lleva [E] a una ecuación en las nuevas variables (ξ, η) en la que no aparece ξ y
que es resoluble elementalmente. En efecto:
y = ξ ξy + η

→ Aη + [Aξy + Bξ ]ξ = C + D
 = ξ ξ
Como sobre las soluciones y() definidas por ξ(, y) = K se tiene:
dy 1
ξ(, y()) = K → ξ + ξy d = B
[Aξy + Bξ ] = 0 ,

deducimos que [1] se convierte en:

[E∗] A(ξ, η) η = C(ξ, η)  + D(ξ, η) ,  = (ξ, η) .

(Si hubiésemos escogido η =  habríamos llegado a [E∗] Bη = C + D ;


se observa que queda tras el cambio el término con la variable elegida).

[E∗] (o [E∗]) es una EDO lineal de primer orden en η si consideramos la ξ cons-


tante (y, por tanto, es resoluble). En su solución aparecerá una constante arbitraria
para cada ξ , es decir, una función arbitraria de ξ :
RC RC
− C
R
[•] (ξ, η) = p(ξ) e A dη + e A dη D A dη dη , con p arbitraria de C 1 .
R
A
e
Deshaciendo el cambio queda resuelta [E] en función de  e y . En la solución,
como se observa, aparece una función arbitraria de las características.

1
dy 1 + =K
Ej 1. y 2 y + = 2 d
= y2 , y
= K − → y
características

ξ = + 1y
¨
→ η = 2 = 2η →  = p(ξ) eη = p + 1y e , p ∈ C1 .
2  2
η =  [mejor]
1
ξ = + 1y
¨
=ξ− η 1


 − 1 − 2

→ y 2 η = 2 → η = − η23  →  = p∗(ξ) e η2 = p∗ + 1y e y2 y .
 η

η = y [peor] η2

Aunque no lo parezca, las expresiones con p y p∗ definen la misma solución general,



2
− 1 − 2  − + 1 2

− + 1y
e , y p∗ + 1y e es otra función arbitraria de + 1y .
2
pues, e y2 y = e

y

4
¿Cómo determinar una única solución de [E]? Cada solución u
describe una superficie en el espacio. Generalizando el pro-
blema de valores iniciales para EDOs definimos: Γ
El problema de Cauchy para [E] consiste en hallar la
solución (, y) que contenga una curva dada  del
espacio, o lo que es lo mismo, que tome unos valores
y
dados sobre una curva G del plano y . x G
En particular, si G es una recta  ó y = cte [por ejemplo, si
se pide (, 0) = ƒ () ], se tiene lo que se llama un problema de valores iniciales.
u Un problema de Cauchy puede no tener solución única.
infinitas Γ1 Por ejemplo, la solución general de Ay +B = 0 es (, y) = p ξ(, y)


y cada solución toma valor constante sobre cada ξ(, y) = K . Si busca-


Γ2
ninguna
mos una solución que contenga una curva  cuya proyección G sea una
y de las características se debe exigir que  esté en un plano horizontal
x G z = C . Entonces hay infinitas soluciones [una para cada función p con
caso D=C=0 p(K) = C ]. Si  no tiene z constante, no hay solución que contenga a  .
En general, supongamos que  es una curva suave dada paramétricamente por
(s) = g(s), h(s), ƒ (s) , o sea, que buscamos la solución con  g(s), h(s) = ƒ (s) .
 

Sustituyendo en [•] y despejando p : p ξ(g(s), h(s)) = F(s) , con F conocida.




Llamemos  = ξ g(s), h(s) . Si es posible despejar s en función de  de forma




única s = s() , la p() = F s() queda determinada y, por tanto, hay una única
solución de [E] conteniendo a  . Sabemos que esta función inversa existe seguro
en un entorno de cada so para el que sea:
d d 
= ds ξ g(s), h(s) s=so = ∇ξ g(so ), h(so ) · g0 (so ), h0 (so ) 6= 0
  
ds s=so

Como es ∇ξ perpendicular a las características y (g0 , h0 ) tangente a G , tenemos:


g y
Si la curva G no es tangente en ningún punto a (h) caract.
ninguna característica el problema de Cauchy
tiene solución única, al menos local.

La tangencia se puede ver sin resolver la EDO [e], pendiente A/B


x
con su campo de direcciones: el vector (B, A) es tangente
a sus soluciones y (A, −B) es perpendicular. Por tanto:

G es tangente a alguna característica en un punto g(so ), h(so ) si y sólo si




Δ(so ) ≡ g0 A(g, h) − h0 B(g, h) s=so =0.


Si Δ(s) 6= 0 ∀s el problema de Cauchy tiene solución única.
[Si Δ(s) ≡ 0 ∀s , G es tangente en cada punto, es decir, es una característica].

 = p + 1y e .
 2
Ej 1*. Imponemos datos a y 2 y + = 2 , de solución general

(, 1) = 1 . Como y = 1 nunca es tangente a las características,


según muestra el dibujo o asegura 1

Δ() = 1 · 12 − 0 · 1 = 1 6= 0 ,
el problema de valores iniciales tendrá solución única:
2 +1= 2
p(+1)e = 1 → p() = e−(−1)
2
2 − + 1y −1 2− 2 + 2y − 12 −1
→ =e =e y y

Los datos (, − 1 ) = 0 y (, − 1 ) = 1 traerán problemas (datos sobre característica).


2
Para el primero: p(0)e = 0 . Lo cumple toda p ∈ C1 con p(0) = 0 . Infinitas soluciones.
2 2
Para el segundo: p(0)e = 1 , p(0) = e− . Imposible. No tiene solución.
2
Aquí el Δ es: Δ() = 1 · − 1 − 12 · 1 ≡ 0 , lo que confirma que G es una característica.

5
dy
Ej 2. 2y −  = 4y d
= −2 → y+2 = K características.

ξ = y + 2

→ 2η = 4y ; η = 2η →  = p(ξ) + η2 = p(y+2 ) + y 2
η=y
ξ = y + 2

→ −η = 4y = 4ξη−4η3 →
η=
 = p∗ (ξ)+η4 −2ξη2 = p∗ (y+2 )−2y2 −4
Imponemos diferentes datos de Cauchy a la ecuación y analizamos la unicidad:

(1, y) = 0 → p(y+1) + y 2 = 0 → p() = −(−1)2 →  = 2y + 22 − 2y2 − 4 − 1


y
[o bien, p∗ (y+1)−2y−1 = 0 → p∗ () = 2−1 ]
[ p ó p∗ fijadas ∀ , pues  = 1 no es tangente a las características].
1 (, −2 ) = 0 → p(0) + 4 = 0 . Imposible, no hay solución.
x
→ p(0) = 0 . Cada p ∈ C1 con p(0) = 0 nos da
(, −2 ) = 4
una solución diferente: hay infinitas.
Datos sobre características dan siempre 0 o ∞ soluciones
[pues se acaba en p(cte)=algo, que puede ser constante o no].
(, 0) = 0 → p(2 ) = 0 . Sólo queda fijada p() = 0 para  ≥ 0 , p(v)
pero no hay ninguna condición sobre p si  < 0 . v
Podemos elegir cualquier p ∈ C1 que valga 0 para  ≥ 0 . '
p validas
Existen infinitas soluciones en un entorno de (0, 0) :
(, y) = y 2 si y ≥ −2 , pero está indeterminada si y < −2 .
En (0, 0) es y = 0 tangente a las características. Lo confirma Δ = 1 · 2 − 0 · (−1) .
 

(, 3 −2 ) = 4 −25 → p(3 ) = −6 → p() = − 2 ∀ →  = −22 y−4 para todo (, y) .
Hay solución única a pesar de ser la curva de datos tangente a una característica en
el punto (0, 0) es Δ = 1 · 2 − (32 −2) · (−1) = −32 . Algunas veces puede haber
 

tangencia y existir solución única. La no tangencia es suficiente pero no necesaria.

(y−2) y + = y dy y−2 y


Ej 3. = , y = Ce +2+2 → (y−2−2)e− = C
(0, y) = y−2 d 1 y=2x+2

ξ = (y−2−2)e−

→ η = y = ξeη +2η+2 →  = p(ξ)+ξeη +η2 +2η ,
η =  (parece mejor)
−
 = p [y−2−2]e
2 + y+ −2 .

x
Escogiendo η = y no se podría despejar la  de ξ = (η−2−2)e− .
 

p(y−2)+y−2 = y−2 , p(y−2) = 0 → p() = 0 ∀ ,  = y+2 −2 .


Solución única porque  = 0 nunca es tangente a las características:
Δ = 0·(y−2·0)−1·1 = −1 6= 0 ∀ [o está claro en el dibujo].
y
yy + = 2 ξ = y/ 

dy y
Ej 4. = → y = C → → ηη = 2 →
(, 1) = 3 d  η=y x
y 2 1 1 3
= p(ξ)η2 =p 
y ; (, 1) = p 
= 3 → p() = 3
; = y
[sólo si y > 0 ; la solución de un problema de Cauchy, en principio, sólo es local].

t + c = 0 dy 1  − ct = K
Ej 5. = → →  = p(−ct) solución general.
(, 0) = ƒ () d c características

(, 0) = p() = ƒ () → (, t) = ƒ (−ct) , solución única del problema de valores iniciales.
Para dibujar la gráfica de  en función de 
para cada t = T fijo basta trasladar la de ƒ ()
una distancia cT (hacia la derecha si c > 0 ). x
Se puede interpretar la solución como una on-
da que viaja a lo largo del tiempo. [Situación cT
T características
similar se dará en la ecuación de ondas]. t

6
1.2. EDPs lineales de segundo orden; clasificación

Consideremos [E] L[] ≡ A yy + B y + C  + D y + E  + H  = F ,

con  y los coeficientes funciones de (, y) . Suponemos que los coeficientes son
C2 y que A , B y C no se anulan simultáneamente en una región Ω del plano.
Como ocurría en las EDPs de primer orden, quizás un cambio de variable adecuado
haga desaparecer algunos términos de [E], de forma que nos quede una ecuación
resoluble elementalmente. Hagamos el cambio genérico:
ξ = ξ(, y)

, con ξ , η ∈ C2 y con jacobiano J = ξ ηy −ξy η 6= 0 en Ω . Entonces:
η = η(, y)

y = ξ ξy + η ηy
 = ξ ξ + η η

yy = ξξ ξ2y + 2 ξη ξy ηy + ηη η2y + ξ ξyy + η ηyy


y = ξξ ξy ξ + ξη [ξ ηy + ξy η ] + ηη ηy η + ξ ξy + η ηy
 = ξξ ξ2 + 2 ξη ξ η + ηη η2 + ξ ξ + η η

Con lo que [E] queda en función de las nuevas variables:

A ξ2y + B ξy ξ + C ξ2 ξξ + 2A ξy ηy + B(ξ ηy +ξy η ) + 2C ξ η ξη


   

+ A η2y + B ηy η + C η2 ηη + · · · = A∗ ξξ + B∗ ξη + C∗ ηη + · · · = F(ξ, η)


 

donde los puntos representan los términos en ξ , η y  .


Intentemos hacer A∗ = C∗ = 0 eligiendo ξ y η adecuados. Para ello debe cumplirse
la EDP de primer orden (no lineal):

A ξ2y + B ξy ξ + C ξ2 = 0 ( C∗ = 0 tiene la misma forma)

Si conseguimos hallar dos soluciones distintas (con Jacobiano no nulo) de esta EDP
podemos hacer desaparecer los términos en ξξ y ηη .
Cuando B2 − 4AC > 0 podemos separarla en dos EDPs diferentes de primer orden
lineales (de las estudiadas en la sección anterior):
h p i
1
[1] ξy = 2A −B ± B2 −4AC ξ
B
si es A 6= 0 ; si A = 0 y C 6= 0 es ξ = 0 o ξ = − C ξy ; A = C = 0 es caso trivial .
 

Si B2 −4AC = 0 , [1] se convierte en una única EDP. Y si es < 0 , la descomposición


anterior en EDPs de primer orden con coeficientes reales es imposible.

Por otra parte, es fácil verificar que (B∗)2 −4A∗C∗ = [B2 −4AC] J2 , J jacobiano del
cambio, y, por tanto, el signo de B2 −4AC no varía al hacer cambios de coordena-
das. Todo lo anterior nos lleva a definir:

Si en cada punto (, y) de una región del plano se cumple que la expresión
B(, y)2 −4A(, y)C(, y) es mayor que 0 , igual a 0 o menor que 0 , se dice,
respectivamente, que la EDP [E] es hiperbólica, parabólica o elíptica en
dicha región.

Sigamos con la simplificación de [E]. Precisemos cuál es el cambio adecuado a


cada tipo y encontremos la forma más sencilla en que podemos escribir la ecuación
(forma canónica) en cada caso.

7
Si [E] es hiperbólica, las EDPs de [1] tienen por ecuaciones características:
d 1 d 1
h p i h p i
dy
= 2A
B − B 2 −4AC , dy
= 2A
B + B 2 −4AC [e]

Se llaman curvas características de [E] a las curvas integrales


ξ(, y) = K , η(, y) = K de estas dos ecuaciones ordinarias
(son las características de las ecuaciones de primer orden [1]).

Como ξ(, y) y η(, y) son soluciones de [1] [vimos en 1.1 que  = p ξ(, y) y


 = q η(, y) , con p , q arbitrarias, eran sus soluciones generales], el cambio




ξ = ξ(, y)

lleva [E] a B∗ ξη + · · · = F. Como (B∗)2 > 0 podemos escribir la
η = η(, y)
forma canónica de las hiperbólicas: ξη + · · · = F ∗ .

B
Si [E] es parabólica, [1] es una sola EDP ξy + 2A ξ = 0 , de ecuación característica
d B
dy
= 2A
→ ξ(, y) = K curvas características de [E]
(las parabólicas sólo tienen una familia de características).
Escogiendo ξ = ξ(, y) hacemos A∗ = 0 (y como (B∗)2 −4A∗C∗ = 0 también
es B∗ = 0 ). Como η podemos tomar cualquier función de  e y tal que el
jacobiano no sea nulo. Se suele tomar η = y . Así haciendo

ξ = ξ(, y)

y dividiendo por C∗ se obtiene la
η=y
forma canónica de las parabólicas: ηη + · · · = F ∗ .

Si es elíptica, los segundos miembros de [e] son funciones complejas conjugadas:


d 1
h p i
dy
= 2A
B ±  4AC−B 2 (no hay, pues, características reales).

Es fácil ver que las soluciones de este par de ecuaciones son también complejas
conjugadas: ξ(, y) = α(, y)± β(, y) = K . También es fácil probar que el cambio

ξ = α(, y)

lleva [E] a la forma canónica de las elípticas:
η = β(, y)
ξξ + ηη + · · · = F ∗ .

En general, [E] puede ser de diferente tipo en diferentes regiones del plano y tener
una forma canónica distinta en cada una. Observemos también que las EDOs de
primer orden que dan las características normalmente no serán resolubles.
Pero en el caso de que A , B y C sean constantes, B2 − 4AC también lo es
y así [E] es del mismo tipo en todo el plano. Además los cambios de variable
[ahora válidos para todo (, y) ] se hallan aquí fácilmente:
p
2
ξ =  − B− B2A−4AC y 2A−By
(
B ξ= p
¨ ¨
ξ =  − 2A y
p 4AC−B2
B+ B2 −4AC η=y η = y [c]
η=− 2A
y
si [E] hiperbólica si [E] parabólica si [E] elíptica

[En este caso con coeficientes constantes, las hiperbólicas tienen dos familias de
rectas características, las parabólicas una única familia de rectas características
y las elípticas no tienen; la expresión dada para la elíptica se deduce de que
p
2A−By 2 2A−By
ξ = 2A ±  4AC−B 2A
y = K equivale a ξ = p 2
± y = K ].
4AC−B

8
hiperbólica si y > 0
Ej 1. yy − y  = 0 (ecuación de Tricomi) → B2 − 4AC = 4y →
elíptica si y < 0
(sobre y = 0 es parabólica, pero las EDPs se plantean sobre conjuntos abiertos).
d 2 3/ 2
y>0 : dy
= ±y 1/ 2 ; características  ± 3
y = K . Hacemos pues:

ξ = + 23 y 3/ 2
(
y = y 1/ 2 [ξ −η ]  = 1 y −1/ 2 [ξ −η ] + y[ξξ −2ξη +ηη ]
→ → yy 2
η= − 23 y 3/ 2  = ξ + η  = ξξ + 2ξη + ηη

1 −1/ 2 1 ξ −η 4 3/ 2
→ 2
y [ξ −η ] − 4yξη =0 → ξη − 6 ξ−η
=0 , pues ξ−η = 3
y .

y < 0 : d
dy
= ± [−y]1/ 2 → ξ =  ±  23 [−y]3/ 2 = K . Hacemos ahora:

α=
¨
 = −[−y]1/ 2 β  = 12 [−y]−1/ 2 β + [−y]ββ
2 → y → yy
β = 3 [−y] 3/ 2  = α  = αα

1 1
→ αα + ββ + 2
[−y]−3/ 2 β =0 → αα + ββ + 
3β β
=0 .

Ej 2. 4yy − 4y +  = 0 → B2 − 4AC = 0 → parabólica en todo R2 .


y
Como A , B y C son constantes, basta copiar el cambio [c]: ξ =  + 2
, o mejor
yy = ξξ + 2ξη + ηη
ξ = 2+y y = ξ + η

→ → y = 2ξξ + 2ξη
η=y  = 2ξ
 = 4ξξ

Llevándolo a la ecuación se llega a ηη = 0 .

Esta forma canónica que se resuelve fácilmente: η = p(ξ) →  = η p(ξ)+q(ξ) .


Por tanto, la solución general de la ecuación es:

(, y) = y p(2+y) + q(2+y) , con p y q funciones C2 arbitrarias.

Como en el ejemplo 2, en ocasiones será posible hallar elementalmente la solución


general de [E] tras escribirla en forma canónica (pero en la mayoría seguirá siendo
imposible; como en las dos regiones del ejemplo 1).
Identifiquemos las formas canónicas resolubles:

Si sólo hay derivadas respecto a una variable: ηη + E∗η + H∗ = F ∗

Esta ecuación lineal de segundo orden, ordinaria si la vemos como función de η ,


se integra considerando la otra variable como un parámetro. Un par de constantes
para cada ξ dan lugar a dos funciones arbitrarias de ξ en la solución. La ecuación,
como vemos, debe ser parabólica.

Si sólo aparece ξη y una de las derivadas primeras: ξη + D∗ξ = F ∗

Se resuelve haciendo ξ =  : la lineal de primer orden η + D∗ = F ∗ es integrable


viendo ξ como parámetro. La  contiene, pues, una función arbitraria de ξ . Al
integrarla para hallar la  aparece otra función arbitraria (de η ). Las cosas serían
análogas si en vez de la ξ apareciese la η . La ecuación es hiperbólica.

[En las EDOs de segundo orden salen dos constantes arbitrarias; aquí hay,
en los dos casos, dos funciones arbitrarias (evaluadas en las características
como ocurría en las EDPs de primer orden). Se ve que ninguna ecuación
elíptica, ni la del calor t − son resolubles por este camino].
[En los problemas veremos que otras pocas ecuaciones más con coeficientes
constantes pueden llevarse a estas formas haciendo cambios de variable del
tipo  = epy eq  que hacen desaparecer alguna derivada de menor orden].

9
Ej 3. yy + 5y + 4 + y +  = 3 → B2 −4AC = 9 , hiperbólica.
p yy = ξξ + 8ξη + 16ηη
ξ = −y y = −ξ − 4η

B∓ B2 −4AC 1
= 4 → → → y = −ξξ − 5ξη − 4ηη
2A η = −4y  = ξ + η
 = ξξ + 2ξη + ηη
1
Entonces: ξη + 
3 η
= − 31 , del segundo de los tipos citados. Para resolverla:

η =  → ξ = − 13  − 1
3
→  = q∗(η)e−ξ/ 3 − 1 → (ξ, η) = q(η)e−ξ/ 3 + p(ξ) − η

La solución general es, pues:

(, y) = q(−4y) e(y−)/ 3 + p(−y) + 4y− , q y p arbitrarias.

B2 − 4AC ≡ 0
Ej 4. y 2 yy + 2yy + 2  + y 2 y + y = 0 →
parabólica en R2
ξ = y/ 

d 2y 
dy
= 2y 2
= y
→ η=y
. Operando se llega a su forma canónica: ηη + η = 0 .

Es una EDO lineal de segundo orden en η con autovalores dados por λ(λ+1) = 0 →
y y
(ξ, η) = p(ξ) + q(ξ) e−η . Es decir, (, y) = p 
+ q  e−y .

Acabamos la sección aplicando las técnicas anteriores para hallar la solución gene-
ral de la única de las ecuaciones clásicas que se puede abordar por este camino:
la ecuación de ondas en una dimensión espacial (cuerda vibrante):

tt − c2  = 0 → B2 −4AC = 4c2 → hiperbólica en todo el plano.

Las expresiones de [c] se convierten aquí en:


 = ξξ + 2ξη + ηη
¨
ξ =  + ct


η =  − ct tt = c2 [ξξ − 2ξη + ηη ]
y, por tanto, en las nuevas variables:
forma
−4c2 ξη = 0 → ξη = 0 canónica
→ ξ = p∗(ξ) →  = p(ξ) + q(η)

Luego la solución general de la ecuación de ondas es:

(, t) = p(+ct) + q(−ct) , p y q funciones arbitrarias de C2 .

[Observemos que la solución resulta ser la suma de dos ondas que viajan
a velocidad c , una hacia las  crecientes y otra hacia las decrecientes.
En la siguiente sección hallaremos una fórmula para la única solución
que satisface una pareja de ‘datos iniciales’].

10
1.3. Los problemas clásicos; unicidad
Sea [E] L[] = F una EDP lineal de segundo orden en dos variables. ¿Qué datos adi-
cionales nos proporcionan problemas bien planteados para [E]? Para una EDO de
segundo orden era necesario fijar el valor de la solución y de su derivada en el ins-
tante inicial para tener solución única. En una EDP lineal de primer orden fijábamos
los valores de la solución en toda una curva G (no tangente a las características).
Acabamos de ver que en los pocos casos en que [E] era resoluble aparecían dos
funciones arbitrarias en la solución.
Todo ello lleva a plantear el problema de Cauchy para [E]: u
Hallar la solución que tome unos valores dados de 
y y a lo largo de una curva dada G del plano y .
(geométricamente, hallar la superficie solución que contenga y
una curva dada y tenga a lo largo de ella una familia de planos
tangentes también dados). Alternativamente se podrían fijar x G
sobre G los valores de  o de la derivada normal n .
En particular, al tomar como G el eje  se tiene el problema de valores iniciales
que consiste en hallar la solución de [E] que cumple (, 0) = ƒ () , y (, 0) = g() .
Como ocurría en las de primer orden se puede probar que:
Si los datos son regulares y G no es tangente a las características en ningún
punto, el problema de Cauchy tiene solución única en las proximidades de G .
y
2
yyy + 2y 2 y + y 3  − y = 0

Ej 1. Sea [P] .
(, 2) =  , y (, 2) = 0
d y2 x
B2 −4AC ≡ 0, parabólica en R2 . dy
= y → − 2
= K características.
Como y = 2 nunca es tangente a ellas, el problema de Cauchy [P]
tiene solución única. Es resoluble y podemos comprobarlo:
y2
¨
ξ =  − 2 → η − = 0 −→
y2 y2
 = p(ξ)+q(ξ) η2 = p(− 2 )+q(− 2 ) y 2
ηη η
η=y Euler ó η =

Imponiendo los datos de Cauchy ( y = −yp0 − y 3 q0 + 2yq ):


(, 2) = p(−2) + 4q(−2) =  p0 (−2)+4q0 (−2) = 1
 
0 0 → 0 0
y (, 2) = −2p (−2)−8q (−2)+4q(−2) = 0 p (−2)+4q (−2) = 2q(−2)
[ p0 y q0 representan la misma derivada ordinaria en ambas ecuaciones]
y2 y2
→ q(−2) = 21 → q() = 12 ∀ → p(−2) = −2 → p() =  ∀ →  =  − 2
+ 2
=  ,
solución determinada de forma única por los cálculos anteriores.

¿Es este problema el adecuado a todas las EDPs de segundo orden? No lo es. En los
problemas reales aparecen condiciones mucho más variadas que las de Cauchy: en
unos casos hay que imponer condiciones iniciales y de contorno a la vez, en otros
sólo de contorno... Además un dato de Cauchy puede originar problemas mal plan-
teados (sin la necesaria dependencia continua) para EDPs no hiperbólicas, como
éste para Laplace (cuya solución será única por no tener características reales):
 + yy = 0

sh ny sen n
sen n . Su solución (única) es (, y) = ,
(, 0) = 0 , y (, 0) =
n
n2

pero aunque el dato sennn → 0 uniformemente,  es muy grande (si y 6= 0 ) para


n grande, y se parece poco a la solución  ≡ 0 asociada a (, 0) = y (, 0) = 0 .

Veamos los principales problemas asociados a las ecuaciones clásicas en dos va-
riables [sólo (P1 ) será de Cauchy]. Para cada uno habría que probar que ‘está bien
planteado’. Para más variables las cosas son análogas y poco más complicadas.

11
Ondas. Tiene solución única dependiente continuamente de los datos el
¨  −c2  = F(, t) , , t ∈ R u(x,0) g(x)
tt 
problema puro de
(P1 ) (, 0) = ƒ () f(x)
valores iniciales:
t (, 0) = g() x
t

x para la cuerda infinita (tiene sentido real cuando t es pequeño y


estamos lejos de los extremos). Como damos los datos sobre t = 0
no característica (eran ±ct = K ) hay solución única.
En el caso de la ecuación homogénea ( F ≡ 0 ) hallemos su solución y deduzcamos
de ella la dependencia continua. Vimos en la sección anterior su solución general:
tt −c2  = 0 → (, t) = p(+ct)+q(−ct) , p , q arbitrarias.
Imponiendo los datos:
¨ 0
p() + q() = ƒ () p () + q0 () = ƒ 0 ()

→ → 2p0 () = ƒ 0 () + 1c g()
cp0 () − cq0 () = g() p0 () − q0 () = 1c g()
1 1
R 1 1
R
→ p() = 2
ƒ () + 2c 0
g(s) ds + k → q() = 2
ƒ () − 2c 0
g(s) ds − k →
+ct
fórmula de
Z
1 1
(, t) = ƒ (+ct) + ƒ (−ct) +

g(s) ds
2 2c
−ct D’Alembert
que da la solución única de (P1 ) si F ≡ 0 . Para que  sea C2 , debe ƒ ∈ C2 y g ∈ C1 .

Comprobemos que datos iniciales próximos ocasionan soluciones (, t) y ∗(, t)


cercanas en intervalos de tiempo finitos (es decir, la dependencia continua):
si |ƒ ()−ƒ ∗()| < δ y |g()−g∗()| < δ ∀ ; entonces para t ∈ [0, T] se tiene:
R +ct
|−∗| ≤ 21 |ƒ (+ct)−ƒ ∗(+ct)| + 12 |ƒ (−ct)−ƒ ∗(−ct)| + 2c
1
−ct
|g(s)−g∗(s)| ds
δ
R +cT ε
< δ + 2c −cT
ds = δ(1+T) < ε ∀ y ∀t ∈ [0, T] , si δ < 1+T .

Consideremos ahora la cuerda acotada cuyos extremos se mueven verticalmente


según h0 (t) y hL (t) dadas (que estén fijos es un caso particular). Hay entonces
dos condiciones de contorno adicionales:
¨  − c2  = F(, t) ,  ∈ [0, L], t ∈ R
tt 
(P2 ) (, 0) = ƒ () , t (, 0) = g()
(0, t) = h0 (t) , (L, t) = hL (t)

Demostremos su unicidad (veremos que la solución existe, como en otros casos,


hallándola explícitamente [en 3.1 por separación de variables ó en 4.1 a través de
extensiones]; la dependencia continua, que se cumple, no la probamos).
Sean 1 y 2 soluciones cualesquiera de (P2 ) y sea  = 1−2 . Entonces  cumple:
¨
tt − c2  = 0 ,  ∈ [0, L] , t ∈ R
(P0 )
(, 0) = t (, 0) = (0, t) = (L, t) = 0
Queremos ver que  ≡ 0 . Integremos la identidad:
1 ∂ ∂
t [tt − c2  ] = 2 ∂t
[2t + c2 2 ] − c2 ∂ [t  ]
para  entre 0 y L y t entre 0 y T cualquiera, suponiendo  solución de (Po ):
1 L 2 (,T) R T (L,t) R L
t +c2 2 (,0) d − c2 0 t  (0,t) dt = 12 0 t (, T)2 +c2  (, T)2 d = 0
R 
2 0

pues tt −c2  = t (, 0) =  (, 0) = t (0, t) = t (L, t) = 0 .


El último corchete es ≥ 0 y es función continua de  . Para que la integral se anule
debe ser t (, T) =  (, T) = 0 si 0 ≤  ≤ L y para cualquier T. Por tanto (, t) es
constante y como (, 0) = 0 debe ser  = 1 −2 ≡ 0 . Hay unicidad.

12
Calor. Para la varilla infinita se prueba que está bien planteado:
¨
t − k = F(, t) ,  ∈ R, t > 0
(P3 )
(, 0) = ƒ () ,  acotada

Basta un solo dato, la distribución inicial de temperaturas, para fijar las posteriores.
[No podemos dar arbitrariamente la t (, 0) pues debe ser t (, 0) = kƒ 00 ()+F(, 0) si
 es solución ( t = 0 es característica y (P3 ) no es buen problema de valores iniciales)].

Para la varilla acotada hay condiciones de contorno, que pueden ser de varios
tipos, con diferentes significados físicos cada uno. Si los extremos toman a lo largo
del tiempo las temperaturas dadas h0 (t) y hL (t) se tiene:
¨  − k = F(, t) ,  ∈ (0, L), t > 0
t 
(P4 ) (, 0) = ƒ ()
(0, t) = h0 (t) , (L, t) = hL (t)

Si lo que fijamos es el flujo de calor en los extremos obtenemos:


¨  − k = F(, t) ,  ∈ (0, L), t > 0
t 
(P5 ) (, 0) = ƒ ()
 (0, t) = h0 (t) ,  (L, t) = hL (t)

[En particular, si h0 (t) = hL (t) = 0 , los extremos están aislados].


Un tercer tipo de condiciones de contorno combina  y  :

(0, t)− (0, t) = h0 (t) ó (L, t)+b (L, t) = hL (t) , con , b > 0 .

Expresan la radiación libre de calor hacia un medio a temperatura dada (si el


extremo  = L está más (menos) caliente que hL entonces irradia (chupa) calor
pues  = (hL −)/ b < 0 ( > 0 ) y el flujo de calor es siempre en sentido opuesto al
gradiente de las temperaturas; lo mismo sucede con el otro extremo).
Probemos que (P4 ) ó (P5 ) (o cualquiera de los otros 7 problemas que aparecen
combinando los 3 tipos de condiciones descritos) poseen solución única. Sean 1
y 2 soluciones. Entonces  = 1 −2 satisface el problema con F = ƒ = h0 = hL = 0 .
Multiplicando la ecuación por  e integrando respecto a  entre 0 y L se tiene:
RL RL d L 2 (L,t) RL
t d−k 0  d = 21 dt
R
 d−k  (0,t) +k 0 2 d = 0

0 0
d L 2
R
⇒ dt 0
(, t) d ≤ 0
[si  = 0 ó  = 0 en los extremos la última implicación es clara, ya que k > 0 ;
es también fácil verlo si − = 0,  > 0 ó si +b = 0, b > 0 ; no se puede dar
ese paso ni probar la unicidad para  < 0 ó b < 0 (físicamente inadmisible)].
La última integral es una función U(t) no creciente ( U0 ≤ 0 ), que cumple U(0) = 0
(pues (, 0) = 0 ) y es U(t) ≥ 0 (integrando positivo). De las tres cosas se sigue
que U(t) ≡ 0 ⇒  ≡ 0 . Unicidad.

Una forma alternativa de probar la unicidad de algunos problemas (que además permite
atacar la dependencia continua) es utilizar un principio del máximo que se ajuste a ese
problema. Por ejemplo, es cierto este principio que no demostramos:

Si  es continua en [0, T]×[0, L] y satisface t −k = 0 en (0, T)×(0, L) , los valores


máximo y mínimo de  se alcanzan o bien en t = 0 o bien en  = 0 ó bien en  = L .

[Si ni la temperatura inicial en la varilla ni la de los extremos supera un valor M , no se puede


crear en su interior una temperatura mayor que M (si no hay fuentes externas); la prueba
a partir de esto de la unicidad y la dependencia continua de (P4 ) sería parecida a la que
veremos para Laplace y no la hacemos; si quisiéramos demostrar la unicidad para los otros
problemas de la ecuación del calor, necesitaríamos otros principios del máximo diferentes].

13
Laplace. Los problemas son de contorno. Los dos más importantes son:
∂D
Problema Δ = F en D Problema Δ = F en D
 
de (PD ) de (PN )
Dirichlet:  = ƒ en ∂D Neumann: n = ƒ en ∂D D dominio
acotado

Donde D es un abierto conexo acotado de R2 , ∂D es su frontera y


n es la derivada en la dirección del vector normal unitario exterior n .
Si vemos la ecuación describiendo una distribución estacionaria de temperaturas
en una placa, en (PD ) fijamos las temperaturas en el borde y en (PN ) el flujo de
calor en dirección normal al borde.
Si F , ƒ y ∂D son regulares, el (PD ) es un problema bien planteado. Lo resolveremos
en recintos sencillos en el capítulo 3. Probemos ahora su unicidad por dos caminos.
Mediante la fórmula de Green (generaliza la integración por partes a R2 ):
ZZ I ZZ
Sea  ∈ C (D)∩C D . Entonces
2 1  Δ ddy = k∇k2 ddy

 n ds −
D ∂D D
ZZ I
Identidad Δ = div ∇ −k∇k2 y teorema de la divergencia div f ddy =
   
f n ds .
D ∂D

Si 1 y 2 son soluciones de (PD ),  = 1 −2 verifica el problema con F = ƒ = 0 .


La fórmula de Green dice entonces que:
ZZ
k∇k2 ddy = 0 ⇒ ∇ = 0 ⇒  = cte ⇒  ≡ 0 (pues  = 0 en ∂D ).
D

Probamos de otra forma la unicidad de (PD ), y también la dependencia continua,


con el siguiente principio del máximo para Laplace (intuitivamente claro: la tem-
peratura de una placa no supera la máxima de su borde) que no demostramos:

Si  satisface Δ = 0 en un dominio acotado D y es continua


en D entonces  alcanza su máximo y su mínimo en la ∂D .
Δ = 0 en D

Como  = 1 − 2 , con 1 , 2 soluciones, verifica , se tiene:
 = 0 en ∂D

0 = mı́n  ≤ mı́n  ≤ m́x  ≤ m́x  = 0 ⇒  ≡ 0


∂D D D ∂D

Si ∗ es solución de (PD ) con =ƒ∗ en ∂D y sea |ƒ −ƒ ∗| < ε en ∂D . Entonces:


Δ = 0 en D

 = −∗ → ⇒ −ε < mı́n  ≤  ≤ m́x  < ε ⇒ |−∗| < ε en D.
 = ƒ −ƒ ∗ en ∂D ∂D ∂D
Si la diferencia entre datos es pequeña, lo es la diferencia entre soluciones.

Para el (PN ) la situación es más complicada. En primer lugar, para que (PN ) pueda
tener solución es necesario que F y ƒ satisfagan la relación:
ZZ I
[basta aplicar el teorema de la
F ddy = ƒ ds
D ∂D
divergencia a ∇ para verlo].

Además, si (PN ) tiene solución, esta contiene una constante arbitraria [lo que era
esperable, ya que ecuación y condición de contorno sólo contienen derivadas].
También se ve que si queremos repetir la prueba de la unicidad con la fórmula de
Green, podemos dar todos los pasos excepto la última implicación. Se dice que el
problema de Neumann (PN ) tiene unicidad salvo constante.
[Además se imponen a Laplace condiciones de contorno del tipo  + n = ƒ ,  > 0,
y también tienen interés los problemas en que en parte de ∂D hay condiciones tipo
Dirichlet, en otra tipo Neumann... (todos son problemas bien planteados). También se
tratan problemas en D no acotados. Para tener unicidad, además de los datos en ∂D ,
hay que exigir un ’adecuado comportamiento’ en el infinito].

14
2. Problemas de contorno para EDOs
Un problema de valores iniciales para una ecuación ordinaria con coeficientes
continuos tenía solución única. En concreto, la solución de una ecuación lineal de
segundo orden queda determinada fijando el valor de la solución y de su deri-
vada en un punto dado. Las cosas cambian si imponemos las condiciones en los
dos extremos de un intervalo [, b] . Estos problemas de contorno presentan
propiedades muy diferentes. Por ejemplo, un problema tan sencillo y regular como
y () + y() = 0
 00

y(0) = 0, y(π) = 0
tiene infinitas soluciones: y = C sen  , con C constante arbitraria.
Los problemas de contorno que nos aparecerán al utilizar el método de separa-
ción de variables del capítulo 3 dependerán de un parámetro λ . Para analizar
sus propiedades convendrá escribir la ecuación de la siguiente forma:
¨ (py 0 )0 − qy + λry = 0
(P) αy() − α 0 y 0 () = 0
βy(b) + β0 y 0 (b) = 0
Ante un problema como (P) nuestro objetivo será hallar los valores de λ para
los que hay soluciones no triviales (autovalores de (P)) y esas soluciones
no triviales correspondientes a cada λ (autofunciones de (P) asociadas a λ ).
Observemos que y = 0 es siempre solución trivial de (P) y que, por ser lineales y
homogéneas la ecuación y las condiciones de contorno, si y() es solución de (P)
también lo es Cy() para cualquier C .
Comenzaremos en 2.1 estudiando varios ejemplos para la ecuación y 00 +λy = 0
(la más sencilla y la que más veces aparece separando variables). En ellos existirá
una sucesión infinita de autovalores y las autofunciones asociadas a λ distintos
serán ortogonales entre sí. Después precisaremos para qué tipo de problemas de
contorno (P) se mantienen esas propiedades. Serán los que se llaman problemas
de Sturm-Liouville separados. Hablaremos también brevemente de los proble-
mas periódicos y de los singulares.
En la sección 2.2 veremos que cualquier función ƒ continua y derivable a trozos
se puede escribir como una serie de autofunciones de un problema de Sturm-
Liouville, lo que será muy útil en la resolución de EDPs. Este resultado generaliza los
desarrollos de Fourier en series de senos y cosenos, cuyas propiedades básicas
también veremos. Aunque la convergencia natural de estas series sea la llamada
’convergencia en media’, nosotros nos limitaremos a tratar la convergencia puntual
y uniforme.
Por último, en 2.3, estudiaremos problemas en que la ecuación (o alguna condi-
ción de contorno) sea no homogénea. Para ellos, ni y = 0 es solución, ni lo son los
múltiplos de una solución dada. La existencia de soluciones dependerá de si exis-
ten o no soluciones no triviales del homogéneo. Tendrán solución única en el último
caso, e infinitas o ninguno si el homogéneo tiene infinitas. Cuando haya solución
única daremos una fórmula para las soluciones del no homogéneo en términos de
la llamada función de Green.
La notación en todo este capítulo será y() , pero en separación de variables las
funciones de nuestros problemas de contorno serán X() , Y(y) , R(r) , Θ(θ) , . . .

15
2.1. Problemas de Sturm-Liouville homogéneos
Antes de dar la teoría general, hallemos los autovalores y autofunciones de dos
problemas de contorno homogéneos para la sencilla EDO lineal y 00 +λy = 0 .
p
Como su polinomio característico es μ2 +λ = 0 → μ = ± −λ , la solución general
de la ecuación será diferente según λ sea menor, igual ó mayor que 0 .

y 00 + λy = 0

Ej 1. (P1 ) Imponemos las condiciones de contorno en cada caso:
y(0) = 0, y(π) = 0
p
Si λ < 0 la solución general es y = c1 ep + c2 e−p , con p = −λ > 0 .
y(0) = c1 + c2 = 0 → c2 = −c1 &
«

y(π) = c1 eπp +c2 e−πp = 0 c1 [eπp −e−πp ] = 0 e!p

Por tanto c1 = c2 = 0 (pues eπp 6= e−πp si p > 0 ). e-!p


Ningún λ < 0 es autovalor. p

y(0) = c1 = 0

Si λ = 0 es y = c1 + c2  → → y ≡ 0 . λ = 0 tampoco es autovalor.
y(π) = c1 +c2 π = 0

p y(0) = c1 = 0 ↓

Y para λ > 0 es y = c1 cos +c2 sen  , con  = λ > 0 →
y(π) = c2 sen π = 0
Para tener solución no trivial debe ser c2 6= 0 . 1
p y
Para ello, π = π λ = nπ → λn = n2 , n = 1, 2, . . . 1

Para cada uno de estos λn hay soluciones no triviales 0 !


y y2
3
yn = c2 sen n ≡ {sen n} .

Observemos que se cumple si m 6= n : 0 sen n sen m d = 0 ,
sen(n+m) π
Rπ  h
sen(n−m)
i
pues 12 0 cos(n−m)−cos(n+m) d = 12 =0.

n−m
− n+m 0

Resumiendo: (P1 ) tiene una sucesión infinita de autovalores λn = n2 , n = 1, 2, . . . .


Las autofunciones yn = {sen n} asociadas a cada λn forman un espacio vec-
torial de dimensión 1 . La n-sima autofunción posee n−1 ceros en (0, π) . Las
autofunciones
Rπ distintas son ortogonales en [0, π] [respecto del producto escalar
(, ) = 0   d ].

y 00 + λy = 0

Ej 2. (P2 ) Imponemos estas nuevas condiciones:
y 0 (0) = 0, y 0 (π) = 0

y 0 (0) = p[c1 − c2 ] = 0
«
λ<0 → → c2 = c1 → c1 [eπp −e−πp ] = 0 → y ≡ 0 .
y 0 (π) = p[c1 eπp −c2 e−πp ] = 0

y 0 (0) = c2 = 0

λ=0 → → λ = 0 autovalor con autofunción y0 = c1 .
y 0 (π) = c2 = 0

y 0 (0) = c2 = 0 ↓

1
λ>0 → → λn = n2 , yn = c1 cos n .
y 0 (π) = −c1 sen π = 0 cos x

Los λn = n2 y las yn = {cos n} , n = 0, 1, 2, . . . 0 !


tienen las mismas propiedades resaltadas para el problema cos 2x
anterior. Por ejemplo, la autofunción que ocupa el lugar n se
anula n−1 veces y sigue habiendo ortogonalidad:
sen(n+m) π
Rπ Rπ h
sen(n−m)
i
0
cos n cos m d = 21 0 [cos(n−m)+cos(n+m)] d = 21 n−m
+ n+m =0 .
0

16
Pasemos a tratar ya el problema general. Sea la ecuación lineal de segundo orden
dependiente de un parámetro real λ :
y 00 + ()y 0 + b()y + λc()y = 0 , con , b, c ∈ C[, b] , c() > 0 en [, b] .
La reescribimos de otra forma,Rque se suele denominar ’autoadjunta’ o ’Sturm-
Liouville’. Multiplicando por e  se tiene
h R i0 R R
0
e  y 0 + b e  y + λ c e  y ≡ py 0 − qy + λry = 0 , con p ∈ C1 , q, r ∈ C , p, r > 0 .


Las condiciones que más nos van a interesar son las condiciones separadas (cada
una afecta a los valores de y o de y 0 sólo en uno de los extremos del intervalo):

Se llama problema de Sturm-Liouville separado regular a uno del tipo:


0
¨
[py 0 ] − qy + λry = 0
(Ps )
αy()−α 0 y 0 () = 0 , βy(b)+β0 y 0 (b) = 0 (condiciones separadas)
donde p ∈ C1 [, b] , q, r ∈ C[, b] , p, r > 0 en [, b] , |α|+|α 0 | , |β|+|β0 | 6= 0 .
[Las últimas condiciones lo que dicen es que α y |α 0 | , |β| y |β0 | no se anulan a la vez].

Los ejemplos 1 y 2 eran unos (Ps ). Este teorema generaliza sus propiedades:

Los autovalores de (Ps ) son una sucesión infinita λ1 < λ2 < · · · < λn < · · ·
que tiende a ∞. Las autofunciones {yn } forman un espacio vectorial
de dimensión 1 y cada yn posee exactamente n − 1 ceros en (, b) .
Las autofunciones asociadas a autovalores distintos son ortogonales
Teor 1. en [, b] respecto al peso r , es decir:
Rb
〈yn , ym 〉 ≡  r yn ym d = 0 , si yn , ym están asociadas a λn 6= λm .
Si αα 0 ≥ 0 , ββ0 ≥ 0 y q() ≥ 0 en [, b] entonces todos los λn ≥ 0 . En
particular, para y() = y(b) = 0 [o sea, si α 0 = β0 = 0 ] todos los λn > 0 .

No probamos la primera afirmación y la de los ceros que son difíciles. Sí el resto.


β
Si y cumple (Ps ): y 0 () = αα0 y() , α 0 6= 0 ; y 0 (b) = − β0 y(b) , β0 6= 0
[y es y() = 0 , si α 0 = 0 ; y(b) = 0 , si β0 = 0].
Si y , y ∗ están asociadas al mismo λ , se deduce que dependen linealmente, pues
su wronskiano se anula en  (o también en b ):
|W|(y, y ∗ )() = yy ∗ 0 −y 0 y ∗ = = 0 , si α 0 = 0 o si α 0 6= 0 .

Sean ahora yn , ym asociadas, respectivamente, a λn y λm :


λn ryn = −[pyn0 ]0 +qyn
«
Multiplicando por ym e yn ,
λm rym = −[pym 0 ]0 +qy
m restando e integrando:
Rb Rb
[λn −λm ]  ryn ym d =  yn (pym 0 )0 −y (py 0 )0 d partes
= 0 − y y0 ) b = 0
  
m n
p(yn ym m n 

pues |W|(yn , ym ) = 0 en  y en b . Por tanto, si λn 6= λm se tiene que 〈yn , ym 〉 = 0 .

Si y es la autofunción asociada a λ y αα 0 ≥ 0 , ββ0 ≥ 0 , q ≥ 0 entonces


Rb Rb Rb b
λ  ry 2 d =  − y(py 0 )0 +qy 2 d =  p(y 0 )2 +qy 2 d − pyy 0  ≥ 0 ⇒ λ ≥ 0 ,
  

Rb Rb
pues  ry 2 d > 0 ( r > 0 ) ,  p(y 0 )2 +qy 2 d ≥ 0 ( p > 0 , q ≥ 0 ) ,


¨ β ¨ α
p(b)[y(b)]2 ≥ 0 si β0 6= 0 p()[y()]2 ≥ 0 si α 0 6= 0
−[pyy 0 ](b) = β0 , [pyy 0 ]() = α0 .
0 si β0 = 0 0 si α 0 = 0
Rb
Si y() = y(b) = 0 , y = {1} no es autofunción ⇒ y 0 ≡
6 0 ⇒ 
p(y 0 )2 > 0 ⇒ λ > 0 .

17
 00
y + λy = 0  0 0
Ej 3. (P3 ) (casi en forma autoadjunta: y + λy = 0 ; es r ≡ 1 ).
y 0 (0) = y(1) = 0

Tendrá las propiedades del teorema 1. Busquemos sus λn . Como αα 0 = ββ0 = 0 , q ≡ 0 , nos
limitamos a los λ ≥ 0 . [Ahora ya sabemos que podíamos haber hecho esto en el ejemplo
2, y que en el 1 hubieran bastado los λ > 0 ; que conste que hay problemas con λ < 0 ].
y 0 (0) = c2 = 0

λ = 0 : y = c1 +c2  → → y ≡ 0 . λ = 0 no es autovalor.
y(1) = c1 +c2 = 0

λ > 0 : y = c1 cos +c2 sen  . y 0 (0) = 0 → c2 = 0 → y(1) = c1 cos  = 0


(2n−1)2 π 2
n o
→ n = 2n−12
π , λn = 4
, yn = cos 2n−1
2
π , n = 1, 2, . . .
R1
El teorema asegura que las {yn } son ortogonales: 0 yn ym d = 0 ,
n 6= m (sería fácil comprobarlo), y que la autofunción n-sima (como
le ocurre a las tres dibujadas) tiene n−1 ceros en (0, 1) .

Como αα 0 = 0 , ββ0 > 0 , q ≡ 0 ,


 00
y + λy = 0
Ej 4. (P4 )
y 0 (0) = y 0 (1)+y(1) = 0 volvemos mirar sólo los λ ≥ 0 .

y 0 (0) = c2 = 0

λ = 0 : y = c1 +c2  → → y ≡ 0 . λ = 0 no autovalor.
y 0 (1)+y(1) = c1 +2c2 = 0

λ > 0 : y = c1 cos +c2 sen  . y 0 (0) = c2 = 0 → y 0 (1)+y(1) = c1 [cos − sen ] = 0 .

No podemos hallar exactamente los λn , pero tn n = 1


n
lo cumplen infinitos n (anulan el corchete infinitos n ),
que sólo se pueden hallar aproximadamente. La yn para cada 1/w
λn = n2 es {cos n } . Estas yn serán ortogonales. !
0 w1 w2 w3 w
[La mayoría de los problemas de S-L no son resolubles, pues
pocas lineales de segundo orden lo son elementalmente (las
de coeficientes constantes y pocas más), y aunque lo sean tan w
puede ocurrir lo que en este ejemplo].

 00
y − 2y 0 + λy = 0 μ2 −2μ+λ = 0 ,  −2 0 0
Ej 5. (P5 ) → p e y + λe−2 y = 0
y 0 (0) = y 0 (1) = 0 μ = 1± 1−λ .
Sabemos que los λ ≥ 0 , pero esto no ahorra cálculos, pues y hay que mirar λ <, =, > 1 :
p
λ < 1 : y = c1 e(1+p) + c2 e(1−p) , y 0 = c1 (1+p) e(1+p) + c2 (1−p) e(1−p) , p = 1−λ →
c1 [1+p] + c2 [1−p] = 0
«
→ c2 (1−p)e[e−p −ep ] = 0 → p = 1 ( λ = 0 ), y0 = {1} .
c1 [1+p]e1+p +c2 [1−p]e1−p = 0
c +c = 0

λ = 1 : y = [c1 +c2 ] e , y 0 = [c1 +c2 +c2 ] e → 1 2 → y ≡ 0 . λ = 1 no autovalor.
c1 +2c2 = 0
p
y = [c1 cos +c2 sen ] e ,  = λ−1
λ>1 : 0  → y 0 (0) = c1 +c2  = 0 →
y = (c1 +c2 ) cos +(c2 −c1 ) sen  e

y 0 (1) = c2 e(1+2 ) sen  = 0 →
 = nπ, n = 1, 2, . . . → λn = 1+n2 π 2 , yn = e [sen nπ−nπ cos nπ] , n = 1, 2, . . .


Las autofunciones serán ortogonales respecto al peso r() = e−2 :


R1
0
e− [sen nπ−nπ cos nπ] d = 0
R1
0
[sen nπ−nπ cos nπ][sen mπ−mπ cos mπ] d = 0 (m 6= n)

 2 00
 y + y 0 + λy = 0
R R d
0 y
p() = e 
=e + λ  = 0 . Es r() = 1 .
= → y 0

Ej 6. (P6 ) 
y(1) = y(e) = 0
Es problema separado regular p, r > 0 en [1, e] .


p
Ecuación de Euler: r(r −1)+r +λ = 0 → r = ± −λ . Basta mirar los λ > 0 :
c =0

y = c1 cos( ln )+c2 sen( ln ) , c1 sen  = 0 λn = n2 π 2 , yn = sen(nπ ln ) , n = 1, 2, . . .

2
R e sen(nπ ln ) sen(mπ ln ) d
Como siempre, las autofunciones son ortogonales: 1 
= 0 , m 6= n .

18
Separando variables nos aparecerán también problemas de contorno como el si-
guiente, que no es separado, pues sus condiciones de contorno mezclan valores
en los dos extremos del intervalo. En concreto, este es un problema periódico:
 00
y + λy = 0 [Estas condiciones equivalen a
Ej 7. (P7 )
y(−π) = y(π), y 0 (−π) = y 0 (π) pedir que y sea 2π-periódica].

c1 [eπp −e−πp ]−c2 [eπp −e−πp ] = 0


«
λ<0 → Como el determinante de los coeficientes
c1 [eπp −e−πp ]+c2 [eπp −e−πp ] = 0
eπp −e−πp e−πp −eπp 2
= 2(eπp −e−πp ) 6= 0 si p > 0 ,
eπp −e−πp eπp −e−πp
el sistema sólo tiene la solución trivial c1 = c2 = 0 . No hay autovalores negativos.
c −c π = c1 +c2 π

λ = 0 → c1 = c2 se satisface para c2 = 0 y cualquier c1 : y0 = c1 = {1} .
2 2

2c2 sen π = 0
«
λ>0 → → sen π = 0 → λn = n2 , n = 1, 2, . . .
2c1  sen π = 0

Para esos λn las condiciones de contorno se cumplen para todo c1 y todo c2 .


Las autofunciones son, pues: yn = c1 cos n + c2 sen n ≡ {cos n, sen n} .
[Es claro que exigir simplemente que y sea 2π-periódica
lleva directamente a los mismos autovalores y autofunciones].

Las propiedades de (P7 ) son algo distintas de las los problemas separados: sigue ha-
biendo una sucesión infinita de autovalores λn = n2 , n = 1, 2, . . . tendiendo a ∞,
pero las autofunciones y0 = {1} , yn = {cos n, sen n} forman, si n > 0 , un es-
pacio vectorial de dimensión 2. Utilizando sen  cos b = 21 sen(+b)+sen(−b)
 

(y las relaciones ya vistas para sen  sen b y cos  cos b y las fórmulas del ángulo
doble) se comprueba que sigue siendo cierto que autofunciones diferentes son
ortogonales entre sí.

Los problemas de Sturm-Liouville pueden generalizarse. En la demostración del teorema se


b
aprecia que lo esencial para la ortogonalidad es que p|W|(yn , ym )  = 0 ; esto sucede para


otros tipos de condiciones de contorno (y para otros muchos no) además de las separadas.
Por ejemplo ocurre en los llamados problemas periódicos que generalizan el (P7 ):
[py 0 ]0 − qy + λry = 0 , con p() = p(b) , p ∈ C1 [, b] , q, r ∈ C[, b] , p, r > 0 en [, b]
¨
(Pp )
y() = y(b), y 0 () = y 0 (b) (condiciones periódicas)
Para (Pp ) no se anula el wronskiano de dos soluciones ni en  ni en b
 (y por
 eso hay espacios
de autofunciones de dimensión 2), pero es claro que p|W|(yn , ym ) (b) = p|W|(yn , ym ) () .


b
Más en general, se llaman problemas autoadjuntos aquellos tales que p|W|(, )  = 0


para todo par de funciones ,  que cumplan sus condiciones de contorno.


Las autofunciones de estos problemas más generales (que en libros avanzados de ecuacio-
nes se ve que tienen propiedades similares a las de los separados) son, pues, ortogonales.
Pero no nos ocupamos más de ellos, pues los problemas que nos aparecerán en el capítulo
siguiente serán todos separados (o el (P7 ) de arriba).
0
Rb
[El término ‘autoadjunto’ se debe a que llamando L[y] = −[py 0 ] +qy y (,) =   d ,
se tiene que L[],  = , L[] para todo par de funciones  ,  que cumplen las
 

condiciones de contorno: el operador L es ‘autoadjunto’ en ese conjunto de funciones].

 00
y + λy = 0
p|W|(, ) (π) = − p|W|(, ) (0) .
   
Ej 8. (P8 ) Se tiene
y(0) = y(π), y 0 (0) = −y 0 (π)

El problema, pues, no es autoadjunto. Operando como en el ejemplo 7 es fácil ver que


las cosas son muy diferentes: cualquier λ (menor, igual o mayor que 0 ) es autovalor
n  o n o 
asociado, respectivamente, a ch p(− π2 ) , {1} ó cos (− π2 )


y en general es falso que las autofunciones asociadas a λ distintos sean ortogonales.

19
Resolviendo algunas EDPs aparecerán problemas singulares de Sturm-Liouville
que no reúnen todas las condiciones de los regulares: p ó r se anulan o no son
continuas en algún extremo del intervalo, el intervalo es infinito. . . Resolvamos tres
de ellos (el 9 surge, por ejemplo, tratando ondas o calor en el espacio, el 10 si esas
ecuaciones son en el plano y el 11 para Laplace en la esfera), en los que en uno
o ambos extremos es p = 0 . En esos extremos las condiciones de contorno de un
(Ps ) son demasiado fuertes para tener autovalores y autofunciones como en los re-
gulares y se sustituyen por acotación, de forma que siga habiendo ortogonalidad,
es decir, según vimos en la demostración del teorema 1, que se cumpla:
0 − y y 0 ) b = (λ − λ )〈y , y 〉 .
0 = p (yn ym
 
m n  n m n m

R
y 00 + 2y 0 + λy = 0 e  = 2 

0
Ej 9. (P9 ) y 00 + 2 y 0 +λy = 0 −→ 2 y 0 +λ2 y = 0 .
y acotada en  = 0, y(1) = 0

Haciendo el cambio  = y la ecuación se convierte en 00 + λ = 0 →


la solución general de la inicial para λ > 0 es y = c1 cos + c2 sen .
 sen nπ
y acotada → c1 = 0 ; y(1) =0 → sen  = 0 → λn = n2 π 2 , n = 1, 2, . . . , yn = 
[ortogonales, como es fácil comprobar, respecto al peso r() = 2 ].
Es fácil ver directamente que no hay λ ≤ 0 , o podemos evitar las cuentas pues la prueba
de esa parte del teorema se puede adaptar a este problema singular, con lo que λ > 0 .
[También se podría haber observado que las condiciones que quedan tras el cambio son
(0) = 0·y(0) = 0 , (1) = 1·0 = 0 → n = {sen nπ} , y haber deshecho el cambio].
[Si hubiésemos impuesto y(0) = 0 , y(1) = 0 la única solución sería y ≡ 0 ∀λ ;
las condiciones para este problema singular habrían sido demasiado fuertes].

y 00 + y 0 + λy = 0

0
→ y 0 + λy = 0 .

Ej 10. (P10 )
y acotada en  = 0, y(1) = 0
p
Se puede probar que λ > 0 . Haciendo el cambio de variable independiente s = λ 
la ecuación se convierte en la de Bessel de orden 0 :
d2 y dy p p
s ds2 + ds + sy = 0 → y = c1 J0 (s) + c2 K0 (s) = c1 J0 ( λ ) + c2 K0 ( λ )

La primera condición de contorno impone que 1


c2 = 0 ( K0 no está acotada
p en  = 0 ). De la 0.8
otra se deduce que c1 J0 ( λ ) = 0 . Así pues, los
autovalores son los λ1 < λ2 <· · · cuyas raíces 0.6
son los infinitos ceros de J0 están tabulados 0.4
y si n grande es λn ≈ n− 14 π .
p  
0.2 _
Para esos λn las autofunciones asociadas son !"
0
16
n p o 4 8 12
yn = J0 λn  ,
-0.2
que son ortogonales respecto al peso r() =  .
-0.4

¨ 0
(1−2 )y 0 + λy = 0
Ej 11. (P11 )
y acotada en  = ±1 La ecuación es la de Legendre si λ = p(p+1) .

Se sabe que sus únicas soluciones acotadas en 1 y −1 son los polinomios de Legendre
Pn () , que aparecen cuando p = n , n = 0, 1, 2, . . .
Los autovalores son λn = n(n+1) , n = 0, 1, 2, . . . y las autofunciones son los Pn , que
R1
P P d = 0 si m 6= n r() = 1 .
 
cumplen, como se ve en los cursos de EDOs: −1 n m

20
2.2. Series de Fourier
Consideremos el problema de Sturm-Liouville separado regular:
0
[py 0 ] − qy + λry = 0
¨
(Ps )
αy()−α 0 y 0 () = 0, βy(b)+β0 y 0 (b) = 0

y sean y1 , y2 , . . . , yn , . . . sus autofunciones asociadas a los λ1 , λ2 , . . . , λn ,. . . .


La importante propiedad que veremos en esta sección es que cualquier función
ƒ suficientemente regular en [, b] puede ser desarrollada en serie de
dichas autofunciones, es decir:

ƒ () = cn yn ()
X

n=1

Supongamos que este desarrollo es válido y que la serie puede ser integrada tér-
mino a término. Entonces, por ser las yn ortogonales:
Rb ∞ Rb Rb
rƒ ym d = cn  r yn ym d = cm  r ym ym d
X

n=1

Por tanto, si representamos el producto escalar respecto al peso r() :


Rb 〈ƒ , yn 〉
〈, 〉 = 
r   d debe ser cn = , n = 1, 2, . . .
〈yn , yn 〉

[El r es el de la ecuación en forma autoadjunta; en la mayoría de los problemas que


aparecerán separando variables en el capítulo 3 dicho peso será 1 , pero no siempre].

El problema (nada elemental) reside en precisar para qué funciones ƒ la serie con
esos coeficientes (serie de Fourier de ƒ ) converge realmente hacia ƒ en [, b] .
Aunque se le pueden exigir condiciones más débiles, nosotros pediremos a ƒ que
sea C1 a trozos, condición que será satisfecha por las funciones que nos aparecerán
en problemas prácticos.
[Recordamos que ƒ es C1 a trozos en [, b] si podemos dividir el
intervalo en subintervalos [, b] = [, 1 ] ∪ [1 , 2 ] ∪ · · · ∪ [n , b]
de modo que:
i. ƒ y ƒ 0 son continuas en cada (k , k+1 ) , a x1 xn b
ii. los límites laterales de ƒ , ƒ 0 en cada k existen y son finitos].

Si ƒ es C1 a trozos en [, b] entonces su serie de Fourier:


∞ 〈ƒ , y 〉
n
yn ()
X

Teor 1. n=1 〈yn , yn 〉


converge hacia ƒ () en los  ∈ (, b) en que ƒ es continua y
hacia 12 ƒ (− )+ƒ (+ ) en los  ∈ (, b) en que es discontinua.
 

El teorema no dice nada sobre la convergencia en los extremos  y b .



La demostración es difícil y la omitimos. En lenguaje de ‘análisis funcional’, las {yn }
son una ‘base de Fourier’ del espacio de funciones de dimensión infinita (similar a una
base ortonormal de uno de dimensión finita). La cuestión principal es ver que la base
es ‘completa’, es decir, que no hay otras funciones ortogonales a las {yn } . El espacio
‘natural’ para estudiar las series de Fourier es L2 (funciones de cuadrado integrable) y
la convergencia más ligada a ellas es la ‘convergencia en media cuadrática’:
Rb n 2
ƒ () − ck yk () d → 0 cuando n → ∞ .
X 
 k=1

21
Caso particular de los desarrollos en serie de Fourier son los desarrollos en series
trigonométricas, que, al ser los que más utilizaremos, estudiamos con detalle.

Los autovalores y autofunciones de:

y + λy = 0
 00
2 2
son λn = nLπ2 e yn = sen nπ , n = 1, 2, . . . .

(P1 )
y(0) = y(L) = 0 L

[Es fácil verlo directamente, o también podemos hacer s = π/ L →


L2
y 00 + π2
λy = 0 , y(0) = y(π) = 0 en la variable s , que es casi el ejemplo 1 de 2.1;
también se trasladaría haciendo s = − un problema en [, b] al (P1 ) (con L = b− ),
sin necesidad de estudiarlo desde el principio].
Llamaremos serie de Fourier en senos de ƒ en [0, L] al desarrollo en estas
autofunciones:
∞ Z L
ƒ () = bn sen nπ , con bn = 2
ƒ () sen nπ d , n = 1, 2, ...
X
L L L
[s]
n=1 0

RL 2
Ya que el peso es r() ≡ 1 y se tiene que 〈yn , yn 〉 = 0
sen nπ
L
dt = L
2
.
[Hemos escrito impropiamente ƒ =  ; la igualdad sólo se da en los  ∈ (0, L)
en que ƒ es continua; en 0 y L aún no sabemos, pero pronto lo sabremos].

Para este segundo problema de contorno:

y + λy = 0
 00
2 2
son λn = nLπ2 , yn = cos nπ , n = 0, 1, . . . yo = {1}
  
(P2 )
y 0 (0) = y 0 (L) = 0 L

Y se llamará serie de Fourier en cosenos de una ƒ dada en [0, L] a:


∞ Z L

ƒ () = 2o + n cos nπ , con n = 2
ƒ () cos nπ d , n = 0, 1, 2, ...
X
L L L
[c]
n=1 0

RL RL 2
Pues 〈yo , yo 〉 = 0
12 d = L e 〈yn , yn 〉 = 0
cos nπ
L
d = L
2
, si n ≥ 1.
o
[Ponemos 2
en la serie para que la fórmula del n valga también para o ].
1
Ej 1. Sea ƒ () =  ,  ∈ [0, 1] . Desarrollémosla en senos y en cosenos:
x

2 X (−1)n+1
R1 2
0 1
ƒ () = π n
sen nπ , pues bn = 2 0  sen nπ d = − nπ cos nπ , n = 1, 2, . . .
n=1

∞ ∞
1 (−1)n −1
ƒ () = + π22 cos nπ = 1 4 X 1
X
2 n2 2
− π2 (2m−1)2
cos(2m−1)π ,
n=1 m=1
R1 R1
ya que o = 2 0
 d = 1 , n = 2 0
 cos nπ dt = n22π 2 [cos nπ −1] , n = 1, 2, . . .

Ambas series, según el teorema 1, convergen hacia ƒ () para todo  ∈ (0, 1) .
Lo mismo sucedería con el desarrollo en autofunciones de cualquier otro pro-
blema de Sturm-Liouville que considerásemos. Cuando nos encontremos estas
series resolviendo EDPs no tendremos la libertad de elegir en qué autofunciones
desarrollar: nos las impondrá el problema.

Otras dos familias de autofunciones sencillas en las que vamos a desarrollar fun-
ciones muchas veces son las de estos problemas fáciles de resolver:
y + λy = 0
 00
[2n−1]2 π 2 [2n−1]π
n o
con λn = 22 L2 , yn = sen , 〈yn , yn 〉 = 2L , n = 1, 2, . . .
y(0) = y (L) = 0
0 2L

y + λy = 0
 00
[2n−1]2 π 2 [2n−1]π
n o
con λn = 22 L2 , yn = cos , 〈yn , yn 〉 = 2L , n = 1, 2, . . .
y (0) = y(L) = 0
0 2L

A los desarrollos en estas autofunciones los llamaremos, respectivamente, series


en senos impares y en cosenos impares en [0, L].

22
La teoría de series de Fourier puede ser extendida para incluir autofunciones de
problemas con condiciones periódicas. Así para:
¨ y 00 + λy = 0
2 2
y(−L) = y(L) , λn = nLπ2 , n = 0, 1, . . . , yo = {1} , yn = cos nπ , sen nπ

(P3 ) L L
y 0 (−L) = y 0 (L)

se deduce la siguiente serie de Fourier en senos y cosenos en [−L, L]:




ƒ () = 2o + n cos nπ + bn sen nπ
X  
[p] L L
, con coeficientes:
n=1

Z L
[1] n = 1
L
ƒ () cos nπ
L
d , n = 0, 1, 2, ... , y
−L

Z L
[2] bn = 1
L
ƒ () sen nπ
L
d , n = 1, 2, ... , ya que se cumple:
−L

RL RL
cos mπ
−LL
sen nπ
L
dt = 0 para todo m y n ; −L 12 d = 2L ;
0 m 6= n 0 m 6= n
RL mπ nπ
 RL mπ nπ


−L
cos L
cos L
d = L m=n
; −L
sen L
sen L
d = L m=n
.

Las fórmulas [1]-[2] también valen para desarrollar una ƒ definida inicialmente
en cualquier otro intervalo [, +2L] (cambiando los límites a la integral) pues
R +2L R +2L
cos2 =  sen2 = L .


Como en el teorema 1, la serie [p] converge hacia ƒ () en los  en los que ƒ
es continua. Pero además se puede decir lo que sucede en los extremos −L y L
(observando que [p] define de hecho una función en todo R que es 2L-periódica).
Podemos hablar también sobre la convergencia uniforme de [p] (sin demostrar
nada, como en toda la sección):

Suponemos que ƒ es C1 a trozos en [−L, L] y extendemos ƒ fuera de


[−L, L] de forma 2L-periódica. Entonces la serie [p] con n y bn dados
por [1] y [2] converge hacia ƒ () en todos los puntos en que su extensión
es continua (y hacia 21 ƒ (− )+ƒ (+ ) en los puntos de discontinuidad).
 
Teor 2.
Además [p] converge uniformemente en todo intervalo cerrado que no
contenga discontinuidades de la ƒ extendida. Por tanto, si ƒ es continua
y ƒ (−L) = ƒ (L) entonces [p] converge uniformemente hacia ƒ en todo el
intervalo [−L, L] .

Las fórmulas [s] y [c] para los coeficientes de las series en senos y de las series en
cosenos se pueden ver como casos particulares de [1] y [2]:
Dada una ƒ inicialmente definida en [0, L] podemos extenderla de forma impar o
de forma par a [−L, L]. En el primer caso es impar ƒ () cos nπ
L
y par ƒ () sen nπ
L
.
nπ nπ
En el segundo ƒ () cos L es par y ƒ () sen L es impar. Por tanto, n = 0 y [1]
se convierte en [s] en el primero, y en el segundo bn = 0 y [2] pasa a ser [c].
[Si definiésemos la ƒ de cualquier otra forma en [−L, 0), la serie en senos y cosenos
también convergería hacia ƒ () en los  de (0, L) en que fuese continua].
Como consecuencia de lo anterior y del teorema 2 se tiene que:

La serie de cosenos de una ƒ continua en [0, L] , con ƒ 0 continua a


trozos, converge uniformemente hacia ƒ en todo el intervalo.
Si ƒ satisface además que ƒ (0) = ƒ (L) = 0 la serie en senos de ƒ también
converge uniformemente hacia ƒ en todo [0, L] .
[Si no fuese ƒ (0) = 0 ó ƒ (L) = 0 la ƒ extendida primero de forma impar a [−L, L]
y luego de forma 2L-periódica no sería continua en 0 o en L ; además está claro
que todas las series en senos se anulan en 0 y L , pues lo hace cada sumando].

23
1 En particular, la serie en senos del Ej 1
par no converge uniformemente hacia ƒ en
[0, 1] (sí lo hace en cualquier intervalo de
-3 -1 0 1 3 la forma [0, b] , b < 1 ). La serie en cose-
nos sí converge uniformemente en [0, 1] .
impar 1 [Aunque las series en cosenos se compor-
ten mejor, resolviendo EDPs no podremos
-3 -1 0 1 3 elegir, como ya hemos dicho, el tipo de
series en que desarrollar las funciones].
-1
1
0 , −1 ≤  ≤ 0

Ej 2. Sea ƒ () = .
 , 0≤≤1 -1 0 1
Su serie en senos y cosenos está casi calculada:
1 ∞
1 X (−1)n − 1 ∞
1 X (−1)n
+ cos nπ − sen nπ .
4 π2 n2 π n
n=1 n=1
-1 0 1
La suma de esta serie es 0 en (−1, 0] ,  en
[0, 1) y 1/ 2 en −1 y 1 . En todo cerrado que no Sngordo
S2
contenga estos puntos la convergencia es uni-
forme. Cerca de ellos la convergencia es mala y
lenta. [Se produce el ‘fenómeno de Gibbs’: apa- S0
recen ’picos’ cerca de las discontinuidades]. S1

Ej 3. Hallemos otro par de desarrollos de ƒ () =  ,  ∈ [0,1] , en las autofunciones de los


(2n−1)π
n o
y {cos n } con tn n = 1 . r() = 1 .
 
ejemplos 3 y 4 de 2.1: cos 2 n


(2n−1)π (2n−1)π
R1 h
4(−1)n+1 8
i
cn = 2 d →  =
X
0
 cos 2 π(2n−1)
− π 2 (2n−1)2
cos 2
.
n=1

R1 n2 +cos2 n 2+n2


〈cos n , cos n 〉 = 0
cos2 n  d = 1
2
+ sen 2
n cos  n
= 2n2
=  ,
n 2 1+n2
R1 n −1
〈, cos n 〉 = 0
 cos n  d = sen n
n
+ cos 2 = 2 cos2 n −1 →
n n

2(2 cos n −1)
=
X
n2 +cos2 n
cos n  [usando el ordenador: c1 ≈0.52 , c2 ≈–0.46 . . . ].
n=1

Ej 4. Nuevo desarrollo de ƒ () =  , ahora en [1, e] , en las autofunciones del Ej 6 de 2.1.


R e sen2(nπ ln ) d R 1
Esta vez el peso no es 1 , sino r() = 1 . Como 1 
= 0 sen2(nπs) ds = 21 ,

 
Re R1 2nπ 1−e(−1)n
= cn sen(nπ ln ) , si cn = 2 1 sen(nπ ln ) d = 2 0 es sen(nπs) ds =
X
1+n2 π 2
.
m=1

Observemos para acabar que también se pueden hacer desarrollos de Fourier en


serie de autofunciones de diversos problemas de Sturm-Liouville singulares, en
particular en las de los tres que vimos en la sección anterior.
Ej 5. Desarrollemos una ƒ (C1 a trozos) en las autofunciones del (P10 ) de esa sección:
y 00 + y 0 + λy = 0
 ∞ p
→ ƒ () = λn  , peso r() =  .
X 
(P10 ) cn J0
y acotada en  = 0, y(1) = 0 m=1
R1 p 
 ƒ () J0 λn  d R1
p2
p
→ cn = 0
= 2  ƒ () J0

R1
2
p  
0
λn  d
 J0 λn  d J1 λn
0
p
R1 p
1
Rp λn 1
h i λn 1 2
p
 J20 λn  d =  J20 () d = 2 J20 ()+ J21 () =
 
pues 0 λn 0 2λn
J
2 1
λn
0
 n 0 0
 Jn = n Jn−1 →  J1 =  J0 , J00 = −J1

ya que las Jn satisfacen
2 2 2
→  J20 d = 2 J20 +  J0  J1 d = 2 J20 + 21  J1
R R 

24
2.3. Problemas no homogéneos; función de Green
Separando variables en la ecuación de Laplace y similares aparecerán, además
de problemas de Sturm-Liouville homogéneos, otros problemas de contorno con la
ecuación o las condiciones no homogéneas (para calor y ondas serán de valores
iniciales). Antes de dar su teoría general, veamos un ejemplo.
 00
y = −d
Ej 1. Discutamos cuántas soluciones tiene , d , b constantes.
y(1) = y(2)+by 0 (2) = 0
3 2 2
La solución general es: y = c1 +c2  + − d con y 0 = c2 + 2 −d . Imponiendo datos:

6 2
1
− d2 c1 +c2 = d2 − 16
( (
y(1) = c1 +c2 + 6
=0
4 , es decir: .
y(2)+by 0 (2) = c 1 +2c2 + 3 −2d+bc2 +2b−2bd = 0 c1 +(2+b)c2 = 2bd+2d−2b− 43

Este sistema lineal tendrá solución única en c1 y c2 si el sistema homogéneo tiene


sólo la solución trivial (si el determinante de los coeficientes es no nulo). Cuando el
homogéneo tenga infinitas soluciones, el no homogéneo tendrá infinitas o ninguna.
Por tanto, si b 6= −1 , podemos despejar de forma única c1 y c2 , y la solución queda
determinada, cualquiera que sea d . Pero si b = −1 :
c1 +c2 = d2 − 16
(
d
2
, este sistema sólo tiene solución cuando 2
− 16 = 23 ⇔ d = 35 ,
c1 + c2 = 3
y en ese caso una de las dos constantes queda libre. Si b = −1 , d 6= 53 , no hay solución.

Veamos ya el problema general. Consideremos el problema para la ecuación no


homogénea con condiciones separadas homogéneas:
0
p()y 0 + g()y = ƒ ()
¨
(Pf ) , p ∈ C1 , g, ƒ ∈ C , p > 0 en [, b] .
αy()−α 0 y 0 () = βy(b)+β0 y 0 (b) = 0

y llamemos (Ph ) al problema homogéneo asociado ( ƒ ≡ 0 ). Luego consideraremos


condiciones de contorno no homogéneas y el caso en que la ecuación depende de
un parámetro. Este teorema generaliza lo que ocurría en el ejemplo 1 de arriba:

El problema (Pf ) tiene solución única si y sólo si (Ph ) tiene sólo la


solución y ≡ 0 . Si (Ph ) tiene soluciones no triviales {yh } entonces 1→1
Teor 1. (P ) tiene infinitas soluciones o no tiene ninguna según sea igual ∞
f ∞→
Rb 0
o distinta de cero, respectivamente, la integral:  ƒ () yh () d .

Se deduce gran parte del teorema imponiendo las condiciones de contorno a la


solución general de la ecuación y = c1 y1 +c2 y2 +yp , y usando las propiedades
de los sistemas algebraicos. Además si hay soluciones y de (Pf ) debe ser:
Rb Rb b R b 
ƒ yh =  [py 0 ]0 +gy yh = p(yh y 0 −yyh0 )  +  [pyh0 ]0 +gyh y = 0
  

y se prueba que esta condición necesaria es también suficiente.
[La ƒ del teorema 1 es, desde luego, la de la ecuación en forma autoadjunta
[py 0 ]0 +gy = ƒ ; para aplicarlo habrá, en ocasiones, que reescribir la ecuación].

Ej 1∗ . Hagamos la discusión del Ej 1, ahora utilizando el teorema. El (Ph ) para y 00 = 0


 

tiene sólo la solución y ≡ 0 si b 6= −1 . Y si b = −1 son soluciones yh = {1−} .


0
El (Pf ) para [y 0 ] = −d , tendrá entonces solución única si b 6= −1 , e infinitas ó 0 ,
 
R2
para b = −1 , según se anule o no la integral: 1 (−d)(1−) d = d2 − 65 ⇔ d = 53 .

Si en vez de la −d concreta tuviésemos una ƒ () general, el teorema daría rápidamente:
infinitas R2 =0
única solución si b 6= −1 , e , según 1 ƒ ()(1−) d 6= 0 , para b = −1 .
ninguna
R R
Costaría bastante más concluirlo hallando la solución: c1 +c2 + 1 ƒ (s)ds− 1 sƒ (s)ds .

25
Sea ahora el problema con condiciones de contorno no homogéneas:
0
p()y 0 + g()y = ƒ ()
¨
(PAB ) , p ∈ C1 , g, ƒ ∈ C, p > 0 en [, b] ,
αy()−α 0 y 0 () = A, βy(b)+β0 y 0 (b) = B

y sea (Ph ) el homogéneo obtenido tomando ƒ () ≡ 0 , A = B = 0 (el mismo de antes).


Hallando una función  que satisfaga sus condiciones de contorno el (PAB ) se pue-
de reducir a otro con condiciones homogéneas, pues el cambio  = y − (gracias
a la linealidad de la ecuación y las condiciones de contorno) lleva al problema:
0 0
p()0 +g() = ƒ ()− p() 0 −g()
¨ 
(P )
α()−α 0 0 () = 0 , β(b)+β0 0 (b) = 0
que es del tipo (Pf ) ya analizado. Deducimos, por ejemplo, que:

Teor 2. (PAB ) tiene solución única ⇔ (Ph ) tiene sólo la solución y ≡ 0

[y si (Ph ) tiene infinitas soluciones, (PAB ) puede tener infinitas o ninguna].


La idea de encontrar una  que satisfaga las condiciones de contorno para convertirlas
en homogéneas se utilizará en las EDPs de los próximos capítulos. Para encontrar dicha
 normalmente trabajaremos por tanteo. Si no es una constante, probaremos una recta;
si no vale, funciones más complicadas...
Está claro que aunque en (PAB ) sea ƒ () ≡ 0 , si (al menos) una condición de contorno
es no homogénea, las propiedades son las típicas de uno no homogéneo. Esto
es lo que ocurre en el siguiente ejemplo.

y 00 − y 0 = 0

Ej 2. Discutamos cuántas soluciones tiene: (P )
y 0 (1)+y(1) = 0, y(2) = 1

Comenzamos analizando cuántas soluciones tiene el homogéneo: y = c1 +c2 2 →


y 0 (1)+y(1) = 2c2 +c1 +c2 = 0 [2−3]c2 = 0 y ≡ 0 si  6= 23
 ¨

y(2) = c1 +4c2 = 0 → c1 = −4c2 % y = 2 −4 si  = 32

Si  6= 23 , (P ) tiene solución única. Para  = 23 vemos lo que sucede directamente:


y 0 (1)+ 23 y(1) = 23 [c1 +4c2 ] = 0
¨
→ no existe solución de (P2/ 3 ).
y(2) = c1 +4c2 = 1

Aunque también podríamos (más largo) convertirlo en un (Pf ) y aplicar el teorema 1.


Para ello buscamos una  de la forma  = M+N que satisfaga las condiciones:
 0 (1)+ 23 (1) = 13 [5M+2N] = 0 00 − 0 = −2
( ¨
→  = 5−2,  = y− → (P )
(2) = 2M+N = 1 0 (1)+ 32 (1) = (2) = 0
h 0 i0
Escribimos la ecuación en forma autoadjunta:  = − 22 y usamos el teorema 1:
R2 2 
1
− 2 [2 −4] dt 6= 0 ⇒ (P ) [y por tanto (P2/ 3 )] no tiene solución.

Consideremos ahora una tercera situación, el problema de S-L no homogéneo:


0
py 0 − qy + λry = ƒ ()
¨
(Pλ )
αy()−α 0 y 0 () = βy(b)+β0 y 0 (b) = 0

Llamemos (Ps ) al problema separado de Sturm-Liouville homogéneo asociado (el de


ƒ ≡ 0 ). Para cada valor de λ tenemos un problema de los ya vistos (con g = −q+λr ).
Se tiene por tanto:

(Pλ ) tiene solución única ⇔ λ no es autovalor de (Ps ).


Si λn es autovalor con autofunción {yn } ,
Teor 3.
no tiene solución Rb 6= 0
(Pλn ) según sea  ƒ yn d = 0 .
tiene infinitas

26
 00
y + λy = 1
Ej 3. (P3 ) Estudiemos, según λ , cuántas soluciones tiene.
y 0 (0) = y 0 (1)−2y(1) = 0

Hallemos los λn del homogéneo. Como ββ0 < 0 podrían aparecer autovalores negativos.
c2 = c1 &
«
λ < 0 : y = c1 ep +c2 e−p →
c1 p[ep −e−p ]−2[ep +e−p ] = 0


Hay autovalor λ0 = −p20 si th p0 = p2 , con y0 = ch (p0 )



0
 
Utilizando el método de Newton o uno similar: p0 ≈ 2.07, λ0 ≈ −4.27 .

c2 = 0

λ = 0 : y = c1 + c2  → → λ = 0 no es autovalor.
−2c1 −c2 = 0

c2 = 0 &

λ > 0 : y = c1 cos +c2 sen  →
c1 ( sen +2cos ) = 0

Hay infinitos λn = n2 si tn n = − 2 , con yn = cos (n ) .



n

Por tanto (la ecuación está ya en forma autoadjunta):


Si λ 6= λn hay solución única de (P3 ).
R1
Si λ = λ0 , como 0 ch (p0 ) d 6= 0 , (P3 ) no tiene solución.
R1 n
Si λ = λn , n = 1, 2, . . . , 0 cos (n ) d = sen

6= 0 , (P3 ) tampoco tiene solución..
n

Para acabar, deduzcamos una fórmula que para cualquier ƒ () nos da la solución del (Pf ) del
principio de la sección (en el caso de que sea única) en términos de integrales, conocidas
las soluciones de la ecuación homogénea (algo parecido a la fórmula de variación de las
constantes para problemas de valores iniciales):

Supongamos que (Ph ) tiene sólo la solución y ≡ 0 y sean y1 e y2


soluciones no triviales de la ecuación homogénea [py 0 ]0 +gy = 0 que
cumplen, respectivamente, αy1 ()−α 0 y10 () = 0 y βy2 (b)+β0 y20 (b) = 0 .
Entonces la solución única de (Pf ) es:
Teor 4. ¨ y1 (s) y2 ()
Rb p|W|(y ,y2 )
, ≤s≤
y() =  G(, s) ƒ (s) ds , con G(, s) = y () y1 (s) .
1 2
p|W|(y ,y )
, ≤s≤b
1 2

A la G(, s) se le llama función de Green del problema.



Observemos que el denominador que aparece en la G es constante:
0 0 0
p(y1 y20 − y2 y10 )] = y1 [p(y20 )] − y2 [p(y10 )] = −gy1 y2 + gy2 y1 = 0 .
 

Comprobemos que la y() de arriba cumple (Pf ). Desarrollando la integral:


R b y (s) ƒ (s) R  y (s) ƒ (s) R  y (s) ƒ (s)
y() = y1 ()  |W|(s)
2
p(s)
ds + y2 ()  |W|(s)
1
p(s)
ds−y1 ()  |W|(s)
2
p(s)
ds = cy1 + yp
p0 0 q ƒ
Por tanto, y() es solución de la no homogénea y 00 + p
y + py = p
.
Rb y ƒ R y ƒ R y ƒ
Además como y 0 () = y10 2
 |W| p
+ y20 1
 |W| p
− y10 2
se tiene que:
 |W| p
Rb y ƒ Rb y ƒ
y() = cy1 (), y 0 () = cy10 (), y(b) = ky2 (b), y 0 (b) = ky20 (b) , c =  |W|p
2
, k =  |W|p
1

Como y1 , y2 cumplen cada condición de contorno, también lo hace la y .

Una vez hallada la G , dada cualquier ƒ , basta hacer un par de integraciones para
encontrar la solución del problema no homogéneo (Pf ). [La idea de la función de Green
se generaliza a otros problemas de EDOs y EDPs].
[Que quede claro que cada yk satisface solamente una condición (o en  o en b ;
ambas condiciones sólo las cumple la trivial). La ƒ y la p del teorema son, una vez
más, las de la ecuación escrita en la forma [py 0 ]0 +gy = ƒ ; en muchos casos será p ≡ 1
(como en el ejemplo siguiente), pero en otros deberemos reescribir la ecuación].

27
 00  00
y = ƒ () y =0
Ej 4. (P4 ) sólo lo satisface y ≡ 0 .
y(0) = y(1) = 0 y(0) = y(1) = 0

Por tanto, (P4 ) tiene solución única. Hallemos su función de Green:


La solución general de la ecuación homogénea es y = c1 + c2  .
De la primera condición de contorno y(0) = c1 = 0 . Podemos tomar y1 =  .
De la segunda, y(1) = c1 +c2 = 0 . Elegimos y2 = −1 . Entonces:
0 1
 −1 s(−1) , 0 ≤ s ≤ 

|W|() = = 1 , p() = 1 , G(, s) = s
1 1 (s−1) ,  ≤ s ≤ 1
x(x-1)
Si, por ejemplo, ƒ () = 1 , la solución de (P4 ) viene dada por: G(x,s), x fijo
R1 R R1 1
y() = 0 G(, s) 1 ds = (−1) 0 s ds +   (s−1) ds = 2
[2 −]

Para resolver un problema con una ƒ dada, calcular la G puede ser un rodeo inútil. Por
ejemplo, la última solución se podría obtener:
y(0) = c1 = 0
¨
y 00 = 1 → y = c1 +c2 + 12 2 → → y = 12 [2 −] como antes.
y(1) = c1 +c2 + 21 = 0
Pero para cada nueva ƒ habría que volver a hallar la yp e imponer y(0) = y(1) = 0 .

Las funciones de Green están muy ligadas a la ‘función’ δ ,


!
cuya definición rigurosa exige la llamada ‘teoría de las dis-
tribuciones’, pero con la que es fácil trabajar formalmente.
La δ(t − ) se puede definir intuitivamente como el ‘límite’ "(t–a)
cuando n → ∞ de
1 1 
¨
, +

n si t ∈  − 2n
ƒn (t) = 2n
a
0 en el resto a

Esta δ(t −) tiene las siguientes propiedades (que bastan para trabajar con ella):
ƒ () si  ∈ [b, c]
Rc 
δ(t −) = 0 si t 6=  ; b ƒ (t)δ(t −) dt = ; 1
/ [b, c]
0 si  ∈ u a(t)

d 0 si t < 
δ(t −) = dt  (t) , donde  (t) es la función paso  (t) = . a
1 si t ≥  0

Volvamos a la G . Observemos que la G(, s) del Ej 4 para  fijo (o para s fijo, pues G es
simétrica) es continua pero no derivable en s =  y su ‘derivada’ segunda es δ(s − ) . De
hecho, esto es lo que sucede en general:
¨ 0
p(s)y 0 + g(s)y = δ(s−)
Teor 5. G(, s) es la solución para  ∈ (, b) fijo de
αy()−α 0 y 0 () = βy(b)+β0 y 0 (b) = 0
Rb
La prueba es trivial:  G(s, ) δ(−) d = G(s, ) = G(, s) .
 

Podríamos hallar la G del (P4 ) siguiendo este camino más largo [pero que es el que se
generaliza a las EDPs; además da una forma de hallar la G en problemas autoadjuntos para
los que no es válida la fórmula del teorema 4]. Como es G00 = 0 si s 6=  :
c1 +c2 s , y(0) = 0 → y = c2 s , s ≤ 

G(s) =
k1 +k2 s , y(1) = 0 → y = k2 [s−1] , s ≥ 
Y como G00 = δ , ha de ser continua G y su derivada tener un salto en  de magnitud unidad:
y(− ) = c2  = k2 [−1] = y(+ )
¨
c2 = −1

→ →
y 0 (+ )−y 0 (− ) = k2 −c2 = 1 k2 = 

Se
 puede
 resolver de otra forma si se conoce la transformada de Laplace. Con la notación
L G(s) = H(p) , para este ejemplo basta utilizar las siguientes propiedades de la L :

L[G(n) (s)] = pn H(p) − pn−1 H(0) − pn−2 H0 (0) − · · · − H(n−1) (0) .


L[sn ] = pn!
n+1 , L[δ(s−)] = e
−p , L−1 e−p F(p) =  (s) [L−1 F](s−) .
 

Llamando G0 (0) = c , y aplicando la transformada:


c e−p
p2 H(p)−c = e−p → H(p) = p2
+ p2
→ G(s) = cs +  (s)(s−)
¨
s(−1) , 0 ≤ s ≤ 
→ G(1) = c+1− = 0 → G(s) = (−1)s +  (s)(s−) = .
s−s+s− ,  ≤ s ≤ 1

28
3. Separación de variables
El capítulo está dedicado a uno de los más viejos métodos de resolución de EDPs
lineales (método de separación de variables) que nos permitirá hallar la solución
(en forma de serie de Fourier) de gran parte de los problemas clásicos planteados
en el capítulo 1, en concreto de los planteado en un intervalo finito en una de
las variables. Resolveremos la ecuación del calor con diferentes condiciones de
contorno, la de la cuerda acotada (que volveremos a ver en 4.1), la de Laplace
en un rectángulo y en un círculo,... Ello será posible porque las ecuaciones serán
‘separables’ y los dominios que consideraremos son simples, pero hay muchos
problemas no resolubles por este método.
En la sección 3.1 resolveremos varios problemas para las ecuaciones del calor y
de ondas en dos variables. Comenzaremos tratando los problemas homogéneos
(aquellos en que son homogéneas ecuación y condiciones de contorno; si estas no
lo son, haremos un cambio de variable). Básicamente esta será la técnica utilizada:
buscaremos soluciones de la EDP que sean productos de funciones de cada varia-
ble (, t) = X()T(t) y que cumplan todas las condiciones homogéneas; obten-


dremos infinitas soluciones de ese tipo resolviendo un problema de


P Sturm-Liouville
y otra EDO; construiremos una serie a partir de ellas (, t) = cn Xn ()Tn (t) ,
 

cuyos coeficientes cn se fijarán imponiendo las condiciones iniciales aún no utili-


zadas (bastará para ello desarrollar funciones dadas en serie de autofunciones del
problema de Sturm-Liouville citado). La presencia de series en el proceso anterior
exigiría justificar las cuestiones relativas a su convergencia, pero nosotros no en-
traremos en ello. Pasaremos después a abordar los problemas no homogéneos,
buscando también una serie solución. Probaremos en la ecuación una serie cuyos
términos serán productos de las autofunciones del problema homogéneo
por funciones a determinar de la otra variable. Resolviendo la familia infinita
resultante de EDOs lineales no homogéneas con las condiciones que se deducen
de las condiciones iniciales, se obtendrá la solución (formal) del problema.
En 3.2 utilizaremos la separación de variables para resolver problemas para la
ecuación de Laplace (homogénea y no homogénea) tanto en coordenadas rectan-
gulares como en polares y tanto para problemas de Dirichlet, como de Neumann,
como mixtos. En cartesianas el problema de Sturm-Liouville a resolver será en 
o en y según convenga, pero en polares será en la θ (preferible al de la ecuación
de Euler que aparecería para la r ). Las condiciones adicionales a imponer a la otra
variable serán aquí de contorno. De las soluciones en forma de serie deduciremos
fórmulas como la integral de Poisson, que da la solución del problema de Dirichlet
en el círculo (otra forma de llegar a ella la veremos en 3.4).
En la sección 3.3 extenderemos el método de separación de variables a algunos
problemas para ecuaciones en tres variables. La técnica será muy parecida una
vez definidas las series de Fourier dobles. Simplemente habrá que resolver dos
(en vez de uno) problemas de Sturm-Liouville. Veremos ejemplos en que aparecen
de forma natural los polinomios de Legendre y las funciones de Bessel.
En 3.4 generalizaremos las funciones de Green, vistas en 2.3 tratando proble-
mas de contorno para EDOs no homogéneas, para resolver Laplace en recintos
sencillos (forma alternativa a la separación de variables). Seguiremos un camino
poco formal (utilizando la delta de Dirac como si fuera una función) que abrevia
los cálculos. Utilizaremos el llamado método de las imágenes, introduciendo el
concepto de solución fundamental (función  tal que Δ = δ ) que es básico en
estudios más avanzados de EDPs.

29
3.1. Separación de variables para calor y ondas
Consideremos varios problemas para la ecuación del calor. En el primero supo-
nemos que los extremos de la varilla se mantienen a 0 grados y que los datos
iniciales vienen dados por una ƒ que es C1 a trozos en [0, L]:

¨  − k = 0 ,  ∈ (0, L), t > 0 [1]


t 
Sea [P1 ] (, 0) = ƒ () [2]
(0, t) = (L, t) = 0 [3]

Busquemos soluciones de la forma (, t) = X() T(t) . Debe ser entonces:


X 00 T0 kX 00 0
XT 0 −kX 00 T = 0 , es decir, X = kT = TT

mejor que X
.
Como el primer miembro es función sólo de  y el segundo lo es sólo de t ambos
deben ser iguales a una constante:
X 00 1 T0
X
= k T = −λ (ponemos −λ para que nos quede la ecuación habitual).

X 00 + λX = 0 [4]

Así obtenemos una EDO para X() y otra para T(t) : .
T 0 + λkT = 0 [5]

El producto de una solución de [4] por una de [5] es entonces una solución de
[1], cualquiera que sea λ . Sin embargo, nos interesan sólo las soluciones que
satisfacen las condiciones de contorno:
(0, t) = X(0) T(t) = 0 ⇒ X(0) = 0
(si fuese T(t) ≡ 0 tendríamos  ≡ 0 y no se cumpliría la condición inicial).
Análogamente, debe ser X(L) = 0 .

Nos interesan, pues, las soluciones (no triviales) del problema de Sturm-Liouville:
X + λX = 0
 00
n2 π 2
→ λn = 2 , Xn = sen nπ , n = 1, 2, . . . .

X(0) = X(L) = 0 L L

[Si el intervalo para la  fuese no acotado, no saldría un problema de contorno


de los de 2.1; se acudiría entonces a la transformada de Fourier de 3.3].

Llevando estos valores de λ a la ecuación [5] obtenemos:


2 2
n 2 2 2
o
T 0 = − knL2π T → Tn = e−kn π t/ L .

Hemos deducido hasta ahora que para cada n las funciones


n 2 2 2
o
n (, t) = e−kn π t/ L sen nπ
L
, n = 1, 2, . . .

son soluciones de [1] que satisfacen también las condiciones de contorno [3]. Por la
linealidad de la ecuación y de las condiciones, sabemos que una combinación lineal
finita de estas n también cumple [1] y [3]. Pero consideremos la serie infinita:
∞ ∞
2 π 2 t/ L2
(, t) = cn n (, t) = cn e−kn sen nπ
X X
L
[6]
n=1 n=1

y supongamos que converge y que satisface tambien [1] y [3]. Si queremos que
además se cumpla la condición inicial [2] debe ser:
∞ RL
cn sen nπ = ƒ () ⇒ cn = 2
ƒ () sen nπ
X
L L 0 L
d , n = 1, 2, ... [7]
n=1

pues la serie es precisamente la serie de Fourier en senos en [0, L] de ƒ .

30
Tenemos una posible solución de [P1 ]: la serie [6] con coeficientes dados por [7].
Pero esta solución es sólo formal mientras no se pruebe que la convergencia de la
serie es suficientemente buena para asegurar que realmente cumple el problema
(una suma infinita de funciones derivables podría ser no derivable). Si ƒ es C1 a
trozos, se puede probar que converge en [0, L]×(0, ∞) y que t y  se pueden
calcular derivando término a término (y así se satisface la ecuación). De hecho,
se ve que la  definida por la serie es C∞ en (0, L) × (0, ∞) . En  = 0 y  = L
está claro que la  se anula. Y la condición inicial se satisface en el siguiente
sentido: la (, t) definida por la serie para t > 0 y por (, 0) = ƒ () es una
función continua salvo en los puntos de t = 0 en que la ƒ es discontinua.
[Aunque ƒ sea discontinua, la solución es C∞ para t > 0 arbitrariamente pequeño:
a diferencia de lo que ocurrirá con las ondas, las discontinuidades desaparecen aquí
instantáneamente].

Como cada n → 0 y es buena la convergencia, se tiene: (, t) −→ 0 ∀ ∈ [0, L]


t→∞ t→∞
(la barra tiende a ponerse a 0 grados, como era de esperar).

Suponemos ahora que las condiciones de contorno son no homogéneas:


¨  − k = 0 ,  ∈ (0, L), t > 0
t 
[P2 ] (, 0) = ƒ ()
(0, t) = T1 , (L, t) = T2 , T1 , T2 constantes

Comenzaremos haciendo las condiciones de contorno homogéneas.



Una () que las satisface es la recta:  = T1 + (T2 −T1 ) L .
Haciendo  = − , nuestro problema se convierte en otro como el [P1 ]:
¨  −k = 0 ,  ∈ (0, L), t > 0
t 
(, 0) = ƒ () − () . Por tanto:
(0, t) = (L, t) = 0


 2 π 2 t/ L2
(, t) = T1 + (T2 −T1 ) L + cn e−kn sen nπ =  +,
X
L
n=1

RLh i
con cn = 2
L 0
ƒ ()−T1 −(T2 −T1 ) L sen nπ
L
d , n = 1, 2, . . .

Esta () tiene un significado físico claro: como  → 0 cuando t → ∞ , () es la


distribución estacionaria de temperaturas hacia la que tienden las temperatu-
ras en la varilla, independientemente de las condiciones iniciales.
[Si T1 y T2 fuesen funciones de t , la (, t) definida arriba seguiría cumpliendo las
condiciones de contorno, pero la ecuación para la  obtenida haciendo el cambio
sería no homogénea, es decir, del tipo de las que vamos a resolver a continuación;
dicha  , función de t , pierde además su significado físico].
[Si separásemos variables directamente en [P2 ] llegaríamos a X(0) T(t) = T1 (y otra
análoga para  = L ), expresión de la que no deduciríamos nada].

u(x,0) distr.
¨  −  = 0 ,  ∈ (0, 1), t > 0
t  estac. 1
Ej 1. (, 0) = 1 w(x,0)
(0, t) = 1 , (1, t) = 0

2 X (−1)n+1 2
π2 t
Operando se llega a: (, t) = 1− + π n
e−n sen(nπ)
n=1

y la distribución estacionaria hacia la que tiende es () = 1− .

[No nos importa que para t = 0 sea incoherente el dato inicial con el de contorno en
 = 1 ; la solución será, como hemos dicho, una función continua para t > 0 y para el
cálculo de las integrales el valor en un punto no influye].

31
Veamos ahora cómo resolver el problema no homogéneo:
¨  − k = F(, t) ,  ∈ (0, π), t > 0
t 
[P3 ] (, 0) = ƒ ()
(0, t) = (π, t) = 0

(Tomamos L = π para abreviar las expresiones, pero no se pierde


generalidad pues un sencillo cambio de variable lleva [0, L] a [0, π ] ).
Aunque no es necesario, descomponemos [P3 ] en dos subproblemas [P1 ] y [PF ], el
primero con F = 0 (ya resuelto) y el otro con ƒ = 0 :
¨  − k = F(, t) ,  ∈ (0, π), t > 0
t 
[PF ] (, 0) = 0
(0, t) = (π, t) = 0

Las autofunciones del [P1 ] eran {sen n} , n = 1, 2, . . . Probamos en [PF ] la siguiente
serie que ya satisface las condiciones de contorno (y que está relacionada con la
ecuación):

F (, t) = Tn (t) sen n con las Tn (t) funciones a determinar.
X

n=1

2
[Si tomásemos Tn = cn e−kn t , funciones que aparecieron resolviendo [P1 ],
la  satisfaría la ecuación con F ≡ 0 ; debemos darle más libertad a las Tn
para conseguir al meter la serie en la ecuación una F ≡
6 0 ].

Suponiendo que la serie se puede derivar término a término:


∞ ∞
Tn0 (t) + kn2 Tn (t) sen n = F(, t) = Bn (t) sen n
X   X

n=1 n=1

2

con Bn (t) = π 0
F(, t) sen n d (desarrollo de F en senos para t fijo).

Entonces para cada n debe ser: Tn0 + kn2 Tn = Bn (t) .



Y del dato inicial: F (, 0) = Tn (0) sen n = 0 deducimos Tn (0) = 0 .
X

n=1

Resolviendo la EDO lineal para Tn con este dato inicial (utilizando la fórmula de
variación de las constantes con datos iniciales; para una F concreta a lo mejor hay
métodos más rápidos) hallamos la Tn y por tanto:
∞ hZ t i
2 (t−s)
F (, t) = e−kn Bn (s) ds sen n
X

n=1 0

Serie que es solución formal de [PF ] (como siempre faltaría comprobar que es so-
lución de verdad, que es realmente lo que sucede si la F es decente).
La solución  de [P3 ] (por la linealidad de la ecuación y las condiciones iniciales
y de contorno) será la suma de F y de la serie solución de [P1 ] que obtuvimos
anteriormente.

[Si hubiésemos abordado directamente la búsqueda de la solución de [P2 ] sin


descomponerlo en dos, la única diferencia sería que las condiciones iniciales
Tn (0) , en vez de ser 0 , serían los coeficientes del desarrollo en senos de
ƒ () , es decir, deberíamos resolver los problemas de valores iniciales
Tn0 + kn2 Tn = Bn (t)
¨

, con cn = 0 ƒ () sen n d ].
Tn (0) = cn
[Si las condiciones de contorno de [P3 ] fuesen no homogéneas empezaríamos como
en [P2 ] con un cambio  = − para conseguir que lo fuesen].

32
Resolvemos ahora el problema homogéneo para la varilla con extremos aislados:
¨  − k = 0 ,  ∈ (0, L), t > 0
t 
[P4 ] (, 0) = ƒ ()
 (0, t) =  (L, t) = 0

Separando variables (es la misma ecuación) aparecen, claro, las mismas EDOs del
problema [P1 ]. Pero ahora cambian las condiciones de contorno de la X :

X + λX = 0
 00
2 2
→ λn = nLπ2 , n = 0, 1, 2, . . . , Xn = cos nπ X0 = {1} .
  
X 0 (0) = X 0 (L) = 0 L

2 2 2
Para estos valores de λ se tienen las Tn = e−kn π t/ L T0 = {1} .
  

co ∞
2 π 2 t/ L2
(, t) = cn e−kn cos nπ
X
Así pues, probamos la serie: + L
2 n=1

co ∞
Queremos que se satisfaga la condición inicial: (, 0) = cn cos nπ = ƒ () .
X
+ L
2 n=1

Los cn desconocidos serán los coeficientes de la serie de Fourier en cosenos de ƒ :


RL
cn = 2
L 0
ƒ () cos nπ
L
d , n = 0, 1, 2, . . .

Observemos que de nuevo la solución se puede interpretar como la suma de una


distribución de temperaturas estacionaria [ co / 2 ] y una distribución transitoria que
tiende a 0 cuando t → ∞ . Era esperable que toda la varilla (aislada) tendiese a la
misma temperatura y que esta fuese el valor medio de las temperaturas iniciales:
co
RL
2
= 1L 0 ƒ () d

Si las condiciones de contorno hubiesen sido  (0, t) = F0 ,  (L, t) = FL (flujo cons-


tante dado en los extremos), no se puede encontrar una () que sea una recta
(en general) y, al hacer  = − , la ecuación en  que resulta es no homogénea.
Para resolver un problema no homogéneo con estas condiciones en la  , proba-
ríamos la serie construida con las autofunciones que hemos hallado:

F (, t) = T0 (t) + Tn (t) cos nπ
X
L
,
n=1

y resolveríamos las EDOs que surgirían, con los datos iniciales deducidas del dato
inicial de la EDP.

¨  −  = 0 ,  ∈ (0, 1), t > 0


t  Tanteando con  = A2 +B obtenemos que
Ej 2. (, 0) = 0  = 2 cumple las condiciones de contorno.
 (0, t) = 0 ,  (1, t) = 2 Y haciendo  = −2 se tiene el problema:
¨ t −  = 2
∞ ∞
(, 0) = −2 →  = T0 (t)+ Tn (t) cos nπ → T00 + [Tn0 +n2 π 2 Tn ] cos nπ = 2
X X

 (0, t) =  (1, t) = 0 n=1 n=1

[función que ya está desarrollada en cosenos].


∞ ∞ R1
Como: T0 (0) + Tn (0) cos nπ = −2 = − 13 + n cos nπ , con n = −2 0 2 cos nπ d ,
X X

n=1 n=1

T00 =2 Tn0 +n2 π 2 Tn = 0


¨ ¨
integrando y resolviendo: , , se llega a
T0 (0) = − 31 Tn (0) = cn
4 X (−1)
∞ n
1 2
π2 t
(, t) = 2t + 2 − 3
− π2 2
e−n cos nπ
n=1 n

[  → ∞ pues por el extremo derecho estamos constantemente metiendo calor:


su flujo va en sentido opuesto al gradiente de temperaturas].

33
En el quinto problema para la ecuación del calor que tratamos la condición de
 = 0 representa la radiación libre hacia un medio a 0 grados (el flujo de calor es
proporcional a la temperatura en  = 0 ; si es positiva el calor sale y entra si es
negativa). En  = 1 fijamos el flujo de calor que entra en la varilla (al ser  > 0 el
flujo es hacia la izquierda).

t − k = 0 ,  ∈ (0, 1), t > 0



 (, 0) = ƒ ()
[P5 ]
  (0, t)−(0, t) = 0,  > 0
 (1, t) = 1

Vimos en 1.3 que tiene solución única. Para resolverlo lo primero, como siempre,
es conseguir condiciones de contorno homogéneas.
Tanteando con rectas  = M+N , se llega a que  = + 1 las satisface.
¨ t − k = 0
=− → (, 0) = ƒ () −  − 1
 (0, t)−(0, t) =  (1, t) = 0

Separando variables se llega a T 0 +λkT = 0 y al problema de contorno:


X + λX = 0
 00
que sabemos que no tiene autovalores < 0 .
X 0 (0)−X(0) = X 0 (1) = 0
c2 −c1 = 0

Si λ = 0 : X = c1 +c2  → → λ = 0 no autovalor.
c2 = 0
p 
c2 −c1 = 0 
Si λ > 0 : X = c1 cos +c2 sen  ,  = λ → → c2 =  c1
c2 cos −c1 sen  = 0

→ c1 ( cos − sen ) = 0 → tn  =  . tan w
Esta ecuación transcendente no se puede
resolver pero está claro que hay infinitos
λn = n2 > 0 (aproximables numéricamente).
a/w
!
Las autofunciones se podrían poner:
n o 0 w1 w2 w3 w4
cos n  +  sen n  ,
n

pero quedan más compactas en la forma:


Xn = cos n (−1) .



Yendo a la ecuación en T : Tn = e−λn kt → = cn e−λn kt Xn () .
 X

n=1

Imponiendo el dato inicial se determinan los cn [son aproximados al serlo los λn ]:



4
R 1h i
cn Xn () = ƒ ()−− 1 → cn = 2 +sen
n
ƒ () −  − 1
Xn () d ,
X
n 2n 0 
n=1

R1 2 h i1
1 1
pues 0
Xn () d = 2
+ 4n
sen 2n (−1) .
0

Sí es calculable exactamente la distribución estacionaria x + 1a-


hacia la que tienden las temperaturas en la varilla:
a
(, t) = (, t) +  + 1
→ + 1
cuando t → ∞ crece
 
[la temperatura final de la varilla, como era esperable,
es menor cuanto mayor sea el  , es decir, cuanto más
fuertemente irradie su extremo]. 0 1

34
Dos ejemplos más de separación de variables para el calor (o similar). El primero nos sirve
para reflexionar sobre los cambios que hacen las condiciones de contorno homogéneas
(siempre necesario) y en el otro vemos que se puede aplicar el método en otras ecuaciones
separables (y no sólo en la del calor).

¨ t −  = 0 ,  ∈ (0, π), t > 0


Una  que cumple las condiciones de contorno
Ej 3. (, 0) = 1
salta a la vista: (t) = e−t . Haciendo  = + :
 (0, t) = 0, (π, t) = e−t

t −  = e−t

[problema no homogéneo].
(, 0) =  (0, t) = (π, t) = 0
Necesitamos conocer las autofunciones de homogéneo para saber qué tipo de solución
probar. Ya sabemos que al separar variables en el calor aparece X 00 +λX = 0 (además de
T 0 +λT = 0 que ahora mismo no nos importa). Esto, unido a las condiciones que salen
de los datos de contorno X 0 (0) = X(π) = 0 (problema conocido en 2.2), nos lleva a:
∞ ∞ h
(2n−1) (2n−1)2 (2n−1)
i
(, t) = Tn (t) cos Tn0 + = e−t →
X X
2
→ 4
Tn cos 2
n=1 n=1

(2n−1) 2
(
Tn0 + Tn = Bn e−t Rπ (2n−1) 4(−1)n+1
4 , con Bn = π2 0
cos 2
d = π(2n−1)
.
Tn (0) = 0 (del dato inicial)

Resolvemos la EDO lineal mediante coeficientes indeterminados: Tnp = Ae−t →


2 4Bn e−t Tn(0)=0 16(−1)n+1
h 2
i
Tn = Ce−(2n−1) t/ 4 + (2n−1) 2 −4 −→ Tn (t) = π(2n−3)(2n−1)(2n+1) e−t −e−(2n−1) t/ 4 .

¿Podríamos encontrar una  mejor que no estropee la homogeneidad de la ecuación?


Buscamos (, t) que también la satisfaga. Al separar variables se ve que ∀A, B es
solución:  = e−t (A cos +B sen ) . Imponiendo a esta  los datos de contorno:
¨ − =0
t 
[problema homogéneo y,
 = −e−t cos  −→ (, 0) = 1+cos  →
=+ por tanto, más sencillo]
 (0, t) = (π, t) = 0
∞ ∞
(, t) = cn e−(2n−1)
2
t/ 4 cos (2n−1) → (, 0) =
(2n−1)
= 1+cos  →
X X
2
cn cos 2
n=1 n=1

(2n−1) (−1)n (−1)n


Rπ h
2(−1)n+1
i
cn = π2 0
(1+cos ) cos 2
d = π2 2n−1
+ 2n+1 + 2n−3 .

[Evidentemente se podría ver que ambas soluciones coinciden].

¨  − +2 = 0 ,  ∈ 0, π , t > 0
t  2 [El término +2 representa una pérdida
Ej 4. (, 0) = cos 5
de calor al medio a lo largo de la varilla].
 (0, t) = (π/ 2, t) = 0

X 00 0 damos el 2 i
h
Separando variables: (, t) = X()T(t) → X
= TT +2 = −λ mejor a la T

X 00 + λX = 0  (0, t) = X 0 (0)T(t) = 0 → X 0 (0) = 0



y de los datos de contorno:
T 0 +(2+λ)T = 0  π2 , t = X π2 T(t) = 0 → X π2 = 0
  

¨ 00
X + λX = 0
→ λn = (2n−1)2 , n = 1, 2, . . . , Xn = cos(2n−1)

X 0 (0) = X π2 = 0

n  2
 o
→ T 0 = −(2+λn ) T → Tn = e− 2+(2n−1) t
∞  
2+(2n−1)2 t
Probamos pues: (, t) = cn e−
X
cos(2n−1) .
n=1

Y, por el dato inicial: (, 0) = cn cos(2n−1) = cos 5 → c3 = 1 y los otros 0 .
X

n=1

Así pues: (, t) = e−27t cos 5 .

[Muy parecido a como lo probamos para el calor, se ve que esta solución es única;
o bien, haciendo  = e−2t  se obtiene un problema para la ecuación del calor con
esos mismos datos, problema cuya unicidad ya demostramos].

35
Resolvamos el problema para la cuerda vibrante con extremos fijos (en 4.1 lo
resolveremos extendiendo los datos y aplicando la fórmula de D’Alembert):
¨  − c2  = 0 ,  ∈ [0, L], t ∈ R
tt 
[P6 ] (, 0) = ƒ (), t (, 0) = g()
(0, t) = (L, t) = 0

Separando variables  = X()T(t) e imponiendo los datos de contorno obtenemos:


2 2
¨
X 00 1 T 00 X 00 + λX = 0 , X(0) = X(L) = 0 → λn = nLπ2 , Xn = sen nπ

= = −λ → L
X c2 T T 00 + λc2 T = 0 n = 1, 2, . . .

Las Tn correspondientes son combinaciones lineales de sen nπct L


y cos nπct
L
.
h i
Así, funciones de la forma: n (, t) = kn cos nπct
L
+ cn sen nπct
L
sen nπ
L
, n = 1, 2, . . .
satisfacen la EDP y las condiciones de contorno. Probamos, pues:
∞ h i
(, t) = kn cos nπct + cn sen nπct sen nπ
X
L L L
n=1

con kn y cn constantes. Para que se cumplan las condiciones iniciales:


∞ RL
(, 0) = kn sen nπ = ƒ () → kn = 2L 0 ƒ () sen nπ
X
L L
d , n = 1, 2, ...
n=1

y suponiendo que la serie se puede derivar término a término:


∞ RL
nπc
t (, 0) = cn sen nπ 2
= g() → cn = nπc g() sen nπ
X
L L 0 L
d , n = 1, 2, ...
n=1
nπc
pues L
cn son los coeficientes del desarrollo de g en senos.

Tenemos una solución, formal en principio, aunque se prueba que las series convergen
y satisfacen realmente el problema si ƒ y g cumplen las condiciones que pediremos
en 4.1: si sus extensiones impares respecto a 0 y L son C2 y C1 , respectivamente
(si ƒ ó g no son tan regulares la serie solución representará lo que llamaremos una
solución débil; en las ondas no desaparecen las discontinuidades).
Para algunas cuestiones (valores concretos, dibujos, ... ) será mejor usar D’Alembert,
pero se ven mejor otras propiedades en la serie. Por ejemplo, como cada n es 2L/ c-
periódica en t , tambien  tiene este periodo. Observemos además que la solución
aparece como combinación infinita de ‘modos naturales de vibración’ [ sen(nπ/ L) ]
cada uno de los cuales vibra con una frecuencia nπc/ L (‘frecuencias naturales’ de la
cuerda). En términos acústicos 1 da el tono fundamental (su frecuencia es πc/ L ) y
los demás son los ‘armónicos’ (de frecuencia múltiplo de la anterior).

tt −  =  ,  ∈ [0, π], t ∈ R


¨

X
Ej 5. → (, t) = Tn (t) sen n
(, 0) = t (, 0) = (0, t) = (π, t) = 0 n=1

Esta serie ya se anula en  = 0 y  = π . Además debe cumplirse:


Rπ 2[−1]n+1 2[−1]n+1
Tn0 + n2 Tn = π2 0  sen n d = n
→ Tn = c1 cos nt + c2 sen nt + n3
.

[−1]n+1
X
(, 0) = t (, 0) = 0 → Tn (0) = Tn0 (0) = 0 → (, t) = 2 n3
[1−cos nt] sen n .
n=1

De otra forma: podríamos conseguir un problema homogéneo hallando una solución


de la ecuación () que cumpla las condiciones de contorno:
(0)=(π)=0
− 00 =  →  = c1 +c2 − 13 3  = 31 π 2 −3 .

−→

Con  = − , acabamos en [P6 ], con ƒ () = 31 3 −π 2  y g() = 0 .




[Se podrían imponer otros tipos de condiciones de contorno (como las del calor) a la cuerda
vibrante (y se resolverían los problemas separando variables). La condición  = 0 significa
que el extremo de la cuerda se mueve con libertad verticalmente y  − = 0 ó  +b = 0
indican que el extremo está unido por un muelle al punto de anclaje].

36
Hasta ahora la EDO del problema de Sturm-Liouville siempre ha sido X 00 +λX = 0 ,
y, por eso, las series de Fourier eran todas con peso r() = 1 . Pero para otras
EDPs similares a calor y ondas, o para estas ecuaciones en el plano o el espacio
y coordenadas no cartesianas, surgen otras ecuaciones ordinarias y es necesario
manejar la teoría más general del capítulo 2. Los problemas en más variables se
verán en 3.3, pero podemos resolver ya alguno si se reduce a uno de 2 variables.
Por ejemplo, la ecuación de ondas tt − c2 Δ = 0 en recintos esféricos lleva, en
general, a una EDP en 4 variables (el tiempo t y las variables esféricas r , θ , ϕ ),
cuyas soluciones quedarían determinadas (como en la recta) fijando unos datos de
contorno y un par de condiciones iniciales. Pero si buscamos sólo sus soluciones
independientes de los ángulos aparece la ecuación de ondas en el espacio con
simetría radial (en 2 variables). En concreto, vamos a resolver aquí el siguiente
problema homogéneo (vibraciones entre dos superficies esféricas):

2
 tt −rr − r r = 0, 1 ≤ r ≤ 2, t ∈ R
[P7 ] (r, 0) = ƒ (r) , t (r, 0) = g(r)

(1, t) = (2, t) = 0
0
R00 + 2R rR00 +2R0 +λrR = 0

r T 00
Separando variables: (r, t) = R(r)T(t) → = T = −λ →
R T 00 + λT = 0
Las condiciones de contorno imponen: R(1) = R(2) = 0 .
Vimos la ecuación de R en 2.2 (allí asociada a un problema singular, aquí es regular
pues estamos en el intervalo [1, 2] ). Se resolvía haciendo el cambio de variable:
λn = n2 π 2 , n = 1, 2, . . .
 00
S + λS = 0 r=s+1 S00 + λS = 0

S = rR→ → Rn = senrnπr

→ →
S(1) = S(2) = 0 S(0) = S(1) = 0 Sn = {sen nπs}
Y para esos valores de λ las soluciones para T son Tn = {cos nπt, sen nπt} .
∞  sen nπr
= kn cos nπt + cn sen nπt
X 
Probamos, pues: r
.
n=1

∞ ∞
kn senrnπr = ƒ (r) y nπcn senrnπr = g(r) .
X X
Las condiciones iniciales imponen:
n=1 n=1

Para hallar los coeficientes del desarrollo de una función en las autofunciones Rn (r)
0
debemos utilizar el peso del problema de Sturm-Liouville: r 2 R0 + λr 2 R = 0 .


R2 2 R2
Como 〈Rn , Rn 〉 = 1 r 2 senr 2nπr dr = 12 y 〈 ƒ , Rn 〉 = 1 r 2 ƒ (r) senrnπr dr , concluimos que:
R2 2
R2
kn = 2 1
r ƒ (r) sen nπr dr y cn = nπ 1
r g(r) sen nπr dr .

Evidentemente se llegaría a lo mismo (aquí es mucho más corto, pero otras veces
no podremos hacer estos atajos) observando que las condiciones deducidas de las
iniciales se podrían haber reescrito así:
∞ ∞
kn sen nπr = rƒ (r) y nπcn sen nπr = rg(r) .
X X

n=1 n=1

De hecho, todo el problema se hubiera simplificado notablemente si hubiéramos


utilizado inicialmente el cambio de variable que sugieren los cálculos anteriores:
¨  − = 0
tt rr
 = r → (r, 0) = rƒ (r), t (r, 0) = rg(r) , problema casi igual al de la página anterior.
(1, t) = (2, t) = 0

[Las ondas en plano con simetría radial satisfacen tt −rr − 1r r = 0 y la ecuación en
R es rR00 +R0 +λrR = 0 , que (lo vimos en 2.2) está asociada a las funciones de Bessel].

37
Acabamos la sección con algunas reflexiones sobre cambios de variable y descomposición
en subproblemas que generalicen las ideas que hemos utilizado. Los problemas clásicos
que vimos en 1.3 estaban formados por una ecuación lineal, que podemos representar, si
es no homogénea, por L[] = F , con L lineal (es decir, L[1 + b2 ] = L[1 ] + bL[2 ] ) y
unas condiciones adicionales también lineales. En los que hemos resuelto por separación de
variables necesariamente había un par de condiciones de contorno Ck [] = hk y, además
una o dos condiciones iniciales.
[Cuando resolvamos ecuaciones de Laplace separando variables en la próxima sección
veremos que a veces las condiciones de contorno estarán implícitas (por ejemplo en
un círculo se exigirá periodicidad). Y, en vez de condiciones iniciales, aparecerán otras
dos de contorno (quizás alguna no escrita explícitamente, como la acotación)].
Supongamos, por ejemplo, que son 3 las condiciones adicionales (como en el calor) y que
nuestro problema es de la forma:
¨ L[] = F
[P] M[] = ƒ
C1 [] = h1 , C2 [] = h2
El problema de resolver [P] puede ser reducido a resolver otros subproblemas más sencillos.
Por ejemplo, si 1 , 2 , 3 y 4 son soluciones de
L[] = F L[] = 0 L[] = 0 L[] = 0
   
 M[] = 0  M[] = ƒ  M[] = 0  M[] = 0
[P1 ] [P2 ] [P3 ] [P4 ]
 C1 [] = 0  C1 [] = 0  C1 [] = h1  C1 [] = 0
C2 [] = 0 C2 [] = 0 C2 [] = 0 C2 [] = h2
está claro, por la linealidad, que  = 1 +2 +3 +4 es solución de [P], pero, como ya hemos
observado, bastantes veces nos convendrá descomponer [P] en menos subproblemas.
En otros casos interesará convertir la ecuación en homogénea (si no hubiese condiciones
de contorno, por ejemplo). Si somos capaces de encontrar una solución particular  de la
ecuación ( L[] = F ), el cambio  = − convertirá [P] en:
¨ L[] = L[]−L[] = 0
M[] = ƒ − M[]
C1 [] = h1 −C1 [] , C2 [] = h2 −C2 []
Más a menudo necesitamos hacer homogéneas las condiciones de contorno (la separación
de variables y otros métodos lo exigen). Así, si lo que tenemos es una  que satisface
C1 [] = h1 y C2 [] = h2 , haciendo, como siempre,  = − acabaríamos en
¨ L[] = F − L[]
M[] = ƒ − M[]
C1 [] = C2 [] = 0
Lo que ya es un lujo (pero se puede intentar buscar por el premio que nos da) es tener una 
que cumpla las dos condiciones y además la ecuación (como en los ejemplos 3 y 5 de esta
sección). Los problemas homogéneos siempre son más sencillos que los no homogéneos
(separando variables, por ejemplo, los primeros exigen resolver sólo EDOs homogéneas,
más corto que resolver las EDOs no homogéneas de los segundos).
Como vemos, hay mucha variedad en los posibles cambios. En cada caso habrá que ver
cuáles nos llevan a problemas mas asequibles. Si inicialmente hay condiciones homogéneas
intentaremos que los cambios no las estropeen, aunque a veces no habrá más remedio.

38
3.2. Separación de variables para Laplace
Resolvamos utilizando el método de separación de variables diversos problemas
para la ecuación de Laplace en recintos especialmente simples. Comenzamos por
el problema de Dirichlet en un rectángulo, es decir:
f (x)
b b

 Δ = F(, y) , en (0, )×(0, b)
[P1 ] (, 0) = ƒo (), (, b) = ƒb () g (y) ga(y)
o
(0, y) = go (y), (, y) = g (y)

0 fo(x) a

Por ser lineales la ecuación y las condiciones, basta resolver los 5 subproblemas
que se obtienen al hacer 4 de las 5 funciones que aparecen igual a 0 y sumar las
5 soluciones (de hecho, se puede descomponer en menos o hacer cambios que
anulen alguno de los términos no homogéneos). Comencemos resolviendo, por
ejemplo, uno de los 4 problemas para la ecuación homogénea:
¨ Δ = 0 , en (0, )×(0, b) (, y) = X()Y(y) → X 00 Y +XY 00 = 0 →
(, 0) = ƒo () X +λX = 0
 00
00 00
(, b) = (0, y) = (, y) = 0 − XX = YY = λ →
Y 00 −λY = 0
De (0, y) = (, y) = 0 se deduce que X(0) = X() = 0 , con lo que el problema de
contorno para la X tiene solución no trivial si
2 2
n o
λn = nπ2 , Xn = sen nπ

, n = 1, 2, . . . .

Para esos λn es Yn = c1 enπy/  +c2 e−nπy/  . La condición homogénea aún no aplica-


da (, b) = 0 impone Y(b) = 0 . Nos interesan las Yn que la cumplen:
n o
nπ[b−y]
c2 = −c1 e2nπb/  → Yn = c1 enπb/  enπ[y−b]/  −enπ[b−y]/  → Yn = sh



nπ[b−y]
(, y) = sen nπ
X
Probamos entonces: cn sh  
n=1

Para satisfacer la condición de contorno no homogénea que falta:


∞ R
(, 0) = cn sh nπb sen nπ = ƒo () → cn sh nπb = 2 0 ƒo () sen nπ
X
   
d
n=1

Análogamente se resuelven los otros 3 subproblemas con F ≡ 0 de [P1 ]. En uno de


ellos volvemos a tener las Xn de antes, y en los otros dos es Y (con condiciones
nπy
de contorno homogéneas) la que proporciona las autofunciones Yn = sen b .
[Los papeles de X e Y son intercambiables. En calor y ondas el problema de contorno
siempre era para la X (las condiciones de T eran inciales). Para Laplace en polares,
aunque tanto R como Θ tendrán condiciones de contorno, la EDO de la Θ será más
sencilla y la elegiremos siempre para obtener las autofunciones].

Para resolver el último subproblema, el de la ecuación no homogénea:

Δ = F(, y) , en (0, )×(0, b)




(, 0) = (, b) = (0, y) = (, y) = 0

como siempre se prueba una serie de autofunciones. Aquí hay dos posibilidades
[elegiremos la que dé un desarrollo más fácil para F ]:
∞ ∞
nπy
(, y) = Yn (y) sen nπ (, y) = Xn () sen
X X

ó b
n=1 n=1

[No olvidemos que con un cambio  = − , o resolviendo menos subproblemas se


puede llegar antes la solución; lo único necesario para empezar con separación de
variables es que sea  = 0 en  = 0,  ó en y = 0, b ].

39
Siguiendo con Laplace en cartesianas, resolvemos un problema de Neumann.
Suponemos la ecuación no homogénea, pero con condiciones de contorno homo-
géneas (si no lo fuesen, procederíamos de forma similar al problema anterior).

Δ = F(, y) , en (0, π)×(0, π)



[P2 ]
y (, 0) = y (, π) =  (0, y) =  (π, y) = 0

Separando variables en la ecuación homogénea llegamos, desde luego, a las mis-


mas ecuaciones que en [P1 ]: X 00 +λX = 0 , Y 00 −λY = 0 . Las condiciones de contorno
obligan a que X 0 (0) = X 0 (π) = 0 , Y 0 (0) = Y 0 (π) = 0 . Para este problema tenemos,
pues, dos familias de autofunciones {cos n} ó {cos ny} , n = 0, 1, . . . y podemos
elegir cualquiera de ella para nuestra serie. Por ejemplo:

(, y) = X0 () + Xn () cos ny
X

n=1

∞ ∞
B0 ()

X000 + [Xn00 −n2 Xn ] cos ny = + Bn () cos ny , Bn () = π2
X X
2 0
F(, y) cos ny dy
n=1 n=1

Debemos resolver los infinitos problemas de contorno para EDOs:



X000 = 21 B0 = π1 0 F(, y) dy ; Xn00 −n2 Xn = Bn , n ≥ 1 ; con Xn0 (0) = Xn0 (π) = 0 .

Las Xn con n ≥ 1 quedan determinadas de forma única (el problema homogéneo,


como sabemos desde 2.1, tiene sólo la solución trivial).
Pero X000 = 0 , X00 (0) = X00 (π) = 0 tiene soluciones no triviales {1} , con lo que,


según 2.3, para que haya solución para X0 es necesario que sea 0 1·B0 () d = 0 .
R πR π
Es decir, [P2 ] tiene solución sólo si 0 0
F(, y) d dy = 0 .

Y en ese caso tiene infinitas que difieren en una constante. Todo esto es coherente
con lo que sabíamos sobre Neumann desde 1.3.

Ej 1. Calculemos la solución en el caso particular en que F(, y) = − .


RR
π
El problema sólo tiene solución si F = 0 , es decir, si  = 2
.
ƒ
Entonces nos queda X000 = − π2

por suerte, la F ya está desarrollada en {cos ny} .

Por la misma razón los Bn , y por tanto los Xn , son nulos si n ≥ 1 .


1 3 π 2
Integrando e imponiendo X00 (0) = X00 (π) = 0 obtenemos (, y) = 6
 − 4
 +C .

h ∞
Si resolvemos probando  = Yn (y) cos n hay que desarrollar en serie. Lo hacemos,
X

n=0

aunque aquí sea una pérdida de tiempo. Los coeficientes de F = − π2 en cos n son:

0 , si n = 0, 2, 4, . . .
¨
2 π π
R
Bn = π 0 − 2 cos n d = 4
− πn 2 , si n = 1, 3, . . .

∞ ∞
Y000 + [Yn00 −n2 Yn ] cos n =
X X
B2m−1 cos(2m−1) →
n=1 m=1
¨ 00
Y0 = 0
¨ 00
Y2m −4m2 Y2m = 0
→ Y0 = C ; → Y2m = 0 ;
Y00 (0) = Y00 (π) = 0 0 (0) = Y 0 (π) = 0
Y2m 2m
¨ 00
Y2m−1 − (2m−1)2 Y2m−1 = B2m−1 B
0 0 → Y2m−1 = − (2m−1)
2m−1

(0) = Y2m−1 (π) = 0


2
Y2m−1
∞ i
4 cos(2m−1)
X
→  = C+ π 4 , que (salvo constante) es el desarrollo de la  de arriba .
(2m−1)
m=1

40
Dos ejemplos más en cartesianas. El primero para Laplace con condiciones mixtas (parte
Dirichlet, parte Neumann). Ya dijimos en 1.3 que todos ellos tienen solución única.

 + yy = 0 , (, y) ∈ (0, 1)×(0, π)


¨
Ej 2.  = X()Y(y) →
(, 0) = y (, π) = (0, y) = 0 , (1, y) = 1

Y 00 +λY = 0 , Y(0) = Y 0 (π) = 0


¨
2n−1 2 (2n−1)y
n o
→ λn = , Yn = sen .
X 00 −λX = 0 , X(0) = 0 2 2

(2n−1)
n o
Para esos λ es X = c1 e(2n−1)/ 2 +c2 e−(2n−1)/ 2 −→ Xn = sh 2
.
X(0)=0

X
Probamos (, y) = cn Xn ()Yn (y) . Imponiendo el dato (1, y) = 1 que falta:
n=1

2n−1 2
Rπ (2n−1)y 4 (2n−1)π 
= dy =

cn sh 2 π 0
sen 2 π(2n−1)
1−cos 2


4 (2n−1) (2n−1)y
X
(, y) = 2n−1 sh 2
sen 2
.
π(2n−1) sh 2
n=1

Si nos gustan más las condiciones de contorno para  podemos hacerlas homogéneas
con un cambio de variable:
¨ + =0
 yy
 =  ,  = − → (, 0) = − , y (, π) = 0 →
(0, y) = (1, y) = 0

X 00 +λX = 0 , X(0) = X(1) = 0


¨
→ λn = n2 π 2 , Xn = {sen nπ} , Yn = ch[nπ(π −y)] .

Y 00 −λY = 0 , Y 0 (π) = 0
∞ ∞ R1
2
= kn Xn ()Yn (y) → kn Xn (0)Yn (y) = − → kn = − ch[nπ
X X
2] 0
 sen nπ d
n=1 n=1


2(−1)n
X
→ (, y) =  + πn ch[nπ 2 ]
ch[nπ(π −y)] sen nπ
n=1

[que es otra expresión de la misma solución única].

En todos los problemas que hemos resuelto en este capítulo (excepto los de Neumann) la
solución era única (todos eran problemas ‘físicos’). Pero no olvidemos que la unicidad en
EDPs es complicada, y que un problema nuevo del que no se ha demostrado la unicidad
podría no tenerla. Eso pasa en el siguiente ejemplo (para una ecuación de ‘Helmholtz’ muy
asociada a los problemas de más de dos variables):

π π

Δ+ = 0 , (, y) ∈ (0, π)× − ,
4 4 Como es ecuación nueva, separamos
variables desde el principio:

y , − π4 = y , π4 = 0
 
Ej 3.
X 00 00
+1 = − YY = λ →

(0, y) = 0 , (π, y) = sen 2y  = XY → X

s=y+ π4
 00  00
Y + λY = 0 Y + λY = 0 n o
0 π 0 π −→ 0 0 π → λn = 4n2 , Yn = cos 2n y+ π4 , n = 0, 1, . . .
Y − 4 =Y 4 =0 Y (0) = Y 2 = 0
 

p
X 00 + (1−λn )X = 0 , X(0) = 0 → X0 = {sen } y Xn = sh 4n2−1 
 
si n ≥ 1 .
∞ c0 indeterminado
p p 
cos 2ny+ nπ
X
(, y) = c0 sen  + = sen 2y →
 
cn sh 4n2−1 
2 c1 sh 3π = 1
=π
n=1 cn = 0 , n > 1
p
sh( 3 )
Tiene, por tanto, infinitas soluciones:  = C sen  + p sen 2y .
sh( 3 π)

Evidentemente no se podrá demostrar la unicidad haciendo uso de la fórmula de Green.


Operando como en 1.3, si 1 y 2 son soluciones del problema, su diferencia satisface:
¨ Δ+ = 0
 = 1 −2 → • = • = 0
RR  RR RR
→ D Δ+2 = D 2 − D ||∇||2 = 0 ??
•=•=0

41
Para resolver los problemas en círculos nos interesa expresar el Laplaciano en
polares (  = r cos θ , y = r sen θ ). Como,
r =  cos θ+y sen θ ; rr =  cos2 θ+2y sen θ cos θ+yy sen2 θ

θθ =  r 2 sen2 θ−2y r 2 sen θ cos θ+yy r 2 cos2 θ− rcos θ−y rsen θ

1 1
Δ = rr + r r + 2 θθ
r

Resolvamos el problema de Dirichlet homogéneo en un círculo:

Δ = 0 , en r < R R

[P3 ]
(R, θ) = ƒ (θ) , θ ∈ [0, 2π)

Θ00 +λΘ = 0

r 2 R00 +rR0 00
(r, θ) = R(r)Θ(θ) → R
= − ΘΘ = λ →
r 2 R00 +rR0 −λR = 0
f (θ)
Parece que no hay condiciones para la Θ , pero está claro que la solución (r, θ)
debe ser 2π-periódica en θ , es decir, debe ser Θ(0) = Θ(2π) , Θ0 (0) = Θ0 (2π) .
Este problema de Sturm-Liouville periódico tiene por autovalores y autofunciones:
λn = n2 , n = 0, 1, 2, . . . , Θ0 (θ) = 1 , Θn (θ) = cos nθ, sen nθ .
 

Las soluciones correspondientes de R son (ecuaciones de Euler):


R0 (r) = c1 +c2 ln r y Rn (r) = c1 r n +c2 r −n si n ≥ 1 .
Parece lógico imponer por argumentos físicos que la solución debe permanecer
acotada cuando r → 0 (matemáticamente la solución también debe estarlo si
debe ser de clase 2), así que debe ser c2 = 0 en ambos casos. Por tanto, probamos
soluciones de la forma:
o ∞
(r, θ) = r n n cos nθ + bn sen nθ
X  
+
2 n=1


o
(R, θ) = + Rn n cos nθ + bn sen nθ = ƒ (θ) , θ ∈ [0, 2π) →
X  
Debe ser: 2
n=1

Z 2π Z 2π
1 1
n = πRn
ƒ (θ) cos nθ dθ , n = 0, 1, . . . , bn = πRn
ƒ (θ) sen nθ dθ , n = 1, 2, . . .
0 0

Sustituyendo estos coeficientes en la serie y operando formalmente:


Z 2π h ∞
rn
i
1
(r, θ) = 1+2 ƒ (ϕ) dϕ
X
Rn
cos n(θ−ϕ)
2π 0 n=1

Vamos a sumar la serie:



r n cos nα ∞
reα n X∞ 
re−α n α −α R2 −r 2
  
re re
= 1+ + = α + R−re−α =
X X
1+2 Rn R R
1+ R−re R2 +r 2 −2Rr cos α
.
n=1 n=1 n=1

Por tanto, la solución de [P3 ] se puede expresar:



ƒ (ϕ) dϕ
Z
R2 −r 2
(r, θ) = 2π
fórmula integral de Poisson
0 R2 − 2Rr cos(θ − ϕ) + r 2

1
R 2π
Haciendo aquí r = 0 (o mirando la serie) deducimos que (0, θ) = 2π 0
ƒ (ϕ) dϕ :

si Δ = 0 , el valor de  en el centro de un círculo es el valor medio de  sobre la frontera.


Habría que probar que la  de la serie (o la integral) es realmente solución de [P3 ].
Se demuestra que si ƒ es continua a trozos, la  tiene infinitas derivadas en r < R
(aunque ƒ sea discontinua), que en ese abierto es Δ = 0 y que alcanza el valor de
contorno con continuidad en los θ en que ƒ es continua (y sigue habiendo unicidad,
cosa que vimos en 1.3 sólo si ƒ era continua). [La situación es totalmente análoga
para [P1 ], Dirchlet en rectángulo].
[El problema exterior en r > R lo veremos en 3.3, para compararlo con el del espacio].

42
Vamos con el problema de Dirichlet no homogéneo en el círculo. En vez de
tratarlo en general, resolvemos un problema concreto.
1
rr + rr + rθθ
2 = 4 , en r < 1
¨
[P4 ]
(1, θ) = cos 2θ

Podríamos descomponerlo en dos (el de Δ = 0 lo acabamos de estudiar), pero lo


resolvemos directamente. Como en todo problema no homogéneo probamos una
serie con las autofunciones del problema homogéneo:

(r, θ) = 0 (r) + n (r) cos nθ + bn (r) sen nθ
X  

n=1


n2 n2
 
00 + 1r 00 + 00 + 1r 0n − + + 1r b0n − =4,
X   00 
0 n r 2  n cos nθ bn r 2 b n sen nθ
n=1

que, por suerte, ya está desarrollada en esta familia de autofunciones.


[Si en vez de un 4 tuviésemos una F(r, θ) cualquiera, la desarrollaríamos en senos
y cosenos, mirando la r como constante e identificaríamos ambos miembros].
Habrá, pues, que resolver las ecuaciones de Euler:
r00
0
+ 00 = 4 , r 2 00
n
+ r0n − n2 n = 0 , r 2 b00
n
+ rb0n − n2 bn = 0 .
La condición (1, θ) = cos 2θ (también desarrollada ya) impone que:
bn (1) = 0 ∀n ; 2 (1) = 1 ; n (1) = 0 , n 6= 2 .
La acotación cuando r → 0 será la otra condición necesaria para determinar la
solución de cada EDO de segundo orden. Para la de 0 necesitamos una solución
particular, que se puede hallar con la fórmula de variación de las constantes:
1 ln r dr
= 1r , 0p = ln r 1·4 − ln r·4 dr
R R
1/ r 1/ r
= r2 .
0 1/ r

o, mejor, tanteando, pues (porque la de coeficientes constantes asociada la tiene


de la forma Ae2s ) sabemos que tiene una 0p = Ar 2 ( → 2A+2A = 4 , A = 1 ). Así:
acotada 0 (1)=0
0 = c1 + c2 ln r + r 2 → c2 = 0 → c1 = −1
Para 2 :
acotada 2 (1)=1
2 = c1 r 2 + c2 r −2 → c2 = 0 → c1 = 1
No necesitamos imponer los datos en la solución del resto de ecuaciones homogé-
neas para asegurar ya que el resto de n y las bn son cero ( 0 es solución y no
hay más por tener un problema de Dirichlet solución única). La solución de [P4 ] es:

(r, θ) = r 2 − 1 + r 2 cos 2θ
[Se podría escribir en cartesianas:  = 22 −1 ].

Como otras veces, un buen cambio simplifica el problema. Por ejemplo, podemos
en este caso buscar una solución (r) de la ecuación no homogénea resolviendo
 00 + 1r  0 = 4 . La solución más sencilla de esta ecuación de Euler es  = r 2 .
Δ = 0 , en r < 1

 = − →
(1, θ) = cos 2θ − 1
De la serie de la página anterior obtenemos, sin más que identificar coeficientes,
que la solución de este problema es:
(r, θ) = r 2 cos 2θ − 1
lo que nos lleva de forma mucho más rápida a la solución de antes.
Δ = F , r < R


Utilizando funciones de Green se dará en 3.4 una fórmula integral para
(R,θ) = ƒ

que generalizará la fórmula de Poisson de la página anterior .

43
Resolvamos ahora el problema de Neumann homogéneo en un círculo:

Δ = 0 , en r < R

[P5 ]
r (R, θ) = ƒ (θ) , θ ∈ [0, 2π)

Como el problema de contorno y la ecuación de Euler son las


mismas que en Dirichlet, la solución que probamos es:

f (θ)
o
(r, θ) = n n cos nθ + bn sen nθ
X  
+ r
2 n=1

pero ahora es diferente la condición de contorno que falta:



r (R, θ) = nRn−1 n cos nθ + bn sen nθ = ƒ (θ) , θ ∈ [0, 2π) →
X  
n=1

2π 2π
1 1
Z Z
n = ƒ (θ) cos nθ dθ , bn = ƒ (θ) sen nθ dθ , n = 1, 2, . . .
nπRn−1 0 nπRn−1 0

siempre que no tenga término independiente el desarrollo en senos y


cosenos de ƒ (θ) ; es decir, una condición necesaria para que el problema se
pueda resolver por este método es que se cumpla:
R 2π
ƒ (θ) dθ = 0
H RR
ƒ ds = F ddy = 0 .
 
0
confirma lo visto en 1.3: debía ser ∂D D

Además, o queda indeterminado [Neumann siempre tiene unicidad salvo constante].

Δ = 0 en r < 1
 ∞
3
r (1, θ) = n n cos nθ+bn sen nθ = sen3 θ = sen θ− 14 sen 3θ .
X  
Ej 4.
r (1, θ) = sen3 θ n=1
4

No hay que hacer integrales: b1 = 34 , b3 = − 12


1
y los demás cero.
3 1 3
Por tanto: (r, θ) = C + 4
r sen θ − 12 r sen 3θ , C cualquiera.

Y ahora resolvemos uno de Neumann no homogéneo en un semicírculo:

Δ = F(r, θ) , en r < 1, 0 < θ < π



[P6 ]
r (1, θ) = θ (r, 0) = θ (r, π) = 0

Como para este problema no hemos resuelto el homogéneo, debemos comenzar


hallando sus autofunciones. Conocemos la ecuación en Θ que sale al separar va-
riables. Junto a las condiciones de contorno nos dará dichas autofunciones:
Θ + λΘ = 0
 00
→ λn = n2 , Θn (θ) = cos nθ , n = 0, 1, 2, . . . →

Θ (0) = Θ (π) = 0
0 0

∞ h i
La serie con cosenos y senos del [P4 ] no cumple
(r, θ) = Ro (r) + Rn (r) cos nθ
X
los datos de contorno; aquí no hay periodicidad.

n=1

∞ ∞
n2
h i
Ro + 1r R00 +
R00 + 1 0
cos nθ = F(r, θ) = Bo (r) + Bn (r) cos nθ ,
X X
n
R
r n
− r 2 R n
n=1 n=1

1 π 2 π
R R
con Bo (r) = π 0 F(r, θ) dθ y Bn (r) = π 0 F(r, θ) cos nθ dθ .
0
Basta, pues, resolver: rRo +R0o = rR0o = rBo (r) y r 2 Rn +rR0n −n2 Rn = r 2 Bn (r) ,


ambas con los datos de contorno (singulares): Rn acotada en r = 0 y R0n (1) = 0 .


Si n ≥ 1 el problema homogéno (y, por tanto, el no homogéneo) tiene solución Rn
única (aunque el problema sea singular, vale lo que vimos en 2.3). Pero si n ≥ 0 :
R acotada
rRo +R0o = 0 → Ro = c1 +c2 ln r
Roh = {1} → −→
R0 (1) = 0

Existen ninguna solución Ro del no homogéno según sea 0 rBo (r)dr 6=


infinitas soluciones R1 0
=0 .
h R 1R π i
Concuerda una vez más con 1.3. Debía ser: 0 0 rF(r, θ) dθdr = 0 .

44
Resolvemos para acabar con Laplace en polares dos problemas con
condiciones mixtas. El primero va a ser homogéneo.
0
¨ Δ = 0 , r < 1 , θ ∈ 0, π 
Θ00 +λΘ = 0 , Θ0 (0) = Θ π2 = 0
¨ 
2
[P7 ] r (1, θ) = ƒ (θ) →
r 2 R00 +rR0 −λR = 0
θ (r, 0) = (r, π2 ) = 0

Los autovalores y autofunciones son conocidos: λn = (2n−1)2 , Θn = cos(2n−1)θ




n = 1, 2, . . . .
Resolviendo para esos λn la ecuación en R y exigiendo que esté acotada en r = 0 :
∞ ∞
(r, θ) = cn r 2n−1 cos(2n−1)θ (2n−1) cn cos(2n−1)θ = ƒ (θ) →
X X

n=1 n=1

4
R π/ 2
cn = [2n−1]π 0
ƒ (θ) cos(2n−1)θ dθ , n = 1, 2, . . . (solución única).

El recinto siguiente no incluye el origen. La condición implícita de estar acotada en


ese punto es sustituida por un dato explícito en r = 1 :
0

Δ = 0 , 1 < r < 2 , 0 < θ < π


¨
Ej 5.
(1, θ) = (2, θ) = (r, 0) = 0 , θ (r, π) = r 2 0
0
Aparentemente es un problema homogéneo, pero ya dijimos que las condiciones de
contorno para Laplace en polares que deben ser homogéneas son las de la θ . Necesi-
tamos una  que las cumpla. Claramente  = r 2 θ lo hace:
¨ Δ = −4θ , 1 < r < 2 , 0 < θ < π
 = − → (1, θ) = −θ, (2, θ) = −4θ
(r, 0) = θ (r, π) = 0
Las autofunciones del homogéno las dará el problema de contorno:
 00
Θ + λΘ = 0 [2n−1]2
n
[2n−1]θ
o
0 → λn = , Θ n (θ) = sen , n = 1, 2, . . .
Θ(0) = Θ (π) = 0 4 2


[2n−1]θ
(r, θ) = Rn (r) sen
X
Probamos entonces la serie: 2

n=1

∞ ∞
[2n−1]2 [2n−1]θ [2n−1]θ
h i
1 0
R00 + = −4θ = 4
X X
n
R
r n
− 4r 2
Rn sen 2
Bn sen 2
n=1 n=1

[2n−1]θ
2
Rπ 2[−1]n
con Bn = π 0
−θ sen 2
dθ = π[n−1/ 2]2

De los datos no homogéneos deducimos las condiciones para las Rn :


∞ ∞ ∞ ∞
Rn (1)Θn (θ) = Bn Θn (θ) , Rn (2)Θn (θ) = 4Bn Θn (θ)
X X X X

n=1 n=1 n=1 n=1

2
Resolvemos pues: r 2 R00 + rR0n − n − 21 Rn = 4Bn r 2 con Rn (1) = Bn , Rn (2) = 4Bn .

n

Bn
Rnp = Ar 2 [ λ = 2 no autovalor] → A = 4−(n−1/ 2)2
→ Rn = c1 r n−1/ 2 + c2 r −(n−1/ 2) + Ar 2

c. contorno [2q+2 −1][Bn −A] 2q [2q −4][Bn −A]


→ c1 = 22q −1
, c2 = 22q −1
, llamando q = n− 12 .

Simplificando un poco:
2[−1]n
Rn (r) = [2q+2 −1]r q + 2q [q2 −4]r −q − [22q −1]r 2

πq2 [q2 −4][22q −1]

La solución final es  = r 2 θ +  donde la  es la serie de arriba con los Rn dados por


esta expresión.

45
3.3. Algunos problemas en tres variables
Comenzamos estudiando las series de Fourier dobles, de teoría semejante a
las de una variable (las triples, que aparecerían en problemas con 4 variables, son
también similares).
Sean Xm () ,  ∈ [, b] e Yn (y) , y ∈ [c, d] las autofunciones de dos problemas de
Sturm-Liouville con pesos respectivos r() y s(y) , y sea ƒ (, y) ∈ C1 [, b]×[c, d] .


Entonces, para cada (, y) ∈ (, b)×(c, d) se puede escribir ƒ como la serie:
Z bZ d
∞ X
∞ 1 1
ƒ (, y) = cnm Xn Ym con cnm = ƒ (, y) Xm Yn r s dyd
X

m=1 n=1 〈Xn , Xn 〉 〈Ym , Ym 〉  c


h Rb Rd i
〈, 〉 designa, desde luego, 
  r d ó c
  s dy .

∞ 〈 ƒ (, y) , Ym 〉
pues para  fijo se puede poner ƒ (, y) = Cm () Ym , Cm () =
X
,
m=1 〈Ym , Ym 〉
∞ 〈Cm (), Xn 〉
y con Cm () = cnn Xn , cnm =
X
se tiene la expresión de arriba.
n=1 〈Xn , Xn 〉
[Se llega a lo mismo, desde luego, desarrollando primero en Xn y luego en Ym ].

En particular, se tienen los desarrollos en series trigonométricas dobles de una


función ƒ ∈ C1 [0, L]×[0, M] :


∞ X
∞ Z LZ M
mπy 4 mπy
ƒ (, y) = bnm sen nπ con bnm = ƒ (,y) sen nπ
X
L
sen M L
sen M
dy d
n=1 m=1 LM 0 0

∞ ∞ ∞ X

mπy mπy
ƒ (, y) = 1
+ 1X
n0 cos nπ + 1 X
+ nm cos nπ
X

4 00 2 L 2
0m cos M L
cos M
n=1 m=1 m=1 n=1
Z LZ M
4 mπy
con nm = ƒ (, y) cos nπ
L
cos M
dy d
LM 0 0

P P
[O los desarrollos parecidos en sen cos ó cos sen , o con series en senos y cosenos].
1 1
[Los factores 4
y 2
son, como siempre, para que la fórmula valga también si n = 0 ó m = 0 ].

Ej 1. Desarrollemos ƒ (, y) =  cos y , en [0, π]×[0, π] de dos formas:


Z πZ π
∞ X
∞ 4
 cos y = bnm sen n sen my con bnm =
X
 cos y sen n sen my dy d
n=1 m=1 π2 0 0
∞ X

16 [−1]n+1 m
X
→  cos y = π n[4m2 −1]
sen n sen 2my
n=1 m=1

Z πZ π 0 si m 6= 1
4 
nm =  cos y cos n cos my dy d =  π si m = 1, n = 0 →
π2 0 0 n 2 2[(−1) −1]/ (πn ) si m = 1, n > 0

π 4 1
X
 cos y = 2
cos y − π (2n−1)2
cos[2n−1] cos y [ya estaba desarrollado en y ].
n=1

[La igualdad entre ƒ y su serie se da en los puntos de continuidad de la ƒ extendida,


de forma impar en el primer caso y par en el segundo, en cada variable hasta [−π, π]
y luego de forma 2π-periódica; así, la serie en senos converge hacia  cos y en el lado
 = 0 del cuadrado [0, π]×[0, π] , pero no lo hace en los otros lados; la serie en cosenos,
en cambio, converge (uniformemente) en todo el cuadrado, incluido el borde].

46
Resolvamos separando variables varios problemas (homogéneos) en 3 variables.
Primero, la ecuación del calor en un cuadrado: estudiamos la evolución de las
temperaturas de una placa (dadas las iniciales) si el borde se mantiene a 0o :
0
 !

 t − k[ +yy ] = 0 , (, y) ∈ (0, π)×(0, π) , t > 0 0 0


(, y, 0) = ƒ (, y)
(, 0, t) = (, π, t) = (0, y, t) = (π, y, t) = 0

0 0 !

Buscamos soluciones: (, y, t) = X()Y(y)T(t) → XYT 0 − k[X 00 Y +XY 00 ]T = 0


¨ X 00 + λX = 0
X 00 1 T0 Y 00 Y 00 + μY = 0
= = −λ →

X k T
− Y
Y 00
=λ+ 1 T0
= −μ →
Y k T T 0 + k[λ+μ]T = 0
[Como en 2 variables, dejamos para la T la expresión más complicada].

Las condiciones de contorno exigen: X(0) = X(π) = Y(0) = Y(π) = 0 . Así pues:
¨
λ = n2 , Xm = {sen n}, n = 1, 2, . . . n  o
− n2 +m2 kt
→ T nm = e .
μ = m2 , Yn = {sen my}, m = 1, 2, . . .
n  o
Cualquier nm (, y, t) = e− n +m kt sen n sen my satisface la ecuación y todas
2 2

las condiciones de contorno, así como lo hace cualquier combinación lineal de ellas.
Esto nos lleva a probar la serie:
∞ X∞ 
bnm e− n +m kt sen n sen my
2 2
(, y, t) =
X

n=1 m=1

∞ X

que debe satisfacer además: (, y, 0) = bnm sen n sen my = ƒ (, y) →
X

n=1 m=1

Z πZ π
4
bnm = ƒ (, y) sen n sen my d dy , n, m ≥ 1 .
π2 0 0

[Como en la varilla, aquí también  → 0 cuando t → ∞ ].

Ahora, Laplace en un cubo con condiciones de contorno mixtas (cuya solución


seá única como los similares del plano):

Δ = 0 en (0, π)×(0, π)×(0, π)



 (, y, 0) = ƒ (, y)
  = 0 en  = 0,  = π, z = π
y = 0 en y = 0, y = π
¨ X 00 +λX = 0, X(0) = X(π) = 0
Y” 00 00 Z 00
 = XYZ → Y
+ ZZ = − XX =λ → Z
−λ = − Y”
Y
=μ → Y 00 +μY = 0, Y 0 (0) = Y 0 (π) = 0
Z 00 −[λ+μ]Z = 0, Z(π) = 0

λ = n2 , Xn = {sen n}, n = 1, 2, . . .
¨
n o
= n2 +m2 [π −z]
p
→ → Z mn sh →
μ = m2 , Ym = {cos my}, m = 0, 1, . . .

1 X
(, y, z) =

2
cn0 sh n[π −z] sen n
n=1 ∞ X

+ n2 +m2 [π −z]
X p 
cnm sh sen n cos my
m=1 n=1

Como (, y, 0) = ƒ (, y) , los cnm son:


Z πZ π
4 n = 1, 2, . . .
cnm = p ƒ (, y) sen n cos my dy d
m = 0, 1, . . .

π 2 sh π n2+m2 0 0

47
Resolvamos el problema de Dirichlet en una esfera. En los libros de cálculo en
varias variables se encuentra la expresión del laplaciano en esféricas:
 = r sen θ cos ϕ « 2r θθ cos θ θ ϕϕ
y = r sen θ sen ϕ → Δ = rr + + + + θ
z = r cos θ r r2 sen θ r 2 sen2 θ r 2
r
Veamos primero el caso con datos independientes de ϕ : ɸ
h i
cos θ
rr + 2r r + r12 θθ + sen
(
θ
 θ = 0 , r <R
(R, θ) = ƒ (θ) , θ ∈ [0, π]

que, de hecho, es un problema con dos variables. Podemos buscar entonces so-
luciones que tampoco dependan de ϕ . Separando variables:
r R + 2rR0 − λR = 0
¨ 2 00
 = R(r) Θ(θ) → cos θ 0
Θ00 + sen θ
Θ +λΘ = 0
2
El cambio s = cos θ Θ0 = − sen θ dΘ , Θ00 = sen2 θ ddsΘ2 − cos θ dΘ
 
ds ds
lleva la segunda
ecuación a:
 2
1−s2 ddsΘ dΘ
2 − 2s ds + λΘ = 0 , ecuación de Legendre.


Imponemos que Θ esté acotada en s = ±1 [ θ = 0, π polos de la esfera]. Los


autovalores de este problema singular (citado en 2.2) son λn = n(n+1) , n = 0, 1, . . .
y sus autofunciones son los polinomios de Legendre:
h i
Pn (s) = Pn (cos θ) P0 = 1 , P1 = s , P2 = 23 s2 − 12 , P3 = 52 s3 − 23 s , . . .
 

Para estos valores de λ :

r 2 R00 +2rR0 −n(n+1)R = 0 → μ2 +μ−n(n+1) = 0 → μ = n, −(n+1)


R acotada
→ Rn = c1 r n +c2 r −(n+1) −→ Rn = {r n } , n = 0, 1, . . .
Probamos entonces:
∞ ∞
(r, θ) = n r n Pn (cos θ) → (R, θ) = n Rn Pn (cos θ) = ƒ (θ)
X X

n=0 n=0

π
2n+1
Z
→ n = ƒ (θ) Pn (cos θ) sen θ dθ , n = 0, 1, . . . ,
2Rn 0

0
pues el peso es r(θ) = sen θ (sen θ Θ0 ) + λ sen θ Θ = 0 y de los Pn se sabe que:
 

Rπ 2 s=cos θ R 1  2 2
0
Pn (cos θ) sen θ dθ = −1
Pn (s) ds = 2n+1

2n+1 1
R
Ej 2. Si R = 1 y ƒ (θ) = cos2 θ se tiene: n = 2 −1
s2 Pn (s) ds .

1
R1 1 5
R1 3
Así pues: 0 = s2 ds = , 2 = s4 − 12 s2 ds = 23 , y los demás n = 0

2 −1 3 2 −1 2

(ya que P1 es impar (⇒ 1 = 0 ), y para desarrollar s2 bastan P0 , P1 y P2 ).


1 1 2
La solución es, por tanto, (r, θ) = + r 2 cos2 θ = 1
1−2 −y 2 +2z 2

− r .

3 3 3

Para un dato como este se podrían determinar los coeficientes tanteando:

cos2 θ = 32 32 cos2 θ− 21 + 13 → 2 = 23 , 0 = 13 , como antes.





Para resolver problemas con términos no homogéneos F(r, θ) en la ecuación,

se probaría como siempre una serie de autofunciones:  = n (r) Pn (cos θ) .
X 
n=0

48
Pasemos ahora a resolver, con menos detalles, el problema general en 3 variables:
h i
cos θ
rr + 2r r + r12 θθ + sen  + 1  = 0 , r <R
¨
θ θ sen2 θ ϕϕ
(R, θ, ϕ) = ƒ (θ, ϕ) , θ ∈ [0, π] , ϕ ∈ [0, 2π)

Vamos en este caso a separar primero la parte radial y la que depende de los dos ángulos:
r 2 R00 + 2rR0 − λR = 0
¨
 = R(r) Y(θ, ϕ) →
Yϕϕ + sen θ sen θ Yθ θ + λ sen2 θ Y = 0


¨ 00
 + μ = 0
Separando ahora la parte angular: Y(θ, ϕ) = Θ(θ) (ϕ) → 0 μ 
sen θ Θ0 + λ sen θ− sen θ Θ = 0

La solución ha de ser 2π-periódica en ϕ : μm = m2 , m (ϕ) = cos mϕ, sen mϕ , m = 0, 1, . . .




Llevando estos μm a la otra ecuación y haciendo como antes s = cos θ se tiene:


2
h i h i
d 2 ) dΘ + λ − m
ds
(1−s ds 1−s 2 Θ = 0 , Θ acotada en s = ±1 .

La EDO, nueva para nosotros, se llama ecuación asociada de Legendre. Si m = 0 es la


de Legendre y las autofunciones eran los Pn . Se prueba que los autovalores del problema
singular son también λn = n(n+1) , y sus autofunciones están relacionadas con ellos:
m/ 2 dm
Pm
n
(t) = 1−s2 dsm
Pn (s) , con m ≤ n
h i
P0n = Pn , P11 = sen θ , P12 = 3 sen θ cos θ , P22 = 3 sen2 θ , . . .
n o
→ Ynm (θ, ϕ) = cos mϕ Pm n
(cos θ) , sen mϕ P m (cos θ)
n
, n = 0, 1, ... , m = 0 . . . n .
h
Y00 = 1 , Y10 = cos θ , Y11 = sen θ cos ϕ, sen θ sen ϕ , Y20 = 32 cos2 θ− 12 ,
   
i
Y21 = 3 sen θ cos θ cos ϕ, 3 sen θ cos θ sen ϕ , Y22 = 3 sen2 θ cos 2ϕ, 3 sen2 θ sen 2ϕ , . . .
 

Las soluciones acotadas en r = 0 para esos λn son como antes Rn = {r n } .

Los armónicos esféricos son las soluciones de la ecuación de Laplace m


n
= r n Ynm (θ, ϕ) .
 m m

Hay libros que llaman armónicos esféricos a los Yn , otros a múltiplos concretos de los Yn . . . .

Con ellos formamos la serie:



X h n i
(r, θ, ϕ) = r n n0 Pn (cos θ) + nm cos mϕ + bnm sen mϕ Pm (cos θ)
X 
n

n=0 m=1

2n+1 2π π
R R
n0 = 4πRn 0 0
ƒ (θ, ϕ) Pn (cos θ) sen θ dθdϕ ,
(2n+1)(n−m)! 2π π
R R
nm = 2π(n+m)!Rn 0 0
ƒ (θ, ϕ) cos mϕ Pm
n
(cos θ) sen θ dθdϕ
, m≥1
(2n+1)(n−m)! 2π π
R R
bnm = 2π(n+m)!Rn 0 0
ƒ (θ, ϕ) sen mϕ Pm
n
(cos θ) sen θ dθdϕ

2 (n+m)!
R1  2
puesto que se cumple −1
Pm
n
(t) dt = 2n+1 (n−m)!
.

Ej 3. Para R = 1 y ƒ (θ, ϕ) = sen2 θ sen2 ϕ . Buscamos identificar como en el ejemplo 2.


1
Debe ser: ƒ (θ, ϕ) = 2
sen2 θ − 21 sen2 θ cos 2 = 12 − 21 cos2 θ − 12 sen2 θ cos 2

= 13 − 13 32 cos2 θ − 12 − 12 sen2 θ cos 2 = 31 Y00 − 13 Y20 − 21 Y22 .


 

Por tanto, 00 = 31 , 20 = − 13 , 22 = − 12 y los otros son cero. La solución es, pues:

 = 13 − 31 r 2 32 cos2 θ − 21 − 12 r 2 sen2 θ cos 2 .


 

1
Escrita en cartesianas:  = − 21 z 2 + 61 2 +y 2 +z 2 − 12 2 −y 2 = 31 − 13 2 + 32 y 2 − 13 z 2
   
3
,

función que cumple Δ = 0 y que cuando 2 +y 2 +z 2 = 1 vale y 2 = ƒ (θ, ϕ) si r = 1 .


 

49
Veamos ahora el problema exterior de Dirichlet para Laplace en el círculo y en la
esfera con simetría (con datos independientes de ϕ ). Para que haya unicidad, las
condiciones en el infinito han de ser distintas:
plano: espacio:
¨ Δ = 0 , si r > R ¨ Δ = 0 , si r > R
(R, θ) = ƒ (θ) , 0 ≤ θ < 2π (R, θ) = ƒ (θ) , 0 ≤ θ ≤ π
 acotada cuando r → ∞  → 0 cuando r → ∞

Separando variables se llega a las mismas Θn que en los problemas interiores:


{Θn } = {cos nθ, sen nθ} , n = 0, 1, . . . {Θn } = {Pn (cos θ)} , n = 0, 1, . . .
Pero hay que elegir diferentes Rn , para las nuevas condiciones en el infinito:
n = 0 , c1 +c2 ln r → R0 = {1} n = 0 , c1 +c2 r −1 → R0 = r −1


n > 0 , c1 r n +c2 r −n → Rn = {r −n } n > 0 , c1 r n +c2 r −(n+1) → Rn = r −(n+1)




−1

En el plano ningún R0 → 0 , y en el espacio están acotadas tanto 1 como r ; tender a

0 nos dejaría sin soluciones en el plano y pedir acotación daría infinitas en el espacio .

Probando las series correspondientes e imponiendo (R, θ) = ƒ (θ) , se obtiene que


las soluciones respectivas son estas series con los coeficientes indicados:
∞ ∞
(r, θ) = 20 + r −n n cos nθ+bn sen nθ (r, θ) = r0 + n r −(n+1) Pn (cos θ)
X   X

n=1 n=1

Rn
R 2π
n = π 0
ƒ (θ) cos nθ dθ , n = 0, 1, . . . n =
(2n+1)Rn+1 π
R
ƒ (θ) Pn (cos θ) sen θ dθ
2 0
Rn 2π n = 0, 1, . . .
R
bn = π 0
ƒ (θ) sen nθ dθ , n = 1, 2, . . .

Ej 4. Hallemos la solución en ambos casos cuando ƒ (θ) =  constante.

Basta mirar las series para deducir las soluciones en ambos casos:
R
= en el plano. = r
en el espacio.

[Interpretemos estos resultados mirándolos como soluciones estacionarias de la ecuación del


calor. Si mantenemos la superficie de una bola de radio R constantemente a o , la temperatura
que tenderían a tener todos los puntos del espacio sería R/ r , disminuyendo con la distancia a
la bola. Para el primer caso, en vez de imaginarnos en un mundo bidimensional, situémonos en
el espacio con datos y soluciones independientes de la variable z : si toda la superficie de un
cilindro infinito de radio R se mantiene a o , todo el espacio tenderá a tener esa temperatura].
[Si nos planteásemos el problema en el interior r < R , es inmediato ver que la solución, tanto
en el plano como en infinito, es  =  ].

Ej 5. Sea R = 1 y ƒ (θ) = cos2 θ . Resolvamos y comparemos con las soluciones en r < 1 .

En el plano, la serie del interior y exterior llevan a la misma condición:


∞ 
(1, θ) = 20 + n cos nθ+bn sen nθ = 12 + 12 cos 2θ →
X 
n=1 
1 1 2 1 1
= 2
+ 2
r cos 2θ (interior) ,  = 2
+ 2r 2
cos 2θ (exterior) .
h
1+2 −y 2 2 −y 2
i
1
En cartesianas  = 2
y = 2
+ 2 , respectivamente .
2(2 +y 2 )

Para el espacio, el interior ya se ha resuelto en el ejemplo 2. Y en el exterior la condición


que aparece al hacer r = 1 vuelve a coincidir con la del interior.
Las soluciones respectivas son, pues:
1 1 2 1 1 1
= 3
− 3
r + r 2 cos2 θ (interior) ,  = 3r
− 3r 3
+ r3
cos2 θ (exterior) .

50
Si los problemas ‘esféricos’ llevan a Legendre, los ‘cilíndricos’
(Laplace en polares más otra coordenada, t en calor y ondas,
z en Laplace) llevan a Bessel, como sucede en los problemas
de vibración de una membrana circular (de un tambor).
Como hicimos con Laplace en la esfera, para empezar trata-
mos el caso más sencillo con 2 variables en el que la vibración no depende de θ .
Y para simplificar aún más suponemos que inicialmente es t = 0 :

1
 tt − rr + r r = 0 , r ≤ 1, t ∈ R
 
[Las vibraciones con simetría
 (r, 0) = ƒ (r), t (r, 0) = 0
radial en el espacio , como se
vio en 3.1, son mas sencillas].
(1, t) = 0

0 0
rR0 + λrR = 0 , R acotada en 0 , R(1) = 0
¨
T 00 R00 + Rr
 = RT → T
= R
= −λ → p
T 00 + λT = 0 , T 0 (0) = 0 → cos( λ t)


El problema de contorno singular para la R fue visto al final de 2.1. Recordemos


p
que con s = r λ desaparecía λ y la ecuación pasaba a ser una de Bessel:
p  p 
sR00 (s)+R0 (s)+sR(s) = 0 → R = c1 J0 (s)+c2 K0 (s) = c1 J0 r λ +c2 K0 r λ
p 
Imponiendo los datos se tenían los autovalores
n
λ n tales que J 0 λn = 0 ,
p o
y las autofunciones asociadas Rn = J0 r λn .
Nos falta imponer la condición inicial que falta a la serie:
∞ p   p  ∞  p 
(r, t) = cn J0 r λn = ƒ (r)
X X
cn cos λn t J0 r λn →
n=1 n=1

Este desarrollo ya lo discutimos en el último ejemplo de 2.2. Allí vimos que era:
1
2
Z p
cn = r ƒ (r) J0 r

p  λn dr
J21 λn 0

R1 p
Ej 6. Hallemos si ƒ (r) = 1−r 2 la integral 0 (r −r 3 ) J0 (rn ) dr , n = λn , que define cn .
R1 R n R n
Haciendo s = rn : 0 = 12 0 s J0 (s)ds − 14 0 s3 J0 (s)ds .
n n
0
La primera primitiva es inmediata, pues s J1 = s J0 . La segunda, por partes:

R R
s2 s J0 ds = s3 J1 − 2 s2 J1 ds = s3 J1 − 2s2 J2 = (s3 −4s) J1 + 2s2 J0 ,
0
ya que s2 J2 = s2 J1 y Jn+1 = 2n J − Jn−1 . Y como J0 (n ) = 0 concluimos:

s n

R1 8
= 43 J1 (n ) ⇒ (r, t) = cos(n t) J0 (n r) .
X
0 n
3 n J1 (n )
n=1
P
Pese a su aspecto complicado, está solución no lo es mucho más que la kn cos(nπt) sen(nπ)
que se obtendrían para la cuerda vibrante con datos similares (lo resolvimos en 3.1).
En muchos libros (o en programas tipo Maple o Sage) se pueden encontrar los ceros n de J0 :
{n } ≈ 2.4048256 , 5.5200781 , 8.6537279 , 11.791534 , 14.930918 , . . .
y los valores de J1 (n ) : 0.519147 , –0.340265 , 0.271452 , –0.232461 , 0.206547 , . . .
Necesitamos sólo un programa que reconozca la J0 para dar valores o hacer dibujos aproximados
de la solución. Por ejemplo, utilizando los 5 primeros términos de la serie, podemos (con Maple en
este caso) aproximar y dibujar (0, t) :
(0, t) ≈ 1.108 cos(2.405 t) – 0.1398 cos(5.520 t)
+ 0.04548 cos(8.654 t) – 0.02099 cos(11.79 t)
+ 0.01164 cos(14.93 t)
Las vibraciones de un tambor, a diferencia de lo que pasa
a una cuerda, no son periódicas (los n no son múltiplos
exactos unos de otros).

51
Para acabar esta sección, tratemos el problema más general y complicado en 3 variables:

1 1
 tt − c rr + r r + r 2 θθ = 0 , r ≤ 1, t ∈ R
2
 

 (r, θ, 0) = ƒ (r, θ), t (r, θ, 0) = 0


(1, θ, t) = 0

0
T 00 R00 + Rr 1 Θ00 r 2 R00 +rR0 Θ00
 = RΘT → c2 T
= R
+ r2 Θ
= −λ → R
+ λr 2 = Θ
= −μ →

Θ00 +μΘ = 0 , Θ 2π-periódica → μm = m2 , m = 0, 1... , Θm = {cos mθ, sen mθ}, Θ0 = {1}
 p
T 00 + λc2 T = 0 , T 0 (0) = 0 → cos[ λ ct]


r 2 R00 + rR0 + [λr 2 −μ]R = 0 , R acotada en 0

Para μ = m2 consideramos el problema de contorno singular para R :


r 2 R00 + rR0 + [λr 2 −m2 ]R = 0
¨

R acotada en 0 , R(1) = 0
p
Haciendo s = r λ desaparece como siempre λ y la ecuación se convierte en Bessel:
s2 R00 (s)+sR0 (s)+[s2 −m2 ]R(s) = 0 →
p  p 
R = c1 Jm (s)+c2 Km (s) = c1 Jm r λ +c2 Km r λ
p 
R acotada ⇒ c2 = 0 . Los autovalores serán los λ que hagan Jm λ = 0 , que son una
sucesión infinita para cada m : λm1 , . . . , λmk , . . .
n p o
Y las autofunciones son Rmk = Jm r λmk . Así que probamos:

∞  p   p 
1
X
(r, θ, t) = 2
c0k J0 r λ0k cos c λ0k t
k=1
∞ X
X ∞  p   p 
+ [cmk cos nθ+dnk sen nθ] Jm r λmk cos c λmk t
m=1 k=1

∞ ∞ X

1
X p X p
λ 0k + [cmk cos nθ+dnk sen nθ] Jm r λmk = ƒ (r, θ)
 
→ 2
c0k J0 r
k=1 m=1 k=1


1
X
Para r fijo, ƒ (r, θ) = A (r) + Am (r) cos mθ+Bm (r) sen mθ , con
 
2 0
m=1
R 2π
Am (r) = π1 0
ƒ (r, θ) cos mθ dθ , m = 0, 1, . . . ,
1
R 2π
Bm (r) = π 0
ƒ (r, θ) sen mθ dθ , m = 1, 2, . . . .
Desarrollando:

X p ∞
X p
Am (r) = , Bm (r) =
 
cmk Jm r λ mk dmk Jm r λ mk
k=1 k=1
R1 p 1 2
p
r J2m λmk dr =
 
Teniendo en cuenta que 0
r J
2 m+1
λ mk ,

se llega a la expresión definitiva para los coeficientes:


Z 1Z 2π
2 p
cnk = r ƒ (r, θ) cos nθ Jm r

p λmk dr dθ
π J2m+1 ( λmk ) 0 0
Z 1Z 2π
2 p
dnk = r ƒ (r, θ) sen nθ Jm r

p λmk dr dθ
π Jm+1 ( λmk )
2
0 0

52
3.4. Funciones de Green.

En lo que sigue trabajaremos formalmente con la δ en dos variables, utilizando sólo que:
i. δ(ξ−, η−y) = 0 para (ξ, η) 6= (, y)
RR
η−y) dξ dη = F(, y) si F continua en D ⊂ R2 y (, y) ∈ D .

ii. D
F(ξ, η) δ(ξ−,

Consideremos el problema de Dirichlet no homogéneo:

Δ = F(, y) en D

(PD )
 = ƒ en ∂D

Nuestro objetivo es (como en 2.4) expresar su solución en función de integrales en las que
sólo aparezcan una ’función de Green’ G y los datos F y ƒ :

ΔG = δ(ξ−, η−y) en D

Si G(, y; ξ, η) satisface (PG ) , para cada (, y) ∈ D
G = 0 en ∂D
y vista como función de (ξ, η) , se le llama función de Green de (PD ) y la
Teor 1:
solución de (PD ) es
ZZ I
(, y) = G(, y; ξ, η) F(ξ, η) dξdη + Gn (, y; ξ, η) ƒ (ξ, η) ds
D ∂D

[ Gn es, como siempre, la derivada de G en la dirección de n , vector unitario exterior a D ].


Del teorema de la divergencia es fácil deducir la llamada segunda identidad de Green:
RR H
Si  y G son C2 (D̄) se tiene D
[G Δ− ΔG] dξdη = ∂D [Gn −Gn ] ds

Si  es la solución de (PD ) y G la de (PG ), y admitimos que la identidad anterior es válida


para nuestra G (que claramente no es C2 , pero se justifica con ’distribuciones’) tenemos:
RR H RR H
D
[GF−δ] dξdη = ∂D [−ƒ Gn ] ds →  = D GF dξdη + ∂D Gn ƒ ds

¿Cómo resolver (PG )? Comencemos buscando una (, y; ξ, η) que, vista como función de
(ξ, η) , satisfaga Δ = δ , aunque no cumpla la condición de contorno. ¿Qué funciones cono-
cidas cumplen Δ = 0 y puedan originar una δ ? Las soluciones de Laplace en polares que
dependen de r son:
1
rr + 
r r
= 0 →  = c1 + c2 ln r

Así que algún múltiplo del discontinuo logaritmo de la distancia r = PQ del punto P = (ξ, η)
al Q = (, y) es buen candidato a  :
1  1
 = 4π ln (ξ−)2 +(η−y)2 = 2π ln PQ satisface Δ = δ(ξ−, η−y) para (, y) fijo.

Teor 2:
A  se le llama solución fundamental para el punto (, y) .
Para probar el teorema volvemos a hacer ’trampa’ con la δ . Ya vimos que Δ = 0 si r 6= 0 ,
o sea, si (ξ, η) 6= (, y) . Además, el ’teorema’ de la divergencia en un círculo de centro Q y
radio R nos da:
RR H H R 2π 1
r≤R
Δ dξdη = r=R n ds = r=R r ds = 0 2πR R dθ = 1 → Δ = δ

Si  satisface Δ = 0 en D , la función + seguirá satisfaciendo Δ[+] = δ para cada


(, y) ∈ D fijo. Por tanto, para encontrar G [y tener resuelto (PD )]

basta encontrar la  armónica en D tal que + = G se anule en la frontera ∂D

La forma práctica de hallar la  (en recintos D limitados por rectas y circunferencias) es el


método de las imágenes. Mirando la geometría de D se tratará de escribir G como suma
de la solución fundamental  y de funciones armónicas  del mismo tipo, logaritmos de
distancias a puntos Q0 exteriores a D (’imágenes’ de Q respecto de la ∂D ), escogidos de
forma que la G se anule en la frontera de D . Resolvemos un primer ejemplo con la G , en
el que D está limitado por rectas:

53
Δ = 0 en D = { > 0}×{y > 0} Sean Q = (, y) ∈ D fijo,

(P1 ) 1
(, 0) = ƒ (), (0, y) = 0,  acotada P = (ξ, η),  = 2π ln PQ .
1
Si Q0 = (−, y) , es claro que 0 = − 2π ln PQ0 es una función de
P que es armónica en D (lo es en R2 −{Q0 } ) y que  +0 = 0 Q’(-x,y) Q(x,y)
si P pertenece al eje y , pues entonces PQ = PQ0 . Análoga- – +
mente ∗ = − 2π 1
ln PQ∗ , con Q∗ = (, −y) , es armónica en D
D
y +∗ = 0 si P está en el eje  . Para que G sea cero en am- P(!,")
bos ejes a la vez hay que sumar una nueva ∗ 0 = − 1 ln PQ0 ,
2π ∗
Q0∗ = (−, −y) . Entonces G(P, Q) =  + 0 + ∗ + ∗ 0 es la

función de Green buscada, ya que ΔG = δ [pues Δ = δ y


Δ(0 +∗ +∗ 0 ) = 0 ] y G = 0 si P ∈ ∂D [si P está en el eje y
+ –
es PQ = PQ0 y PQ∗ = PQ0∗ ; y similar en el eje  ]. Q’(-x,-y) Q (x,-y)
* *
Escribiendo las distancias analíticamente tenemos:
1 1
G(, y; ξ, η) = 4π ln (ξ−)2 + (η−y)2 − 4π ln (ξ+)2 + (η−y)2
   

1 1
ln (ξ−)2 + (η+y)2 + 4π ln (ξ+)2 + (η+y)2
   
− 4π
Y como n = −j en el eje  , la solución de nuestro problema (P1 ) será:
R∞ y R∞
h i
(, y) = ∂D Gn ƒ ds = 0 −Gη η=0 ƒ (ξ) dξ = · · · = π 0 (ξ−)12 +y2 − 1
H
(ξ+)2 +y 2
ƒ (ξ) dξ

Resolvamos ahora el problema no homogéneo de Dirichlet en el círculo:


2
Δ = F(r, θ) en r < R Q = (r, θ) ∈ D fijo, Q’ (__
R
, )

(P2 ) r θ
(R, θ) = ƒ (θ) , θ ∈ [0, 2π] P = (σ, ϕ) variable.

La solución fundamental  en estas coordenadas queda: P(σ, ɸ)


Q(r, θ)
1 1
 = 2π ln PQ = 4π ln σ 2 + r 2 − 2rσ cos(θ−ϕ)
 

¿Dónde situar el punto imagen Q0 ? Las cosas no son tan D


claras como en el ejemplo anterior. Es claro que su θ ha
de ser igual, pero ¿a qué distancia del origen O colocarlo?
Podríamos llegar al resultado tanteando, pero nos limitamos a comprobar que la G es:
2
h i
1
G(P, Q) = 2π ln PQ − ln PQ0 + ln Rr , Q0 = Rr , θ ,


o expresada en términos de coordenadas:

1 1 r 2 σ2
G(r, θ; σ, ϕ) = ln σ 2 + r 2 − 2rσ cos(θ−ϕ) − ln R2 +
   
4π 4π R2
− 2rσ cos(θ−ϕ)

En efecto: G =  + 0 +cte ⇒ ΔG = 0  0 armónica en R2 −{Q0 } y Q0 ∈ / D y G = 0 si P ∈ ∂D ,


 

o sea, si σ = R . Además, Gn = Gσ σ=R y ds = R dϕ , por lo que la solución de (P2 ) es:


R RR 2π 1
R 2π R2 −r 2
(r, θ) = 0 0
σ G(r, θ; σ, ϕ) F(σ, ϕ) dϕdσ + 2π 0 R2 −2Rr cos(θ−ϕ)+r 2
ƒ (ϕ) dϕ

expresión mucho más compacta que las series de Fourier, aunque estas integrales, en ge-
neral, no sean calculables (y habrá que aproximarlas, pero son aproximaciones también las
sumas parciales).

Las cuentas en tres dimensiones son muy similares a los de dos. Si G es solución de (PG ):
RRR H
(, y, z) = D
G F dξdηdγ + ∂D Gn ƒ dS ( ∂D es ahora una superficie)

Se ve de manera similar que la solución fundamental en el espacio es:


1
 =− rr + 2r r = 0 →  = c1 + cr2
 
4πPQ

Los puntos imágenes respecto a planos son igual de sencillos y para la esfera
de radio R vuelve a situarse el punto Q0 a una distancia R2 / r del origen.

54
4. Otros métodos en EDPs
Este capítulo está dedicado al estudio de varios temas independientes entre sí.
En 4.1 nos dedicaremos a sacarle jugo a la fórmula de D’Alembert deducida en
1.3 para la solución del problema puro de valores iniciales para la cuerda infinita:
tt − c2  = 0 , , t ∈ R


(, 0) = ƒ () , t (, 0) = g()


Utilizaremos que la solución (, t) resulta ser la suma de dos ondas que se mueven
en sentido opuesto a velocidad c . Daremos también una fórmula para las solucio-
nes en el caso de la ecuación no homogénea (con fuerzas externas F(, t) ).
Comprobaremos como, extendiendo de forma adecuada los datos iniciales
a todo R, podemos abordar problemas con condiciones de contorno. Al estar
manejando funciones con expresiones diferentes en diferentes intervalos, escribir
la solución explícitamente nos puede llevar a discusiones complicadas. Por eso nos
conformaremos muchas veces con hallar su expresión para valores de t o  fijos
o con los dibujos de la solución.
En 4.2 comenzaremos dando sin demostración la solución del problema puro de
valores iniciales para la ecuación de ondas homogénea en el espacio (fórmula de
Poisson-Kirchoff). De ella deduciremos la fórmula para el plano. Estudiaremos
las diferencias entre la propagación de las ondas en una, dos y tres dimensiones es-
paciales. Comprobaremos que las ondas en el espacio ‘pasan’ (como ocurre con el
sonido), mientras que en el plano la influencia de los datos iniciales se deja sentir,
aunque amortiguándose, a lo largo del tiempo (en la recta dependerá de si la per-
turbación inicial se da en la posición o en la velocidad). Estudiaremos también las
ondas que se propagan en el espacio con simetría esférica que son de tratamien-
to sencillo, por ser esencialmente unidimensionales, ya que un sencillo cambio de
variable lleva a la ecuación de la cuerda (para n = 2 no existe tal cambio).
En la la sección 4.3 definiremos la transformada de Fourier F y veremos al-
gunas de sus propiedades que permiten resolver algunas EDPs en intervalos no
acotados (para ellos no se puede utilizar separación de variables por no aparecer
problemas de Sturm-Liouville). Como ocurre con la transformada de Laplace para
las EDOs, aplicando la F a algún problema para EDPs acabaremos en otro más sen-
cillo (de EDOs, para las ecuaciones en dos variables que tratamos). Resuelto este
segundo problema, para hallar la solución habrá que encontrar una transformada
inversa. Para problemas en semirrectas introduciremos también las transformadas
seno y coseno. En particular (además de otros problemas), las transformadas de
Fourier nos permitirán resolver problemas de la ecuación del calor en varillas
no acotadas (no resolubles con las técnicas de los capítulos anteriores) como:
t −  = 0 ,  ∈ R, t > 0


(, 0) = ƒ () ,  acotada


Aparecerá la solución fundamental de la ecuación del calor y se comprobará que,
según nuestra ecuación matemática, el calor se transmite a velocidad infinita.

55
4.1. Ecuación de la cuerda vibrante
En el capítulo 1 vimos que para el problema puro de valores iniciales:
¨  − c2  = 0 , , t ∈ R u(x,0) g(x)
tt 
(P1 ) (, 0) = ƒ () f(x)
t (, 0) = g()
x
las características eran ±ct = K , la solución general
(, t) = p(+ct) + q(−ct) , p y q funciones arbitrarias de C2 ,

y la solución única de (P1 ), satisfaciendo ya los datos iniciales:


Z +ct
1 1
(, t) = ƒ (+ct)+ƒ (−ct) + 2c

Fórmula de D’Alembert 2
g(s) ds [1]
−ct

Para que  sea C2 , debía ƒ ∈ C2 y g ∈ C1 (entonces es solución clásica o regular).


[Si  es continua pero no C2 se llama ‘solución débil’, concepto típico EDPs. En cada caso
hay que precisar que se admite como solución débil y comprobar que el problema sigue
bien planteado (si hay más funciones que valen como soluciones, ¿seguirá la unicidad?)].

t (xo ,to ) Observemos que (o , to ) sólo depende de los valores de


ƒ en los puntos o −cto y o +cto [puntos de corte con el
x-ct=xo-cto x+ct=xo+cto eje  de las características que pasan por (o , to ) ] y de
los de g en el intervalo [o−cto , o+cto ] . A este intervalo
x se le llama dominio de dependencia del punto (o , to )
xo-cto xo+cto [de los valores iniciales ƒ y g ; el dominio de dependencia
dominio de dependencia de los valores de ƒ se reduce a los extremos].

1
R +ct 1  2 +ct
Ej 1. Sea ƒ () = 0 , g() =  → (, t) = 2c −ct
s ds = 4c
s −ct = t .

[La cuerda infinita se inclina progresivamente,


t=0 u(x,t)
cosa poco real. La ecuación es sólo un mode-
lo simplificado. Más interés (y más complicación
de análisis) tienen los problemas en los que los
datos son no nulos sólo en intervalos acotados].

La solución de (P1 ) es la suma de dos ondas que viajan a velocidad c , una


hacia las  crecientes y otra hacia las decrecientes. A la vista de [1]:
1
1
R q() = 2
ƒ ()−G() va hacia la derecha
Llamando G() ≡ 2c 0
g(s) ds : 1
p() = 2
ƒ ()+G() va hacia la izquierda
Para obtener un dibujo de la solución (, t) en diferentes instantes, identificadas
estas ondas viajeras, bastará trasladar sus gráficas y sumarlas (gráficamente).

Ej 2. Supongamos ƒ = 0 salvo una perturbación en forma de triángulo h


en torno a 0 y que soltamos la cuerda sin impulso ( g = 0 ). f f/2
Dibujemos la solución para diferentes t . Basta trasladar las dos
0
ondas que viajan en sentidos opuestos [aquí ambas son 21 ƒ () ]: —b b

t=b/2c t=b/c t=3b/2c


h/2 h/2 h/2

—b b —b b —b b

Ha costado muy poco hacer estos dibujos y predecir la evolución de esta solución débil
[bastante más costaría dar la expresión analítica de la solución para todo  y todo t ].
Los picos de la ƒ inicial se mantienen indefinidamente y viajan también a velocidad c .

56
Supongamos ahora que hay fuerzas externas. El problema es:
n  − c2  = F(, t) , , t ∈ R
tt 
(P2 )
(, 0) = ƒ (), t (, 0) = g()

Necesitamos sólo la solución F del problema con ƒ = g = 0 , pues, por la linealidad,


si 1 es la solución del (P1 ) anterior, es 1 +F la solución de (P2 ). Sabiendo algo
de derivación de integrales, no es difícil deducir que
tt − c2  = F(, t)
Z tZ +c[t−τ] 
1
F (, t) = F(s, τ) ds dτ satisface
2c 0 −c[t−τ] (, 0) = t (, 0) = 0
Por tanto, concluimos que la solución de (P2 ) es:
Z +ct Z tZ +c[t−τ]
1 1 1
(, t) = ƒ (+ct)+ƒ (−ct) + 2c g(s) ds +

2 2c
F(s, τ) ds dτ [2]
−ct 0 −c[t−τ]

Se comprueba que el recinto descrito por la integral do- τ


ble es el triángulo del plano sτ limitado por el eje τ = 0 t (x,t)
y las características que pasan por (, t) . Así pues, para
hallar la solución  en un punto (, t) se necesita sólo:
s
i) los valores de F en dicho triángulo, ii) los de g en su x-ct x x+ct
base y iii) los de ƒ en los dos puntos −ct y +ct .

tt −  = 2

Ej 3. Utilizando directamente [2]:
(, 0) =  , t (, 0) = 3

1
R +t R t R +[t−τ] Rt
= (+t)+(−t) + 12 −t 3 ds+ 12 2 ds dτ = +3t +2 [t −τ] dτ = +3t +t 2

2 0 −[t−τ] 0

A veces es fácil hallar una solución particular  de la ecuación no homogénea y así


evitar el cálculo de la integral doble, pues  =  −  conduce a un problema con
F = 0 , resoluble con [1] (esto no se podrá hacer siempre cuando haya condiciones de
contorno, pues podrían dejar de ser homogéneas). Por ejemplo si ƒ depende sólo de
 o de t se puede buscar una () o una (t) . En este caso:
tt −  = 0

− = 2 →  = −2 +C+K → si () = −2 ,  cumple
(, 0) = +2 , t (, 0) = 3
+t
→  = 12 (+t)+(+t)2 +(−t)+(−t)2 + −t 3 ds = +2 +t 2 +3t →  = +3t +t 2
  R

tt −  = 0

tt = 2 → (t) = t 2 +3t → →  =  →  =  + 3t + t 2
(, 0) = , t (, 0) = 0

Resolvamos ahora el problema para la cuerda semi-infinita y fija en un extremo:


¨  −c2  = 0 ,  ≥ 0, t ∈ R
tt 
[para que no esté rota,
(P3 ) (, 0) = ƒ () , t (, 0) = g()
debe ser ƒ (0) = 0 ].
(0, t) = 0

La fórmula [1] exige funciones definidas ∀ . ¿Cómo extender ƒ y g a todo R? Si


llamamos ƒ ∗ y g∗ a sus extensiones se debe cumplir la condición de contorno:
R ct
1
(0, t) = 21 ƒ ∗(ct) + ƒ ∗(−ct) + 2c g∗(s) ds = 0 .
 
−ct

Es claro que ƒ ∗ y g∗ han de ser impares


respecto a 0 , es decir,
ƒ ∗(−) = −ƒ ∗() ; g∗(−) = −g∗() .

Así pues, la solución de (P3 ) es la del siguiente problema (para la cuerda infinita):
¨  −c2  = 0 , , t ∈ R
tt   1 Z +ct ∗
(, 0) = ƒ ∗() , (, t) = 12 ƒ ∗(+ct)+ƒ ∗(−ct) + 2c g (s) ds [3]


t (, 0) = g∗() −ct

pues  cumple la ecuación, las condiciones iniciales para  ≥ 0 , y la de contorno.

57
Siguiendo con la cuerda semi-infinita, veamos como se resuelve el problema más
general con fuerzas externas y extremo móvil:
¨  −c2  = F(, t) ,  ≥ 0, t ∈ R
tt 
[debe ahora ser
(P4 ) (, 0) = ƒ () , t (, 0) = g()
ƒ (0) = h0 (0) ].
(0, t) = h0 (t)

Primero debemos hacer la condición de contorno homogénea, encontrando


una  que la cumpla y haciendo  = − .
La  más clara (no siempre la mejor) es: (t) = h0 (t) .

Una vez que tenemos la condición de contorno homogénea, la solución del proble-
ma en  la da [2] si sustituimos sus ƒ , g y F por ƒ ∗ , g∗ y F ∗ , siendo ésta última
la extensión impar de F mirándola como función de  .

¨ tt − = 0 ,  ≥ 0, t ∈ R
Ej 4. (, 0) = t (, 0) = 0 Hallemos primero la solución para un  y t fijos: (1, 2) .
(0, t) = t 2

Para anular la condición de contorno podemos usar la  de arriba: 2 -2


¨  − = −2
tt 
( n
2 , <0 2
tt − = −2
 = −t → (, 0) = t (, 0) = 0 →
2 , >0 →
(0, t) = 0 (, 0) = t (, 0) = 0 -1 1 3
h i
(1, 2) = 12 F ∗ = 21 (2) área
RR
4
+(−2) área = −3 → (1, 2) = −3+4 = 1 .

[Por ser constantes las F a integrar, nos hemos ahorrado el cálculo de integrales
dobles. Pero como esto no se podrá hacer en general, vamos a perder un poco el
tiempo en hallar (1, 2) sin este atajo. El valor que estamos calculando es:
R 2R 3−τ
(1, 2) = 12 4 F ∗ = 12 0 τ−1 F ∗(s, τ) ds dτ
RR

Sobre el triángulo pequeño la integral viene dada por:


1 1 0
R R R1 1
2 0 τ−1
2 ds dτ = 0 (1−τ) dτ = 2
.

Para el otro cuadrilátero hay que dividir en dos el recinto de integración:


1 1 3−τ
R 2R 3−τ R1 R2
(−2) ds dτ + 12 1 τ−1 (−2) ds dτ = 0 (τ −3) dτ + 1 (2τ −4) dτ = − 27 .
R R
2 0 0

Sumando ambos resultados obtenemos (1, 2) = −3 como antes].

Pero podríamos conseguir un problema sin F (que siempre es complicado), haciendo el


cambio con una  mejor. Tanteando un poco se ve que  = 2 +t 2 cumple la condición
y también la ecuación:
f*
¨ tt − = 0 ¨  − = 0 , , t ∈ R
tt  x2
 = − → (, 0) = − , t (, 0) = 0 → (, 0) = ƒ ∗()
2
x
(0, t) = 0 t (, 0) = 0
1 ∗ -x2
→ (1, 2) = 2
[ƒ (3)+ƒ ∗ (−1)] = −4 → (1, 2) = 5−4 = 1

Con este segundo cambio no es difícil dar la (, t) para todo , t ≥ 0 (con el primero
nos costaría mucho más). Está claro que hay que considerar dos posibilidades, pues,
aunque  + t es siempre positivo,  − t puede ser también negativo, y la ƒ ∗ tiene
expresiones distintas para valores positivos y negativos:
( 1
− 2 (+t)2 + 21 (−t)2 = −2t,  ≤ t
¨
1 ∗ (−t)2 ,  ≤ t
 = 2 [ƒ (+t)+ƒ (−t)] =
∗ → =
1 2 1
− (+t) − (−t) = − −t ,  ≥ t
2 2 2 0 , ≥t
2 2

[Como las ondas viajan a velocidad c = 1 los puntos a distancia ≥ t debían estar
parados en el instante t ].

En 4.2 veremos que los problemas de ondas en el espacio con simetría radial
se reducen con el cambio  = r a problemas de cuerdas semi-infinitas.

58
Estudiemos la cuerda acotada y fija en ambos extremos [resuelta ya en 3.1]:
¨  −c2  = 0 ,  ∈ [0, L], t ∈ R
tt 
[debe ser
(P5 ) (, 0) = ƒ () , t (, 0) = g()
ƒ (0) = ƒ (L) = 0 ].
0 L (0, t) = (L, t) = 0

Para hallar su solución única con la fórmula de D’Alembert extendemos ƒ y g a


[−L, L] de forma impar respecto a 0 y luego de forma 2L-periódica a todo
R, es decir, llamando ƒ ∗ y g∗ a estas extensiones:
ƒ ∗(−) = −ƒ ∗() , ƒ ∗(+2L) = ƒ ∗() ; g∗(−) = −g∗() , g∗(+2L) = g∗() .
f* f
0 L
-2L -L 2L 3L

(se tiene entonces que ƒ ∗ y g∗ son también impares respecto a L ).


Como para (P3 ), la solución de (P5 ) se obtiene aplicando [3] al siguiente problema
(por la imparidad de los datos se cumplen también las condiciones de contorno):
tt −c2  = 0 , , t ∈ R


(, 0) = ƒ ∗() , t (, 0) = g∗()


Para que la  dada por [3] sea C2 (regular) deben ƒ ∈ C2 [0, L] y g ∈ C1 [0, L] y además:
ƒ (0) = ƒ (L) = ƒ 00 (0) = ƒ 00 (L) = g(0) = g(L) = 0 [ ƒ 0 y g0 existen en 0 y L por la imparidad].

tt −  = 0 ,  ∈ [0, 1], t ∈ R u(x,0)



(Puede representar la
 , 0≤≤1/ 2 f
 n
Ej 5. (, 0) = pulsación de la cuerda
 1− , 1/ 2≤≤1
de una guitarra). 1/2 x
t (, 0) = (0, t) = (L, t) = 0 0 1
Es complicado hallar explícitamente (, t) ∀ , t pues ƒ ∗ tiene muchas expresiones:
1/2  ···
−1 − , −3/ 2 ≤  ≤ −1/ 2
f*


1   , −1/ 2 ≤  ≤ 1/ 2

ƒ ∗() =
0 


1 − , 1/ 2 ≤  ≤ 3/ 2
  − 2, 3/ 2 ≤  ≤ 5/ 2
···

Hallar (, t) = 12 ƒ ∗ ( + t) + ƒ ∗ ( − t) exigiría discutir en qué intervalos se mueven


 

+t y −t y sería muy largo (para estas discusiones conviene dibujar los dominios de
dependencia). Algo más fácil es hallar la solución para un t o  fijos. Por ejemplo:
 , 14 = 12 ƒ ∗ (+ 14 ) + ƒ ∗ (− 14 )
  

  1/4
+ 18 + − 81 =  , 0 ≤  ≤ 14

 2 2
= 3
8
− 2 + 
2
− 81 = 1
4
, 1
4
≤  ≤ 34
3
− 2 + 5
− 2 = 1− , 3
≤≤1 -1/2 0 1/4 1/2 3/4 1
8 8 4

Sí es muy fácil hallar  para un (, t) dado. No se necesita siquiera la expresión de ƒ ∗ .


h i h i
Por ejemplo:  41 , 3 = 12 ƒ ∗ 13 + ƒ ∗ − 11 = 21 ƒ ∗ − 34 + ƒ ∗ − 34 = −ƒ 43 = − 14 .
   
4 4 ↑ ↑
ƒ ∗ es 2-periódica ƒ ∗ es impar

Tampoco se necesita lahexpresión de ƒ ∗ para hacer dibujos: basta trasladar ondas y sumar.
i h i
Dibujemos:  12 , t = ƒ ∗ 12 +t + ƒ ∗ 21 −t = ƒ ∗ 12 +t − ƒ ∗ t − 12
  

1/2
u(1/2,t)
1 3 5
t
0 2 4

La gráfica se repite con periodo 2. Esto es general: por las propiedades de ƒ ∗ y g∗ la 


dada por [3] es 2L c
−periódica. Lo que era evidente en la serie solución dada en 3.1:
∞ R 1/ 2 R1 4 sen nπ
(, t) = kn cos nπt sen nπ , kn = 2 0  sen nπ d+2 1/ 2 (1−) sen nπ d = n2 π 22 .
X

n=1

(Pulsando la cuerda en el centro desaparecen los armónicos pares).

59
Si queremos resolver el problema más general:
¨  −c2  = F(, t) ,  ∈ [0, L], t ∈ R
tt 
(P6 ) (, 0) = ƒ () , t (, 0) = g() (hay fuerzas externas y
(0, t) = h0 (t) , (L, t) = hL (t) movemos los extremos)

primero, como siempre, hay que hacer las condiciones de contorno homogéneas,
hallando una  que las cumpla y haciendo  = − . Una  de esas es la conocida:
(, t) = 1− L h0 (t) + L hL (t) [a veces será mejor buscar otra].
 

La solución del problema en  la da de nuevo [2], poniendo en vez de ƒ , g y F ,


las extensiones impares y 2L-periódicas ƒ ∗ , g∗ y F ∗ (vista F como función de  ).
¨ tt − = 0 ,  ∈ [0, 2], t ∈ R
Hallemos (1, 2) y (, 1) , mediante D’Alembert
Ej 6. (, 0) = 2 , t (, 0) = 0
y por separación de variables.
(0, t) = 0 , (2, t) = 4
1

La  = 2 de arriba es adecuada en este caso:


¨ tt − = 0 ,  ∈ [0, 2] 1
-2 2 4
 = −2 → (, 0) = 2 −2 , t (, 0) = 0 .
x2–2x
(0, t) = (2, t) = 0 -1

Debemos extender ƒ de forma impar y 4-periódica a ƒ∗ definida en R:


. . . , −(+2) en [−2, 0] , (−2) en [0, 2] , −(−4)(−2) en [2, 4] , . . .
La solución viene dada por  = 12 [ƒ ∗(+t)+ƒ ∗(−t)] . Por tanto:
(1, 2) = 12 ƒ ∗(3)+ƒ ∗(−1) = 12 ƒ ∗(−1)+ƒ ∗(−1) = −ƒ (1) = 1 → (1, 2) = 3 .
   
4per impar
Para hallar (, 1) aparecen dos casos (se podría ver con los dominios de dependencia):
0 ≤  ≤ 1 , 12 [−(−1)(+1) + (+1)(−1)] = 0
(
(, 1) = 12 ƒ ∗(+1)+ƒ ∗(−1) = → (, 1) = 2 .
 
1
1≤≤2 , 2
[−(−1)(−3) + (−3)(−1)] = 0
[Es claro que llevando ƒ∗ una unidad a izquierda y derecha y sumando todo se cancela].
Para resolver el problema en  separando variables copiamos la solución dada en 3.1:
∞ R2
(, t) = kn cos nπt sen nπ con kn = 0 (2 −2) sen nπ 16
d = 3 3 [cos nπ −1]
X
2 2 2 n π
n=1

(2m−1)πt (2m−1)π
(, t) = − 32 1
X
→ π3 (2m−1)3
cos 2
sen 2
.
m=1

Para t = 1 todos los cosenos se anulan, con lo que (, 1) = 0 (como por D’Alembert).

(−1)m+1 π3
h i
Además (1, 2) = 32 = 1 1 1
deducimos que 1 − 3 + 3 − 3 + · · · = 32 .
X
π 3 (2m−1) 3 1 ; 3 5 7
m=1

Por último veamos cómo se debe extender si la condición de contorno es  (0, t) = 0 :


 (0, t) = 12 ƒ ∗ 0 (ct)+ƒ ∗ 0 (−ct) + 2c
1  ∗
g (−ct)−g∗(ct) = 0 , ƒ ∗ 0 impar y g∗ par ⇒
  

se deben extender ƒ y g de forma par respecto a 0 (o respecto a L si fuese ahí  = 0 ).


[Separando variables salen las autofunciones sen nπ L
con condiciones  = 0 y cos nπ
L
si son  = 0 , su periodicidad y paridades son las mismas que las obtenidas aquí].

tt − = 0 ,  ∈ [0, 2π], t ∈ R
 n
sen , ∈[0,π] Hallemos (, 2π) , por D’Alembert
Ej 7. (, 0) = 0 , t (, 0) =
 0, ∈[π,2π] y separando variables.
 (0, t) =  (2π, t) = 0
g*
tt − = 0, , t ∈ R

con g∗ par y 4π-periódica. –2π 0 π 2π 4π
(, 0) = 0, t (, 0) = g∗ ()
R +2π R 2π Rπ [la integral en un periodo de una función
(, 2π) = 12 −2π g∗ = 21 −2π g∗ = 0 sen s ds = 2 periódica no depende del intervalo].
2
Separando variables: X 00 +λX = 0 , X 0 (0) = X 0 (2π) = 0 → λn = n4 , Xn = cos n , n = 0, 1, . . .

2
n T 00 +λ T = 0
n T0 = {t} ∞
→  = 20 t + n sen nt cos n = 0 π .
X

T(0) = 0 Tn = sen nt 2 2 t=2π

2
, n ≥ 1 n=1
∞ Rπ
2 2π
t (, 0) = 20 + n 2n cos n g = π1 0 sen  d = π2 → (, 2π) = 2 .
R
= g() → 0 = 2π
X
2 0
n=1

60
4.2. Ondas en tres y dos dimensiones.

Sea el problema de valores iniciales para las de ondas en 3 dimensiones espaciales:

tt − c2  +yy +zz = 0 , (, y, z) ∈ R3 , t ∈ R


¨  
(P3 )
(, y, z, 0) = ƒ (, y, z) , t (, y, z, 0) = g(, y, z)

Se puede deducir una fórmula para la solución de (P3 ) análoga a la de D’Alembert para
n = 1 . Aceptemos que, si ƒ ∈ C3 y g ∈ C2 , esa solución viene dada por la
fórmula de Poisson
h 1 ZZ i 1
ZZ

[pk] (, y, z, t) = ∂t ƒ dS + g dS
2
4πc t C
2
4πc t C
o de Kirchoff
siendo C la superficie de la bola de centro (, y, z) y radio ct .
θ
La forma más natural de parametrizar esta superficie es mediante ct
los ángulos θ y ϕ de las coordenadas esféricas centradas en el (x,y,z)
punto (, y, z) del dibujo de la derecha →
ɸ
Desarrollando las integrales de [1] se obtiene:


h
t
R 2πR π i
(, y, z, t) = ∂t 4π 0 0
ƒ (+ct sen θ cos ϕ, y+ct sen θ sen ϕ, z+ct cos θ) sen θ dθ dϕ
t
R 2πR π
+ 4π 0 0
g(+ct sen θ cos ϕ, y+ct sen θ sen ϕ, z+ct cos θ) sen θ dθ dϕ

Estudiemos ahora la propagación de ondas en 2 dimensiones:

tt − c2  +yy = 0 , (, y) ∈ R2 , t ∈ R


¨  
(P2 )
(, y, 0) = ƒ (, y) , t (, y, 0) = g(, y)

Podemos mirar (P2 ) como un caso particular de (P3 ) en que datos (y por tanto soluciones) no
dependen de z . Las coordenadas adecuadas ahora para parametrizar C son las cartesianas
(o las cilíndricas). Expresando [pk] en cartesianas se obtiene:

∂ ƒ (ξ, η) dξdη g(ξ, η) dξdη


 ZZ ZZ 
1
(, y, t) = 2πc p + p
∂t B c2 t 2 − (ξ−)2 − (η−y)2 B c2 t 2 − (ξ−)2 − (η−y)2

donde B es todo el círculo de centro (, y) y radio ct .


La fórmula anterior escrita en polares centradas en (, y) queda:
2πZ ct 2πZ ct
∂ r ƒ (+r cos θ, y+r sen θ) drdθ r g(+r cos θ, y+r sen θ) drdθ
 Z Z 
1
(, y, t) = 2πc p + p
∂t 0 0 c2 t 2 − r 2 0 0 c2 t 2 − r 2

tt −  +yy +zz = 0 , (, y, z, t) ∈ R4


¨  
Ej 1. Resolvamos:
(, y, z, 0) = z , t (, y, z, 0) = 2 +y 2

Aplicando directamente la fórmula de Poisson-Kirchoff:



h
t
R 2πR π i
 = ∂t 4π 0 0
(z+t cos θ) sen θ dθdϕ
t
R 2πR π
+ 4π 0 0
(2 +y 2 +t 2 sen2 θ+2t[ sen θ cos ϕ+y sen θ sen ϕ]) sen θ dθdϕ
h Rπ i Rπ
∂ t
= ∂t 2 0
(z+t cos θ) sen θ dθ + 2t 0 (2 +y 2 +t 2 sen2 θ) sen θ dθ
2
∂  
= ∂t tz + t 2 +y 2 + 2t3 = z + t2 + ty 2 + 23 t 3

También podemos descomponer el problema en dos y sumar sus soluciones:

El de ƒ = z , g = 0 se puede ver como uno para n = 1 : 1 = 12 (z+t) + (z−t) = z .


 

El de ƒ = 0 , g = 2 +y 2 , como uno de n = 2 :
2πZ t
r(2 + y 2 + r 2 + 2r[ cos θ+y sen θ]) t
r(2 +y 2 )+r 3
Z Z
1
2 = 2π p drdθ = p dr
0 0 t2 − r 2 0 t2 − r 2
it
= t2 +ty 2 + 32 t 3 .
h p p
1
= − (2 +y 2 ) t 2 −r 2 − 3
2t 2 +r 2 t 2 −r 2
0

61
Interpretemos la fórmula [pk]. Los valores de  sólo dependen de los de ƒ y g sobre el
borde de la esfera B((, y, z), ct) . Si para t = 0 hay una perturbación concentrada en un
punto P del espacio, en otro t sólo están perturbados los puntos de la superficie esférica
de centro P y radio ct , pues para los demás puntos es ƒ = g = 0 sobre la superficie C .
Si inicialmente se perturba todo un conjunto A , los pun- frente
delantero
tos afectados para cada t son una región At del espacio
formada por la unión de todas las superficies esféricas ct+a
de radio ct y centro P ∈ A . La superficie exterior de At ct-a
se llama frente delantero de la onda y la interior fren-
a
te trasero. En el dibujo se esquematizan ambos frentes
para el caso de una perturbación inicial de una esfera
de radio  . Los puntos que alcanza el frente delantero,
frente
antes en reposo, comenzarán a oscilar. Los puntos sobre- trasero
pasados por el trasero volverán al reposo.
Veamos ahora lo que sucede en el plano. Supongamos una perturbación localizada para
t = 0 en un punto P del plano. Otro punto M , situado a una distancia d de P , permanecerá
en reposo hasta el instante to = d/ c . Si t ≥ to , P ya pertenece al círculo B(M, ct) y por tanto
será (M, t) 6= 0 : a partir del instante to el punto M permanece perturbado indefinidamente
(aunque tienda a pararse cuando t → ∞ , como las ondas producidas por una piedra en un
estanque). Esta situación no contradice los resultados para n = 3 : la perturbación de P , vista
como una perturbación en el espacio independiente de z , consiste de hecho en un cilindro
vertical infinito sobre P , con lo que al M irán llegando las perturbaciones provinientes de
puntos cada vez más lejanos del cilindro (que, por tanto, serán cada vez más pequeñas). Las
ondas que se propagan constituyen ondas cilíndricas en el espacio: en cada cilindro paralelo
al inicial la solución toma un valor constante.
[Las ondas pasan en el espacio y permanecen en el plano].
Si las ƒ y g sólo dependen de  , se puede ver que como caso particular de [pk] aparece
la conocida fórmula de D’Alembert para n = 1 . Si se mira esta solución sumergida en R3 se
puede interpretar como la suma de dos ondas planas avanzando por planos perpendiculares
al eje  a velocidad ±c . Todos los puntos de cada plano están igualmente perturbados.
Veamos si para la cuerda las perturbaciones iniciales pasan o permanecen. Para ello vamos
a definir lo que se llama dominio de influencia: el valor de la dominio de
ƒ inicial en  = o influye sólo en los valores de la solución  t influencia
de la g
sobre las dos características que pasan por (o , 0) [dominio de x+ct=xo x-ct=xo
influencia de la ƒ ], pues este punto no influye en el valor de la
solución en puntos que no estén sobre ellas. Por la misma razón dom. inf.
de la f
el dominio de influencia de la g en o consiste en el triángulo xo x
infinito limitado por dichas características.
En el caso n = 1 , se da una situación intermedia entre n = 2 y n = 3 : la influencia de la
posición inicial ƒ desaparece, pero la de la velocidad g inicial se deja sentir indefinidamente.
Nos interesan también los dominios de influencia en la cuerda semi-infinita (las ondas en
el espacio con simetría esférica se reducirán a ella). La situación es la siguiente:
Como se extendía de forma impar respecto del origen, si o
t
está perturbado, también lo estará (en sentido opuesto) el
punto −o . Cuando la característica que sale de o llega
a  = 0 se encuentra con la que viene del punto simétrico
(‘rebota’). La ƒ influye, pues, en el segmento y semirrectas
indicados. Y la g , sobre la región sombreada (fuera, o se
f
integra 0 ó se cancelan las aportaciones de o y −o ).
Como se ve, también la g en este caso deja de influir sobre
la solución pasado un tiempo.
[Este dibujo nos sirve además para ver que se invierte una onda cuando llega a un extremo
fijo: cuando rebota, aparece la onda que viene de −o con forma opuesta a que llegó].
Si n = 2 , el dominio de dependencia de (, y, t) t t
(x,y,z)
de los datos iniciales es todo el círculo B((, y), ct)
ct
y el de influencia de la ƒ y g iniciales en un punto
(o , yo , 0) es todo el cono (−o )2 +(y−yo )2 ≤ c2 t 2 . y y
Para n = 3 la influencia de (o , yo , zo , 0) es sola-
mente la superficie de un cono tetradimensional x x
(no dibujable). (xo ,yo ,0)

62
Consideremos ahora ondas en el espacio con simetría radial. Pasando a esféri-
cas y quitando los términos con derivadas respecto a θ y ϕ llegamos al problema:

tt − c2 rr + 2r r = 0 , r ≥ 0, t ∈ R
¨  
(Pr )
(r, 0) = ƒ (r) , t (r, 0) = g(r)

Haciendo  = r , la ecuación se transforma en la de la cuerda: tt −c2 rr = 0 .


Y como  es acotada, aparece la condición de contorno: (0, t) = 0 · (0, t) = 0 .
Así, el problema en las nuevas variables es:
¨
tt − c2 rr = 0 , r ≥ 0, t ∈ R
(P )
(r, 0) = rƒ (r), t (r, 0) = rg(r), (0, t) = 0

Sabemos desde la sección anterior que si F ∗ y G∗ son las extensiones impares


respecto a 0 de F(r) ≡ rƒ (r) y G(r) ≡ rg(r) la solución de (Pr ) es:
1 1
R r+ct
(r, t) = 2r
[F ∗(r +ct)+F ∗(r −ct)] + 2cr r−ct
G∗(s) ds [•]

que podemos poner en la forma (r, t) = 1r p(r +ct) + 1r q(r −ct) e interpretar como
la suma de dos ondas esféricas, cuyos radios disminuyen o crecen a velocidad c .
La magnitud de la perturbación propagada es inversamente proporcional al radio.
[•] da problemas en r = 0 , pero con L’Hôpital y el teorema fundamental del cálculo:
1  ∗0  1 ∗
F (ct)+F ∗0 (−ct) + 2c G (ct)−G∗ (−ct) = F ∗0 (ct)+ 1c G∗(ct) = (0, t)

→
r→0 2

(0, t) puede no ser continua aunque ƒ lo sea (si F ∗ no es C1 ) .


tt − Δ = 0 , r ≥ 0 , t ∈ R Comencemos suponiendo n = 3 .


¨
Ej 2. 
1, r ≤ 1 
(r, 0) = 0, t (r, 0) = 0, r > 1 Su solución es  = r
, si  es la solución de:
G*
tt − rr = 0 , r, t ∈ R
¨
1 r+t
R
(r, 0) = 0, t (r, 0) = G∗ (r) = 0 , |r| > 1 → (r, t) = G∗
r , |r| ≤ 1

2 r−t r

Estudiemos la evolución para t ≥ 0 de un punto M del espacio t


situado a una distancia R > 1 del origen. Si t < R−1 o si t > R+1 R+1 dominio de
es claro que  = 0 . Si t ∈ [R−1, R+1] , la integral se reduce a: influencia

R1 1−[R−t]2
R−t
s ds → (R, t) = 4R

Se ve que M oscila sólo durante un intervalo de tiempo finito R-1


[eso lo podíamos decir dibujando el dominio de influencia]. r
Y que la amplitud máxima de la oscilación es inversamente -1 R-t 1 R
proporcional a la distancia que separa M del origen. u(R,t)
1/4R
Dar (R, t) con la fórmula [pk] es complicado, pero sí es t
R-1 R R+1
fácil hallar:
1 dS = área de C
¨ 1 RR
= t , si 0 ≤ t ≤ 1
(0, 0, 0, t) = 4πt
1
RR C 4πt
= G∗(t) [predicho con L’Hôpital].
4πt C
0 dS = 0 , si t > 1
Hay discontinuidades ( G era discontinua), pero se concentran en el origen [ (M, t) sí era continua].

Miremos ahora el problema como si fuese para n = 2 . Los cálculos


t ≥1
son siempre más difíciles, así que nos limitamos a hallar (0, 0, t) :
¨ t p r dr = t , t ≤ 1
R
1 2π t r g drdθ
R R R t r g dr 0 t 2 −r 2
1 (0, 0, t) = 2π 0 0 p 2 2 = 0 p 2 2 = R 1 p
t −r r dr
t −r p = t− t 2 −1 , t ≥ 1
0 t 2 −r 2
p
Como debía suceder, t − t 2 −1 = p1 → 0.
t+ t 2 −1 t→∞

63
tt −rr − 2r r = 0 , r ≥ 0, t ∈ R (r −2)(r −4) si r ∈ [2, 4]
 n
Ej 3. , con ƒ (r) =
(r, 0) = ƒ (r) , t (r, 0) = 0 0 en el resto de [0, ∞)

Dibujemos la solución para t = 3 y 6 y describamos la evolución de dicha solución.


Para ello nos basamos en los dibujos del problema para la cuerda semiacotada:
¨  − = 0 , r ≥ 0 ¨  − = 0 , r ∈ R
tt rr tt rr
(r, 0) = rƒ (r) ≡ F(r) → (r, 0) = F ∗(r) impar
t (r, 0) = (0, t) = 0 t (r, 0) = 0
F ∗ (r+t)+F ∗ (r−t) (r,t)
Será (r, t) = 2
y (r, t) = r
.
1 ∗
Movemos 2
F a izquierda y derecha y sumamos.
Precisamos los dibujos hallando algunos valores:
Como F(r) = r(r −2)(r −4) , r ∈ [2, 4] , es F(3) = −3
p
y F es mínima para  = 2+ 32 3 ≈ 3.2 .

 12 , 3 = −3/ 8
= − 34 , (6, 3) = −3/ 2
= − 14 ,

1/ 2 6

(3, 6) = 3/32 = 12 , (9, 6) = −3/


9
2
= − 61 ,

Además (0, t) = F ∗ 0 (t) → (0, 3) = 3t 2 −12t = 8 t=3 = −1 .


[ (0, t) resulta ser discontinua para t = 2 y t = 4 : F ∗ 0 (2+ ) = −4 6= 0 y F ∗ 0 (4− ) = 8 6= 0 .
En esos instantes los ‘picos’ de ƒ confluyen en el origen].
Tanto para  como para  , la onda se divide en 2 y se refleja cambiando de signo; pero,
mientras en dimensión 1 no se deforma, en el espacio disminuye al alejarse del origen.

tt − rr + 2r r = 0 , r ≥ 0
¨ 
Ej 4. Calculemos (1, t) para t ≥ 0 .
(r, 0) = r , t (r, 0) = 0
¨ tt −rr = 0 , r ≥ 0 ¨ tt −rr = 0 , r ∈ R
ƒ ∗ extensión impar de r 2
 = r → (r, 0) = r 2 → (r, 0) = ƒ ∗(r)
− r 2 si r ≤ 0 .
 
t (r, 0) = (0, t) = 0 t (r, 0) = 0
(1
(1,t) [(1+t)2 +(1−t)2 ] = 1+t 2 si 0 ≤ t ≤ 1
Por tanto, (1, t) = 1 = 12 .
2
[(1+t)2 −(1−t)2 ] = 2t si t ≥ 1

También se puede hallar con la fórmula de Poisson-Kirchoff. Para simplificar, la evaluamos


en el punto más sencillo situado a distancia 1 , el (0, 0, 1) :
R 2πR π p θ ∂ t R1
2 +2t cos θ sen θ dθ dϕ s=cos
h i h p i
∂ t
(0, 0, 1, t) = ∂t 4π 0 0
1+t = ∂t 2 −1
1+t 2 +2ts ds

( ∂
i1 [2t 3 +6t] si 0≤t≤1
2 +2ts)3/ 2
h
∂ 1 ∂  ∂t
= (1+t = 16 ∂t |t+1|3 −|t−1|3 = 1

∂t 6 6 ∂
−1
∂t
[6t 2 +2] si t≥1
que nos lleva al resultado de antes.

64
4.3. Transformadas de Fourier.
hR∞ i
Sea ƒ () definida en R y absolutamente integrable −∞
| ƒ | < ∞ .
Z ∞
La transformada de Fourier de ƒ es la función: ƒ̂ (k) = p1 ƒ () ek d .
2π −∞

Si ƒ es además C1 se puede recuperar a partir de ƒ̂ usando la fórmula de inversión:


Z ∞
Teor 1 ƒ ∈ C1 (R) y absolutamente integrable ⇒ ƒ () = p1 ƒ̂ (k) e−k dk ∀ ∈ R .
2π −∞
 1 1
Algunos libros no ponen la constante p en la definición de ƒ̂ y ponen 2π
en la fórmula

de inversión; también se puede ver en la primera fórmula e−k y en la segunda ek ;

como otros resultados (algunos se probarán en problemas) no la demostramos .

Se llama a ƒ transformada inversa de Fourier de ƒ̂ . Vamos a denotar


también F (ƒ ) = ƒ̂ y F −1 ƒ̂ = ƒ . Es evidente que F y F −1 son lineales.


Veamos otras propiedades. La F hace desaparecer derivadas:


F (ƒ 0 ) = −kF (ƒ )
Teor 2 ƒ , ƒ 0 , ƒ 00 ∈ C(R) y absolutamente integrables ⇒
F (ƒ 00 ) = −k 2 F (ƒ )
R∞ ∞ R∞
F ƒ 0 () = p1 −∞ ƒ 0 () ek d = p1 ƒ () ek −∞ − pk −∞ ƒ () ek d = −k F ƒ () ,
   
2π 2π 2π
R∞
pues ƒ → 0 si −∞ | ƒ | converge. F ƒ 00 () = −k F ƒ 0 () = −k 2 F ƒ () .
     
→∞

Estas transformadas nos aparecerán resolviendo EDPs (probamos las 2 primeras):


1 ,  ∈ [, b] ekb −ek
  
F −1 ƒ̂ (k) ek = ƒ (−) . Si h() = 0 en el resto , F (h) = p1 k
.
Teor 3 2π
2 2 2 2
F e− = p1 e−k / 4 . F −1 e−k = p1 e− / 4 .
 
2 2
1
R∞ 1
Rb 1 ekb −ek
F −1 ƒ̂ e −k = ƒ̂ (k) e−k(−) dk = ƒ (−) . F (h) = ek d =

p
−∞
p

p
k
.
2π 2π 2π
Z ∞
La convolución de ƒ y g es la función: (ƒ∗g)() = p1 ƒ (−s) g(s) ds .
Teor 4 2π −∞

Se tiene ƒ ∗g = g∗ƒ , y F (ƒ ∗g) = F (ƒ ) F (g) , si las transformadas existen.

Aplicando a una EDP en dos variables la F en una de ellas aparece una EDO (en
la otra variable) para la ̂ . Resolviendo la EDO se halla ̂ . Identificando la  de la
que proviene o con el teorema 1 se puede a veces dar explícitamente la solución,
pero en muchos casos hay que dejar  en términos de integrales no calculables.

t +  = g()

Aplicamos la F en la variable  (se supone que  , g y ƒ
Ej 1.
(, 0) = ƒ () son buenas, de modo que se pueden usar los teoremas):

̂t − k ̂ = ĝ(k)
¨
d. i. ekt −1
h i
ĝ(k)
→ ̂(k, t) = p(k) ekt − , p arbitraria → ̂ = ƒ̂ (k) ekt + ĝ(k)
̂(k, 0) = ƒ̂ (k) k k

p 
1 si  ∈ [0, t]
Por tanto: (, t) = ƒ (−t) + 2π g()∗h() siendo h() =
0 en el resto
Rt R −t R
Como 0
g(−) d = − 
g(s) ds , concluimos que  = ƒ (−t) + −t
g(s) ds .

La solución la podemos calcular también con las técnicas del capítulo 1:
ξ=−t
 R
dt
d
= 1 → η=
→ η = g(η) →  = p(−t) + 0 g(s) ds →
R R −t R
p() + 0 g(s) ds = ƒ () →  = ƒ (−t) − 0 g(s) ds + 0 g(s) ds como antes .


65
Más interés que el ejemplo anterior, puesto que no conocemos ningún otro método
para resolverlo, tiene el problema para el calor en una varilla infinita:

t −  = 0 ,  ∈ R, t > 0

(P)
(, 0) = ƒ () ,  acotada

Supongamos que  y ƒ son suficientemente regulares y que tienden a 0 en ±∞ lo


suficientemente rápido como para poder utilizar los teoremas anteriores. Aplicando
la F en la variable  a la ecuación y al dato inicial se tiene el problema:
̂t + k 2 ̂ = 0
¨
2
cuya solución es ̂(k, t) = ƒ̂ (k) e−k t
̂(k, 0) = ƒ̂ (k)
La solución será la convolución de las transformadas inversas de cada uno de los
factores (la del segundo la vimos en el teorema 3):
∞ ∞
1
Z Z
2 / 4t
(, t) = p ƒ (s) e−(−s) ds ≡ G(, s, t) ƒ (s) ds [1]
2 πt −∞ −∞

1 2
G(, s, t) = p e−(−s) / 4t es la llamada solución fundamental de la ecuación del calor
2 πt
[es la temperatura del punto  en el tiempo t debida a una ƒ inicial de la forma δ(−s) ].

Una vez deducida [1], en vez de justificar los pasos que llevaron a ella, se prueba
que proporciona realmente la solución de (P) con hipótesis más amplias incluso
de las que nos permiten aplicar la F . En concreto, para cualquier ƒ acotada y
continua a trozos [1] nos da la solución única acotada de (P) que es continua para
t ≥ 0 a excepción de los puntos de t = 0 en que ƒ es discontinua.
De [1] se deduce también que, según nuestro modelo matemático, el calor se
transmite a velocidad infinita: si ƒ > 0 en un entorno de un o y nula en el resto,
está claro que (, t) > 0 por pequeño que sea t y grande que sea |−o | . También
se ve que  es C∞ para t > 0 aunque ƒ sea discontinua (¡aunque sea ƒ () = δ(−s) !).
Son propiedades claramente diferentes de la ecuación de ondas.

Ej 2. Apliquemos [1] para resolver un par de problemas particulares.



0 , <0 1
R∞ 2
Suponemos primero que: ƒ () = → (, t) = p
0
e−(−s) / 4t ds
1 , >0 2 πt

p
Haciendo  = (s−)/ 2 t la integral se transforma en:
R∞ R / 2pt R∞ h
 i
(, t) = p1π −/ 2pt e− d = p1π 0 e− d + p1π 0 e− d = 1
2 2 2
2
1+ϕ p
2 t
2
Rs 2
1 donde ϕ(s) = p
π 0
e− d es la llamada función error que
!(s)
0 aparece a menudo en la teoría de las probabilidades.
s
-1 1
t!"
Como se observa, la solución
1/2
tiende hacia 12 para todo 
x
cuando t tiende a ∞ .
0
2
Sea ahora ƒ () = e− . Completamos cuadrados y hacemos un cambio de variable:
Z ∞ 2 2
Z ∞ p 
1 2 (−s)
1 −  2 s 4t+1 − p4t+1
= p e−s e− 4t ds = p e 4t+1 e−(•) ds con • = p
2 πt −∞ 2 πt −∞
2 t
p 2
Z∞
2
 = p1 p2 t e− 4t+1 1
e− 1+4t .
2
Haciendo z = • se obtiene: e−z dz = p
2 πt 4t+1 −∞
1+4t

Pero sale más corto aplicando directamente F :


̂t = −k 2 ̂
(
k 2 (1+4t) 2
→ ̂ = p1 e− 4 →  = p 1 e− 1+4t .
̂(k, 0) = p1 e−k / 4
2
2 1+4t
2

66
t −  + 2t = 0 ,  ∈ R, t > 0 Hallemos la solución para una ƒ () general

Ej 3.
(, 0) = ƒ () ,  acotada y deduzcamos la solución para ƒ () ≡ 1 .

[Como F (1) no existe, no se puede resolver directamente el problema con (, 0) = 1 ].


¨
̂t +(k 2 +2t)̂ = 0 ˆ t) = p(k) e−k 2 t−t 2 d.. ˆ t) = ƒ̂ (k) e−t 2 e−k 2 t →
→ (k, → (k,
̂(k, 0) = ƒ̂ (k) Z 2 ∞
2 2 e−t 2
(, t) = e−t ƒ () ∗ F −1 (e−k t ) = p ƒ (s) e−(−s) / 4t ds .
2 πt −∞

2
Z ∞ 2
Z ∞
e−t 2 e−t 2 2
En particular, si ƒ () ≡ 1 ,  = p e−(−s) / 4t ds = p
π
e− d = e−t .
2 πt −∞ ↑p −∞
(s−)/ (2 t ) = 
t −  = 0

2
[Parece que sería adecuado hacer un cambio de la forma  =  e−t → ;
(, 0) = ƒ ()
de [1] se deduce nuestra fórmula y  ≡ 1 es solución clara si ƒ () ≡ 1 (la varilla sigue a 1o ).

Análogamente a lo que pasaba con la transformada de Laplace para resolver EDOs, el uso
de la F permite abordar problemas de EDPs con la delta de Dirac δ sin entrar en sutilezas
sobre continuidades y saltos en derivadas.
La transformada de la delta es muy fácil de hallar:
Z ∞
1 1
F δ(−) = δ(−) ek d = ek .
 
p p
2π −∞

[Obsérvese que formalmente esta función (que no tiende a 0 en ±∞ )


no tiene transformada inversa, pero, como ya hemos dicho, con la F
se suele ser riguroso justificando los resultados al final].

Resolvamos un problema (algo complicado) para la cuerda infinita con una F = δ (empuja-
mos hacia arriba en el punto central de la cuerda):

tt −  = δ() ,  ∈ R, t ≥ 0 ̂tt + k 2 ̂ = p1


 ¨
Ej 4. (Pδ ) . Aplicando la F : 2π .
(, 0) = t (, 0) = 0 ̂(k, 0) = ˆt (k, 0) = 0
La solución general ( λ = ±k y p a simple vista) es:
d..
h sen k t i2
1 1−cos kt 2
̂(k, t) = p(k) cos kt + q(k) sen kt + p −→ ̂(k, t) = p = p
k
2
.
2π k 2 2π k 2 2π
En la h del teor 4, cuando  = −b se tiene como caso particular:
p
1 ,  ∈ [−b, b]

kb −kb
Si h() = , F (h) = p1 e −e k
= pπ2 senk bk .
0 en el resto 2π

La  será, por tanto, la convolución de una h de este tipo consigo misma. En concreto:
1 ,  ∈ [−t/ 2, t/ 2]
R∞ 
 = 12 ∞ h(−s) h(s) ds , donde h() =
0 en el resto

Discutiendo en qué intervalos el integrando es 1 ó 0 según los valores de  se concluye:


Si  ≤ −t ó si  ≥ t es  = 0
Si  ∈ [−t, 0] ,  = 21 + 2t − (− 2t ) = 12 [+t]
 

Si  ∈ [0, t] ,  = 12 2t − (− 2t ) = 12 [t −]


 

¨
0 , si || ≥ t
Es decir,  = 1  
2
t −|| , si || ≤ t

Para hacerlo sin transformadas, más fácil que discutir


R t R +t−τ
 = 21 0 −t+τ δ(s) ds dτ ,

es hacer la ecuación homogénea con un cambio de variable.


Como  = 21 || satisface  00 = δ() , con  = + se obtiene:

tt −  = 0
¨
1
(, 0) = ||/ 2 →  = |+t|+|−t| − 12 || .

4
t (, 0) = 0
Discutiendo los valores absolutos se llega a la solución de antes.

67
En problemas para regiones semi-infinitas se usan las transformadas seno y coseno que
son caso particular de F por las propiedades de las funciones pares o impares. Se definen
estas transformadas de funciones ƒ absolutamente integrables en [0, ∞) mediante:
q Z ∞ q Z ∞
2 2
Fs (ƒ )(k) = ƒ̂s (k) = π
ƒ () sen k d ; Fc (ƒ )(k) = ƒ̂c (k) = π
ƒ () cos k d
0 0

La fórmula de inversión adopta la forma:


R∞
Sea ƒ ∈ C1 ([0, ∞)) y sea 0 | ƒ | < ∞ . Entonces:
q Z∞
2
Teor 1’ ƒ () = π
ƒ̂s (k) sen k dk para todo  ∈ (0, ∞)
0
q Z ∞
2
ƒ () = π
ƒ̂c (k) cos k dk para todo  ∈ [0, ∞)
0

Con hipótesis análogas a las del teorema 2 se tiene también:


q q
Teor 2’ Fs (ƒ 00 ) = −k 2 Fs (ƒ ) + π2 ƒ (0) k ; Fc (ƒ 00 ) = −k 2 Fc (ƒ ) − π2 ƒ 0 (0) .

[Por este resultado, la Fs será útil cuando nos den el valor de (0, t)
mientras que la Fc la emplearemos si lo fijado es  (0, t) ].
 p2 R ∞ 00 p ∞ p R

Fs ƒ () = pπ 0 ƒ () sen k d = pπ2 ƒ 0 () sen k 0 − k pπ2 0 ƒ 0 () cos k d
 00
p p R  p
∞ ∞
= −k pπ2 ƒ () cos k 0 −k 2 pπ2 0 ƒ () sen k d = −k 2 Fs ƒ () + pπ2 ƒ (0)k .


 p R∞ p ∞ p R

Fc ƒ 00 () = pπ2 0 ƒ 00 () cos k d = 2
ƒ 0 () cos k 0 + k pπ2 0 ƒ 0 () sen k d

p
p p π
∞  p
= − pπ2 ƒ 0 (0) + k pπ2 ƒ () sen k 0 −k 2 Fc ƒ () = −k 2 Fc ƒ () − pπ2 ƒ 0 (0) .
  

Estas transformadas aparecen en problemas del calor en [0, ∞) :


2 1 −2 / 4 ; F −1 e−k 2 = p1 e−2 / 4 .
Teor 3’ Fs−1 k e−k = [2]

3/ 2  e c 2

¨  −  = 0 ,  > 0, t > 0
t 
Ej 5. Calor en una varilla semi-infinita: (, 0) = 0 , (0, t) = g(t)
 acotada

Llamemos ̂(k, t) a la transformada seno de (, t) respecto a  (suponiendo como


siempre que existe). El problema para ̂ es:
q q
2 Rt
̂t + k 2 ̂ = π2 g(t) k , ̂(k, 0) = 0 → ̂(k, t) = π2 e−k t 0 g(s) k ek s ds
2

La fórmula de inversión, el cambio de orden de integración y el teor 3’ nos dan:


R ∞R t Rt R∞
(, t) = π2 0 0 g(s) k e−k (t−s) sen k ds dk = π2 0 g(s) 0 k e−k (t−s) sen k dk ds
2 2

Rt
→ (, t) = 1
p
s
e−
2
/ [4(t−s)] g(s) ds
2 π 0 [t−s]3/ 2

¨ tt − = 0 ,  ≥ 0, t ∈ R
Ej 6. Ondas semi-infinita: (, 0) = t (, 0) = 0
(0, t) = t 2

Para Fs (o Fc ) no se necesita (nada habitual) hacer la condición de contorno homogénea:


q q h
2
i
Fs  = ̂ → ̂tt +k 2 ̂ = π2 t 2 k → ̂ = p(k) cos kt + q(k) sen kt + π2 tk − k23
q h
2 (cos kt−1) 2 (cos kt−1) 
2
i R∞ 2
̂(k, 0) = ̂t (k, 0) = 0 → ̂ = π2 tk + k 3 →  = π2 0 tk + k3
sen k dk

La integral es muy complicada. Hallamos sólo (1, 2) pues entonces parece simplificarse:
R∞ k 3 
k
(1, 2) = π8 0 sen − sen dk = (tablas) = π8 π2 − 3π =1
 
k k3 8

[Llegamos a ese valor en 4.1 a partir de D’Alembert (que era mejor camino)].

68
Apéndice

Repaso de EDOs

dy
Algunas EDOs de primer orden d
= ƒ (, y) resolubles

[ ƒ , ƒy continuas en un entorno de (o , yo ) ⇒ existe una única solución con y(o ) = yo ].


dy p() R R
Separables: d = q(y) → q(y) dy = p() d + C .
dy y y dy
Se convierten en separables: d = ƒ  con z =  . d = ƒ (+by) con z = +by .
R R R
dy
Lineales: d = ()y+ƒ () → y = Ce ()d + e ()d e− ()d ƒ () d .
R

[solución general de la homogénea + solución yp de la no homogénea].

dy M = U 
Exactas: M(, y)+N(, y) d = 0 con My ≡ N → U(, y) = C solución.

N = Uy

dy y
Ej. d
= y− (solución única si y 6=  ) se puede resolver por tres caminos:
y z
R (2z−2) dz y2 y
= −2 d +C → z 2 −2z = 2 −2  = C2 .
R
z =  → z 0 +z = z−1 → z 2 −2z 
dy U = y → U = y+p(y)
y + (−y) d con My ≡ N = 1 → → y 2 −2y = C .
Uy = −y → U = y− 12 y 2 +q()
d y− y
= − y +1 lineal (solución única si y 6= 0 ) .  = C
+ 1y C
R
dy
= y y
y dy = y
+2 .
dy
Pasa una sola curva integral (solución de d = · · · o de d = · · · ) salvo por (0, 0) .
 
dy

[n] y 00 +()y 0 +b()y = ƒ () , y1 y2


EDOs lineales de orden 2 : |W|() = .
 , b , ƒ continuas en  . y10 y20

Si o ∈  , tiene una sola solución (definida en todo  ) con y(o ) = yo , y 0 (o ) = yo0 .
Si y1 , y2 son soluciones de la homogénea ( ƒ ≡ 0 ) con wronskiano |W|(s) 6= 0 para
algún s ∈  , la solución general de la homogénea es: y = c1 y1 +c2 y2 .
Si yp es una solución de [n], la solución general de [n] es: y = c1 y1 +c2 y2 +yp .
R y ƒ R y ƒ
Una solución particular de [n] es: yp = y2 |W|1 2
d − y1 |W| d [fvc].

Coeficientes constantes: [h] y 00 +y 0 +by = 0 , μ2 +μ+b = 0 (autovalores).


Si μ1 6= μ2 reales → y = c1 eμ1  + c2 eμ2 
La solución general de [h] es: Si μ doble (real) → y = (c1 +c2 ) eμ
Si μ = p±q → y = (c1 cos q+c2 sen q) ep

Método de coeficientes indeterminados para [c] y 00 + y 0 + by = ƒ () :


Si ƒ () = eμ pm () , con pm polinomio de grado m , y μ no es autovalor, tiene
[c] solución particular de la forma yp = eμ Pm () , con Pm del mismo grado. Si μ
es autovalor de multiplicidad r , hay yp = r eμ Pm () .
Si ƒ () = eμ pj () cos q + qk () sen q , pj , qk de grados
 
j , k , y p ± q no
es autovalor, hay yp = e p Pm () cos q+Qm () sen

q con P m y Qm de grado
m = máx{j, k} . Si p±q es autovalor hay yp = ep Pm () cos q+Qm () sen q .
 

Ej. y 00 −y = e . μ = ±1 → solución general: y = c1 e +c2 e− +yp , con:


yp = Ae → (A+2)−A = 1 → yp = 12 e . O más largo:
e e− R   R − 
− e e + e e e = − 1 e − 1 e .
|W|() =  − = −2 , y p = e −2 −2 4 2
e −e

69
Euler: [u] 2 y 00 +y 0 +by = 0 , μ(μ−1)+μ+b = 0 .
Si μ1 6= μ2 reales → y = c1 μ1 +c2 μ2
La solución general de [u] es: Si μ doble (real) → y = [c1 +c2 ln ] μ
Si μ = p±q → y = [c1 cos(q ln )+c2 sen(q ln )] p

Una yp de 2 y 00 +y 0 +by = h() se obtiene de la [fvc] con ƒ () = h()/ 2 ,




o utilizando que con  = es se convierte en y 00 (s)+(−1)y 0 (s)+by(s) = h es .




Si b() ≡ 0 , y 0 =  lleva [e] a lineal de primer orden en  .

Ej. y 00 −2y 0 =  . Se puede ver como Euler: 2 y 00 −2y 0 = 2 , μ(μ−1)−2μ = 0


→ y = c1 +c2 3 +yp , con yp = A2 yp = Ae2s → yp = − 21 2 .


1 3 R 3
h i
2 , y = 3 1·1 +  ·1 = − 1 2 .
R
O bien, |W|() = 2
= 3 p 3 2 3 2 2
0 3
R d
O de otra forma: y 0 =  →  0 = 2

+1 →  = C2 +2 2
= C2 − → y = K +C3 − 12 2 .

Para otras ecuaciones lineales de segundo orden hay buscar:

Soluciones en forma de serie:


Si , b son analíticas en  = 0 , es un punto regular de [e] y 00+ ()y 0 +b()y = 0

y la solución de [e] es y = ck k = c0 y1 +c1 y2 , con c0 , c1 arbitrarios.
X

n=0

 = 0 es punto singular regular de [e∗ ] 2 y 00+ ∗()y 0 +b∗()y = 0 si ∗ , b∗ son


analíticas en  = 0 . Sean r1 ≥ r2 las raíces de q(r) = r(r −1)+∗
0
r +b∗
0
.

Hay solución y1 de [e*] de la forma y1 = r1 ck k , c0 6= 0 .
X

n=0

La segunda solución y2 linealmente independiente es:


∞ ∞
a] Si r1 −r2 6= 0, 1, · · · : y2 = r2 bk k , b0 6= 0 . b] Si r1 = r2 : y2 = r1 +1 bk k + 1 ln  .
X X

n=0 n=0

c] Si r1 −r2 ∈ N : y2 = r2 bk k +dy1 ln  , b0 6= 0 , d ∈ R.
X

n=0

EDOs importantes resolubles utilizando series:

Legendre (1−2 )y 00 −2y 0 +p(p+1)y = 0 . Tiene soluciones polinómicas si p = n ∈ N :

P0 = 1 , P1 =  , P2 = 32 2 − 12 , P3 = 25 3 − 32  , P4 = 35
8
4 − 15
4
2 + 38 , . . .
R1 R1 2
Se cumple que: −1 Pn Pm d = 0 , si m 6= n ; −1 P2n d = 2n+1 .


  p X (−1)m [/ 2]2m
Bessel: 2 y 00 +y 0 +[2 −p2 ]y = 0 → r = ±p . r1 = p → Jp () ≡ 2 m! (p+m+1)
.
m=0

Jp soluciones acotadas en  = 0 , con infinitos ceros [los de J0 son: 2.4.., 5.5.., ...].
Las soluciones linealmente independientes de ellas son no acotadas en 0 .

Cuando p = 12 , 3
, . . . , la solución es expresable con funciones elementales
2
 cos  
por ejemplo, si p = 12 es y = c1 sen
p +c2 p

.
 
2p 0
Recurrencia: Jp+1 =  Jp − Jp−1 . Derivadas: p Jp () = p Jp−1 () , J00 () = − J1 .
 

1
P2 P0
0.8 J0 Bessel
P3 P1 0.6
J1
0.4

–1 1 0.2

0
5 10 15 20
–0.2
Legendre
–0.4

70
Repaso de convergencia uniforme
Sea la sucesión de funciones definidas en A ⊂ R : {ƒn ()} = ƒ1 (), ƒ2 (), ..., ƒn (), ... .

{ƒn } converge puntualmente ƒ en A si para cada  ∈ A es lı́m ƒn () = ƒ () .


n→∞

{ƒn } converge uniformemente hacia su límite puntal ƒ en A si


∀ϵ > 0 existe algún N tal que ∀ ∈ A , si n ≥ N entonces |ƒ () − ƒn ()| < ϵ .

Gráficamente, si {ƒn } → ƒ uniformemente, a partir de un N todas las


f
gráficas de las ƒn quedan dentro de toda banda de altura 2ϵ alrede- !
dor de la de ƒ . Si la convergencia es sólo puntual, para cada  el N f2
es distinto y no se puede dar uno válido para todos los puntos de A . f1
0 si  = 0

Ej. ƒn () = 1/ n → (puntualmente).
1 si  ∈ (0, ∞) A
La convergencia es uniforme en [1, 2] , pero no en [0, 1] .
Para cada  ∈ [0, 1] existe N tal que si n ≥ N el punto (, 1/ n )
está dentro de la banda, pero hace falta elegir N mayores se-
gún nos acercamos a 0 . En [1, 2] la convergencia es uniforme,
pues el N que vale para  = 2 claramente vale también para
el resto de los  del intervalo.

ƒn continuas en un intervalo  y {ƒn } → ƒ uniformemente en  ⇒ ƒ continua en  .


Si las ƒn son derivables, que ƒn → ƒ uniformemente
no basta para que ƒ sea derivable, o puede existir
ƒ 0 y no ser el límite de las ƒn0 (como en los ejemplos
de la derecha); para que pasen ambas cosas, deben |x| 1–sen(n2x)
también converger las ƒn0 uniformemente. n

Las series de funciones son un caso particular



X
ƒn converge puntualmente o uniformemente en A hacia ƒ si lo hace
n=1
la sucesión de sus sumas parciales Sn = ƒ1 + · · · + ƒn .

Criterio de Weierstrass

P en A y {Mn } una sucesión


Sean {ƒn } definidas P de números tal que |ƒn ()| ≤ Mn
∀ ∈ A y tal que Mn converge. Entonces ƒn converge uniformemente en A .
P sen n sen n 1 P 1
Ej. n2
converge uniformemente en todo R pues n2
≤ n2
y n2
converge.
[Se tiene entonces, por ejemplo, que la suma ƒ () de esta serie es continua en todo R ].
P cos n
La serie obtenida derivando término a término: n
diverge, por ejemplo, si  = 0 .
(Para otros  , como  = π , converge por Leibniz, y para casi todos es difícil decirlo).

Así pues, en general, no se pueden derivar término a término las sumas infinitas
como las finitas. Aunque sí se puede hacer con las series de potencias:

cn n = c0+c1 +c2 2+· · · converge uniformemente en todo intervalo
X
La serie
n=0
cerrado [, b] ⊂ (−R, R) ( R radio de convergencia). Para || < R la función ƒ ()

definida por la serie es derivable y ƒ 0 () = ncn n−1 = c1 +2c2 +3c3 2 + · · ·
X

n=1

2 3
Ej. − 2 + 3 + · · · con R = 1 , converge puntualmente
si  ∈ (−1, 1] hacia log(1 + ) y uniformemen-
 

te en cualquier intervalo [, 1] ,  > −1 , pero no


lo hace en todo (−1, 1] , pues las sumas parciales
están acotadas en ese intervalo y el log no.
La serie derivada término a término 1−+2 + · · ·
1 
converge en (−1, 1) hacia 1+

.

71
Repaso de cálculo en varias variables
Sean , x ∈ Rn , A ⊂ Rn . Entorno de centro  y radio r es Br () ≡ x : kx−k < r .


 es interior a A si hay algún Br () ⊂ A . A es abierto si A = nt A ≡ x interiores a A .




Frontera de A es ∂A ≡ x : ∀r, Br (x) tiene puntos de A y de Rn −A . A = nt A ∪ ∂A .




La derivada según el vector v de un campo escalar ƒ : Rn → R en un punto  es:


ƒ (+hv)−ƒ () [si v es unitario se llama direccional,
Dv ƒ () ≡ ƒv () = lı́m h
= ∇ƒ · v si v = i es la parcial ∂ƒ / ∂() , ... ].
h→0 si ƒ ∈C1

¨ y = ƒ ( , ..,  ) ∂ƒ1 / ∂1 · · · ∂ƒ1 / ∂n


1 1 1 n
∂(y1 ,...,yn ) .. ..
Si · · · · · · · · · · · · · · · , el determinante jacobiano es
∂(1 ,...,n )
= . . .
yn = ƒn (1 , .., n ) ∂ƒn / ∂1 · · · ∂ƒn / ∂n
 = r sen θ cos ϕ «
 = r cos θ

∂(,y) ∂(,y,z)
Polares:
y = r sen θ
→ ∂(r,θ)
= r . Esféricas: y = r sen θ sen ϕ → ∂(r,θ,ϕ)
= r 2 sen θ .
z = r cos θ

Cambios de variable en integrales dobles:


Sea g : (, ) → (, ), y(, ) de C1 , inyectiva en D∗ , g(D∗) = D y ƒ integrable.

RR RR  ∂(,y)
Entonces: D
ƒ (, y) d dy = D∗ ƒ (, ), y(, ) ∂(,) d d .

Integrales de línea de campos escalares:


Sea C la curva C1 descrita por una función vectorial c(t) : [, b] → R2 y sea ƒ un
R Rb
campo escalar tal que ƒ c(t) es continua. Entonces: C ƒ ds ≡  ƒ c(t) kc0 (t)k dt .
 

[No depende de la c(t) elegida. Si C es C1 a trozos, se divide [, b] y se suman las integrales].

Teorema de la divergencia (en el plano):


Sea D ⊂ R2 limitado por ∂D curva cerrada simple, f : D → R2 campo vectorial C1 ,
RR H
y n el vector normal unitario exterior a ∂D . Entonces D div f ddy = ∂D f n ds .

Si ∂D viene descrita por c(t) = (t), y(t) un normal unitario es n = y (t),− (t)
0 0 kc (t)k .
   0 

Ej. Comprobemos el teorema para f(, y) = (7, y 2 −1) en el semicírculo r ≤ 3 , 0 ≤ θ ≤ π :


RR R πR 3
D
2y ddy = 0 0 2r 2 sen θ dr dθ = 36 .
R R3
Para C1 , si c() = (, 0) ,  ∈ [−3, 3] → C (1−y 2 ) ds = −3 d = 6 .
1

Para C2 , si c(t) = (3 cos t, 3 sen t) , t ∈ [0,π] → kc0 (t)k = 3 . Como


R Rπ
n = (cos t, sen t) , C f n ds = 3 0 7 cos t +9 sen3 t −sen t dt = 30 .

2

Integrales de superficie de campos escalares:


Sea S la superficie descrita por la función vectorial r(, ) : T ⊂ R2 → R3 y sea ƒ tal
 RR RR  ∂r ∂r
que ƒ r(, ) es continua. Entonces: S ƒ dS ≡ T ƒ r(, ) ∂ × ∂ d d .
producto vectorial fundamental ↑

Si S es del tipo z = h(, y) se puede describir r(, y) = , y, h(, y) , con T proyección


 

de S sobre z = 0 , y el producto vectorial fundamental adopta la forma − h ,−hy ,1 .




Ej. Integremos ƒ (, y, z) = z 2 sobre la superficie esférica x =  .


Eligiendo r(, ) = ( cos  sen ,  sen  sen ,  cos ) ,
R πR 2π
z 2 dS = 0 0 2 cos2  2 sen  d d = 4π
RR
S 3
4 .
pvf ↑
 
Con r(, y) = , y, 2 −2 −y 2 , el pvf es p 2  2 2 →
p
 − −y
RR RR p R p

S
z 2 dS = 2 T ∗   2 − 2 −y 2 ddy = 4π 0
r 2 −r 2 dr = 3 4 .

72
problemas de EDII (r) 2011

problemas 1

1. Resolver (si es posible) los siguientes problemas de Cauchy:


32 y + = 5 (2y−)y + = 2y y + = −2 e−y y −y = 2y
(, 0) = 3 (1, y) = 0 (−1, y) = 0 (, 0) = 
−y
 −y = y  y +3y 2  = 2 +6y 4 
2
y yy +(2y−) =  yy + e  = 2
(, 1) =  (, 1) =  2 (, 1) = 0 (, 0) = 0

2. Sea yy − = +2 y los datos iniciales: i) (, 0) = − , ii) (, 2) = 7 . Hallar la única
solución que satisface uno de ellos y dos soluciones distintas que cumplan el otro.

i) (, 1) = 1
3. Resolver y +2y = 3 con , estudiando la unicidad de la solución.
ii) (0, y) = 0

4. Sea (E) y 2 y +2  = 2 +y 2 . Resolver (E) con el dato (, 1) = +1 . ¿Es única la solución?
Imponer unos datos de Cauchy para los que (E) tenga infinitas soluciones y dar dos de ellas.

5. Precisar para qué valores de n entero positivo el dato de Cauchy (, n ) = n determina
una única solución de la ecuación  +y = y 2 cerca de (0, 0) .

6. Sea la ‘ecuación cuasilineal’ (E) A(, y, )y +B(, y, ) = C(, y, ) .


Probar que si las soluciones del sistema de ecuaciones:
d C dy A η(, y, ) = c1
= B , d = B son [curvas características de (E)],
d ξ(, y, ) = c2
entonces η(, y, ) = p[ξ(, y, )] o bien, ξ(, y, ) = q[η(, y, )] con p , q arbitrarias es la


solución general de (E). Resolver la cuasilineal: y + = 0 con: i) (, 0) =  , ii) (0, y) = 0 .

7. Reducir a forma canónica y, si es posible, encontrar la solución general:


e  + ey yy =   −3y +2y 2  = y  +4y −5yy +6 +3y = 9

8. Escribir (E) tt + 2t = 2 en forma canónica y hallar su solución general. De los datos de
Cauchy: i) (, 0) = t (, 0) = 0 , ii) (0, t) = 0 ,  (0, t) = t , hay unos que determinan una
única solución de (E). Hallarla en ese caso.

9. Sea [E] tt + 2t +  +  = 0 . Hallar su solución general. Hallar (y simplificar) la solución
de [E] que satisface (, −) = 0 , t (, −) = 1 . Escribir una solución de [E], distinta de la
 ≡ 0 , que cumpla (, ) = t (, ) = 0 .

10. a) Escribir (E) 4yyy − +2y = 0 en forma canónica para y > 0 y para y < 0 .
b) Resolver (E) con los datos iniciales: (, 1) = 2 , y (, 1) =  .

tt −4 = 2

11. Resolver el problema , i) directamente, ii) tras hacer  = −t 2 .
(, ) = 2 , t (, ) = 

12. Sea (E) Ayy+By+C+Dy+E+F = G(, y) , con A, B, . . . , F constantes. Probar que, si


no es parabólica, un cambio de variable  = epy eq  , con p y q adecuadas, lleva (E) a una
(E*) sin derivadas de primer orden. ¿Para qué relación entre las constantes A, . . . , F no tiene
(E*) término en  ? Aplicar lo anterior para hallar la solución general de y+2y+3+6 = 1 .
Probar que cualquier ecuación parabólica o es resoluble o se puede escribir con cambios de
variable en la forma η +E∗ξξ = G∗∗(ξ, η) .

13. Sea (e) tt − +Dt +E = 4 , con D y E constantes. a] Escribir (e) en forma canónica.
¿Para qué relaciones entre D y E es esta forma resoluble? b] Para D = −2 , E = 2 , hallar la
o las soluciones de (e) con los datos: (0, t) = e2t ,  (0, t) = 2 .

i
problemas de EDII (r) 2011

problemas 2

1. Determinar los autovalores y autofunciones asociadas:


y 00 + λy = 0 y 00 + λy = 0 y 00 + λy = 0 2 y 00 +y 0 +[λ2 − 41 ]y = 0
y(0) = y 0 (1) = 0 y(−1) = y(1) = 0 y(0) = y(1)+y 0 (1) = 0 y(1) = y(4) = 0

y 00 + λy = 0 Comprobar que hay infinitos autovalores positivos ∀α . Discutir


2. Sea
y 0 (0)−αy(0) = y(1) = 0 si los hay ≤ 0 . Estudiar cómo varía con α el menor autovalor.

3. Desarrollar a) ƒ () = 1 y b) ƒ () = 2 ,  ∈ [0, 1] , en serie de i) {sen nπ} , ii) {cos nπ} .
Dibujar algunas sumas parciales de las series obtenidas.

4. Desarrollar ƒ () = cos3  ,  ∈ [0, π] , en serie de i) {cos n}, ii) {sen n}, dibujando las
funciones hacia las que tienden las series y estudiando la convergencia uniforme.

5. Desarrollar en senos y cosenos en [−π, π] , estudiando la convergencia puntual y uniforme:



 −π, si − π ≤  < 0
a) ƒ () = sen2  , b) ƒ () = | sen | , c) ƒ () = sen 2
, d) ƒ () = sen , si 0 ≤  < π


1 , 0≤≤1

Sea ƒ () = . Hallar su desarrollo en serie de Fourier ƒ () = 20 + n cos nπ
X
6. 2
.
0 , 1<≤2 n=1
¿Cuánto debe sumar la serie para i)  = 1 , ii)  = 2 ? Comprobarlo sustituyendo en la serie.

 , 0 ≤  < π2 ∞
y 00 + λy = 0
¨
Desarrollar ƒ () = cn yn () , con yn autofunciones de
X
7. en serie .
0, π
2
≤≤π n=1
y(0) = y 0 (π) = 0
∞ ∞
cn yn ( π2 ) ? π
= 1− 13 + 51 −· · · , el valor de 1
X X
¿Cuánto vale Deducir de ello, y de que 4 (2n−1)2
.
n=1 n=1

8. Desarrollar ƒ () =  en las autofunciones de cada uno de los problemas del problema 1.
¨ 00
y + 2y 0 + λy = 0
9. Desarrollar ƒ () = 1 en serie de autofunciones del problema .
y(0)+y 0 (0) = y( 21 ) = 0
¨€ Š0
[1−2 ]y 0 + λy = 0 Hallar los 3 primeros términos del desarrollo de ƒ () = 1
10. Sea
y(0) = 0, y acotada en 1 en serie de autofunciones de este problema singular.

y 00 −y 0 = 2 −

11. Hallar, si existe, un valor de  para el que tenga infinitas soluciones.
y 0 (2) = y 0 (4) = 0

 2 00
 y − y = 3−4
12. Sea . Precisar cuántas soluciones tiene para: i)  = 2 , ii)  = 0 .
y(1)+y 0 (1) = y(2) = 0
 00
i] λ = −2 y +y 0 +λy = 1−
13. Precisar para cuántas soluciones tiene el problema: .
ii] λ = 0 y 0 (0) = y 0 (2) = 0

y 00 + λy =  Hallar los autovalores y autofunciones del homogéneo.


14. Sea .
y(0) = y 0 (1)−y(1) = 0 ¿Tiene el no homogéneo infinitas soluciones para algún λ?

y 00 + λy = cos 3 Hallar el primer término del desarrollo de ƒ () = cos 3 en


15. Sea .
y 0 (0) = y 0 ( π4 )+y( π4 ) = 0 serie de autofunciones del problema homogéneo.
Precisar para i) λ = 0 , ii) λ = 1 cuántas soluciones tiene el problema no homogéneo.

16. Hallar la función de Green y la solución para ƒ () =  :


y 00 = ƒ () 2 y 00 + y 0 − y = ƒ () y 00 + y 0 − 2y = ƒ ()
y(0) = y 0 (1) = 0 y(1)+y 0 (1) = y(2) = 0 y(0)−y 0 (0) = y(1) = 0

ii
problemas de EDII (r) 2011

problemas 3 (calor y ondas)

1. Resolver por separación de variables:

t −  + 2t = 0 ,  ∈ 0, 12 , t > 0 t − −4 −4 = 0 ,  ∈ (0, π), t > 0


¨  ¨
a) b)
(, 0) = 1−2,  (0, t) = ( 21 , t) = 0 (, 0) = e−2 , (0, t) = (π, t) = 0
¨  −  +  = 0 ,  ∈ (0, 2), t > 0 π
t −  = e−2t cos  ,  ∈ 0,
¨
t  , t>0
c) § t+1 d) 2
1 , 0≤≤1 π
(, 0) = 0 , 1 <  ≤ 2 ,  (0, t) =  (2, t) = 0 (, 0) = 1 ,  (0, t) = 0,  2
,t =1

¨ + 4t −  = 0 ,  ∈ [0, π], t ∈ R ¨ tt −  = 4 sen 6 cos 3 ,  ∈ 0, π 


tt 2
e) (, 0) = sen 2 f) (, 0) = t (, 0) = 0, t ∈ R
π
t (, 0) = (0, t) = (π, t) = 0 (0, t) =  ( 2 , t) = 0

¨ t −  = F(t) ,  ∈ (0, π), t > 0


Determinar la distribución estacionaria
2. Resolver (, 0) = ƒ () .
si ƒ () = sen2 2 y F(t) = e−t .
 (0, t) =  (π, t) = 0

t −  = 0 ,  ∈ (0, 1), t > 0


¨
3. Resolver y hallar el lı́m (, t) .
(, 0) = 0 ,  (0, t) = 0,  (1, t) = 2e−t t→∞

[Simplifica los cálculos hallar una (, t) = X()T(t) cumpliendo ecuación y condiciones de contorno].

t − = 0 ,  ∈ (0, π), t > 0 Resolverlo y hallar para cada  ∈ (0, π) el



4. Sea .
(, 0) = 0 ,  (0, t) =  (π, t) = t límite de la solución (, t) cuando t → ∞ .

π
t − 4 = cos  ∈ (0, 1), t > 0
¨
2
, Calcular la solución y su límite cuando
5. Sea .
(, 0) = T,  (0, t) = F, (1, t) = T t → ∞ ( F y T constantes).

6. Sea una placa circular homogénea de 1 cm de de radio, inicialmente a 0o . Supongamos


que en t = 0 todo su borde se calienta hasta 1o y luego se mantiene a esa temperatura.
Determinar la distribución de temperaturas en la placa para t > 0 . ¿Hacia qué valor tenderá
la temperatura de un punto situado a 0.5 cm del centro de la placa cuando t → ∞ ?

t −  −  = 0 ,  ∈ (0, 3π), t > 0



7. Sea
(, 0) = 1 , (0, t)−4 (0, t) = (3π, t) = 0
Determinar, según la constante  , el límite de la solución cuando t → ∞ .
 00
X +2X 0 +λX = 0
8. i] Hallar los autovalores y autofunciones del problema .
X(0) = X(1)+X 0 (1) = 0
t − −2 = 0 ,  ∈ (0, 1) , t > 0

[directamente o tras un
ii] Resolver
(, 0) = e− , (0, t) = (1, t)+ (1, t) = 0 cambio  = ept+q  ].

X 00 + λX = 0

Hallar sus autovalores y autofunciones y comprobar que
9. i] Sea .
X(0) = X(1)−X 0 (1) = 0 la primera autofunción es ortogonal a todas las demás.
t − +2 = 2 ,  ∈ (0, 1) , t > 0

ii] Resolver por separación de variables.
(, 0) = 1− , (0, t) = (1, t)− (1, t) = 1

tt −  = 0 ,  ∈ [0, π], t ∈ R


¨
10. Sea (, 0) = t (, 0) = 0
(0, t) = sen t, (π, t) = 0
Determinar valores de  para los que la solución no esté acotada.

11. Sea ttt −4t 3  −t = 0 . a] Hallar la solución que satisface: (, 1) =  , t (, 1) = 2 .
b] Separar variables  = XT en la ecuación y comprobar que la solución particular de a]
aparece como producto de soluciones asociadas a λ = 0 .

iii
iv
problemas de EDII (r) 2011

problemas 3 (Laplace y 3 variables)

1. Resolver por separación de variables:


¨ Δ = 2 cos2 y , (, y) ∈ (0, π)×(0, π) ¨ Δ = y cos  , (, y) ∈ (0, π)×(0, 1)
a) (π, y) = 5 + cos y b)  (0, y) =  (π, y) = 0
(0, y) = y (, 0) = y (, π) = 0 y (, 0) = y (, 1) = 0

Δ = −1 , (, y) ∈ (0, π)×(0, π) Δ = r 2 cos 3θ , r < 2, 0 < θ < π6


 ¨
c) d)
 = 0 en  = 0,  = π, y = 0, y = π (2, θ) = θ (r, 0) =  r, π6 = 0


Δ = cos θ , 1 < r < 2


¨
Δ = r 2 cos 2θ , 1 < r < 2

e) f)
(1, θ) = (2, θ) = 0 r (1, θ) = 0, r (2, θ) = cos 2θ
¨ Δ = r , r < 2, 0 < θ < π ¨ Δ = 0 , 1 < r < 2, 0 < θ < π
4
g) θ (r, 0) = θ (r, π) = 0 h) (1, θ) = 0, r (2, θ) = sen θ
π π
(2, θ) = 3 (r, 0) = (r, 4 )−θ (r, 4 ) = 0

¨  +yy +6 = 0 en (0, π)×(0, π)


2. Resolver por separación de variables: y (, 0) = 0 , y (, π) = 0 .
 (0, y) = 0 , (π, y) = 2 cos2 2y

 +yy −9 = 0 en (0, π)×(0, π)


¨
Resolverlo en general, y para ƒ () = cos 4 .
3. Sea:  (0, y) =  (π, y) = 0 .
y (, 0) = 0 , y (, π) = ƒ () ¿Es única la solución?

2 1 π
4. Probar que 3
≤ ,
2 2
≤ 1 , si (r, θ) es la solución del problema en el plano:
Δ = 0 , r < 1
 
1, 0 ≤ θ ≤ π
con ƒ (θ) = 0, π < θ < 2π
(1, θ) = ƒ (θ)

1 1
rr + + = cos2 θ , r < 1, 0 < θ < π
¨

r r

r 2 θθ
5. Resolver para los  que se pueda.
r (1, θ) =  , θ (r, 0) = θ (r, π) = 0
 2 00
r y + ry 0 − y = r 2
6. a] Discutir cuántas soluciones y(r) tiene .
y 0 (1)+y(1) = y(2) = 0
Δ = sen θ , 1 < r < 2

b] Resolver el problema plano: .
r (1, θ) = (2, θ) = 0

¨ Δ = 0 , r < 1, θ ∈ (0, π)

7. Hallar la única solución de este problema en el plano: (1, θ)+2r (1, θ) = 4 sen 2
.
(r, 0) = θ (r, π) = 0
Comprobar que cambiando +2r (1, θ) por −2r (1, θ) el problema físicamente imposible
que resulta pasa a tener infinitas soluciones.

8. Hallar (en términos de funciones elementales) una solución acotada de:


rr + rr + rθθ
2 + 4 = 0 , r < 1 , 0 < θ < π
¨
[Separando variables y haciendo s = 2r
(1, θ) = sen 2θ , (r, 0) = θ (r, π) = 0 aparece una ecuación conocida].

rr + 1r r + r12 θθ = 2 sen θ


¨
9. Hallar la única solución de los problemas en el plano 1+r 2 :
(1, θ) = 1 ,  acotada
i] en el círculo r < 1 , ii] en la región infinita r > 1 [¡ojo!, r rctn r → ∞ ] .
r→∞

¨
Δ = r cos2 θ , r < 1
10. Calcular el valor en el origen de la solución del problema plano .
(1, θ) = 0 , 0 ≤ θ < 2π

v
Δ = 0 , r < 3

11. Resolver el problema para la ecuación de Laplace en el espacio .
r (3, θ)+(3, θ) = sen2 θ

2 1 cos θ
rr + + + = 0 , r < 1, 0 < θ < π2
¨

r r

r 2 θθ

r 2 sen θ θ
12. Resolver el problema en la semiesfera:
r (1, θ) = ƒ (θ) , θ (r, π/ 2) = 0
¿Qué condición debe cumplir ƒ (θ) para que exista solución?
Hallar la solución si ƒ (θ) = cos2 θ −  para el único  para el que existe.

¨ Δ = 0 , si r > R ¨ Δ = 0 , si r > R
13. Hallar la solución de: (R, θ) = cos3 θ , 0 ≤ θ < 2π y (R, θ) = cos3 θ , 0 < θ < π
 acotada cuando r → ∞  → 0 cuando r → ∞
(en el plano) (en el espacio)

14. Resolver:
t − Δ = 0, (, y) ∈ (0, π)×(0, π), t > 0 tt −Δ = 0 , (, y) ∈ (0, π)×(0, π), t ∈ R
 
 (, y, 0) = 1 + cos  cos 2y  (, y, 0) = 0 ,  (, y, 0) = sen 3 sen2 2y
t
  (0, y, t) =  (π, y, t) = 0  (0, y, t) = (π, y, t) = 0
y (, 0, t) = y (, π, t) = 0 y (, 0, t) = y (, π, t) = 0
Δ = z , 2 +y 2 +z 2 < 1
¨
t − Δ = 0, 1 < r < 2, 0 < z < 1, t > 0

 = z 3 si 2 +y 2 +z 2 = 1  (r, θ, 0) = sen πz

Δ = 0 , 2 +y 2 +z 2 < 1  (1, z, t) = (2, z, t) = 0


¨
(r, 0, t) = (r, 1, t) = 0
 = 3 si 2 +y 2 +z 2 = 1

15. Escribir en cartesianas los armónicos esféricos: Y00 , rY10 , rY11 , r 2 Y20 , r 2 Y21 , r 2 Y22 .

vi
problemas de EDII (r) 2011

problemas 4

1. Resolver por diferentes caminos:


tt − 4 = e−t , , t ∈ R tt −4 = 16 , , t ∈ R
 
a] b]
(, 0) = 2 , t (, 0) = −1 (0, t) = t ,  (0, t) = 0

¨ tt − = 0 ,  ≥ 0, t ∈ R 
a] Hallar  π, 2π .
2. Sea (, 0) = 0 , t (, 0) = cos2  .
b] Hallar (, 2π) para  ≥ 2π .
(0, t) = t

¨ tt −4 = 0 ,  ∈ [0, 2], t ∈ R


(, 0) = 4−3 , t (, 0) = 0 . Hallar  32 , 34 . Dibujar (, 2) . Hallar (, 1) .

3. Sea
(0, t) = (2, t) = 0

tt − = 0 ,  ∈ [0, 2π] , t ∈ R



Dibujar (, π) y hallar su expresión con
2 sen  , ∈[0,π]
 n
4. Sea (, 0) = , t (, 0) = 0 . D’Alembert. Resolver por separación de
 0 , ∈[π,2π]
variables y comprobar.
(0, t) = (2π, t) = 0

¨  − =  ,  ∈ [0, π], t ∈ R
tt 
π
Sea (, 0) = , t (, 0) = 0

5. Hallar  2
,π con D’Alembert y separando variables.
(0, t) = 0, (π, t) = π

¨  − = 0 ,  ∈ [0, 2], t ∈ R
tt  a] Hallar (, T) , T ∈ [0, 2] , y describir la evolución de
6. Sea (, 0) = t (, 0) = 0
(0, t) = t , (2, t) = 0 la cuerda para t ∈ [0, 2] . b] Hallar (, 2k) , k = 1, 2, . . .

tt − = 0 , , t ∈ R n
¨
a] Dibujar (, 1) , (, 2) y (, 3) .
7. Sea (, 0) = 0 , t (, 0) =
1, ||≤1/ 2 .
0 ||>1/ 2
b] Dibujar (3, t) , t ≥ 0 .

tt − = 6 ,  ≥ 0, t ∈ R

8. Sea . Calcular (0, t) para todo t.
(, 0) = t (, 0) =  (0, t) = 0

tt − rr + 2r r = 0 , r ≥ 0, t ∈ R
¨ 
a] Hallar (1, 2) .
9. Sea .
(r, 0) = r , t (r, 0) = −2 b] Hallar (1, t) para todo t ≥ 0 .

tt −rr − 2r r = 0, r ≤ 1, t ≥ 0
¨
i) por separación de variables,
10. Resolver
(r, 0) = 0, t (r, 0) = 1r sen πr , (1, t) = 0 ii) con las técnicas del capítulo 4.

R∞ p
d 
 e (, 0) = pπ .
2
11. Hallar (, ) = 0
e−k cos k dk probando que d = − 2
2 
2 2 2 2
Usar lo anterior para calcular: Fc−1 e−k , Fs−1 k e−k , F −1 e−k , F e− .
 

2
t − = (2 −1) e− / 2 ,  ∈ R , t > 0
 h El término no homogéneo es la i
12. Sea −2 / 2 .
(, 0) = 0 ,  acotada derivada segunda de e
Hallar su solución (en términos de funciones elementales) y el lı́m (, t) :
t→∞
a] Aplicando la F directamente. b] Con un cambio que haga la ecuación en homogénea
y evaluando la integral de los apuntes mediante un cambio de variable.

13. Comprobar, paso a paso y utilizando la F , que la solución de:


2
¨
t − = e− / 4 ,  ∈ R , t > 0
Z∞ 2 2
e−k −e−k (t+1) −k
viene dada por: (, t) = p1π e dk .
(, 0) = 0 ,  acotada k 2
−∞
R∞ 2 p
Deducir el valor de (0, t) integrando por partes y utilizando que −∞ e−s ds = π .

t − + = 0 ,  ∈ R, t > 0



14. Hallar su solución sin que aparezcan integrales: 2 .
(, 0) = e− /2

vii
15. Obtener la fórmula de D’Alembert utilizando transformadas de Fourier.

tt −3t +2 = 0 , , t ∈ R



Resolverlo con transformadas de Fourier
16. Sea .
(, 0) = ƒ () , t (, 0) = 0 y deducir la solución para ƒ () = 2 .

tt +2t + = 0 , , t ∈ R



i) a partir de su forma canónica,
17. Hallar la solución de ,
(, 0) = 0, t (, 0) = g() ii) con transformadas de Fourier.

a1 ] la solución con (, 0) =  ,


18. a] Dada 3t − = 2 , hallar:
a2 ] dos soluciones con (, −3) = −2 .
3t − = g()

b1 ] utilizando las características,
b] Resolver , y comprobar a1 ].
(, 0) = ƒ () b2 ] con transformadas de Fourier,

2t +  = t
¨ ¨
t + et  +2t = 0 i) utilizando las características,
19. Resolver a] 2 , b]
(, 0) = e− (, 0) = ƒ () ii) con transformadas de Fourier.

t + (cos t) = ,  ∈ R, t ≥ 0

20. a) Resolver por Fourier y por las características: .
(, 0) = ƒ ()
cos2 ,  ∈ [−π/ 2, π/ 2]

b) Si ƒ () = describir (, t) para t ≥ 0 .
0 en el resto

viii
problemas adicionales de EDII (r) 2011

problemas adicionales 1

1. Sea [E] y 3 y − = 2y 2  . a] Hallar la solución general de [E] tomando i) η = y , ii) η =  .


b] Resolver [E] con el dato inicial (, 1) = 2 , estudiando la unicidad de la solución.
c] ¿En qué puntos del plano es tangente la curva 2 = −y 2 a alguna característica de [E] ?

2. Sea y −2y = 2y y los datos iniciales: i) (, 1) = e− , ii) (−y 2 , y) = 0 . Hallar la única
solución que satisface uno de ellos y dos soluciones distintas que cumplan el otro.

i) η = t ,
Sea (E) t − 2t = 2t −t 2  . Hallar la solución de (E) con (, 1) = 1 tomando

3.
ii) η =  .
Escribir 2 soluciones distintas de (E) válidas en un entorno de origen que cumplan (0, t) = 0 .

4. Sea (E) (y+1)y+ = 0 . Dibujar sus características. Probar que (E) tiene una única solución
satisfaciendo (, 0) = ƒ () . Probar que si ƒ no es constante dicha solución no puede estar
definida en todo R2 . ¿En torno a qué puntos hay más de una solución de (E) que cumple
(y 2 , y) = 0 ? Estudiar si existen soluciones de (E) satisfaciendo (0, y) = g(y) .

5. Determinar en torno a qué puntos tienen solución única los problemas:


seny y +  = 1 (2 + y 2 )y +  = 0 (2 + y)y +  = 0
(0, y) = 1 (, 0) = 0 (, 2 ) = 

6. Probar que ninguna solución de  = 0 está definida en todo el semiplano y ≥ 0 y contiene


la curva  : y = 2 , z = 3 . Estudiar en qué entornos de  hay soluciones únicas locales.

7. Hallar (si se puede) la solución o soluciones de las siguientes ecuaciones cuasilineales que
satisfacen cada uno de los datos de Cauchy que se indican:
y +  =  con i) (, 0) = 1 , ii) (0, y) = 1
y +  = 2 con i) (, 0) =  , ii) (, ) = 1

8. Reducir a forma canónica y, si es posible, encontrar la solución general:


t 2 tt −2  = 0 yy +2y +2 = 0 2  −2yy +y 2 yy = e

9. Sea [E] tt −2  −t = 0 . Escribirla en forma canónica y hallar su solución general. Deter-
minar la solución de [E] que satisface (, 0) = 2 , t (, 0) =  . Escribir (si existe) alguna
solución de [E], distinta de la  ≡ 0 , que cumpla (et , t) = t (et , t) = 0 .

(, 1) = +1
10. Sea yy−4yy+4y 2 −1y y = 0 . Hallar su solución general y la que cumple .
y (, 1) = 2+4

11. i] Resolver y + e+y  −  = 0 con el dato inicial (, 0) = e− .


ii] Escribir en forma canónica yy + e+y y − y = 0 . Hallar su solución general.

12. Resolver los siguientes problemas de Cauchy (, t ∈ R):


¨ − =0 ¨ − = +
tt  tt  t 
(, ) = 0 (, 0) = 
t (, ) = 0 t (, 0) = 0

 +Lt +R = 0
13. El potencial  y la intensidad  en una linea telegráfica satisfacen: ,
 +Ct +G = 0
donde L, R, C y G son constantes características de la linea. a) Hallar la EDP de segundo
orden (E) que verifica  . b) Si GL = RC , comprobar que un cambio adecuado reduce (E) a la
ecuación de ondas y hallar (, t) si inicialmente (, 0) = V() e (, 0) = () .

14. Estudiar la unicidad de los problemas ( D dominio acotado en R2 ):


¨  −kΔ = F(, y, t) en D
t
Δ−k 2  = F en D

(, y, 0) = ƒ (, y) en D
 = ƒ en ∂D
(, y, t) = 0 en ∂D

I
15. Estudiar la unicidad de los problemas:
tt −(c() ) = F(, t) ,  ∈ (0, 1), t ∈ R
 
Δ = F en D ⊂ R2 dominio acotado
 (, 0) = ƒ (), t (, 0) = g()
 
(0, t) = 0, (1, t) = 0  = ƒ en C1 , n = g en C2
 
C1 ∪ C2 = ∂D , C1 ∩ C2 = ∅

(c ∈ C1 y positiva)

16. Si la distribución inicial de temperaturas en una varilla es ƒ () = 22 − 3 ,  ∈ [0, 2] , y la


temperatura para t > 0 en los extremos es h0 (t) = −t/ (1+t 2 ) , h2 (t) = 2 sen t/ t , y suponemos
que no existen fuentes de calor en el interior de la varilla, determinar la máxima y mínima
temperaturas alcanzadas en la varilla para t ≥ 0 .

II
problemas adicionales de EDII (r) 2011

problemas adicionales 2
 00
y − 2y 0 + y + λy = 0
1. Desarrollar ƒ () =  en las autofunciones del problema .
y(0) = y(1) = 0

y 00 + 2y 0 + λy = 0

2. Desarrollar ƒ () =  en autofunciones del problema singular: .
y acotada en 0, y 0 (1) = 0

(y 0 )0 + λy = 0
3. Desarrollar ƒ () = 1−2 en serie de autofunciones del problema:
y acotada en 0, y(1) = 0

y 00 + λ−V() y = 0
  
0 , si 0 <  < 1
4. Determinar los autovalores de si V() = .
y(0) = y(2) = 0 1 , si 1 <  < 2

2
y 00 = e−(−1)
5. Sea . Precisar para qué valores de α tiene solución.
αy(0)+(1−α)y 0 (0) = y(1) = 0

6. Discutir, según los valores de la constante b , cuántas soluciones tienen los problemas:
¨
y 00 + 2y 0 = 1 2 y 00 −3y 0 +3y = b−2

0 0
y (1) = 2y (2)+by(2) = 0 y(1) = y 0 (1) , y(2) = 2y 0 (2)

7. Estudiar la unicidad de y 00 = ƒ () ,  ∈ (0, 1) [ecuación de Poisson en una dimensión] con


diferentes condiciones separadas, utilizando técnicas similares a las de las EDPs.

00 + r −1 0 = F(r)
8. Precisar cuándo tiene solución o soluciones , , b ≥ 0.
0 (1)−(1) = A, 0 (2)+b(2) = B
[se puede interpretar como un problema para Laplace en el plano con simetría radial].

y 00 + λy = 1 a) Hallar autovalores y autofunciones del problema homogéneo.


9. Sea .
y 0 (−1) = y(1) = 0 b) ¿Existen para algún λ infinitas soluciones del no homogéneo?

y 00 + λy = −4π 2  ¿Para qué valores de λ tiene solución única?


10. Sea .
y(0) = 1 , y(1) = 0 Precisar para qué λ tiene infinitas y resolverlo en ese caso.

y 00 + λy = 1 Hallar autovalores y autofunciones del homogéneo.


11. Sea .
y(0)−y 0 (0) = y(1)+y 0 (1) = 0Ver para qué λ hay solución y para cuáles es única.
Calcular aproximadamente λ1 , λ2 , λ3 y los ceros en (0, 1) de y2 e y3 .

y 00 + ny = cosn 
12. Estudiar para qué valores de n ∈ N existe solución de: .
y(0) = y(2π), y 0 (0) = y 0 (2π)

a] Ver para qué  no tiene solución única y dar para


cos  y 00 − 2 sen  y 0 = ƒ ()

13. Sea ese  una ƒ () para el que haya infinitas soluciones.
y 0 − π4 = y 0 π4 −y π4 = 0
  
b] Resolverlo con la función de Green si  = 2 , ƒ () = 1 .

2 y 00 − y 0 + λy = 3
14. Calcular para λ = 0 y λ = 1 la solución (si la hay) de ,
y(1)−y 0 (1) = y(2)−2y 0 (2) = 0
haciendo uso de la función de Green en el caso de que exista.

y 00 + 2y 0 + λy = ƒ ()
15. Sea . Hallar autovalores y autofunciones del homogéneo.
y(1) = y(2) = 0
Determinar para qué n ∈ N el problema con λ = π 2 , ƒ () = sen nπ tiene soluciones, calcu-
lándolas en ese caso. Si λ = 0 , ƒ () = 1 , hallar la solución con la función de Green.

y 00 + 2y 0 =  + c a) Discutir cuántas soluciones tiene. b) Para c = 0 ,  = −1 ,


16. Sea .
y 0 (1)−y(1) = y 0 (2) = 0 hallar la solución haciendo uso de la función de Green.

III
(y 0 )0 = ƒ ()
17. Hallar la G(, s) del problema singular , usando la fórmula para
y acotada en 0, y(1) = 0
problemas regulares. Comprobar que proporciona la solución i) si ƒ () = 1 , ii) si ƒ () =  .
Relacionar los resultados con la ecuación de Poisson en el plano.

y 00 = ƒ ()
18. Constuir la función de Green de . Resolverlo si ƒ () =  .
y(0) = −y(1), y 0 (0) = −y 0 (1)

19. Hallar una fórmula para la solución de un problema de Sturm-Liouville no homogéneo


utilizando desarrollos en serie de autofunciones del homogéneo.
y 00 + λy = 1
Escribir, si λ 6= n2 π 2 , el desarrollo en autofunciones de la solución de .
y(0) = y(1) = 0
Hallar la solución exacta para λ = 0, 1, −1 . Desarrollarla si λ = 0 y comprobar.

20. Desarrollar la solución para λ = 0 en serie de autofunciones del homogéneo:


y 00 + λy =  y 00 + λy = sen π y 00 − 2y 0 + y + λy = e
y(0) = y 0 (1) = 0 y(−1) = y(1) = 0 y(0) = y(1) = 0

IV
problemas adicionales de EDII (r) 2011

problemas adicionales 3

1. a] Desarrollar ƒ () = cos 2 ,  ∈ [0, π] , en serie de {sen n} , dibujando la función hacia la
que tiende la ¨
serie y estudiando la convergencia uniforme.
t −  = 0 ,  ∈ (0, π), t > 0 [Conviene buscar una  que
b] Resolver: . cumpla también la ecuación].
(, 0) = 0 , (0, t) = e−t/ 4 , (π, t) = 0
 00
y + λy =  Hallar autovalores y autofunciones del homogéneo y precisar
2. a] Sea .
y 0 (−1) = y 0 (1) = 0 si hay para algún λ infinitas soluciones del no homogéneo.
tt − = 0 ,  ∈ [−1, 1], t ∈ R

b] Resolver: .
(, 0) = cos 2π , t (, 0) = 1 ;  (−1, t) =  (1, t) = 0

3. Resolver por separación de variables y dar interpretación física cuando se pueda:


¨  −  = 0 ,  ∈ (0, π), t > 0 ¨  −  = 0 ,  ∈ (0, π), t > 0
t  t 
a) (, 0) = 1 b) (, 0) = 0
(0, t) = 0, (π, t) = cos t (0, t) = 1,  (π, t) = 0

¨ t −  = A ,  ∈ (0, 1), t > 0 Resolverlo y determinar para qué relación entre
4. Sea (, 0) = B las constantes A, B, C, D hay solución estaciona-
 (0, t) = C,  (1, t) = D ria (interpretarlo físicamente).

t −  = F() ,  ∈ (−1, 1), t > 0



R1
5. Sea y sea Q(t) = (, t) d .
(, 0) = 0 ,  (−1, t) =  (1, t) = 0 −1

Calcular la variación en el tiempo de Q(t) y deducir cuándo es constante.


Resolver si: i) F() = sen π
2
, ii) F() = sen2 π
2
. ¿Tiene límite  cuando t → ∞ ?

6. Sea una varilla de aluminio ( k = 0.86 cm2 /seg) de 20 cm de longitud, con una temperatura
inicial uniforme de 25 grados. En el instante t = 0 el extremo  = 0 se enfría hasta 0 grados,
mientras que el extremo  = 20 se calienta hasta 60 grados, y ambos se mantienen después
a esas temperaturas. Escribir la distribución de temperaturas (, t) para todo t y evaluar
 en  = 5, 10 y 15 para t = 0, 5 y 30 utilizando tres y diez términos de la serie.

t −  = 0 ,  ∈ (0, 1), t > 0



7. Resolver y comprobar que  → −∞ .
(, 0) = 0 , (0, t)+ (0, t) = 1,  (1, t) = 0 t→∞

¨  − −2 = F() ,  ∈ (0, π), t > 0 a] Resolverlo en general, y para


t  
8. Sea (, 0) = ƒ () . F() = ƒ () = e− sen 2 .
(0, t) = (π, t) = 0 b] Demostrar que tiene solución única.

t − 2t = 0 ,  ∈ (0, 3), t > 0



9. Resolver y demostrar que tiene solución única.
(, 0) = 0 , (0, t) = 0,  (3, t) = t 2

10. Resolver por separación de variables:


¨ Δ = 0, r < 2 ¨ Δ +  = 0 , r < 1, π/ 2 < θ < 3π/ 2
3,  ∈ (−π/ 2, π/ 2) (1, θ) = sen 2θ,  acotada

a) b)
(2, θ) =
1,  ∈ (π/ 2, 3π/ 2)  r, π2 =  r, 3π =0
 
2

Δ = 9r , 1 < r < 2
¨
11. Resolver el problema plano .
(1, θ) = 2 sen2 θ , r (2, θ) = 0

Δ = π , r < 1, θ ∈ (0, π)

12. Resolver el problema plano y probar que ( 21 , π2 ) ≤ 0 .
(r, 0) = (r, π) = (1, θ) = 0

Δ = 0 , r < 1, 0 < θ < α Δ = 0 , r < 1


¨ ¨
13. Sean (Pα ) y (P) .
(1, θ) = sen kπθ
α
, (r, 0) = (r, α) = 0 (1, θ) = sen kπθ
2
Comparar para k = 1 y k = 2 las soluciones de (P) con las de (Pα ) si α → 2π .
Hallar cotas superiores e inferiores para todas las soluciones.

V
¨ tt − Δ = 0, (, y) ∈ (0, π)×(0, π), t ∈ R
14. Resolver por separación de variables (, y, 0) = sen3  sen y , t (, y, 0) = 0 .
(0, y, t) = (π, y, t) = 0 , (, 0, t) = (, π, t) = 0

Δ = 0 , r < 1

15. Resolver el problema para la ecuación de Laplace en el espacio .
r (1, θ) = cos3 θ

16. Un cubo homogéneo de lado π, inicialmente a temperatura constante T1 , se sumerge


en el tiempo 0 en un baño que se mantiene a temperatura T2 . Hallar la distribución de
temperaturas en cualquier tiempo t > 0 .

y 00 = ƒ ()
17. a) Hallar la solución de en términos de la función de Green, la función ƒ
y(1) = , y(2) = b
y las constantes  y b , por el camino de cálculo de la G para la ecuación de Laplace en el
plano (s) = 21 |s−| satisface  00 = δ(s−) para  fijo . b) Llegar al resultado con técnicas
 

del capítulo 2. c) Escribir la solución si ƒ () = 1 ,  = 0 , b = 1 .

sen θ, θ ∈ [0, π]

18. Sabiendo que (1, θ) = 0 , θ ∈ [π, 2π]
,
hallar el potencial  en el punto del plano de coordenadas polares r = 2 , θ = 0 .

19. Hallar la función de Green para la ecuación de Laplace:


i) en el semicírculo r < 1 , θ ∈ (0, π) ; ii) en el dominio r > 1 , θ ∈ (0, π2 ) .

20. Escribir, en coordenadas esféricas, la función de Green G para la ecuación de Laplace en


la esfera unidad y deducir la expresión,  en términos de G , F y ƒ , de la solución de:
Δ = F , r < 1
(P)
 = ƒ si r = 1
Hallar el valor de la solución de (P) en el origen en caso de que: i) F = ƒ = 1 , ii) F = z , ƒ = z 3 .

VI
problemas adicionales de EDII (r) 2011

problemas adicionales 4

tt − = 0 ,  ≥ 0, t ∈ R tt − = 0 ,  ∈ [0, 4], t ∈ R


 

sen π, 2≤≤3


n
sen π, 1≤≤2
 n 
1. Para los problemas: a] t (, 0) = b] (, 0) =
 0 en [0,1]∪[2,∞)  0 resto de [0,4]
(, 0) = (0, t) = 0 t (, 0) = (0, t) = (4, t) = 0
i) dibujar el dominio de influencia; ii) dibujar (, 1), (, 2) y (, 3); ii) dibujar (3, t), t ≥ 0.

1
2. Dibujar (, 2 ) , (, 1) , (, 2) , (, 3) y (1, t) , t ≥ 0 , y hallar (, 1) , para:
tt − = 0 , , t ∈ R

tt − = 0 ,  ≥ 0, t ∈ R tt − = sen π ,  ∈ [0, 1], t ∈ R
 
n
 sen π, 2≤≤3  (, 0) = sen π
(, 0) = 0 resto de R
  n
(, 0) = (1−), 0≤≤1
 n  0, ≥1  t (, 0) = sen π
π,−2≤≤−1
t (, 0) = 0sen t (, 0) = (0, t) = 0

resto de R (0, t) = (1, t) = 0

¨  − = 0 ,  ∈ [0, 1], t ∈ R
tt 
3. Sea (, 0) = t (, 0) = 0 . Hallar ( 12 , 12 ) y ( 21 , 32 ) .
(0, t) = 0 , (1, t) = sen t

¨ tt − = 0 ,  ∈ [0, 2], t ∈ R a] usando la  de los apuntes,


4. Sea (, 0) = t (, 0) = 0 Hallar (1, 3) : b] con una  que cumpla la ecuación,
(0, t) = (2, t) = t 2 c] por separación de variables.

¨ tt − = 0 ,  ≥ 0, t ∈ R [Ayuda: una buena (, t) sale de


a] Hallar (2, 3) . separar variables y tomar λ = −1 ].
5. Sea (, 0) = e− , t (, 0) = 0 . b] Hallar (, t) , , t ≥ 0 .
(0, t) = e−t c] Dibujar aproximadamente (, 3) .

tt −4 = F(, t) , , t ∈ R



1,  ∈ [1, 2], t ≥ 0 Calcular (−1, 1) y (1, 1) .

6. Sea , F(, t) = 0, en el resto .
(, 0) = t (, 0) = 0 Calcular y dibujar (, 1) .

¨ tt − = 0 ,  ≥ 0, t ∈ R ¿Se invierten las ondas al reflejarse en  = 0 ?


7. Sea (, 0) = ƒ (), t (, 0) = g() ¿Cómo son los dominios de influencia?
 (0, t) = 0 ¿Cuándo la solución es clásica?

8. Hallar la solución general de tt −e2t  −t = 0 , y la que cumple (, 0) = ƒ (), t (, 0) = 0 .
1−2|| , si ||≤1/ 2
n
Si ƒ () = , dibujar la solución para t = 1 y t = 2 .
0 , en el resto
¿Cuál es el dominio de influencia sobre la solución del valor inicial de ƒ en  = 0 ?
¿Cuál es el dominio de dependencia de (0, 1) de los valores de ƒ ?

¨
tt− c2 [ +yy +zz ] = 0 ¨ a] +y+z
9. Resolver (, y, z, 0) = ƒ (, y, z) , si ƒ (, y, z) = b] +y .
t (, y, z, 0) = 0 c] 

10. Vistos como problemas en 1, 2 y 3 dimensiones, hallar (0, t) , t ≥ 0 y (r, t) si se puede:


tt − Δ = 0

1−r 2 , r ≤ 1

con a) ƒ (r) = g(r) = r 2 , b) ƒ (r) = 0, g(r) = .
(r, 0) = ƒ (r) , t (r, 0) = g(r) 0 , r ≥1

2
¨
tt − rr + = 0, r ≥ 0


r r
11. Sea . Hallar (2, 3) .
(r, 0) = 6 , t (r, 0) = 5r 3

tt − = 0 ,  ≥ 0, t ∈ R tt −rr − 2


(
= 0 , r ≥ 0, t ∈ R
¨ r
r
12. Sean 6 2 y .
(, 0) = 0 , t (, 0) = 1+ 3 , (0, t) = 0
6r
(r, 0) = 0 , t (r, 0) = 1+r 3

a] Hallar (1, 4) y (1, 4) . b] Más en general, hallar (1, t) para t ≥ 0 .

2
(
tt − rr + = 0 , r ≥0


r r a] Hallar (1, 5) y (7, 5) . Hallar (0, t) .
13. Sea 2 .
(r, 0) = 4+r 2 ,  t (r, 0) = 0
b] Dibujar aproximadamente y simplificar (r, 5) .

VII

2
tt −rr = 0 , r ≥ 0, t ∈ R tt −rr − r r = 0 , r ≥ 0, t ∈ R

2r −r 2 , r ∈ [0, 2]
§ 
2−r , r ∈ [0, 2]
  §
14. Sean (r, 0) = 0 en el resto ≡ F(r) y (r, 0) = ≡ ƒ (r) .
 
 0 en el resto
t (r, 0) = (0, t) = 0 t (r, 0) = 0
a] Hallar (6, 3) , (2, 3) y (4, 3) . b] Dibujar y hallar la expresión de (r, 3) .
p
c] Hallar el valor máximo de (r, 3) 15 ≈ 3.873 .


t − −2 = 0 ,  ∈ R , t > 0



15. Resolver (en términos de funciones elementales) 2 :
(, 0) = e− /2 ,  acotada
a] con la F directamente, b] con un cambio  = ept eq  que lleve a la ecuación del calor.

16. Sea (E) t − −2 + = 0 . Simplificarla con un cambio de variable adecuado. Hallar la
2
solución de (E) que cumple (, 0) = e− y analizar su comportamiento cuando t → ∞ .

t +2t = 4t t t − = g()


  2
17. Resolver: a] , b] por las características y mediante la F .
(, 1) = ƒ () (, 1) = 0

t −2t = 0 ,  ∈ R, t > 0 t − = δ(),  ∈ R, t > 0


 
18. Sean a] y b] .
(, 0) = δ(),  acotada (, 0) = 0,  acotada
Hallar, sin que aparezcan integrales en el resultado, (, t) para a] y (0, t) para b].

t −  = 0 , , t > 0

19. Resolver:
(, 0) = ƒ (),  (0, t) = g(t),  acotada

tt −  = 0 ,  ≥ 0, t ≥ 0 [Ayuda:  = sen t cos  satisface la



20. Sea (P) .
(, 0) = t (, 0) = 0, (0, t) = sen t condición de contorno y la ecuación].
i) Hallar y describir (, t) para cada t > 0 fijo.
ii) Hallar la transformada seno ̂s de la solución  hallada en i).
Hallar ̂s resolviendo directamente (P) por transformadas seno.

21. Hallar la función de Green para la ecuación de Laplace en el semiplano {(, y) :  ∈ R, y > 0}
Δ = F(, y),  ∈ R, y > 0

y utilizarla para la hallar la solución de .
(, 0) = ƒ () ,  acotada
Resolver el mismo problema para F ≡ 0 con transformadas de Fourier.

Resolverlo con la F y haciendo  =  e−t .


tt − +2t + = 0 , , t ∈ R

22. a] Sea . sen π ,  ∈ [0, 1]

(, 0) = ƒ (), t (, 0) = 0 Si ƒ () = 0 , en el resto dibujar (, 3) .
tt − +2t + = 0 , 0 <  < 1, t ∈ R

b] Resolver .
(, 0) = sen π, t (, 0) = (0, t) = (1, t) = 0

VIII

También podría gustarte