P. 1
Introduccion Al Calculo de Variaciones

Introduccion Al Calculo de Variaciones

|Views: 19|Likes:
Publicado porlquihuata

More info:

Published by: lquihuata on Feb 16, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

07/03/2014

pdf

text

original

UNIVERSIDAD DE CHILE

facultad de ciencias fisicas y matematicas
departamento de ingenieria matematica
CALCULO DE VARIACIONES
Felipe Alvarez
falvarez@dim.uchile.cl
(T)
_
¸
¸
_
¸
¸
_
m´ın
T
_
0
L(x(t), ˙ x(t))dt,
x(0) = x
0
, x(T) = x
1
.
Marzo 2011
2
´
Indice general
1. Introducci´on 5
1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . . . . 5
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Definici´on de soluci´on ´optima . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Problemas variacionales sin soluci´on . . . . . . . . . . . . . . . . . . . . . . 8
2. El m´etodo directo del c´alculo de variaciones 11
2.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. La condici´on de crecimiento y compacidad . . . . . . . . . . . . . . . . . . . 11
2.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . . . . 13
2.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . . . . . 16
3. Ecuaciones de Euler-Lagrange: caso diferenciable 19
3.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . . . . 19
3.2. Resultados t´ecnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Conclusi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Regularidad de las soluciones ´optimas 23
4.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Demostraci´on del resultado de regularidad . . . . . . . . . . . . . . . . . . . 23
5. Ecuaciones de Euler-Lagrange: caso Lipschitz 27
5.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . . . . . 27
5.2. Ejemplo: din´amica de una part´ıcula . . . . . . . . . . . . . . . . . . . . . . 29
Bibliograf´ıa 31
3
4
´
INDICE GENERAL
Cap´ıtulo 1
Introducci´ on
Estos apuntes tienen como objetivo introducir los conceptos y m´etodos b´asicos del c´alcu-
lo de variaciones a trav´es del estudio de la siguiente clase particular de problemas variacio-
nales:
(T)
_
¸
¸
_
¸
¸
_
m´ın
T
_
0
L(x(t), ˙ x(t))dt
x(0) = x
0
, x(T) = x
1
,
donde L : R
N
R
N
→ R es una funci´on suficientemente regular. Estudiaremos tanto la
existencia y regularidad de las soluciones de (T) como las condiciones necesarias de primer
orden que estas soluciones deben satisfacer, con un ´enfasis especial en las herramientas del
an´alisis funcional que son ´ utiles para un tratamiento riguroso de la teor´ıa.
1.1. Funcionales y problemas variacionales
Diversos problemas en matem´aticas puras y aplicadas consisten en determinar una
funci´on que minimice alg´ un criterio, costo o energ´ıa, sujeto a ciertas restricciones. T´ıpica-
mente, en estos problemas el criterio a optimizar viene dado por una correspondencia que a
cada funci´on perteneciente a alguna clase o conjunto de funciones le asigna un ´ unico n´ umero
real, el cual tiene alguna interpretaci´on geom´etrica, f´ısica o econ´omica. Llamaremos funcio-
nal a toda correspondencia de este tipo y problema variacional al problema de optimizaci´on
asociado.
Para dar un contexto m´as preciso a lo anterior, denotemos por C
1
(a, b; R
N
) la clase de
todas las funciones x : [a, b] → R
N
que son continuamente diferenciables en el intervalo
[a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo
J : C
1
(a, b; R
N
) → R
x → J(x) =
b
_
a
L(x(t), ˙ x(t))dt,
5
6 CAP
´
ITULO 1. INTRODUCCI
´
ON
para alguna funci´on
L : R
N
R
N
→ R
(x, y) → L(x, y),
la que supondremos suficientemente regular (al menos continua).
1.2. Ejemplos
Ejemplo 1.2.1 (Camino m´as corto) Encontrar la curva plana m´as corta que une dos
puntos A = (x
0
, y
0
) y B = (x
1
, y
1
), i.e. encontrar la curva y = y(x) que minimice el
funcional
J(y) =
x
1
_
x
0
_
1 +y

(x)
2
dx
bajo la restricci´on
y(x
0
) = y
0
, y(x
1
) = y
1
.
Ejemplo 1.2.2 (Braquist´ocrona) Partiendo de un punto A = (x
0
, y
0
), una part´ıcula con
peso se desliza bajo la influencia de la gravedad sobre una curva que une A con otro punto
B = (x
1
, y
1
) tal que y
0
> y
1
. El tiempo que le toma a la part´ıcula recorrer este camino
depende de la curva recorrida y por lo tanto la correspondencia que a cada curva regular le
asocia el tiempo necesario para recorrerla es un funcional. La curva de tiempo m´ınimo se
conoce como la braquist´ocrona. Para modelar este problema, sea y ∈ C
1
(x
0
, x
1
) una funci´on
de modo tal que la trayectoria de la part´ıcula satisface y(t) = y(x(t)). Tenemos que la
rapidez de la part´ıcula satisface
v(t) =
ds
dt
=
ds
dx

dx
dt
=
_
1 +y
2
dx
dt
.
Por otra parte, suponiendo que la part´ıcula inicia su movimiento desde el reposo (v(0) = 0)
tenemos que por conservaci´on de la energ´ıa:
1
2
mv
2
+mgy = mgy
0
⇒ v =
_
2g(y
0
−y)
As´ı, al menos formalmente,
dt =
_
1 +y
2
_
2g(y
0
−y)
dx,
de modo que el tiempo de recorrido a minimizar est´a dado por
T =
x
1
_
x
0
_
1 +y
2
_
2g(y
0
−y)
dx.
sujeto a
y(x
0
) = y
0
, y(x
1
) = y
1
.
1.3. DEFINICI
´
ON DE SOLUCI
´
ON
´
OPTIMA 7
Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la opci´on, a
cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el consumo del
individuo en el instante t respectivamente. Suponemos adem´as que una funci´on f = f(x)
representa la producci´on de capital y una funci´on u = u(c), llamada funci´on de utilidad,
describe el beneficio instant´aneo del individuo ante un consumo dado por c. Luego, en un
horizonte [0, T], el individuo busca maximizar la utilidad esperada, esto es
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
m´ax
T
_
0
u(c(t))dt
dx
dt
(t) = f(x(t)) −c(t)
x(0) = x
0
(capital inicial)
x(T) = x
1
(capital final)
o equivalentemente
_
¸
¸
_
¸
¸
_
m´ın
T
_
0
−u(f(x(t)) − ˙ x(t))dt
x(0) = x
0
, x(T) = x
1
.
1.3. Definici´ on de soluci´on ´ optima
Nos concentraremos en problemas variacionales aut´onomos, es decir, problemas donde
la variable independiente, digamos t, no aparece expl´ıcitamente en el criterio a minimizar.
M´as precisamente, consideraremos un problema del tipo
(T)
_
¸
¸
_
¸
¸
_
m´ın
T
_
0
L(x(t), ˙ x(t))dt
x(0) = x
0
, x(T) = x
1
,
donde
L : R
N
R
N
→R
es una funci´on continua.
Para esta clase de problemas no siempre es posible asegurar la existencia de soluciones
en C
1
(0, T; R
N
). Trabajaremos en la clase AC(0, T; R
N
) de las funciones absolutamente
continuas definidas en el intervalo [0, T] y a valores en R
N
, es decir
AC(0, T; R
N
) = ¦x : [0, T] →R
N
[∃y ∈ L
1
(0, T; R
N
), x(t) = x
0
+
_
t
0
y(s)ds¦.
Dada x ∈ AC(0, T; R
N
), denotamos simplemente por ˙ x a la funci´on y ∈ L
1
(0, T; R
N
)
correspondiente. Evidentemente, C
1
(0, T; R
N
) AC(0, T; R
N
). Definamos
´ınf(T) =´ınf¦
_
T
0
L(x(t), ˙ x(t))dt[x ∈ AC(0, T; R
N
), x(0) = x
0
, x(T) = x
1
¦.
8 CAP
´
ITULO 1. INTRODUCCI
´
ON
Definici´on 1.3.1 Toda funci´on x ∈ AC(0, T; R
N
) tal que x(0) = x
0
y x(T) = x
1
se dice
que es factible para (T). Se dice que ¯ x ∈ AC(0, T; R
N
) es una soluci´on de (T) si junto con
ser factible satisface
T
_
0
L(¯ x(t),
˙
¯ x(t))dt =´ınf(T).
Si adem´as ¯ x ∈ C
1
(0, T; R
N
), diremos que ¯ x es una soluci´on regular de (T).
Se tiene que ´ınf(T) < +∞ y m´as a´ un, tomando la funci´on factible
ˆ x(t) = x
0
+
t
T
(x
1
−x
0
),
se deduce que
´ınf(T) ≤ T sup
x∈[x
0
,x
1
]
L(x, (x
1
−x
0
)/T),
y este supremo no s´olo es finito sino que adem´as se alcanza, de modo que se trata de un
m´aximo, en virtud de la continuidad de x → L(x, (x
1
−x
0
)/T).
Cuando ´ınf(T) ∈ R, sin condiciones adicionales sobre L, el problema (T) puede no tener
soluciones ´optimas. A continuaci´on veremos dos ejemplos en este sentido.
1.4. Problemas variacionales sin soluci´on
Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional
(T
1
)
_
¸
¸
_
¸
¸
_
m´ın
1
_
0
[
1
2
x(t)
2
+[ ˙ x(t)[]dt
x(0) = 0, x(1) = 1
Aqu´ı, N = 1 y
L(x, y) =
1
2
x
2
+[y[.
Notemos que para cada funci´on factible se tiene
1
_
0
˙ x(t)dt = x(1) −x(0) = 1,
y en consecuencia
1
_
0
[ ˙ x(t)[dt ≥ 1.
Por otra parte,
1
_
0
x(t)
2
dt ≥ 0 y m´as a´ un, dado que x es continua y x(1) = 1 > 0, necesaria-
mente
1
_
0
x(t)
2
dt > 0.
1.4. PROBLEMAS VARIACIONALES SIN SOLUCI
´
ON 9
En conclusi´on, para cada funci´on factible,
1
_
0
[
1
2
x(t)
2
+[ ˙ x(t)[]dt > 1, (1.1)
y por lo tanto ´ınf(T
1
) ≥ 1. Veremos que ´ınf(T
1
) = 1, lo que junto con (1.1) prueba que (T
1
)
no admite soluci´on. Con este fin, consideremos la sucesi´on x
n
∈ AC(0, 1; R) definida por
x
n
(t) =
_
_
_
0 si 0 ≤ t ≤ 1 −
1
n
,
n(t −1 +
1
n
) si 1 −
1
n
≤ t ≤ 1.
Tenemos que para todo n ≥ 1, x
n
(0) = 0 y x
n
(1) = 1. M´as a´ un,
1
_
0
L(x
n
(t), ˙ x
n
(t))dt =
1
_
1−1/n
1
2
n
2
(t −1 +
1
n
)
2
dt +
1
_
1−
1
n
ndt
=
n
2
6
(t −1 +
1
n
)
3
¸
¸
¸
¸
t=1
t=1−1/n
+ 1
=
1
6n
+ 1 → 1
En conclusi´on, ´ınf(T
1
) = 1 y este valor no es alcanzado.
El ejemplo 1.4.1 es un caso t´ıpico de un fen´omeno de concentraci´on: puntualmente la
sucesi´on minimizante converge
x
n
(t) −−→
n→∞
_
0 si 0 ≤ t < 1,
1 si t = 1,
pero el l´ımite no es continuo de modo que no pertenece a AC(0, 1). Finalmente, notemos
que L(x, ˙ x) =
1
2
x +[ ˙ x[ tiene un crecimiento lineal en ˙ x. Veremos que en cierto sentido, esta
es la raz´on por la cual (T
1
) no admite soluci´on.
Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacional dado por
(T
2
)
_
¸
¸
_
¸
¸
_
m´ın
1
_
0
[
1
2
x(t)
2
+ (1 − ˙ x(t)
2
)
2
]dt
x(0) = 0 = x(1).
Nuevamente N = 1, y tenemos
L(x, y) =
1
2
x
2
+ (1 −y
2
)
2
.
Observemos que en este caso L(x, y) crece superlinealmente en y, m´as precisamente, y →
L(x, y) se comporta como como y
4
cuando [y[ → +∞.
10 CAP
´
ITULO 1. INTRODUCCI
´
ON
Obviamente, ´ınf(T
2
) ≥ 0. Dado n ≥ 1, consideremos la funci´on definida por
x
n
(t) = (−1)
k
_
1
2n
−[t −
(2k + 1)
2n
[
_
si [t −
2k + 1
2n
[ ≤
1
2n
, 0 ≤ k ≤ n −1.
Notemos que x
n
(0) = x
n
(1) = 0, ˙ x
n
(t) = ±1 y [x
n
(t)[ ≤
1
2n
. En particular, x
n
(t) → 0
uniformemente en [0, 1]. Tenemos que
1
_
0
[
1
2
x
n
(t)
2
+ (1 − ˙ x
n
(t)
2
)
2
. ¸¸ .
0
]dt =
1
_
0
1
2
x
n
(t)
2
dt
= n
_ 1
2n
0
t
2
dt =
n
3
t
3
[
t=
1
2n
t=0
=
n
3

1
8n
3
=
1
24n
2
→ 0.
Por lo tanto, ´ınf(T
2
) = 0. Si este valor fuese alcanzado por una funci´on ¯ x en AC(0, 1)
entonces se tendr´ıa
0 =
1
_
0
[
1
2
¯ x(t)
2
+ (1 −
˙
¯ x(t)
2
)
2
]dt ⇒ ¯ x(t) = 0 c.t.p. t ∈ [0, 1]

[
˙
¯ x(t)[ = 1 c.t.p. t ∈ [0, 1]
lo que es imposible. En consecuencia, (T
2
) no admite soluci´on.
El ejemplo 1.4.2 ilustra un fen´omeno de oscilaci´on. Observemos que la funci´on L(x, y)
no es convexa en y; de hecho, y → L(x, y) tiene dos m´ınimos locales estrictos en y = −1 e
y = 1. Intuitivamente, la sucesi´on minimizante (ver la definici´on 2.1.1) es tal que ˙ x
n
oscila
entre ambos valores m´ınimos, lo que explicar´ıa la no existencia de soluciones.
En el siguiente cap´ıtulo veremos que para asegurar la existencia de soluciones, junto con
cierta regularidad de L(x, y), bastar´a con suponer sobre y → L(x, y) simult´aneamente:
Una condici´on de crecimiento.
Una condici´on de convexidad.
Cap´ıtulo 2
El m´etodo directo del c´alculo de
variaciones
2.1. Sucesiones minimizantes
Definici´on 2.1.1 Una sucesi´on (x
n
) ⊂ AC(0, T; R
N
) se dice sucesi´on minimizante para
(T) si x
n
(0) = x
0
, x
n
(T) = x
1
y se tiene
l´ım
n→+∞
T
_
0
L(x
n
(t), ˙ x
n
(t))dt =´ınf(T).
Notemos que siempre existe una sucesi´on minimizante. Para establecer la existencia de
soluciones consideraremos la siguiente estrategia: tomar una sucesi´on minimizante y probar
que, pasando a una subsucesi´on, converge a una soluci´on.
Para poder extraer una subsucesi´on convergente de una sucesi´on minimizante, necesita-
mos una propiedad de compacidad.
2.2. La condici´ on de crecimiento y compacidad
Dada una constante p ∈ (1, +∞), supondremos que L(x, y) satisface la siguiente condi-
ci´on de crecimiento:
(c
p
) Existen constantes a ∈ R y b > 0 tales que
∀(x, y) ∈ R
N
R
N
, L(x, y) ≥ a +b|y|
p
.
Dado que p > 1, se dice que el crecimiento de y → L(x, y) es superlineal. El caso p = +∞
puede permitirse, significando que existe una constante C > 0 tal que |y| ≤ C, lo que se
interpreta como una restricci´on sobre ˙ x impl´ıcita en la definici´on de L. Sin embargo, para
simplificar la exposici´on nos restringiremos al caso p ∈ (1, +∞).
11
12 CAP
´
ITULO 2. EL M
´
ETODO DIRECTO DEL C
´
ALCULO DE VARIACIONES
Notemos que la condici´on de crecimiento (c
p
) permite asegurar que ´ınf(T) ∈ R pues de
´esta se deduce que
´ınf(T) ≥ aT > −∞,
y ya sab´ıamos que ´ınf(T) < +∞.
Lema 2.2.1 Bajo (c
p
), si (x
n
) es una sucesi´on minimizante para (T) entonces ( ˙ x
n
) es
acotada en L
p
(0, T; R
N
), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N, | ˙ x
n
|
L
p ≤ C.
Demostraci´on. Sin p´erdida de generalidad podemos suponer que
∀n ≥ 1,
T
_
0
L(x
n
(t), ˙ x
n
(t))dt ≤´ınf(T) + 1.
Por (c
p
), aT +b
_
T
0
| ˙ x
n
(t)|
p
dt ≤´ınf(T) + 1. As´ı
| ˙ x
n
|
p
L
p

´ınf(T) + 1 −aT
b
=: K
es decir | ˙ x
n
|
L
p ≤ K
1/p
.
Proposici´on 2.2.1 Supongamos que se tiene (c
p
). Si (x
n
) es una sucesi´on minimizante
para (T) entonces existe una funci´on ¯ x ∈ AC(0, T; R
N
), factible para (T), y una subsucesi´on
(x
n
k
) tales que:
(i) x
n
k
→ ¯ x uniformemente en [0, T].
(ii) ˙ x
n
k

˙
¯ x d´ebilmente en L
p
(0, T; R
N
).
Demostraci´on. Dividimos la demostraci´on en dos etapas.
Etapa 1. Definici´on de ¯ x. Como p ∈ (1, +∞), L
p
(0, T; R
N
) resulta ser una espacio de
Banach reflexivo y por lo tanto la bola unitaria es d´ebilmente compacta. Luego, por el
lema 2.2.1, existe una subsucesi´on ˙ x
n
k
tal que ˙ x
n
k
¯ y cuando k → +∞ para alg´ un
¯ y ∈ L
p
(0, T; R
N
). Esto equivale a
∀ϕ ∈ L
q
(0, T; R
N
), ¸ ˙ x
k
, ϕ¸
L
p
,L
q −−−→
k→+∞
¸¯ y, ϕ¸
L
p
,L
q en R,
donde q ∈ (1, +∞) satisface
1
p
+
1
q
= 1.
M´as expl´ıcitamente, para todo ϕ ∈ L
q
(0, T; R
N
) se tiene
T
_
0
˙ x
n
k
(t)ϕ(t)dt →
T
_
0
¯ y(t)ϕ(t)dt.
Es natural definir ¯ x ∈ AC(0, T; R
N
) por medio de
¯ x(t) = x
0
+
t
_
0
¯ y(s)ds, (2.1)
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13
de modo tal que ¯ y =
˙
¯ x c.t.p. en [0, T].
Etapa 2. Convergencia uniforme. Comencemos por verificar la convergencia puntual de
(x
n
k
) hacia la funci´on ¯ x definida por (2.1). Dado t ∈ [0, T] fijo, tenemos que
x
n
k
(t) = x
0
+
t
_
0
˙ x
n
k
(s)ds
= x
0
+
T
_
0
˙ x
n
k
(s)1
[0,t]
(s)ds
= x
0
+¸ ˙ x
n
k
, 1
[0,t]
¸
L
p
,L
q ,
lo que junto con la convergencia d´ebil de ( ˙ x
n
k
) a ¯ y asegura que
x
n
k
(t) → x
0
+¸¯ y, 1
[0,t]
¸
L
p
,L
q
= x
0
+
t
_
0
¯ y(s)ds
= ¯ x(t).
Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probar que
(x
n
) es equicontinua
1
. Sean t
1
, t
2
∈ [0, T] con t
1
> t
2
. Escribamos
x
n
(t
2
) −x
n
(t
1
) =
t
2
_
t
1
˙ x
n
(s)ds =
T
_
0
1
[t
1
,t
2
]
(s) ˙ x
n
(s)ds.
Por la desigualdad de H¨older y el lema 2.2.1
|x
n
(t
2
) −x
n
(t
1
)| ≤ |1
[t
1
,t
2
]
|
L
q | ˙ x
n
|
L
p ≤ (t
2
−t
1
)
1/q
C,
lo que prueba la equicontinuidad de la familia (x
n
).
2.3. Primer teorema de existencia: caso separable
En esta secci´on suponemos que
L(x, y) = g(x) +f(y), x, y ∈ R
N
,
donde
(a) f y g son continuas.
(b) L satisface (c
p
).
(c) f es convexa.
Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, es decir
´ınf
x∈R
N
g(x) > −∞, y que f satisface (c
p
).
1
El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la convergencia
simple o puntual implica la uniforme.
14 CAP
´
ITULO 2. EL M
´
ETODO DIRECTO DEL C
´
ALCULO DE VARIACIONES
Teorema 2.3.1 Bajo las condiciones anteriores, (T) admite al menos una soluci´on.
Demostraci´on. Sea (x
n
) una sucesi´on minimizante para (T). Por la proposici´on 2.2.1, es
posible extraer una subsucesi´on (x
n
k
) y encontrar ¯ x ∈ AC(0, T; R
N
) tales que ¯ x(0) = x
0
,
¯ x(T) = x
1
y
x
n
k
→ ¯ x uniformemente en [0, T],
˙ x
n
k

˙
¯ x d´ebilmente en L
p
(0, T; R
N
).
Queremos probar que
T
_
0
L(¯ x(t),
˙
¯ x(t))dt =
T
_
0
g(¯ x(t))dt +
T
_
0
f(
˙
¯ x(t))dt =´ınf(T).
Por la definici´on de sucesi´on minimizante, sabemos que
T
_
0
g(x
n
k
(t))dt +
T
_
0
f( ˙ x
n
k
(t))dt =
T
_
0
L(x
n
k
(t), ˙ x
n
k
(t))dt →´ınf(T).
De la convergencia uniforme de (x
n
k
) y la continuidad de g deducimos que se tiene
l´ım
k→∞
T
_
0
g(x
n
k
(t))dt =
T
_
0
g(¯ x(t))dt.
Para estudiar la convergencia del segundo t´ermino, definamos
F(y) =
T
_
0
f(y(t))dt, y ∈ L
p
(0, T; R
N
). (2.2)
Notemos que por (c
p
) necesariamente F(y) > −∞para todo y ∈ L
p
(0, T; R
N
); sin embargo,
podr´ıa tenerse F(y) = +∞ para alg´ un y ∈ L
p
(0, T; R
N
) pues no hemos supuesto ning´ un
tipo de comportamiento “por arriba”del integrando f(y).
Proposici´on 2.3.1 Si f : R
N
→ R es continua y acotada inferiormente (´ınf f > −∞)
entonces la funci´on F : L
p
(0, T; R
N
) → R ∪ ¦+∞¦ definida por (2.2) es semicontinua
inferiormente, es decir, para toda sucesi´on y
n
→ y en L
p
(0, T; R
N
) se tiene
F(y) ≤ l´ıminf
n→∞
F(y
n
).
Posterguemos por un momento la demostraci´on de la proposici´on 2.3.1. Notemos que
no podemos aplicar directamente este resultado a nuestro caso pues s´olo tenemos ˙ x
n
k

˙
¯ x
d´ebilmente en L
p
(0, T; R
N
). Sin embargo, de la convexidad de f se deduce que F es una
funci´on convexa. Recordando que en un espacio de Banach reflexivo, las funciones convexas
y semicontinuas inferiormente para la topolog´ıa fuerte tambi´en lo son para la topolog´ıa d´ebil,
deducimos que F es semicontinua inferiormente para la topolog´ıa d´ebil en L
p
(0, T; R
N
). Por
lo tanto,
F(
˙
¯ x) ≤ l´ıminf
k→∞
F( ˙ x
n
k
),
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15
y en consecuencia
T
_
0
g(¯ x(t))dt +
T
_
0
f(
˙
¯ x(t))dt ≤´ınf(T).
Dado que ¯ x es factible para (T), la otra desigualdad siempre se tiene, y entonces ¯ x es
soluci´on de (T).
Demostraci´on de la proposici´on 2.3.1. Recordemos el siguiente resultado fundamental
de la teor´ıa de la medida:
Lema 2.3.1 (Fatou) Sea f
n
: [0, T] →R una sucesi´on de funciones medibles tal que f
n
≥ 0
para todo n ≥ 0. Entonces
l´ıminf
n→∞
T
_
0
f
n
(t)dt ≥
T
_
0
l´ıminf
n→∞
f
n
(t)dt.
El lema de Fatou es v´alido si (f
n
) es acotada inferiormente de manera uniforme, i.e. ∃α ∈ R,
∀n ≥ 0, f
n
≥ −α, pues basta aplicar el resultado anterior a
¯
f
n
= f
n
+α.
Para probar la proposici´on 2.3.1, razonemos por contradicci´on. Supongamos que existe una
sucesi´on (y
n
) ⊆ L
p
(0, T; R
N
) que converge fuertemente a un y ∈ L
p
(0, T; R
N
) y que se tiene
l´ıminf
n→∞
F(y
n
) < F(y). (2.3)
Podemos extraer una subsucesi´on (y
n
k
) tal que
l´ım
k→∞
F(y
n
k
) = l´ıminf
n→∞
F(y
n
).
Dado que y
n
→ y en L
p
(0, T; R
N
), podemos extraer a su vez una nueva subsucesi´on (y
n
k
j
)
tal que y
n
k
j
(t) → y(t) para c.t.p. t ∈ [0, T]. Sea f
j
(t) = f(y
n
k
j
(t)). Como ´ınf f > −∞, (f
j
)
es acotada inferiormente. Adem´as, f
j
(t) → f(y(t)) c.t.p. en [0, T] en virtud de la continuidad
de f. Luego
F(y) =
T
_
0
f(y(t))dt =
T
_
0
l´ım
j→∞
f
j
(t)dt ≤ l´ıminf
j→∞
T
_
0
f
j
(t)dt = l´ıminf
j→∞
F(y
n
k
j
)
= l´ım
k→∞
F(y
n
k
)
= l´ıminf
n→∞
F(y
n
),
donde la desigualdad se tiene por el lema de Fatou, contradiciendo as´ı (2.3).
16 CAP
´
ITULO 2. EL M
´
ETODO DIRECTO DEL C
´
ALCULO DE VARIACIONES
2.4. Segundo teorema de existencia: caso regular
Teorema 2.4.1 Supongamos que
(a) L ∈ C(R
N
R
N
; R) y
∂L
∂y
i
∈ C(R
N
R
N
; R).
(b) L satisface (c
p
).
(c) y → L(x, y) es convexa.
Entonces (T) admite al menos una soluci´on.
Demostraci´on. Por la proposici´on 2.2.1, sabemos que existe una sucesi´on minimizante
(x
n
) para (T) y una funci´on ¯ x factible para (T) tales que
(i) l´ım
n→∞
T
_
0
L(x
n
, ˙ x) =´ınf(T).
(ii) ∃C ≥ 0 tal que ∀n ∈ N, | ˙ x
n
|
L
p ≤ C.
(iii) x
n
→ ¯ x uniformemente en [0, T]
(iv) ˙ x
n

˙
¯ x d´ebilmente en L
p
(0, T; R
N
)
Recordemos el siguiente resultado de la teor´ıa de la medida.
Teorema 2.4.2 (Lusin) Sea f ∈ L
1
(0, T; R
N
). Entonces, ∀δ > 0, ∃/ ⊆ [0, T] compacto
tal que:
(1) L
1
([0, T] ¸ /) ≤ δ, donde L
1
es la medida de Lebesgue en R.
(2) f es continua en /.
Sin p´erdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reemplazar
L(x, y) por L(x, y) −a donde a es la constante que aparece en (c
p
)). Supongamos que
T
_
0
L(¯ x,
˙
¯ x)dt < +∞.
Luego,
µ(A) =
_
A
L(¯ x,
˙
¯ x)dt
es una medida positiva y finita sobre los borelianos que resulta ser absolutamente continua
con respecto a L
1
. Por el teorema de Lusin, dado ε > 0 existe un compacto / ⊆ [0, T] tal
que ¯ x y
˙
¯ x son continuas en / y adem´as
_
K
L(¯ x,
˙
¯ x)dt ≥
T
_
0
L(¯ x,
˙
¯ x)dt −ε.
2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17
(en el caso
_
K
L(¯ x,
˙
¯ x)dt = +∞, para cada M > 0 podemos escoger / de modo tal que
_
K
L(¯ x,
˙
¯ x)dt ≥ M).
Por convexidad de y → L(x, y), tenemos que
_
K
L(x
n
, ˙ x
n
)dt ≥
_
K
[L(x
n
,
˙
¯ x) +
∂L
∂y
(x
n
,
˙
¯ x)( ˙ x
n

˙
¯ x)]dt
Luego
_
K
L(x
n
, ˙ x
n
)dt ≥
_
K
[L(x
n
,
˙
¯ x) +
∂L
∂y
(¯ x,
˙
¯ x)( ˙ x
n

˙
¯ x) + (
∂L
∂y
(x
n
,
˙
¯ x) −
∂L
∂y
(¯ x,
˙
¯ x))( ˙ x
n

˙
¯ x)]dt
Estudiemos la convergencia de cada uno de estos t´erminos. Como x
n
→ ¯ x uniformemente y
L es continuo, tenemos que
l´ım
n→∞
_
K
L(x
n
,
˙
¯ x) =
_
K
L(¯ x,
˙
¯ x).
Por otra parte, la convergencia d´ebil ˙ x
n

˙
¯ x junto con la continuidad de
∂L
∂y
y la de ¯ x y
˙
¯ x
en / permiten asegurar que
l´ım
n→∞
_
K
∂L
∂y
(¯ x,
˙
¯ x)( ˙ x
n

˙
¯ x) = 0.
Finalmente, de la convergencia uniforme de x
n
→ ¯ x junto con el acotamiento uniforme de
las normas L
p
de ˙ x
n
y
˙
¯ x, y la continuidad de
∂L
∂y
, se deduce que
l´ım
n→∞
_
K
(
∂L
∂y
(x
n
,
˙
¯ x) −
∂L
∂y
(¯ x,
˙
¯ x))( ˙ x
n

˙
¯ x) = 0.
Luego
´ınf(T) = l´ım
n→∞
T
_
0
L(x
n
, ˙ x
n
)dt ≥ l´ıminf
n→∞
_
K
L(x
n
, ˙ x
n
)dt ≥
_
K
L(¯ x,
˙
¯ x)dt

T
_
0
L(¯ x,
˙
¯ x) −ε.
Como ε > 0 es arbitrario, se deduce el resultado.
18 CAP
´
ITULO 2. EL M
´
ETODO DIRECTO DEL C
´
ALCULO DE VARIACIONES
Cap´ıtulo 3
Ecuaciones de Euler-Lagrange:
caso diferenciable
3.1. Condiciones necesarias de primer orden
Una vez demostrada la existencia de una soluci´on, nos interesa poder caracterizarla
mediante una ecuaci´on, ya sea con el fin de obtener un m´etodo para calcularla o bien
para deducir m´as propiedades sobre la soluci´on a partir de la ecuaci´on. El objetivo de este
cap´ıtulo es probar el siguiente resultado:
Teorema 3.1.1 Supongamos que L ∈ C
1
(R
N
R
N
; R). Si ¯ x ∈ C
1
(0, T; R
N
) es una soluci´on
regular de (T) entonces
∂L
∂y
(¯ x(t),
˙
¯ x(t)) es diferenciable y m´as a´ un
d
dt
∂L
∂y
(¯ x(t),
˙
¯ x(t)) =
∂L
∂x
(¯ x(t),
˙
¯ x(t)), t ∈ [0, T]. (3.1)
Observemos que (3.1) es una ecuaci´on diferencial de segundo orden para ¯ x, la cual se
conoce como la ecuaci´on de Euler-Lagrange de (T).
Para establecer este resultado, la idea es “perturbar” la soluci´on ¯ x. Consideremos una
funci´on h ∈ C
1
(0, T, R
N
) tal que
h(0) = h(T) = 0.
Definamos
Φ(λ) = J(¯ x +λh), λ ∈ R.
donde
J(x) =
T
_
0
L(x(t), ˙ x(t))dt.
Observemos que la funci´on
x
λ
(t) = ¯ x(t) +λh(t)
19
20 CAP
´
ITULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE
es factible para el problema (T) pues x
λ
∈ C
1
(0, T; R
N
), x
λ
(0) = ¯ x(0) = 0 y x
λ
(T) =
¯ x(T) = x
1
. De este modo, por optimalidad de ¯ x para (T), deducimos que
∀λ ∈ R, Φ(0) ≤ Φ(λ),
de modo que 0 es un m´ınimo de Φ. Si Φ es diferenciable entonces debe satisfacerse la
condici´on necesaria de optimalidad
Φ

(0) = 0.
Como L, ¯ x y h son de clase C
1
, tenemos que
Φ

(0) =
d

J(¯ x +λh)[
λ=0
=
d

T
_
0
L(x
λ
(t), ˙ x
λ
(t))dt[
λ=0
=
T
_
0
d

[L(¯ x(t) +λh(t),
˙
¯ x(t) +λ
˙
h(t))][
λ=0
dt
=
T
_
0
[
∂L
∂x
(¯ x(t),
˙
¯ x(t))h(t) +
∂L
∂y
(¯ x(t),
˙
¯ x(t))
˙
h(t)]dt.
Luego, para todo h ∈ C
1
(0, T; R
N
) tal que h(0) = h(T) = 0 se tiene
T
_
0
[
∂L
∂x
(¯ x(t),
˙
¯ x(t))h(t) +
∂L
∂y
(¯ x(t),
˙
¯ x(t))
˙
h(t)]dt = 0 (3.2)
Para deducir de aqu´ı la ecuaci´on de Euler-Lagrange (3.1), basta con justificar una inte-
graci´on por partes m´as un argumento de localizaci´on. Con este fin, necesitamos algunos
resultados t´ecnicos.
3.2. Resultados t´ecnicos
Lema 3.2.1 Sea c ∈ C(a, b) tal que
b
_
a
c(t)h(t)dt = 0
para toda funci´on h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b].
Demostraci´on. Dado n ≥ 1, definamos la funci´on
ϕ
n
(t) =
_
_
_
n(t −a) si a ≤ t ≤ a + 1/n,
1 si a + 1/n ≤ t ≤ b −1/n,
n(b −t) si b −1/n ≤ t ≤ b.
Tomando h
n
= ϕ
n
c se tiene h
n
∈ C(a, b) y h
n
(a) = h
n
(b) = 0. Luego
∀n ≥ 0,
b
_
a
c(t)h
n
(t)dt = 0
3.2. RESULTADOS T
´
ECNICOS 21
Por ota parte, ch
n
= ϕ
n
c
2
¸ c
2
y, por el teorema de la convergencia dominada, se obtiene
0 = l´ım
n→∞
b
_
a
c(t)h
n
(t)dt =
b
_
a
c
2
(t)dt.
Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b].
Lema 3.2.2 Sea c ∈ C(a, b) tal que
b
_
a
c(t)
˙
h(t)dt = 0
para toda funci´on h ∈ C
1
(a, b) con h(a) = h(b) = 0. Entonces, existe una constante c ∈ R
tal que c ≡ c en [a, b].
Demostraci´on. Sea
c =
1
b −a
b
_
a
c(t)dt
y consideremos
h(t) =
t
_
a
[c(ξ) −c]dξ,
funci´on que satisface h(a) = h(b) = 0 y adem´as h ∈ C
1
(a, b). En consecuencia
0 =
b
_
a
c(t)
˙
h(t)dt =
b
_
a
c(t)[c(t) −c]dt.
Como
b
_
a
¯ c[c(t) −c]dt = c(b −a)c −c
2
(b −a) = 0,
deducimos que
b
_
a
[c(t) − ¯ c]
2
dt = 0.
Luego, c(t) = ¯ c c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ c en
[a, b].
Proposici´on 3.2.1 Sean c, d ∈ C(a, b) tales que
b
_
a
[c(t)h(t)dt +d(t)
˙
h(t)]dt = 0
para todo h ∈ C
1
(a, b) con h(a) = h(b) = 0. Entonces d ∈ C
1
(a, b) y m´as a´ un
˙
d = c.
22 CAP
´
ITULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE
Demostraci´on. Aplicaremos integraci´on por partes. Sea
A(t) =
t
_
a
c(ξ)dξ.
Entonces, para todo h ∈ C
1
(a, b) con h(a) = h(b) = 0 se obtiene
b
_
a
c(t)h(t)dt = A(t)h(t)[
b
a

b
_
a
A(t)
˙
h(t)dt = −
b
_
a
A(t)
˙
h(t)dt,
y en consecuencia
b
_
a
[−A(t) +d(t)]
˙
h(t)dt = 0.
Por el lema 3.2.2, existe c ∈ R tal que
d(t) = A(t) + ¯ c,
y en particular
˙
d(t) =
˙
A(t) = c(t),
lo que prueba el resultado.
3.3. Conclusi´ on
Aplicando la proposici´on 3.2.1 a (3.2) se deduce la conclusi´on del teorema 3.1.1.
Notemos que tal como han sido expuestas, existe una brecha entre la teor´ıa de existencia
y la de condiciones necesarias. La primera s´olo proporciona soluciones ¯ x ∈ AC(0, T; R
N
), de
modo tal que s´olo podemos asegurar
˙
¯ x ∈ L
1
(0, T; R
N
). En realidad, se tiene un poco m´as:
˙
¯ x ∈ L
1
(0, T; R
N
) con p > 1 asociado a la condici´on de crecimiento (c
p
). Por otra parte,
para deducir las ecuaciones de Euler-Lagrange, asumimos que ¯ x ∈ C
1
(0, T; R
N
), de modo
tal que no podemos aplicar el ´ ultimo teorema a las soluciones que se obtienen a partir del
m´etodo directo.
Para cerrar esta brecha, es necesario desarrollar una tercera teor´ıa concerniente a la
regularidad de las soluciones de (T). Ese es el objetivo del siguiente cap´ıtulo.
Cap´ıtulo 4
Regularidad de las soluciones
´optimas
4.1. Regularidad de tipo Lipschitz
Con el fin de cerrar la brecha entre la teor´ıa de existencia v´ıa el m´etodo directo y la de
condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado:
Teorema 4.1.1 Supongamos que L ∈ C
1
(R
N
R
N
; R) y satisface (c
p
) para alg´ un p > 1.
Entonces toda soluci´ on ¯ x de (T) es Lipschitz, es decir, existe una constante M
0
≥ 0 tal que
|
˙
¯ x(t)| ≤ M
0
c.t.p. t ∈ [a, b].
La idea de la demostraci´on es la siguiente: tomemos m < M dos constantes y definamos
los conjuntos

m
= ¦t ∈ [0, T] [ |
˙
¯ x(t)| ≤ m¦
L
M
= ¦t ∈ [0, T] [ |
˙
¯ x(t)| ≥ M¦.
Intuitivamente, en
m
la trayectoria ¯ x(t) se mueve “lentamente”mientras que en L
M
lo hace
m´as r´apido. La idea es construir una trayectoria x
M
(t) que se mueva m´as r´apido que ¯ x(t)
en
m
y m´as lento que ¯ x(t) en L
M
, y que m´as a´ un
T
_
0
L(x
M
(t), ˙ x
M
(t))dt <
T
_
0
L(¯ x(t),
˙
¯ x(t))dt
para M suficientemente grande, siempre que L
1
(L
M
) > 0, donde L
1
es la medida de Lebes-
gue en R. Esta ´ ultima desigualdad contradice la optimalidad de ¯ x, por lo que necesariamente
se tendr´a L
1
(L
M
) = 0 para todo M ≥ M
0
a partir de cierto M
0
, lo que prueba el car´acter
Lipschitz de ¯ x.
4.2. Demostraci´ on del resultado de regularidad
Procederemos por etapas. Para simplificar, supondremos sin p´erdida de generalidad que
la condici´on de crecimiento (c
p
) se tiene con a = 0 y b = 1.
23
24 CAP
´
ITULO 4. REGULARIDAD DE LAS SOLUCIONES
´
OPTIMAS
Etapa 1. Escoger un valor para m.
Dado m > 0, tenemos que
m´ın(T) =
T
_
0
L(¯ x,
˙
¯ x)dt =
_
m
L(¯ x,
˙
¯ x)dt +
_
[0,T]\m
L(¯ x,
˙
¯ x)dt

_
[0,T]\m
|
˙
¯ x|
p
dt ≥ L
1
([0, T] ¸
m
)m
p
= (T −L
1
(
m
))m
p
.
Luego
L
1
(
m
) ≥ T −
m´ın(T)
m
p
.
Tomando m suficientemente grande, podemos suponer que
L
1
(
m
) ≥
T
2
. (4.1)
Etapa 2. Construcci´on de una reparametrizaci´on temporal.
Sea M > m, donde m es tal que se tiene (4.1). Definamos
σ
M
: [0, T] → [0, T]
tal que σ
M
(0) = 0 y adem´as

M
dt
(t) = |
˙
¯ x(t)| en L
M
,

M
dt
(t) = 1 en [0, T] ¸ (L
M

m
),

M
dt
(t) = r
M
en
m
,
donde r
M
> 0 se ajusta de modo tal que σ
M
(T) = T. M´as precisamente
T = σ
M
(T) = 0 +
T
_
0

M
dt
(t)dt
=
_
L
M
|
˙
¯ x(t)|dt +
_
[0,T]\(L
M
∪m)
dt +r
M
_
m
dt.
Como T =
T
_
0
1dt, deducimos que
_
L
M
(|
˙
¯ x(t)| −1)dt +
_
m
(r
M
−1)dt = 0,
4.2. DEMOSTRACI
´
ON DEL RESULTADO DE REGULARIDAD 25
es decir
_
L
M
(|
˙
¯ x(t)| −1)dt = (1 −r
M
)L
1
(
m
).
Podemos suponer que M > 1 y, como |
˙
¯ x(t)| ≥ M en L
M
tenemos que necesariamente,
r
M
< 1
Por otra parte, si M ¸ +∞entonces
_
L
M
(|
˙
¯ x(t)|−1)dt ¸ 0 (de otra forma,
˙
¯ x / ∈ L
1
(0, T; R
N
)).
Luego, tomando M > m suficientemente grande podemos suponer que
1
2
< r
M
< 1.
Etapa 3. Definici´on de x
M
y consecuencias.
Definamos
x
M
(s) = ¯ x(σ
−1
M
(s)), s ∈ [0, T].
Como ¯ x es ´optimo, sabemos que
T
_
0
L(x
M
, ˙ x
M
)ds ≥
T
_
0
L(¯ x,
˙
¯ x)dt. (4.2)
Ahora bien
dx
M
ds
(s) =
d¯ x
dt

−1
M
(s))

−1
M
ds
(s).
Sea el cambio de variables
σ
M
(t) = s,
de modo tal que

−1
M
ds
(s) =
1

M
dt
(t)
.
As´ı
T
_
0
L(x
M
, ˙ x
M
)ds =
T
_
0
L(x
M
(s),
d¯ x
dt

−1
M
(s))/

M
dt

−1
M
(s)))ds
=
T
_
0
L(¯ x(t),
d¯ x
dt
(t)/

M
dt
(t))

M
dt
(t)dt
=
_
m
L(¯ x,
1
r
M
˙
¯ x)r
M
dt +
_
L
M
L(¯ x,
˙
¯ x
|
˙
¯ x|
)|
˙
¯ x|dt +
_
[0,T]\(L
M
∪m)
L(¯ x,
˙
¯ x)dt.
26 CAP
´
ITULO 4. REGULARIDAD DE LAS SOLUCIONES
´
OPTIMAS
Usando (4.2), deducimos que
_
m
[L(¯ x,
1
r
M
˙
¯ x)r
M
−L(¯ x,
˙
¯ x)]dt +
_
L
M
[L(¯ x,
˙
¯ x
|
˙
¯ x|
)|
˙
¯ x| −L(¯ x,
˙
¯ x)]dt ≥ 0.
Como ¯ x es acotada (por ser continua en [0, T]) y |
˙
¯ x

˙
¯ x
| = 1, entonces L(¯ x,
˙
¯ x

˙
¯ x
) es acotada
superiormente (pues L es continua), lo que junto con la condici´on de crecimiento L(x, y) ≥
|y|
p
nos da
_
m
[L(¯ x,
1
r
M
˙
¯ x)r
M
−L(¯ x,
˙
¯ x)]dt +
_
L
M
[C|
˙
¯ x| −|
˙
¯ x|
p
]dt ≥ 0
para alguna constante C > 0. Por otra parte, como L es de clase C
1
tenemos que es local-
mente Lipschitz, y en particular ∀R > 0, ∃K
R
, ∀(x, y) ∈ R
N
R
N
, m´ax¦|x|, |y|, |y

|¦ ≤
R ⇒ [L(x, y)−L(x, y

)[ ≤ K
R
|y−y

|. Luego, como |
˙
¯ x(t)| ≤ m en
m
, se tiene que tomando
x = ¯ x(t) e y =
˙
¯ x(t) con t ∈
m
entonces
L(x,
1
r
M
y)r
M
−L(x, y) ≤ L(x,
1
r
M
y) −L(x, y) ≤
K
R
r
M
(1 −r
M
)|y|,

r
M
< 1
para R ≥ m´ax¦m´ax¦¯ x(t) [ t ∈ [0, T]¦, 2m¦. Deducimos que
_
m
D(1 −r
M
)dt +
_
L
M
[C| ˙ x| −| ˙ x|
p
]dt ≥ 0
para algunas constantes C, D > 0. Pero de la etapa 2, sabemos que
(1 −r
M
)L
1
(
m
) =
_
L
M
(|
˙
¯ x| −1)dt,
y en consecuencia, para todo M suficientemente grande,
_
L
M
[D(|
˙
¯ x(t)| −1) +C|
˙
¯ x(t)| −|
˙
¯ x(t)|
p
]dt ≥ 0. (4.3)
Etapa 4. Conclusi´on.
Como p > 1, la funci´on Φ(u) = (C +D)u −D −u
p
, ≥ 0, satisface
Φ(u) < 0
para todo u suficientemente grande, digamos
u ≥ M
0
para una constante M
0
≥ 0, y dado que |
˙
¯ x| ≥ M en L
M
, entonces
_
L
M
0
Φ(|
˙
¯ x(t)|)dt < 0
siempre que L
1
(L
M
0
) > 0, lo que contradecer´ıa la desigualdad (4.3). Por lo tanto, ∀M ≥
M
0
, L
1
(L
M
) = 0 y en particular |
˙
¯ x(t)| ≤ M
0
c.t.p. t ∈ [0, T].
Cap´ıtulo 5
Ecuaciones de Euler-Lagrange:
caso Lipschitz
En virtud de la regularidad Lipschitz de las soluciones ´optimas de (T) establecida en el
cap´ıtulo 4, es posible obtener la versi´on generalizada de las ecuaciones de Euler-Lagrange.
5.1. Ecuaciones de Euler-Lagrange generalizadas
Teorema 5.1.1 Bajo las hip´otesis del teorema 4.1.1, si ¯ x es una soluci´on de (T) entonces
la funci´on
[0, T] ¸ t →
∂L
∂y
(¯ x(t),
˙
¯ x(t))
es diferencible c.t.p. en [0, T] y m´as a´ un
d
dt
∂L
∂y
(¯ x,
˙
¯ x) =
∂L
∂x
(¯ x,
˙
¯ x) c.t.p. en [0, T]
Demostraci´on. Definamos las funciones
f(t) =
∂L
∂y
(¯ x(t),
˙
¯ x(t)),
g(t) =
∂L
∂x
(¯ x(t),
˙
¯ x(t)).
Como L es de clase C
1
y ¯ x es Lipschitz continua en virtud del teorema 4.1.1, deducimos
que f y g son funciones acotadas.
Consideremos una funci´on lipschitziana h : [0, T] →R de la forma
h(t) =
_
t
0
ψ(t)dt
con ψ ∈ L

(0, T; R
N
) tal que
T
_
0
ψ(t)dt = 0 (5.1)
27
28 CAP
´
ITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
de modo tal que h(0) = h(T) = 0. Razonando de manera an´aloga a lo realizado en la secci´on
3.1 para obtener (3.2), pero ahora asumiendo s´olo lipschitzianidad de ¯ x y h, tenemos que
t
_
0
[f(t)
˙
h(t) +g(t)h(t)]dt = 0. (5.2)
Esto ´ ultimo se puede justificar utilizando el siguiente lema t´ecnico de la teor´ıa de la medida
que enunciamos sin demostraci´on (se trata de una consecuencia relativamente sencilla del
teorema de convergencia dominada):
Lema 5.1.1 Sea ϕ : R
k
R →R una funci´on tal que:
(i) ∀λ ∈ R, ϕ(, λ) ∈ L
1
(R
k
).
(ii) ∀ξ ∈ R
k
, ϕ(ξ, ) ∈ C
1
(R).
(iii) ∃g ∈ L
1
(R
k
), ∀λ ∈ R,
¸
¸
¸
¸
∂ϕ
∂λ
(ξ, λ)
¸
¸
¸
¸
≤ g(x).
Entonces, la funci´on
Φ(λ) =
_
R
k
ϕ(ξ, λ)dξ
es de clase C
1
en R y m´as a´ un
Φ

(λ) =
_
R
k
∂ϕ
∂λ
(ξ, λ)dξ.
Definamos
A(t) = f(t) −
t
_
0
g(s)ds.
Una integraci´on por partes en (5.2) proporciona
t
_
0
A(t)
˙
h(t)dt = 0,
o equivalentemente, para todo ψ ∈ L

(0, T; R
N
) que satisface (5.1), se tiene
T
_
0
A(t)ψ(t)dt = 0.
Sean ahora ψ ∈ L
2
(0, T; R
N
) y ψ
n
L
2
−→ψ con ψ
n
∈ L

(0, T; R
N
) tales que
T
_
0
ψ
n
(t)dt = 0.
Entonces ψ satisface (5.1) y adem´as, dado que A ∈ L

(0, T; R
N
) ⊆ L
2
(0, T; R
N
), se tiene
T
_
0
A(t)ψ(t)dt = ¸A, ψ¸
L
2 = l´ım
n→∞
¸A, ψ
n
¸
L
2 = l´ım
n→∞
T
_
0
A(t)ψ
n
(t)dt = 0.
5.2. EJEMPLO: DIN
´
AMICA DE UNA PART
´
ICULA 29
Por densidad de L

(0, T; R
N
) en L
2
(0, T; R
N
), deducimos f´acilmente que
∀ψ ∈ L
2
(0, T; R
N
),
T
_
0
ψ(t)dt = 0 ⇒
T
_
0
A(t)ψ(t)dt = 0.
Es decir,
∀ψ ∈ L
2
(0, T; R
N
), ¸1, ψ¸
L
2 = 0 ⇒ ¸A, ψ¸
L
2 = 0.
Esto significa que A ⊥ L
2
/R, es decir, existe ´c ∈ R tal que
A(t) = ´c c.t.p. t ∈ [0, T],
que era exactamente lo que quer´ıamos demostrar.
5.2. Ejemplo: din´amica de una part´ıcula
Dado m > 0, consideremos el problema
(T
m
) m´ın
_
_
_
T
_
0
_
m
2
| ˙ x(t)|
2
−U(x(t))
_
dt
¸
¸
¸ x ∈ AC(0, T; R
3
), x(0) = x
0
, x(T) = x
1
_
_
_
.
Supongamos que U ∈ C
1
(R
3
) y que adem´as
sup
x∈R
U(x) < +∞.
As´ı,
L(x, y) =
m
2
|y|
2
−U(x) ≥
m
2
|y|
2
−sup U,
de modo que se satisface la condici´on de crecimiento (c
p
) con p = 2. Deducimos que (T
m
)
admite una soluci´on ¯ x ∈ AC(0, T; R
3
) y, m´as a´ un, esta soluci´on es Lipschitz y satisface la
ecuaci´on de Euler-Lagrange
m
d
dt
˙ x(t) = −∇U(x(t)) c.t.p. t ∈ [0, T]
Como ¯ x es continua y U ∈ C
1
(R
3
), el lado derecho de esta ecuaci´on evaluado en ¯ x es
continuo con respecto a t y en consecuencia ¯ x ∈ C
2
(0, T; R
3
) y adem´as satisface el problema
diferencial de segundo orden con condiciones de borde
_
m¨ x +∇U(x) = 0,
x(0) = x
0
, x(T) = x
1
.
Si U ∈ C
k
(R
3
) entonces se deduce recursivamente que ¯ x ∈ C
k+1
(0, T; R
3
). El problema
diferencial correspondiente al movimiento de una part´ıcula de masa m sometida a un campo
de fuerzas F = −∇U asociado al potencial U. En este contexto, a la funci´on
L(x, ˙ x) =
m
2
| ˙ x(t)|
2
−U(x(t))
se le llama lagrangiano, y el hecho que la trayectoria de la part´ıcula sea una soluci´on de
(T
m
) se conoce como el principio de m´ınima acci´on, entendiendo por “acci´on” la integral
del lagrangiano.
30 CAP
´
ITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
Bibliograf´ıa
El lector interesado en profundizar los conceptos y m´etodos expuestos brevemente
en estos apuntes puede consultar la amplia bibliograf´ıa que existe al respecto. Son
muchos los autores que han escrito libros sobre problemas variacionales del c´alculo de
variaciones, m´etodos directos para establecer existencia, problemas de semicontinuidad
inferior, aplicaciones a ecuaciones diferenciales y a problemas de control ´optimo, etc.
La siguiente es s´olo una lista parcial de textos recomendables que abordan estos temas:
[Att84] Attouch, H., Variational Convergence for Functions and Operators, Applicable Mat-
hematics Series, Pitman (Advanced Publishing Program), Boston, MA, 1984.
[BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, Oxford Lec-
ture Series in Mathematics and its Applications, 12, The Clarendon Press, Oxford
University Press, New York, 1998.
[But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the Cal-
culus of Variations, Pitman Research Notes in Mathematics Series, 207, Longman
Scientific & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989.
[CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus of Varia-
tions. Representation, Relaxation, and Homogenization. Chapman & Hall/CRC Mono-
graphs and Surveys in Pure and Applied Mathematics, 125. Chapman & Hall/CRC,
Boca Raton, FL, 2002.
[Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary diffe-
rential equations, Applications of Mathematics, 17, Springer-Verlag, New York, 1983.
[Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mathematical
Sciences, 78, Springer-Verlag, Berlin, 1989.
[Dal93] Dal Maso, G., An Introduction to Γ-convergence, Birkh¨auser, Boston, 1993.
[Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse der Mathe-
matik und ihrer Grenzgebiete (3) [Results in Mathematics and Related Areas (3)], 19,
Springer-Verlag, Berlin, 1990.
[EkT99] Ekeland, I., T´emam, R., Convex Analysis and Variational Problems, (traducci´on
del franc´es), versi´on corregida de la edici´on en ingl´es de 1976, Classics in Applied Mat-
hematics, 28, Society for Industrial and Applied Mathematics (SIAM), Philadelphia,
PA, 1999.
31
32 BIBLIOGRAF
´
IA
[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., Englewood
Cliffs, N.J., 1963.
[GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian for-
malism. II. The Hamiltonian formalism, Grundlehren der Mathematischen Wissens-
chaften [Fundamental Principles of Mathematical Sciences], 310-311, Springer-Verlag,
Berlin, 1996.
[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundlehren
der mathematischen Wissenschaften, Band 130 Springer-Verlag New York, Inc., New
York, 1966.
[Str00] Struwe, M., Variational Methods. Applications to nonlinear partial differential equa-
tions and Hamiltonian systems. Third edition, Ergebnisse der Mathematik und ihrer
Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics [Results in Mat-
hematics and Related Areas. 3rd Series. A Series of Modern Surveys in Mathematics],
34, Springer-Verlag, Berlin, 2000.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->