Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Escuela Verano 2002 PDF
Escuela Verano 2002 PDF
CALCULO DE VARIACIONES
Felipe Alvarez
ZT
mı́n L(x(t), ẋ(t))dt,
(P)
0
x(0) = x0, x(T ) = x1.
Diciembre 2002
2
Índice general
1. Introducción 5
1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 5
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Definición de solución óptima . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Problemas variacionales sin solución . . . . . . . . . . . . . . . . . . . 8
6. Ejercicios 37
Bibliografı́a 39
4 ÍNDICE GENERAL
Capı́tulo 1
Introducción
Estos apuntes tienen como objetivo introducir los conceptos y métodos básicos del
cálculo de variaciones a través del estudio de la siguiente clase particular de problemas
variacionales:
ZT
mı́n L(x(t), ẋ(t))dt
(P)
0
x(0) = x0 , x(T ) = x1 ,
J : C 1 (a, b; RN ) → R
Zb
x 7→ J(x) = L(x(t), ẋ(t))dt,
a
6 CAPÍTULO 1. INTRODUCCIÓN
L : RN × RN → R
(x, y) 7→ L(x, y),
1.2. Ejemplos
Ejemplo 1.2.1 (Camino más corto) Encontrar la curva plana más corta que une
dos puntos A = (x0 , y0 ) y B = (x1 , y1 ), i.e. encontrar la curva y = y(x) que minimice
el funcional
Zx1 p
J(y) = 1 + y ′ (x)2 dx
x0
bajo la restricción
y(x0 ) = y0 , y(x1 ) = y1 .
sujeto a
y(x0 ) = y0 , y(x1 ) = y1 .
1.3. DEFINICIÓN DE SOLUCIÓN ÓPTIMA 7
Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op-
ción, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el
consumo del individuo en el instante t respectivamente. Suponemos además que una
función f = f (x) representa la producción de capital y una función u = u(c), llamada
función de utilidad, describe el beneficio instantáneo del individuo ante un consumo
dado por c. Luego, en un horizonte [0, T ], el individuo busca maximizar la utilidad
esperada, esto es
ZT
máx u(c(t))dt
0
dx
(t) = f (x(t)) − c(t)
dt
x(0) = x0 (capital inicial)
x(T ) = x1 (capital final)
o equivalentemente
ZT
mı́n −u(f (x(t)) − ẋ(t))dt
0
x(0) = x0 , x(T ) = x1 .
L : RN × RN → R
y este supremo no sólo es finito sino que además se alcanza, de modo que se trata de
un máximo, en virtud de la continuidad de x 7→ L(x, (x1 − x0 )/T ).
y en consecuencia
Z1
|ẋ(t)|dt ≥ 1.
0
R1
Por otra parte, x(t)2 dt ≥ 0 y más aún, dado que x es continua y x(1) = 1 > 0,
0
necesariamente
Z1
x(t)2 dt > 0.
0
1.4. PROBLEMAS VARIACIONALES SIN SOLUCIÓN 9
y por lo tanto ı́nf(P1 ) ≥ 1. Veremos que ı́nf(P1 ) = 1, lo que junto con (1.1) prueba
que (P1 ) no admite solución. Con este fin, consideremos la sucesión xn ∈ AC(0, 1; R)
definida por
0 si 0 ≤ t ≤ 1 − n1 ,
xn (t) =
n(t − 1 + n1 ) si 1 − n1 ≤ t ≤ 1.
Tenemos que para todo n ≥ 1, xn (0) = 0 y xn (1) = 1. Más aún,
Z1 Z1 Z1
1 2 1
L(xn (t), ẋn (t))dt = n (t − 1 + )2 dt + ndt
2 n
0 1−1/n 1
1− n
t=1
n2 1 3
= (t − 1 + ) +1
6 n t=1−1/n
1
= +1→1
6n
En conclusión, ı́nf(P1 ) = 1 y este valor no es alcanzado.
Z1 Z1
1 1
[ xn (t)2 + (1 − ẋn (t)2 )2 ]dt = xn (t)2 dt
2 | {z } 2
0 0 0
Z 1
n 3 t= 2n1
2n
= n t| t2 dt =
0 3 t=0
n 1 1
= × 3 = → 0.
3 8n 24n2
Por lo tanto, ı́nf(P2 ) = 0. Si este valor fuese alcanzado por una función x̄ en AC(0, 1)
entonces se tendrı́a
Z1
1
0= [ x̄(t)2 + (1 − x̄(t)
˙ 2 )2 ]dt ⇒ x̄(t) = 0 c.t.p. t ∈ [0, 1]
2
0
∧
˙
|x̄(t)| = 1 c.t.p. t ∈ [0, 1]
ZT
lı́m L(xn (t), ẋn (t))dt = ı́nf(P).
n→+∞
0
Notemos que siempre existe una sucesión minimizante. Para establecer la existen-
cia de soluciones consideraremos la siguiente estrategia: tomar una sucesión minimi-
zante y probar que, pasando a una subsucesión, converge a una solución.
Lema 2.2.1 Bajo (Cp ), si (xn ) es una sucesión minimizante para (P) entonces (ẋn )
es acotada en Lp (0, T ; RN ), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N,
kẋn kLp ≤ C.
ZT
∀n ≥ 1, L(xn (t), ẋn (t))dt ≤ ı́nf(P) + 1.
0
RT
Por (Cp ), aT + b 0
kẋn (t)kp dt ≤ ı́nf(P) + 1. Ası́
ı́nf(P) + 1 − aT
kẋn kpLp ≤ =: K
b
Proposición 2.2.1 Supongamos que se tiene (Cp ). Si (xn ) es una sucesión minimi-
zante para (P) entonces existe una función x̄ ∈ AC(0, T ; RN ), factible para (P), y
una subsucesión (xnk ) tales que:
(i) xnk → x̄ uniformemente en [0, T ].
(ii) ẋnk ⇀ x̄˙ débilmente en Lp (0, T ; RN ).
1 1
+ = 1.
p q
ZT ZT
ẋnk (t)ϕ(t)dt → ȳ(t)ϕ(t)dt.
0 0
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13
kxn (t2 ) − xn (t1 )k ≤ k1[t1 ,t2 ] kLq kẋn kLp ≤ (t2 − t1 )1/q C,
donde
(a) f y g son continuas.
(c) f es convexa.
Teorema 2.3.1 Bajo las condiciones anteriores, (P) admite al menos una solución.
Demostración. Sea (xn ) una sucesión minimizante para (P). Por la proposición
2.2.1, es posible extraer una subsucesión (xnk ) y encontrar x̄ ∈ AC(0, T ; RN ) tales
que x̄(0) = x0 , x̄(T ) = x1 y
ZT ZT ZT
˙
L(x̄(t), x̄(t))dt = g(x̄(t))dt + ˙
f (x̄(t))dt = ı́nf(P).
0 0 0
ZT ZT ZT
g(xnk (t))dt + f (ẋnk (t))dt = L(xnk (t), ẋnk (t))dt → ı́nf(P).
0 0 0
ZT ZT
lı́m g(xnk (t))dt = g(x̄(t))dt.
k→∞
0 0
ZT
F (y) = f (y(t))dt, y ∈ Lp (0, T ; RN ). (2.2)
0
Notemos que por (Cp ) necesariamente F (y) > −∞ para todo y ∈ Lp (0, T ; RN ); sin
embargo, podrı́a tenerse F (y) = +∞ para algún y ∈ Lp (0, T ; RN ) pues no hemos
supuesto ningún tipo de comportamiento “por arriba”del integrando f (y).
Dado que x̄ es factible para (P), la otra desigualdad siempre se tiene, y entonces x̄
es solución de (P).
Demostración de la proposición 2.3.1. Recordemos el siguiente resultado funda-
mental de la teorı́a de la medida:
Lema 2.3.1 (Fatou) Sea fn : [0, T ] → R una sucesión de funciones medibles tal que
fn ≥ 0 para todo n ≥ 0. Entonces
ZT ZT
lı́m inf fn (t)dt ≥ lı́m inf fn (t)dt.
n→∞ n→∞
0 0
Para probar la proposición 2.3.1, razonemos por contradicción. Supongamos que existe
una sucesión (yn ) ⊆ Lp (0, T ; RN ) que converge fuertemente a un y ∈ Lp (0, T ; RN ) y
que se tiene
lı́m inf F (yn ) < F (y). (2.3)
n→∞
Podemos extraer una subsucesión (ynk ) tal que
lı́m F (ynk ) = lı́m inf F (yn ).
k→∞ n→∞
Demostración. Por la proposición 2.2.1, sabemos que existe una sucesión minimi-
zante (xn ) para (P) y una función x̄ factible para (P) tales que
RT
(i) lı́m L(xn , ẋ) = ı́nf(P).
n→∞ 0
(2) f es continua en K.
Sin pérdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reempla-
zar L(x, y) por L(x, y) − a donde a es la constante que aparece en (Cp )). Supongamos
que
ZT
˙
L(x̄, x̄)dt < +∞.
0
Luego, Z
µ(A) = ˙
L(x̄, x̄)dt
A
es una medida positiva y finita sobre los borelianos que resulta ser absolutamente
continua con respecto a L1 . Por el teorema de Lusin, dado ε > 0 existe un compacto
K ⊆ [0, T ] tal que x̄ y x̄˙ son continuas en K y además
Z ZT
˙
L(x̄, x̄)dt ≥ ˙
L(x̄, x̄)dt − ε.
K 0
2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17
R
˙
(en el caso L(x̄, x̄)dt = +∞, para cada M > 0 podemos escoger K de modo tal que
R K
˙
L(x̄, x̄)dt ≥ M).
K
Luego
Z Z
∂L ∂L ∂L
˙ +
L(xn , ẋn )dt ≥ [L(xn , x̄) ˙ ẋn − x̄)
(x̄, x̄)( ˙ + ( (xn , x̄)
˙ − ˙ ẋn − x̄)]dt
(x̄, x̄))( ˙
∂y ∂y ∂y
K K
∂L
Por otra parte, la convergencia débil ẋn ⇀ x̄˙ junto con la continuidad de ∂y
y la de
x̄ y x̄˙ en K permiten asegurar que
Z
∂L
lı́m ˙ ẋn − x̄)
(x̄, x̄)( ˙ = 0.
n→∞ ∂y
K
Luego
ZT Z Z
ı́nf(P) = lı́m L(xn , ẋn )dt ≥ lı́m inf L(xn , ẋn )dt ≥ ˙
L(x̄, x̄)dt
n→∞ n→∞
0 K K
ZT
≥ ˙ − ε.
L(x̄, x̄)
0
Ecuaciones de Euler-Lagrange:
caso diferenciable
Observemos que (3.1) es una ecuación diferencial de segundo orden para x̄, la cual
se conoce como la ecuación de Euler-Lagrange de (P).
h(0) = h(T ) = 0.
Definamos
donde
ZT
J(x) = L(x(t), ẋ(t))dt.
0
Para deducir de aquı́ la ecuación de Euler-Lagrange (3.1), basta con justificar una
integración por partes más un argumento de localización. Con este fin, necesitamos
algunos resultados técnicos.
para toda función h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b].
Demostración. Dado n ≥ 1, definamos la función
n(t − a) si a ≤ t ≤ a + 1/n,
ϕn (t) = 1 si a + 1/n ≤ t ≤ b − 1/n,
n(b − t) si b − 1/n ≤ t ≤ b.
Tomando hn = ϕn c se tiene hn ∈ C(a, b) y hn (a) = hn (b) = 0. Luego
Zb
∀n ≥ 0, c(t)hn (t)dt = 0
a
3.2. RESULTADOS TÉCNICOS 21
Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b].
Zb
c(t)ḣ(t)dt = 0
a
para toda función h ∈ C 1 (a, b) con h(a) = h(b) = 0. Entonces, existe una constante
c ∈ R tal que c ≡ c en [a, b].
Demostración. Sea
Zb
1
c= c(t)dt
b−a
a
y consideremos
Zt
h(t) = [c(ξ) − c]dξ,
a
Zb Zb
0= c(t)ḣ(t)dt = c(t)[c(t) − c]dt.
a a
Como
Zb
c̄[c(t) − c]dt = c(b − a)c − c2 (b − a) = 0,
a
deducimos que
Zb
[c(t) − c̄]2 dt = 0.
a
Luego, c(t) = c̄ c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ c
en [a, b].
22CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE
para todo h ∈ C 1 (a, b) con h(a) = h(b) = 0. Entonces d ∈ C 1 (a, b) y más aún d˙ = c.
Demostración. Aplicaremos integración por partes. Sea
Zt
A(t) = c(ξ)dξ.
a
y en consecuencia
Zb
[−A(t) + d(t)]ḣ(t)dt = 0.
a
y en particular
˙ = Ȧ(t) = c(t),
d(t)
3.3. Conclusión
Aplicando la proposición 3.2.1 a (3.2) se deduce la conclusión del teorema 3.1.1.
Notemos que tal como han sido expuestas, existe una brecha entre la teorı́a de
existencia y la de condiciones necesarias. La primera sólo proporciona soluciones
x̄ ∈ AC(0, T ; RN ), de modo tal que sólo podemos asegurar x̄˙ ∈ L1 (0, T ; RN ). En
realidad, se tiene un poco más: x̄˙ ∈ L1 (0, T ; RN ) con p > 1 asociado a la condición de
crecimiento (Cp ). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu-
mimos que x̄ ∈ C 1 (0, T ; RN ), de modo tal que no podemos aplicar el último teorema
a las soluciones que se obtienen a partir del método directo.
Para cerrar esta brecha, es necesario desarrollar una tercera teorı́a concerniente a
la regularidad de las soluciones de (P). Ese es el objetivo del siguiente capı́tulo.
Capı́tulo 4
ZT Z Z
mı́n(P) = ˙
L(x̄, x̄)dt = ˙
L(x̄, x̄)dt + ˙
L(x̄, x̄)dt
0 ℓm [0,T ]\ℓm
Z
≥ ˙ p dt ≥ L1 ([0, T ] \ ℓm )mp = (T − L1 (ℓm ))mp .
kx̄k
[0,T ]\ℓm
Luego
mı́n(P)
L1 (ℓm ) ≥ T − .
mp
Tomando m suficientemente grande, podemos suponer que
T
L1 (ℓm ) ≥ . (4.1)
2
Etapa 2. Construcción de una reparametrización temporal.
σM : [0, T ] → [0, T ]
dσM
˙
(t) = kx̄(t)k en LM ,
dt
dσM
(t) = 1 en [0, T ] \ (LM ∪ ℓm ),
dt
dσM
(t) = rM en ℓm ,
dt
donde rM > 0 se ajusta de modo tal que σM (T ) = T . Más precisamente
ZT
dσM
T = σM (T ) = 0 + (t)dt
dt
0
Z Z Z
= ˙
kx̄(t)kdt + dt + rM dt.
LM [0,T ]\(LM ∩ℓm ) ℓm
RT
Como T = 1dt, deducimos que
0
Z Z
˙
(kx̄(t)k − 1)dt + (rM − 1)dt = 0,
LM ℓm
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 25
es decir
Z
˙
(kx̄(t)k − 1)dt = (1 − rM )L1 (ℓm ).
LM
˙
Podemos suponer que M > 1 y, como kx̄(t)k ≥ M en LM tenemos que necesariamente,
rM < 1
R
Por otra parte, si M ր +∞ entonces ˙
(kx̄(t)k − 1)dt ց 0 (de otra forma, x̄˙ ∈
/
LM
L1 (0, T ; RN )). Luego, tomando M > m suficientemente grande podemos suponer que
1
≤ rM < 1.
2
Etapa 3. Definición de xM y consecuencias.
Definamos
−1
xM (s) = x̄(σM (s)), s ∈ [0, T ].
Ahora bien
dxM dx̄ −1 dσ −1
(s) = (σM (s)) M (s).
ds dt ds
Sea el cambio de variables
σM (t) = s,
Ası́
ZT ZT
dx̄ −1 dσM −1
L(xM , ẋM )ds = L(xM (s), (σM (s))/ (σM (s)))ds
dt dt
0 0
ZT
dx̄ dσM dσM
= L(x̄(t),
(t)/ (t)) (t)dt
dt dt dt
0
Z Z Z
1 x̄˙
= L(x̄, ˙ M dt +
x̄)r L(x̄, ˙
)kx̄kdt + ˙
L(x̄, x̄)dt.
rM ˙
kx̄k
ℓm LM [0,T ]\(LM ∩ℓm )
26 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
x̄˙ ˙
x̄
Como x̄ es acotada (por ser continua en [0, T ]) y k kx̄k
˙ k = 1, entonces L(x̄, kx̄k
˙ ) es aco-
tada superiormente (pues L es continua), lo que junto con la condición de crecimiento
L(x, y) ≥ kykp nos da
Z Z
1
[L(x̄, ˙ M − L(x̄, x̄)]dt
x̄)r ˙ + [Ckx̄k ˙ p ]dt ≥ 0
˙ − kx̄k
rM
ℓm LM
para alguna constante C > 0. Por otra parte, como L es de clase C 1 tenemos
que es localmente Lipschitz, y en particular ∀R > 0, ∃KR , ∀(x, y) ∈ RN × RN ,
˙
máx{kxk, kyk, ky ′k} ≤ R ⇒ |L(x, y) − L(x, y ′ )| ≤ KR ky − y ′ k. Luego, como kx̄(t)k ≤
˙
m en ℓm , se tiene que tomando x = x̄(t) e y = x̄(t) con t ∈ ℓm entonces
1 1 KR
L(x, y)rM − L(x, y) ≤ L(x, y) − L(x, y) ≤ (1 − rM )kyk,
rM rM rM
↑
rM < 1
Etapa 4. Conclusión.
Φ(u) = (C + D)u − D − up , u ≥ 0,
satisface
Φ(u) < 0
para todo u suficientemente grande, digamos
u ≥ M0
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 27
˙ ≥ M en LM , entonces
para una constante M0 ≥ 0, y dado que kx̄k
Z
˙
Φ(kx̄(t)k)dt <0
LM0
siempre que L1 (LM0 ) > 0, lo que contradecerı́a la desigualdad (4.3). Por lo tanto,
˙
∀M ≥ M0 , L1 (LM ) = 0 y en particular kx̄(t)k ≤ M0 c.t.p. t ∈ [0, T ].
28 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
Capı́tulo 5
Ecuaciones de Euler-Lagrange:
caso Lipschitz
L2
Sean ahora ψ ∈ L2 (0, T ; RN ) y ψn −→ψ con ψn ∈ L∞ (0, T ; RN ) tales que
ZT
ψn (t)dt = 0.
0
Es decir,
∀ψ ∈ L2 (0, T ; RN ), h1, ψiL2 = 0 ⇒ hA, ψiL2 = 0.
Esto significa que A ⊥ L2 /R, es decir, existe b
c ∈ R tal que
A(t) = b
c c.t.p. t ∈ [0, T ],
que era exactamente lo que querı́amos demostrar.
Ası́,
m m
L(x, y) = kyk2 − U(x) ≥ kyk2 − sup U,
2 2
de modo que se satisface la condición de crecimiento (Cp ) con p = 2. Deducimos que
(Pm ) admite una solución x̄ ∈ AC(0, T ; R3) y, más aún, esta solución es Lipschitz y
satisface la ecuación de Euler-Lagrange
d
m ẋ(t) = −∇U(x(t)) c.t.p. t ∈ [0, T ]
dt
Como x̄ es continua y U ∈ C 1 (R3 ), el lado derecho de esta ecuación evaluado en x̄
es continuo con respecto a t y en consecuencia x̄ ∈ C 2 (0, T ; R3) y además satisface el
problema diferencial de segundo orden con condiciones de borde
mẍ + ∇U(x) = 0,
x(0) = x0 , x(T ) = x1 .
Si U ∈ C k (R3 ) entonces se deduce recursivamente que x̄ ∈ C k+1 (0, T ; R3). El problema
diferencial correspondiente al movimiento de una partı́cula de masa m sometida a un
campo de fuerzas F = −∇U asociado al potencial U. En este contexto, a la función
m
L(x, ẋ) = kẋ(t)k2 − U(x(t))
2
se le llama lagrangiano, y el hecho que la trayectoria de la partı́cula sea una solución
de (Pm ) se conoce como el principio de mı́nima acción, entendiendo por “acción” la
integral del lagrangiano.
32 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
Capı́tulo 6
Ejercicios
(b) Pruebe que bajo (6.1), existe una sucesión acotada (xn ) ⊂ X tal que
(c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V -lı́m Fn entonces
n→∞
existe x̄ ∈ X tal que F (x̄) = mı́n F .
X
2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capital
y el consumo de un individuo en el instante t respectivamente. Asuma que la
producción de capital está dada por la función f (x) = δx con δ > 0, mientras
que la función de utilidad del individuo está dada por u(c) = −λ(c − c∗ )2 con
λ, c∗ > 0. Los parámetros δ, λ, c∗ > 0 son conocidos. En un horizonte [0, T ], el
individuo busca maximizar la utilidad esperada, esto es
ZT
máx u(c(t))dt
(P) 0
ẋ(t) = f (x(t)) − c(t)
x(0) = x0 > 0 (capital inicial), x(T ) = 0 (capital final nulo)
34 CAPÍTULO 6. EJERCICIOS
(a) Pruebe que (P) admite al menos una solución x ∈ AC(0, T ; R). Ind.: puede
suponer que x(t) es acotado para toda función factible para (P).
(b) Deduzca que la solución x es Lipschitz continua.
(c) Calcule x.
Bibliografı́a
[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En-
glewood Cliffs, N.J., 1963.
[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh-
ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York,
Inc., New York, 1966.