Está en la página 1de 36

UNIVERSIDAD DE CHILE

facultad de ciencias fisicas y matematicas


departamento de ingenieria matematica

II ESCUELA DE VERANO MECESUP 2002

CALCULO DE VARIACIONES
Felipe Alvarez



 ZT

mı́n L(x(t), ẋ(t))dt,
(P)

 0

x(0) = x0, x(T ) = x1.

Diciembre 2002
2
Índice general

1. Introducción 5
1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 5
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Definición de solución óptima . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Problemas variacionales sin solución . . . . . . . . . . . . . . . . . . . 8

2. El método directo del cálculo de variaciones 13


2.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. La condición de crecimiento y compacidad . . . . . . . . . . . . . . . 13
2.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . 16
2.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . 18

3. Ecuaciones de Euler-Lagrange: caso diferenciable 21


3.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . 21
3.2. Resultados técnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4. Regularidad de las soluciones óptimas 27


4.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . 27
4.2. Demostración del resultado de regularidad . . . . . . . . . . . . . . . 28

5. Ecuaciones de Euler-Lagrange: caso Lipschitz 33


5.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . 33
5.2. Ejemplo: dinámica de una partı́cula . . . . . . . . . . . . . . . . . . . 35

6. Ejercicios 37

Bibliografı́a 39
4 ÍNDICE GENERAL
Capı́tulo 1

Introducción

Estos apuntes tienen como objetivo introducir los conceptos y métodos básicos del
cálculo de variaciones a través del estudio de la siguiente clase particular de problemas
variacionales:


 ZT

mı́n L(x(t), ẋ(t))dt
(P)

 0

x(0) = x0 , x(T ) = x1 ,

donde L : RN × RN → R es una función suficientemente regular. Estudiaremos tanto


la existencia y regularidad de las soluciones de (P) como las condiciones necesarias
de primer orden que estas soluciones deben satisfacer, con un énfasis especial en las
herramientas del análisis funcional que son útiles para un tratamiento riguroso de la
teorı́a.

1.1. Funcionales y problemas variacionales


Diversos problemas en matemáticas puras y aplicadas consisten en determinar
una función que minimice algún criterio, costo o energı́a, sujeto a ciertas restricciones.
Tı́picamente, en estos problemas el criterio a optimizar viene dado por una corres-
pondencia que a cada función perteneciente a alguna clase o conjunto de funciones
le asigna un único número real, el cual tiene alguna interpretación geométrica, fı́sica
o económica. Llamaremos funcional a toda correspondencia de este tipo y problema
variacional al problema de optimización asociado.

Para dar un contexto más preciso a lo anterior, denotemos por C 1 (a, b; RN ) la


clase de todas las funciones x : [a, b] → RN que son continuamente diferenciables en
el intervalo [a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo

J : C 1 (a, b; RN ) → R
Zb
x 7→ J(x) = L(x(t), ẋ(t))dt,
a
6 CAPÍTULO 1. INTRODUCCIÓN

para alguna función

L : RN × RN → R
(x, y) 7→ L(x, y),

la que supondremos suficientemente regular (al menos continua).

1.2. Ejemplos
Ejemplo 1.2.1 (Camino más corto) Encontrar la curva plana más corta que une
dos puntos A = (x0 , y0 ) y B = (x1 , y1 ), i.e. encontrar la curva y = y(x) que minimice
el funcional
Zx1 p
J(y) = 1 + y ′ (x)2 dx
x0

bajo la restricción
y(x0 ) = y0 , y(x1 ) = y1 .

Ejemplo 1.2.2 (Braquistócrona) Partiendo de un punto A = (x0 , y0 ), una partı́cu-


la con peso se desliza bajo la influencia de la gravedad sobre una curva que une A
con otro punto B = (x1 , y1 ) tal que y0 > y1 . El tiempo que le toma a la partı́cula
recorrer este camino depende de la curva recorrida y por lo tanto la correspondencia
que a cada curva regular le asocia el tiempo necesario para recorrerla es un funcional.
La curva de tiempo mı́nimo se conoce como la braquistócrona. Para modelar este pro-
blema, sea y ∈ C 1 (x0 , x1 ) una función de modo tal que la trayectoria de la partı́cula
satisface y(t) = y(x(t)). Tenemos que la rapidez de la partı́cula satisface
ds ds dx p dx
v(t) = = · = 1 + y ′2 .
dt dx dt dt
Por otra parte, suponiendo que la partı́cula inicia su movimiento desde el reposo
(v(0) = 0) tenemos que por conservación de la energı́a:
1 2 p
mv + mgy = mgy0 ⇒ v = 2g(y0 − y)
2
Ası́, al menos formalmente,
p
1 + y ′2
dt = p dx,
2g(y0 − y)
de modo que el tiempo de recorrido a minimizar está dado por
Zx1 p
1 + y ′2
T = p dx.
2g(y0 − y)
x0

sujeto a
y(x0 ) = y0 , y(x1 ) = y1 .
1.3. DEFINICIÓN DE SOLUCIÓN ÓPTIMA 7

Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op-
ción, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el
consumo del individuo en el instante t respectivamente. Suponemos además que una
función f = f (x) representa la producción de capital y una función u = u(c), llamada
función de utilidad, describe el beneficio instantáneo del individuo ante un consumo
dado por c. Luego, en un horizonte [0, T ], el individuo busca maximizar la utilidad
esperada, esto es 
 ZT



 máx u(c(t))dt



 0


 dx
(t) = f (x(t)) − c(t)
 dt





 x(0) = x0 (capital inicial)





x(T ) = x1 (capital final)
o equivalentemente 

 ZT

mı́n −u(f (x(t)) − ẋ(t))dt

 0

x(0) = x0 , x(T ) = x1 .

1.3. Definición de solución óptima


Nos concentraremos en problemas variacionales autónomos, es decir, problemas
donde la variable independiente, digamos t, no aparece explı́citamente en el criterio
a minimizar. Más precisamente, consideraremos un problema del tipo


 ZT

mı́n L(x(t), ẋ(t))dt
(P)

 0

x(0) = x0 , x(T ) = x1 ,
donde

L : RN × RN → R

es una función continua.

Para esta clase de problemas no siempre es posible asegurar la existencia de so-


luciones en C 1 (0, T ; RN ). Trabajaremos en la clase AC(0, T ; RN ) de las funciones
absolutamente continuas definidas en el intervalo [0, T ] y a valores en RN , es decir
Rt
AC(0, T ; RN ) = {x : [0, T ] → RN |∃y ∈ L1 (0, T ; RN ), x(t) = x0 + 0 y(s)ds}.

Dada x ∈ AC(0, T ; RN ), denotamos simplemente por ẋ a la función y ∈ L1 (0, T ; RN )


correspondiente. Evidentemente, C 1 (0, T ; RN ) AC(0, T ; RN ). Definamos
RT
ı́nf(P) = ı́nf{ 0 L(x(t), ẋ(t))dt|x ∈ AC(0, T ; RN ), x(0) = x0 , x(T ) = x1 }.
8 CAPÍTULO 1. INTRODUCCIÓN

Definición 1.3.1 Toda función x ∈ AC(0, T ; RN ) tal que x(0) = x0 y x(T ) = x1 se


dice que es factible para (P). Se dice que x̄ ∈ AC(0, T ; RN ) es una solución de (P)
si junto con ser factible satisface
ZT
˙
L(x̄(t), x̄(t))dt = ı́nf(P).
0

Si además x̄ ∈ C 1 (0, T ; RN ), diremos que x̄ es una solución regular de (P).


Se tiene que ı́nf(P) < +∞ y más aún, tomando la función factible
t
x̂(t) = x0 + (x1 − x0 ),
T
se deduce que
ı́nf(P) ≤ T sup L(x, (x1 − x0 )/T ),
x∈[x0 ,x1 ]

y este supremo no sólo es finito sino que además se alcanza, de modo que se trata de
un máximo, en virtud de la continuidad de x 7→ L(x, (x1 − x0 )/T ).

Cuando ı́nf(P) ∈ R, sin condiciones adicionales sobre L, el problema (P) puede


no tener soluciones óptimas. A continuación veremos dos ejemplos en este sentido.

1.4. Problemas variacionales sin solución


Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional

 Z1

 1
mı́n [ x(t)2 + |ẋ(t)|]dt
(P1 ) 2

 0

x(0) = 0, x(1) = 1
Aquı́, N = 1 y
1
L(x, y) = x2 + |y|.
2
Notemos que para cada función factible se tiene
Z1
ẋ(t)dt = x(1) − x(0) = 1,
0

y en consecuencia
Z1
|ẋ(t)|dt ≥ 1.
0
R1
Por otra parte, x(t)2 dt ≥ 0 y más aún, dado que x es continua y x(1) = 1 > 0,
0
necesariamente
Z1
x(t)2 dt > 0.
0
1.4. PROBLEMAS VARIACIONALES SIN SOLUCIÓN 9

En conclusión, para cada función factible,


Z1
1
[ x(t)2 + |ẋ(t)|]dt > 1, (1.1)
2
0

y por lo tanto ı́nf(P1 ) ≥ 1. Veremos que ı́nf(P1 ) = 1, lo que junto con (1.1) prueba
que (P1 ) no admite solución. Con este fin, consideremos la sucesión xn ∈ AC(0, 1; R)
definida por 
 0 si 0 ≤ t ≤ 1 − n1 ,
xn (t) =

n(t − 1 + n1 ) si 1 − n1 ≤ t ≤ 1.
Tenemos que para todo n ≥ 1, xn (0) = 0 y xn (1) = 1. Más aún,
Z1 Z1 Z1
1 2 1
L(xn (t), ẋn (t))dt = n (t − 1 + )2 dt + ndt
2 n
0 1−1/n 1
1− n
t=1
n2 1 3
= (t − 1 + ) +1
6 n t=1−1/n
1
= +1→1
6n
En conclusión, ı́nf(P1 ) = 1 y este valor no es alcanzado.

El ejemplo 1.4.1 es un caso tı́pico de un fenómeno de concentración: puntualmente


la sucesión minimizante converge

0 si 0 ≤ t < 1,
xn (t) −−→
n→∞ 1 si t = 1,

pero el lı́mite no es continuo de modo que no pertenece a AC(0, 1). Finalmente,


notemos que L(x, ẋ) = 12 x + |ẋ| tiene un crecimiento lineal en ẋ. Veremos que en
cierto sentido, esta es la razón por la cual (P1 ) no admite solución.

Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacional


dado por 
 Z1

 1
mı́n [ x(t)2 + (1 − ẋ(t)2 )2 ]dt
(P2 ) 2

 0

x(0) = 0 = x(1).
Nuevamente N = 1, y tenemos
1
L(x, y) = x2 + (1 − y 2 )2 .
2
Observemos que en este caso L(x, y) crece superlinealmente en y, más precisamente,
y 7→ L(x, y) se comporta como como y 4 cuando |y| → +∞.
10 CAPÍTULO 1. INTRODUCCIÓN

Obviamente, ı́nf(P2 ) ≥ 0. Dado n ≥ 1, consideremos la función definida por


 
k 1 (2k + 1) 2k + 1 1
xn (t) = (−1) − |t − | si |t − |≤ , 0 ≤ k ≤ n − 1.
2n 2n 2n 2n
1
Notemos que xn (0) = xn (1) = 0, ẋn (t) = ±1 y |xn (t)| ≤ 2n
. En particular, xn (t) → 0
uniformemente en [0, 1]. Tenemos que

Z1 Z1
1 1
[ xn (t)2 + (1 − ẋn (t)2 )2 ]dt = xn (t)2 dt
2 | {z } 2
0 0 0
Z 1
n 3 t= 2n1
2n
= n t| t2 dt =
0 3 t=0
n 1 1
= × 3 = → 0.
3 8n 24n2
Por lo tanto, ı́nf(P2 ) = 0. Si este valor fuese alcanzado por una función x̄ en AC(0, 1)
entonces se tendrı́a
Z1
1
0= [ x̄(t)2 + (1 − x̄(t)
˙ 2 )2 ]dt ⇒ x̄(t) = 0 c.t.p. t ∈ [0, 1]
2
0

˙
|x̄(t)| = 1 c.t.p. t ∈ [0, 1]

lo que es imposible. En consecuencia, (P2 ) no admite solución.

El ejemplo 1.4.2 ilustra un fenómeno de oscilación. Observemos que la función


L(x, y) no es convexa en y; de hecho, y 7→ L(x, y) tiene dos mı́nimos locales estrictos
en y = −1 e y = 1. Intuitivamente, la sucesión minimizante (ver la definición 2.1.1)
es tal que ẋn oscila entre ambos valores mı́nimos, lo que explicarı́a la no existencia
de soluciones.

En el siguiente capı́tulo veremos que para asegurar la existencia de soluciones,


junto con cierta regularidad de L(x, y), bastará con suponer sobre y 7→ L(x, y):

Una condición de crecimiento.

Una condición de convexidad.


Capı́tulo 2

El método directo del cálculo de


variaciones

2.1. Sucesiones minimizantes


Definición 2.1.1 Una sucesión (xn ) ⊂ AC(0, T ; RN ) se dice sucesión minimizante
para (P) si xn (0) = x0 , xn (T ) = x1 y se tiene

ZT
lı́m L(xn (t), ẋn (t))dt = ı́nf(P).
n→+∞
0

Notemos que siempre existe una sucesión minimizante. Para establecer la existen-
cia de soluciones consideraremos la siguiente estrategia: tomar una sucesión minimi-
zante y probar que, pasando a una subsucesión, converge a una solución.

Para poder extraer una subsucesión convergente de una sucesión minimizante,


necesitamos una propiedad de compacidad.

2.2. La condición de crecimiento y compacidad


Dada una constante p ∈ (1, +∞), supondremos que L(x, y) satisface la siguiente
condición de crecimiento:

(Cp ) Existen constantes a ∈ R y b > 0 tales que

∀(x, y) ∈ RN × RN , L(x, y) ≥ a + bkykp .

Dado que p > 1, se dice que el crecimiento de y 7→ L(x, y) es superlineal. El ca-


so p = +∞ puede permitirse, significando que existe una constante C > 0 tal que
kyk ≤ C, lo que se interpreta como una restricción sobre ẋ implı́cita en la definición de
L. Sin embargo, para simplificar la exposición nos restringiremos al caso p ∈ (1, +∞).
12 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES

Notemos que la condición de crecimiento (Cp ) permite asegurar que ı́nf(P) ∈ R


pues de ésta se deduce que

ı́nf(P) ≥ aT > −∞,

y ya sabı́amos que ı́nf(P) < +∞.

Lema 2.2.1 Bajo (Cp ), si (xn ) es una sucesión minimizante para (P) entonces (ẋn )
es acotada en Lp (0, T ; RN ), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N,
kẋn kLp ≤ C.

Demostración. Sin pérdida de generalidad podemos suponer que

ZT
∀n ≥ 1, L(xn (t), ẋn (t))dt ≤ ı́nf(P) + 1.
0

RT
Por (Cp ), aT + b 0
kẋn (t)kp dt ≤ ı́nf(P) + 1. Ası́

ı́nf(P) + 1 − aT
kẋn kpLp ≤ =: K
b

es decir kẋn kLp ≤ K 1/p .

Proposición 2.2.1 Supongamos que se tiene (Cp ). Si (xn ) es una sucesión minimi-
zante para (P) entonces existe una función x̄ ∈ AC(0, T ; RN ), factible para (P), y
una subsucesión (xnk ) tales que:
(i) xnk → x̄ uniformemente en [0, T ].
(ii) ẋnk ⇀ x̄˙ débilmente en Lp (0, T ; RN ).

Demostración. Dividimos la demostración en dos etapas.


Etapa 1. Definición de x̄. Como p ∈ (1, +∞), Lp (0, T ; RN ) resulta ser una espacio
de Banach reflexivo y por lo tanto la bola unitaria es débilmente compacta. Luego,
por el lema 2.2.1, existe una subsucesión ẋnk tal que ẋnk ⇀ ȳ cuando k → +∞ para
algún ȳ ∈ Lp (0, T ; RN ). Esto equivale a

∀ϕ ∈ Lq (0, T ; RN ), hẋk , ϕiLp ,Lq −−−→ hȳ, ϕiLp ,Lq en R,


k→+∞

donde q ∈ (1, +∞) satisface

1 1
+ = 1.
p q

Más explı́citamente, para todo ϕ ∈ Lq (0, T ; RN ) se tiene

ZT ZT
ẋnk (t)ϕ(t)dt → ȳ(t)ϕ(t)dt.
0 0
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13

Es natural definir x̄ ∈ AC(0, T ; RN ) por medio de


Zt
x̄(t) = x0 + ȳ(s)ds, (2.1)
0

de modo tal que ȳ = x̄˙ c.t.p. en [0, T ].

Etapa 2. Convergencia uniforme. Comencemos por verificar la convergencia puntual


de (xnk ) hacia la función x̄ definida por (2.1). Dado t ∈ [0, T ] fijo, tenemos que
Rt
xnk (t) = x0 + ẋnk (s)ds
0
RT
= x0 + ẋnk (s)1[0,t] (s)ds
0
= x0 + hẋnk , 1[0,t] iLp ,Lq ,

lo que junto con la convergencia débil de (ẋnk ) a ȳ asegura que

xnk (t) → x0 + hȳ, 1[0,t] iLp ,Lq


Rt
= x0 + ȳ(s)ds
0
= x̄(t).

Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probar


que (xn ) es equicontinua1 . Sean t1 , t2 ∈ [0, T ] con t1 > t2 . Escribamos
Zt2 ZT
xn (t2 ) − xn (t1 ) = ẋn (s)ds = 1[t1 ,t2 ] (s)ẋn (s)ds.
t1 0

Por la desigualdad de Hölder y el lema 2.2.1

kxn (t2 ) − xn (t1 )k ≤ k1[t1 ,t2 ] kLq kẋn kLp ≤ (t2 − t1 )1/q C,

lo que prueba la equicontinuidad de la familia (xn ).

2.3. Primer teorema de existencia: caso separable


En esta sección suponemos que

L(x, y) = g(x) + f (y), x, y ∈ RN ,

donde
(a) f y g son continuas.

(b) L satisface (Cp ).


1
El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la conver-
gencia simple o puntual implica la uniforme.
14 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES

(c) f es convexa.

Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, es


decir ı́nf g(x) > −∞, y que f satisface (Cp ).
x∈RN

Teorema 2.3.1 Bajo las condiciones anteriores, (P) admite al menos una solución.

Demostración. Sea (xn ) una sucesión minimizante para (P). Por la proposición
2.2.1, es posible extraer una subsucesión (xnk ) y encontrar x̄ ∈ AC(0, T ; RN ) tales
que x̄(0) = x0 , x̄(T ) = x1 y

xnk → x̄ uniformemente en [0, T ],


ẋnk → x̄˙ débilmente en Lp (0, T ; RN ).

Queremos probar que

ZT ZT ZT
˙
L(x̄(t), x̄(t))dt = g(x̄(t))dt + ˙
f (x̄(t))dt = ı́nf(P).
0 0 0

Por la definición de sucesión minimizante, sabemos que

ZT ZT ZT
g(xnk (t))dt + f (ẋnk (t))dt = L(xnk (t), ẋnk (t))dt → ı́nf(P).
0 0 0

De la convergencia uniforme de (xnk ) y la continuidad de g deducimos que se tiene

ZT ZT
lı́m g(xnk (t))dt = g(x̄(t))dt.
k→∞
0 0

Para estudiar la convergencia del segundo término, definamos

ZT
F (y) = f (y(t))dt, y ∈ Lp (0, T ; RN ). (2.2)
0

Notemos que por (Cp ) necesariamente F (y) > −∞ para todo y ∈ Lp (0, T ; RN ); sin
embargo, podrı́a tenerse F (y) = +∞ para algún y ∈ Lp (0, T ; RN ) pues no hemos
supuesto ningún tipo de comportamiento “por arriba”del integrando f (y).

Proposición 2.3.1 Si f : RN → R es continua y acotada inferiormente (ı́nf f >


−∞) entonces la función F : Lp (0, T ; RN ) → R ∪ {+∞} definida por (2.2) es se-
micontinua inferiormente, es decir, para toda sucesión yn → y en Lp (0, T ; RN ) se
tiene
F (y) ≤ lı́m inf F (yn ).
n→∞
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15

Posterguemos por un momento la demostración de la proposición 2.3.1. Notemos


que no podemos aplicar directamente este resultado a nuestro caso pues sólo tenemos
ẋnk → x̄˙ débilmente en Lp (0, T ; RN ). Sin embargo, de la convexidad de f se deduce
que F es una función convexa. Recordando que en un espacio de Banach reflexivo, las
funciones convexas y semicontinuas inferiormente para la topologı́a fuerte también lo
son para la topologı́a débil, deducimos que F es semicontinua inferiormente para la
topologı́a débil en Lp (0, T ; RN ). Por lo tanto,
˙ ≤ lı́m inf F (ẋnk ),
F (x̄)
k→∞
y en consecuencia
ZT ZT
g(x̄(t))dt + ˙
f (x̄(t))dt ≤ ı́nf(P).
0 0

Dado que x̄ es factible para (P), la otra desigualdad siempre se tiene, y entonces x̄
es solución de (P).
Demostración de la proposición 2.3.1. Recordemos el siguiente resultado funda-
mental de la teorı́a de la medida:
Lema 2.3.1 (Fatou) Sea fn : [0, T ] → R una sucesión de funciones medibles tal que
fn ≥ 0 para todo n ≥ 0. Entonces
ZT ZT
lı́m inf fn (t)dt ≥ lı́m inf fn (t)dt.
n→∞ n→∞
0 0

El lema de Fatou es válido si (fn ) es acotada inferiormente de manera uniforme, i.e.


∃α ∈ R, ∀n ≥ 0, fn ≥ −α, pues basta aplicar el resultado anterior a f¯n = fn + α.

Para probar la proposición 2.3.1, razonemos por contradicción. Supongamos que existe
una sucesión (yn ) ⊆ Lp (0, T ; RN ) que converge fuertemente a un y ∈ Lp (0, T ; RN ) y
que se tiene
lı́m inf F (yn ) < F (y). (2.3)
n→∞
Podemos extraer una subsucesión (ynk ) tal que
lı́m F (ynk ) = lı́m inf F (yn ).
k→∞ n→∞

Dado que yn → y en Lp (0, T ; RN ), podemos extraer a su vez una nueva subsucesión


(ynkj ) tal que ynkj (t) → y(t) para c.t.p. t ∈ [0, T ]. Sea fj (t) = f (ynkj (t)). Como
ı́nf f > −∞, (fj ) es acotada inferiormente. Además, fj (t) → f (y(t)) c.t.p. en [0, T ]
en virtud de la continuidad de f . Luego
ZT ZT ZT
F (y) = f (y(t))dt = lı́m fj (t)dt ≤ lı́m inf fj (t)dt = lı́m inf F (ynkj )
j→∞ j→∞ j→∞
0 0 0
= lı́m F (ynk )
k→∞
= lı́m inf F (yn ),
n→∞

donde la desigualdad se tiene por el lema de Fatou, contradiciendo ası́ (2.3).


16 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES

2.4. Segundo teorema de existencia: caso regular


Teorema 2.4.1 Supongamos que
∂L
(a) L ∈ C(RN × RN ; R) y ∈ C(RN × RN ; R).
∂yi
(b) L satisface (Cp ).

(c) y 7→ L(x, y) es convexa.

Entonces (P) admite al menos una solución.

Demostración. Por la proposición 2.2.1, sabemos que existe una sucesión minimi-
zante (xn ) para (P) y una función x̄ factible para (P) tales que

RT
(i) lı́m L(xn , ẋ) = ı́nf(P).
n→∞ 0

(ii) ∃C ≥ 0 tal que ∀n ∈ N, kẋn kLp ≤ C.

(iii) xn → x̄ uniformemente en [0, T ]

(iv) ẋn ⇀ x̄˙ débilmente en Lp (0, T ; RN )

Recordemos el siguiente resultado de la teorı́a de la medida.

Teorema 2.4.2 (Lusin) Sea f ∈ L1 (0, T ; RN ). Entonces, ∀δ > 0, ∃K ⊆ [0, T ] com-


pacto tal que:

(1) L1 ([0, T ] \ K) ≤ δ, donde L1 es la medida de Lebesgue en R.

(2) f es continua en K.

Sin pérdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reempla-
zar L(x, y) por L(x, y) − a donde a es la constante que aparece en (Cp )). Supongamos
que
ZT
˙
L(x̄, x̄)dt < +∞.
0

Luego, Z
µ(A) = ˙
L(x̄, x̄)dt
A

es una medida positiva y finita sobre los borelianos que resulta ser absolutamente
continua con respecto a L1 . Por el teorema de Lusin, dado ε > 0 existe un compacto
K ⊆ [0, T ] tal que x̄ y x̄˙ son continuas en K y además

Z ZT
˙
L(x̄, x̄)dt ≥ ˙
L(x̄, x̄)dt − ε.
K 0
2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17
R
˙
(en el caso L(x̄, x̄)dt = +∞, para cada M > 0 podemos escoger K de modo tal que
R K
˙
L(x̄, x̄)dt ≥ M).
K

Por convexidad de y 7→ L(x, y), tenemos que


Z Z
∂L
L(xn , ẋn )dt ≥ ˙ +
[L(xn , x̄) ˙ ẋn − x̄)]dt
(xn , x̄)( ˙
∂y
K K

Luego
Z Z
∂L ∂L ∂L
˙ +
L(xn , ẋn )dt ≥ [L(xn , x̄) ˙ ẋn − x̄)
(x̄, x̄)( ˙ + ( (xn , x̄)
˙ − ˙ ẋn − x̄)]dt
(x̄, x̄))( ˙
∂y ∂y ∂y
K K

Estudiemos la convergencia de cada uno de estos términos. Como xn → x̄ uniforme-


mente y L es continuo, tenemos que
Z Z
lı́m ˙ ˙
L(xn , x̄) = L(x̄, x̄).
n→∞
K K

∂L
Por otra parte, la convergencia débil ẋn ⇀ x̄˙ junto con la continuidad de ∂y
y la de
x̄ y x̄˙ en K permiten asegurar que
Z
∂L
lı́m ˙ ẋn − x̄)
(x̄, x̄)( ˙ = 0.
n→∞ ∂y
K

Finalmente, de la convergencia uniforme de xn → x̄ junto con el acotamiento uniforme


˙ y la continuidad de ∂L
de las normas Lp de ẋn y x̄, ∂y
, se deduce que
Z
∂L ∂L
lı́m ( ˙ −
(xn , x̄) ˙ ẋn − x̄)
(x̄, x̄))( ˙ = 0.
n→∞ ∂y ∂y
K

Luego

ZT Z Z
ı́nf(P) = lı́m L(xn , ẋn )dt ≥ lı́m inf L(xn , ẋn )dt ≥ ˙
L(x̄, x̄)dt
n→∞ n→∞
0 K K
ZT
≥ ˙ − ε.
L(x̄, x̄)
0

Como ε > 0 es arbitrario, se deduce el resultado.


18 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES
Capı́tulo 3

Ecuaciones de Euler-Lagrange:
caso diferenciable

3.1. Condiciones necesarias de primer orden


Una vez demostrada la existencia de una solución, nos interesa poder caracterizarla
mediante una ecuación, ya sea con el fin de obtener un método para calcularla o bien
para deducir más propiedades sobre la solución a partir de la ecuación. El objetivo
de este capı́tulo es probar el siguiente resultado:

Teorema 3.1.1 Supongamos que L ∈ C 1 (RN × RN ; R). Si x̄ ∈ C 1 (0, T ; RN ) es una


∂L
solución regular de (P) entonces ˙
(x̄(t), x̄(t)) es diferenciable y más aún
∂y
d ∂L ∂L
˙
(x̄(t), x̄(t)) = ˙
(x̄(t), x̄(t)), t ∈ [0, T ]. (3.1)
dt ∂y ∂x

Observemos que (3.1) es una ecuación diferencial de segundo orden para x̄, la cual
se conoce como la ecuación de Euler-Lagrange de (P).

Para establecer este resultado, la idea es “perturbar” la solución x̄. Consideremos


una función h ∈ C 1 (0, T, RN ) tal que

h(0) = h(T ) = 0.

Definamos

Φ(λ) = J(x̄ + λh), λ ∈ R.

donde
ZT
J(x) = L(x(t), ẋ(t))dt.
0

Observemos que la función

xλ (t) = x̄(t) + λh(t)


20CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE

es factible para el problema (P) pues xλ ∈ C 1 (0, T ; RN ), xλ(0) = x̄(0) = 0 y xλ (T ) =


x̄(T ) = x1 . De este modo, por optimalidad de x̄ para (P), deducimos que
∀λ ∈ R, Φ(0) ≤ Φ(λ),
de modo que 0 es un mı́nimo de Φ. Si Φ es diferenciable entonces debe satisfacerse la
condición necesaria de optimalidad
Φ′ (0) = 0.
Como L, x̄ y h son de clase C 1 , tenemos que
ZT
′ d d
Φ (0) = J(x̄ + λh)|λ=0 = L(xλ (t), ẋλ (t))dt|λ=0
dλ dλ
0
ZT
d
= ˙ + λḣ(t))]|λ=0 dt
[L(x̄(t) + λh(t), x̄(t)

0
ZT
∂L ∂L
= [ ˙
(x̄(t), x̄(t))h(t) + ˙
(x̄(t), x̄(t)) ḣ(t)]dt.
∂x ∂y
0

Luego, para todo h ∈ C 1 (0, T ; RN ) tal que h(0) = h(T ) = 0 se tiene


ZT
∂L ∂L
[ ˙
(x̄(t), x̄(t))h(t) + ˙
(x̄(t), x̄(t)) ḣ(t)]dt = 0 (3.2)
∂x ∂y
0

Para deducir de aquı́ la ecuación de Euler-Lagrange (3.1), basta con justificar una
integración por partes más un argumento de localización. Con este fin, necesitamos
algunos resultados técnicos.

3.2. Resultados técnicos


Lema 3.2.1 Sea c ∈ C(a, b) tal que
Zb
c(t)h(t)dt = 0
a

para toda función h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b].
Demostración. Dado n ≥ 1, definamos la función

 n(t − a) si a ≤ t ≤ a + 1/n,
ϕn (t) = 1 si a + 1/n ≤ t ≤ b − 1/n,

n(b − t) si b − 1/n ≤ t ≤ b.
Tomando hn = ϕn c se tiene hn ∈ C(a, b) y hn (a) = hn (b) = 0. Luego
Zb
∀n ≥ 0, c(t)hn (t)dt = 0
a
3.2. RESULTADOS TÉCNICOS 21

Por ota parte, chn = ϕn c2 ր c2 y, por el teorema de la convergencia dominada, se


obtiene
Zb Zb
0 = lı́m c(t)hn (t)dt = c2 (t)dt.
n→∞
a a

Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b].

Lema 3.2.2 Sea c ∈ C(a, b) tal que

Zb
c(t)ḣ(t)dt = 0
a

para toda función h ∈ C 1 (a, b) con h(a) = h(b) = 0. Entonces, existe una constante
c ∈ R tal que c ≡ c en [a, b].

Demostración. Sea
Zb
1
c= c(t)dt
b−a
a

y consideremos

Zt
h(t) = [c(ξ) − c]dξ,
a

función que satisface h(a) = h(b) = 0 y además h ∈ C 1 (a, b). En consecuencia

Zb Zb
0= c(t)ḣ(t)dt = c(t)[c(t) − c]dt.
a a

Como
Zb
c̄[c(t) − c]dt = c(b − a)c − c2 (b − a) = 0,
a

deducimos que

Zb
[c(t) − c̄]2 dt = 0.
a

Luego, c(t) = c̄ c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ c
en [a, b].
22CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE

Proposición 3.2.1 Sean c, d ∈ C(a, b) tales que


Zb
[c(t)h(t)dt + d(t)ḣ(t)]dt = 0
a

para todo h ∈ C 1 (a, b) con h(a) = h(b) = 0. Entonces d ∈ C 1 (a, b) y más aún d˙ = c.
Demostración. Aplicaremos integración por partes. Sea
Zt
A(t) = c(ξ)dξ.
a

Entonces, para todo h ∈ C 1 (a, b) con h(a) = h(b) = 0 se obtiene


Zb Zb Zb
c(t)h(t)dt = A(t)h(t)|ba − A(t)ḣ(t)dt = − A(t)ḣ(t)dt,
a a a

y en consecuencia
Zb
[−A(t) + d(t)]ḣ(t)dt = 0.
a

Por el lema 3.2.2, existe c ∈ R tal que

d(t) = A(t) + c̄,

y en particular
˙ = Ȧ(t) = c(t),
d(t)

lo que prueba el resultado.

3.3. Conclusión
Aplicando la proposición 3.2.1 a (3.2) se deduce la conclusión del teorema 3.1.1.

Notemos que tal como han sido expuestas, existe una brecha entre la teorı́a de
existencia y la de condiciones necesarias. La primera sólo proporciona soluciones
x̄ ∈ AC(0, T ; RN ), de modo tal que sólo podemos asegurar x̄˙ ∈ L1 (0, T ; RN ). En
realidad, se tiene un poco más: x̄˙ ∈ L1 (0, T ; RN ) con p > 1 asociado a la condición de
crecimiento (Cp ). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu-
mimos que x̄ ∈ C 1 (0, T ; RN ), de modo tal que no podemos aplicar el último teorema
a las soluciones que se obtienen a partir del método directo.

Para cerrar esta brecha, es necesario desarrollar una tercera teorı́a concerniente a
la regularidad de las soluciones de (P). Ese es el objetivo del siguiente capı́tulo.
Capı́tulo 4

Regularidad de las soluciones


óptimas

4.1. Regularidad de tipo Lipschitz


Con el fin de cerrar la brecha entre la teorı́a de existencia vı́a el método directo y la
de condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado:

Teorema 4.1.1 Supongamos que L ∈ C 1 (RN × RN ; R) y satisface (Cp ) para algún


p > 1. Entonces toda solución x̄ de (P) es Lipschitz, es decir, existe una constante
M0 ≥ 0 tal que
˙
kx̄(t)k ≤ M0 c.t.p. t ∈ [a, b].

La idea de la demostración es la siguiente: tomemos m < M dos constantes y


definamos los conjuntos
˙
ℓm = {t ∈ [0, T ] | kx̄(t)k ≤ m}
˙
LM = {t ∈ [0, T ] | kx̄(t)k ≥ M}.
Intuitivamente, en ℓm la trayectoria x̄(t) se mueve “lentamente”mientras que en LM
lo hace más rápido. La idea es construir una trayectoria xM (t) que se mueva más
rápido que x̄(t) en ℓm y más lento que x̄(t) en LM , y que más aún
ZT ZT
L(xM (t), ẋM (t))dt < ˙
L(x̄(t), x̄(t))dt
0 0

para M suficientemente grande, siempre que L1 (LM ) > 0, donde L1 es la medida de


Lebesgue en R. Esta última desigualdad contradice la optimalidad de x̄, por lo que
necesariamente se tendrá L1 (LM ) = 0 para todo M ≥ M0 a partir de cierto M0 , lo
que prueba el carácter Lipschitz de x̄.

4.2. Demostración del resultado de regularidad


Procederemos por etapas. Para simplificar, supondremos sin pérdida de generali-
dad que la condición de crecimiento (Cp ) se tiene con a = 0 y b = 1.
24 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS

Etapa 1. Escoger un valor para m.

Dado m > 0, tenemos que

ZT Z Z
mı́n(P) = ˙
L(x̄, x̄)dt = ˙
L(x̄, x̄)dt + ˙
L(x̄, x̄)dt
0 ℓm [0,T ]\ℓm
Z
≥ ˙ p dt ≥ L1 ([0, T ] \ ℓm )mp = (T − L1 (ℓm ))mp .
kx̄k
[0,T ]\ℓm

Luego

mı́n(P)
L1 (ℓm ) ≥ T − .
mp
Tomando m suficientemente grande, podemos suponer que
T
L1 (ℓm ) ≥ . (4.1)
2
Etapa 2. Construcción de una reparametrización temporal.

Sea M > m, donde m es tal que se tiene (4.1). Definamos

σM : [0, T ] → [0, T ]

tal que σM (0) = 0 y además

dσM
˙
(t) = kx̄(t)k en LM ,
dt
dσM
(t) = 1 en [0, T ] \ (LM ∪ ℓm ),
dt
dσM
(t) = rM en ℓm ,
dt
donde rM > 0 se ajusta de modo tal que σM (T ) = T . Más precisamente

ZT
dσM
T = σM (T ) = 0 + (t)dt
dt
0
Z Z Z
= ˙
kx̄(t)kdt + dt + rM dt.
LM [0,T ]\(LM ∩ℓm ) ℓm

RT
Como T = 1dt, deducimos que
0
Z Z
˙
(kx̄(t)k − 1)dt + (rM − 1)dt = 0,
LM ℓm
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 25

es decir
Z
˙
(kx̄(t)k − 1)dt = (1 − rM )L1 (ℓm ).
LM

˙
Podemos suponer que M > 1 y, como kx̄(t)k ≥ M en LM tenemos que necesariamente,

rM < 1
R
Por otra parte, si M ր +∞ entonces ˙
(kx̄(t)k − 1)dt ց 0 (de otra forma, x̄˙ ∈
/
LM
L1 (0, T ; RN )). Luego, tomando M > m suficientemente grande podemos suponer que
1
≤ rM < 1.
2
Etapa 3. Definición de xM y consecuencias.

Definamos
−1
xM (s) = x̄(σM (s)), s ∈ [0, T ].

Como x̄ es óptimo, sabemos que


ZT ZT
L(xM , ẋM )ds ≥ ˙
L(x̄, x̄)dt. (4.2)
0 0

Ahora bien
dxM dx̄ −1 dσ −1
(s) = (σM (s)) M (s).
ds dt ds
Sea el cambio de variables

σM (t) = s,

de modo tal que


−1
dσM 1
(s) = dσM
.
ds dt
(t)

Ası́
ZT ZT
dx̄ −1 dσM −1
L(xM , ẋM )ds = L(xM (s), (σM (s))/ (σM (s)))ds
dt dt
0 0
ZT
dx̄ dσM dσM
= L(x̄(t),
(t)/ (t)) (t)dt
dt dt dt
0
Z Z Z
1 x̄˙
= L(x̄, ˙ M dt +
x̄)r L(x̄, ˙
)kx̄kdt + ˙
L(x̄, x̄)dt.
rM ˙
kx̄k
ℓm LM [0,T ]\(LM ∩ℓm )
26 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS

Usando (4.2), deducimos que


Z Z
1 x̄˙
[L(x̄, ˙ M − L(x̄, x̄)]dt
x̄)r ˙ + [L(x̄, ˙ − L(x̄, x̄)]dt
)kx̄k ˙ ≥ 0.
rM ˙
kx̄k
ℓm LM

x̄˙ ˙

Como x̄ es acotada (por ser continua en [0, T ]) y k kx̄k
˙ k = 1, entonces L(x̄, kx̄k
˙ ) es aco-
tada superiormente (pues L es continua), lo que junto con la condición de crecimiento
L(x, y) ≥ kykp nos da
Z Z
1
[L(x̄, ˙ M − L(x̄, x̄)]dt
x̄)r ˙ + [Ckx̄k ˙ p ]dt ≥ 0
˙ − kx̄k
rM
ℓm LM

para alguna constante C > 0. Por otra parte, como L es de clase C 1 tenemos
que es localmente Lipschitz, y en particular ∀R > 0, ∃KR , ∀(x, y) ∈ RN × RN ,
˙
máx{kxk, kyk, ky ′k} ≤ R ⇒ |L(x, y) − L(x, y ′ )| ≤ KR ky − y ′ k. Luego, como kx̄(t)k ≤
˙
m en ℓm , se tiene que tomando x = x̄(t) e y = x̄(t) con t ∈ ℓm entonces
1 1 KR
L(x, y)rM − L(x, y) ≤ L(x, y) − L(x, y) ≤ (1 − rM )kyk,
rM rM rM

rM < 1

para R ≥ máx{máx{x̄(t) | t ∈ [0, T ]}, 2m}. Deducimos que


Z Z
D(1 − rM )dt + [Ckẋk − kẋkp ]dt ≥ 0
ℓm LM

para algunas constantes C, D > 0. Pero de la etapa 2, sabemos que


Z
˙ − 1)dt,
(1 − rM )L1 (ℓm ) = (kx̄k
LM

y en consecuencia, para todo M suficientemente grande,


Z
˙ ˙ ˙ p
[D(kx̄(t)k − 1) + Ckx̄(t)k − kx̄(t)k ]dt ≥ 0. (4.3)
LM

Etapa 4. Conclusión.

Como p > 1, la función

Φ(u) = (C + D)u − D − up , u ≥ 0,

satisface
Φ(u) < 0
para todo u suficientemente grande, digamos

u ≥ M0
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 27

˙ ≥ M en LM , entonces
para una constante M0 ≥ 0, y dado que kx̄k
Z
˙
Φ(kx̄(t)k)dt <0
LM0

siempre que L1 (LM0 ) > 0, lo que contradecerı́a la desigualdad (4.3). Por lo tanto,
˙
∀M ≥ M0 , L1 (LM ) = 0 y en particular kx̄(t)k ≤ M0 c.t.p. t ∈ [0, T ].
28 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
Capı́tulo 5

Ecuaciones de Euler-Lagrange:
caso Lipschitz

En virtud de la regularidad Lipschitz de las soluciones óptimas de (P) establecida


en el capı́tulo 4, es posible obtener la versión generalizada de las ecuaciones de Euler-
Lagrange.

5.1. Ecuaciones de Euler-Lagrange generalizadas


Teorema 5.1.1 Bajo las hipótesis del teorema 4.1.1, si x̄ es una solución de (P)
entonces la función
∂L
[0, T ] ∋ t 7→ ˙
(x̄(t), x̄(t))
∂y
es diferencible c.t.p. en [0, T ] y más aún
d ∂L ∂L
˙ =
(x̄, x̄) ˙ c.t.p. en [0, T ]
(x̄, x̄)
dt ∂y ∂x
Demostración. Definamos las funciones
∂L
f (t) = ˙
(x̄(t), x̄(t)),
∂y
∂L
g(t) = ˙
(x̄(t), x̄(t)).
∂x
Como L es de clase C 1 y x̄ es Lipschitz continua en virtud del teorema 4.1.1, dedu-
cimos que f y g son funciones acotadas.

Consideremos una función lipschitziana h : [0, T ] → R de la forma


Z t
h(t) = ψ(t)dt
0

con ψ ∈ L∞ (0, T ; RN ) tal que


ZT
ψ(t)dt = 0 (5.1)
0
30 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ

de modo tal que h(0) = h(T ) = 0. Razonando de manera análoga a lo realizado en la


sección 3.1 para obtener (3.2), pero ahora asumiendo sólo lipschitzianidad de x̄ y h,
tenemos que
Zt
[f (t)ḣ(t) + g(t)h(t)]dt = 0. (5.2)
0
Esto último se puede justificar utilizando el siguiente lema técnico de la teorı́a de la
medida que enunciamos sin demostración (se trata de una consecuencia relativamente
sencilla del teorema de convergencia dominada):
Lema 5.1.1 Sea ϕ : Rk × R → R una función tal que:
(i) ∀λ ∈ R, ϕ(·, λ) ∈ L1 (Rk ).
(ii) ∀ξ ∈ Rk , ϕ(ξ, ·) ∈ C 1 (R).

∂ϕ
(iii) ∃g ∈ L (R ), ∀λ ∈ R, (ξ, λ) ≤ g(x).
1 k
∂λ
Entonces, la función Z
Φ(λ) = ϕ(ξ, λ)dξ
Rk
es de clase C 1 en R y más aún
Z
′ ∂ϕ
Φ (λ) = (ξ, λ)dξ.
Rk ∂λ
Definamos
Zt
A(t) = f (t) − g(s)ds.
0

Una integración por partes en (5.2) proporciona


Zt
A(t)ḣ(t)dt = 0,
0

o equivalentemente, para todo ψ ∈ L∞ (0, T ; RN ) que satisface (5.1), se tiene


ZT
A(t)ψ(t)dt = 0.
0

L2
Sean ahora ψ ∈ L2 (0, T ; RN ) y ψn −→ψ con ψn ∈ L∞ (0, T ; RN ) tales que
ZT
ψn (t)dt = 0.
0

Entonces ψ satisface (5.1) y además, dado que A ∈ L∞ (0, T ; RN ) ⊆ L2 (0, T ; RN ), se


tiene
ZT ZT
A(t)ψ(t)dt = hA, ψiL2 = lı́m hA, ψn iL2 = lı́m A(t)ψn (t)dt = 0.
n→∞ n→∞
0 0
5.2. EJEMPLO: DINÁMICA DE UNA PARTÍCULA 31

Por densidad de L∞ (0, T ; RN ) en L2 (0, T ; RN ), deducimos fácilmente que


ZT ZT
2 N
∀ψ ∈ L (0, T ; R ), ψ(t)dt = 0 ⇒ A(t)ψ(t)dt = 0.
0 0

Es decir,
∀ψ ∈ L2 (0, T ; RN ), h1, ψiL2 = 0 ⇒ hA, ψiL2 = 0.
Esto significa que A ⊥ L2 /R, es decir, existe b
c ∈ R tal que
A(t) = b
c c.t.p. t ∈ [0, T ],
que era exactamente lo que querı́amos demostrar.

5.2. Ejemplo: dinámica de una partı́cula


Dado m > 0, consideremos el problema
 T 
Z h m i 

(Pm ) mı́n kẋ(t)k2 − U(x(t)) dt x ∈ AC(0, T ; R3), x(0) = x0 , x(T ) = x1 .
 2 
0

Supongamos que U ∈ C 1 (R3 ) y que además


sup U(x) < +∞.
x∈R

Ası́,
m m
L(x, y) = kyk2 − U(x) ≥ kyk2 − sup U,
2 2
de modo que se satisface la condición de crecimiento (Cp ) con p = 2. Deducimos que
(Pm ) admite una solución x̄ ∈ AC(0, T ; R3) y, más aún, esta solución es Lipschitz y
satisface la ecuación de Euler-Lagrange
d
m ẋ(t) = −∇U(x(t)) c.t.p. t ∈ [0, T ]
dt
Como x̄ es continua y U ∈ C 1 (R3 ), el lado derecho de esta ecuación evaluado en x̄
es continuo con respecto a t y en consecuencia x̄ ∈ C 2 (0, T ; R3) y además satisface el
problema diferencial de segundo orden con condiciones de borde

mẍ + ∇U(x) = 0,
x(0) = x0 , x(T ) = x1 .
Si U ∈ C k (R3 ) entonces se deduce recursivamente que x̄ ∈ C k+1 (0, T ; R3). El problema
diferencial correspondiente al movimiento de una partı́cula de masa m sometida a un
campo de fuerzas F = −∇U asociado al potencial U. En este contexto, a la función
m
L(x, ẋ) = kẋ(t)k2 − U(x(t))
2
se le llama lagrangiano, y el hecho que la trayectoria de la partı́cula sea una solución
de (Pm ) se conoce como el principio de mı́nima acción, entendiendo por “acción” la
integral del lagrangiano.
32 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
Capı́tulo 6

Ejercicios

1. Convergencia variacional y el método directo. Sea (X, k · k) un espacio de Ba-


nach reflexivo. Diremos que una sucesión de funciones Fn : X → R converge
variacionalmente a una función F : X → R, lo que escribiremos F = V -lı́m Fn ,
n→∞
si se satisfacen las dos condiciones siguientes:
(V1 ) ∀x ∈ X, ∀xn ⇀ x, F (x) ≤ lı́m inf Fn (xn ).
n→∞
(V2 ) ∀x ∈ X, lı́m sup Fn (x) ≤ F (x).
n→∞

(a) Pruebe que (V2 ) implica que lı́m sup(ı́nf Fn ) ≤ ı́nf F.


n→∞ X X

Considere la siguiente condición de crecimiento uniforme para la sucesión (Fn ):

∃α ∈ R, ∃β > 0, ∀n ∈ N, ∀x ∈ X, Fn (x) ≥ α + βkxk. (6.1)

(b) Pruebe que bajo (6.1), existe una sucesión acotada (xn ) ⊂ X tal que

lı́m sup Fn (xn ) ≤ lı́m sup(ı́nf Fn ).


n→∞ n→∞ X

(c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V -lı́m Fn entonces
n→∞
existe x̄ ∈ X tal que F (x̄) = mı́n F .
X

2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capital
y el consumo de un individuo en el instante t respectivamente. Asuma que la
producción de capital está dada por la función f (x) = δx con δ > 0, mientras
que la función de utilidad del individuo está dada por u(c) = −λ(c − c∗ )2 con
λ, c∗ > 0. Los parámetros δ, λ, c∗ > 0 son conocidos. En un horizonte [0, T ], el
individuo busca maximizar la utilidad esperada, esto es


 ZT



 máx u(c(t))dt

(P) 0

 ẋ(t) = f (x(t)) − c(t)





x(0) = x0 > 0 (capital inicial), x(T ) = 0 (capital final nulo)
34 CAPÍTULO 6. EJERCICIOS

(a) Pruebe que (P) admite al menos una solución x ∈ AC(0, T ; R). Ind.: puede
suponer que x(t) es acotado para toda función factible para (P).
(b) Deduzca que la solución x es Lipschitz continua.
(c) Calcule x.
Bibliografı́a

El lector interesado en profundizar los conceptos y métodos expuestos brevemente


en estos apuntes puede consultar la amplia bibliografı́a que existe al respecto.
Son muchos los autores que han escrito libros sobre problemas variacionales del
cálculo de variaciones, métodos directos para establecer existencia, problemas de
semicontinuidad inferior, aplicaciones a ecuaciones diferenciales y a problemas de
control óptimo, etc. La siguiente es sólo una lista parcial de textos recomendables
que abordan estos temas:
[Att84] Attouch, H., Variational Convergence for Functions and Operators, Applica-
ble Mathematics Series, Pitman (Advanced Publishing Program), Boston, MA,
1984.
[BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, Oxford
Lecture Series in Mathematics and its Applications, 12, The Clarendon Press,
Oxford University Press, New York, 1998.
[But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the
Calculus of Variations, Pitman Research Notes in Mathematics Series, 207, Long-
man Scientific & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989.
[CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus
of Variations. Representation, Relaxation, and Homogenization. Chapman &
Hall/CRC Monographs and Surveys in Pure and Applied Mathematics, 125.
Chapman & Hall/CRC, Boca Raton, FL, 2002.
[Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary
differential equations, Applications of Mathematics, 17, Springer-Verlag, New
York, 1983.
[Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mat-
hematical Sciences, 78, Springer-Verlag, Berlin, 1989.
[Dal93] Dal Maso, G., An Introduction to Γ-convergence, Birkhäuser, Boston, 1993.
[Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse der
Mathematik und ihrer Grenzgebiete (3) [Results in Mathematics and Related
Areas (3)], 19, Springer-Verlag, Berlin, 1990.
[EkT99] Ekeland, I., Témam, R., Convex Analysis and Variational Problems, (tra-
ducción del francés), versión corregida de la edición en inglés de 1976, Classics
in Applied Mathematics, 28, Society for Industrial and Applied Mathematics
(SIAM), Philadelphia, PA, 1999.
36 BIBLIOGRAFÍA

[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En-
glewood Cliffs, N.J., 1963.

[GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian


formalism. II. The Hamiltonian formalism, Grundlehren der Mathematischen
Wissenschaften [Fundamental Principles of Mathematical Sciences], 310-311,
Springer-Verlag, Berlin, 1996.

[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh-
ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York,
Inc., New York, 1966.

[Str00] Struwe, M., Variational Methods. Applications to nonlinear partial differential


equations and Hamiltonian systems. Third edition, Ergebnisse der Mathematik
und ihrer Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics
[Results in Mathematics and Related Areas. 3rd Series. A Series of Modern Sur-
veys in Mathematics], 34, Springer-Verlag, Berlin, 2000.

También podría gustarte