Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Chuchon Nuñez - Pregrado - 2019 - 2
Chuchon Nuñez - Pregrado - 2019 - 2
PERÚ
i
Dedicatoria
ii
Agradecimientos
iii
Índice general
Resumen 2
Abstract 3
1. Planteamiento de la Investigación 4
1.1. Identificación del Problema . . . . . . . . . . . . . . . . . . . . 4
1.1.1. Formulación del problema . . . . . . . . . . . . . . . . 10
1.1.2. Objetivos de la investigación . . . . . . . . . . . . . . . 10
1.1.3. Justificación . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.4. Importancia . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2. Marco Teórico . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Antecedentes del estudio . . . . . . . . . . . . . . . . . 11
1.2.2. Condiciones necesarias y suficientes . . . . . . . . . . . 12
1.2.3. Problema de Desigualdad Variacional . . . . . . . . . . 18
1.2.4. Definiciones de términos básicos . . . . . . . . . . . . . 18
1.3. Variables e Hipótesis . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.1. Variable de la investigación . . . . . . . . . . . . . . . 19
1.3.2. Operacionalización de variables . . . . . . . . . . . . . 20
1.3.3. Hipótesis general e hipótesis especı́fica . . . . . . . . . 20
1.4. Metodologı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.1. Tipo de investigación . . . . . . . . . . . . . . . . . . . 21
1.4.2. Diseño de la investigación . . . . . . . . . . . . . . . . 21
1.4.3. Población y muestra . . . . . . . . . . . . . . . . . . . 21
1.4.4. Técnicas e instrumentos de recolección de datos . . . . 22
1.4.5. Plan de análisis estadı́sticos de datos . . . . . . . . . . 22
iv
2.4. Método del Punto Proximal (MPP) . . . . . . . . . . . . . . . 31
2.5. Problema de Desigualdad Cuasivariacional . . . . . . . . . . . 32
2.6. Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Resultados Preliminares . . . . . . . . . . . . . . . . . . . . . 36
2.8. Resultado de Convergencia . . . . . . . . . . . . . . . . . . . . 38
2.9. Análisis del problema donde el instante final es infinito . . . . 40
2.10. Adaptación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.11. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.12. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.13. Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . 48
Referencias Bibliográficas 49
1
Resumen
2
Abstract
3
Capı́tulo 1
Planteamiento de la
Investigación
4
tipo estadı́stico, muestreo, modelos diferenciales de evolución incluyendo los
efectos de crecimiento natural y pesca.
5
q es un coeficiente de captura, la cual representa la atrapabilidad de la espe-
cie, es decir, dado un nivel de stock x(t) es posible atrapar una parte qx(t)
y la tasa de captura depende del esfuerzo E(t) desplegado en el instante t,
luego h(t) = qE(t)x(t).
Si se considera que existe pesca sobre esta población, el modelo estaria dado
por el proceso dinámico:
dx(t)
x0 = = F (x(t)) − h(t), t ≥ 0
dt
Obteniendo ası́ que la evolución del stock de la especie está dada por la
ecuación de Clark y Munro (1975), ver [31]:
dx(t)
x0 = = F (x(t)) − qE(t)x(t) (1.2)
dt
6
Al principio, A
Al principio, A
Al cabo de un año, (1 + 2δ )2 A
Al principio, A
1 δ
Al cabo de m
años, (1 + m
)A
7
2 δ 2
Al cabo de m
años, (1 + m
)A
3 δ 3
Al cabo de m
años, (1 + m
)A
δ m
Al cabo de un año, (1 + m
) A
δ 2m
Al cabo de dos años, (1 + m
) A
δ tm
En general, al cabo de t años, (1 + m
) A
De esta forma vemos que, en este caso, A soles de ahora se transforman en
B = (1 + mδ )tm A soles dentro de t años.
A = e−δt B
8
ası́ el objetivo social de la campaña de pesca serı́a,
Z ∞
e−δt R(t)dt (1.4)
0
9
Es decir R∞ 0
max 0
e−δt (pqx(t) −c) F (x(t))−x
qx(t)
dt
s.a
x(t) ∈ C (1.6)
Donde:
F (x(t))−x0
C = {x(.) :]0; ∞[→]0; ∞[ tal que 0 ≤ qx(t)
≤ EM ∀t ≥ 0, x(0) = x0 }
Objetivos especı́ficos
1. Estudiar la existencia de soluciones del problema (1.5).
10
1.1.3. Justificación
Serı́a útil obtener una polı́tica de pesca óptima y un beneficio máximo a
partir del modelo matemático (1.5) usando técnicas de optimización, además
se podrı́a encontrar un equilibrio en la explotación de pesca que considere
las condiciones mencionadas. Si son alcanzados los objetivos de la tesis, la
investigación permitirá al ministerio de la producción adoptar polı́ticas ópti-
mas de explotación de la pesca con respecto a una clase genérica de pez. Con
esta polı́tica se beneficiarı́a los habitantes que se dedican a la pesca.
1.1.4. Importancia
Al realizar un trabajo como la pesca, siempre se va a buscar obtener be-
neficios, pero de los tantos posibles lo deseado es obtener el máximo beneficio
posible, es ası́ que serı́a de mucha importancia poder contar con una herra-
mienta matemática que nos permita llegar a obtener dicho beneficio además
que permitirı́a ahorrar tiempo, el cual también se invierte y muchas veces se
pierde en el intento de obtenerlos. Este tiempo ahorrado servirı́a para realizar
otras actividades.
11
Para resolver este modelo anterior existen muchos métodos, por ejemplo, el
Método Simplex, Método Iterativo, Método de Newton, Método de Lagran-
ge, emtre otros. Como referencia ver [29], [30].
.
Para λ ∈ R, x ∈ Ω, t ∈ [t0 , t1 ], se define
(λx)(t) = λ.x(t)
El conjunto Ω, sobre el cuerpo IR, con las dos operaciones definidas, tiene
estructura de espacio vectorial.
k.k : Ω → R
x → kxk = max |x(t)|
t ∈ [t0 , t1 ]
12
Sea F una función de tres variables, de clase C (2) (es decir que posee todas
las derivadas parciales primeras y segundas, y son contı́nuas). Se considera
la siguiente función:
Z t1
J(x) = F [x(t), x0 (t), t]dt,
t0
13
Definición 1.1 Se dice que x es una función admisible para el problema
(1.7), si verifica que
x ∈ Ω, x(t0 ) = x0 , y x(t1 ) = x1
Definición 1.2 Sea x∗ una función admisible para el problema (1.7). Se dice
que x∗ es máximo global si para cualquier función admisible x, se verifica que
J(x) ≤ J(x∗ ).
J(x) ≤ J(x∗ ).
14
Condición necesaria de primer orden. Ecuación de Euler
La condición que se va a obtener, llamada condición o ecuación de Euler,
es la más importante del cálculo de variaciones. Su deducción es muy senci-
lla y fácilmente comprensible, pues se apoya en la programación matemática
clásica de funciones diferenciables. A continuación se enuncian dos resultados
previos, la fórmula de Leibniz y un lema, que se utilizan posteriormente en
la demostración del teorema que da la ecuación de Euler.
(Fórmula de Leibniz) Supongamos que las funciones u̇(α), v̇(α) son con-
∂f
tinuas en {α /α0 − < α < α0 + }, para > 0, f , ∂α son continuas en
{u(α) ≤ z ≤ v(α), α0 − < α < α0 + }.
∂f
(Caso particular) Si u(α) = a, v(α) = b, y las funciones f y ∂α
son
continuas, se verifica que
Z b Z b
d ∂f (α, z)
f (α, z)dz = dz. (1.9)
dα a a ∂α
Lema 1.2.1 Sea f una función continua, definida en [t0 , t1 ]. Sea η una fun-
ción diferenciable, definida en [t0 , t1 ], con η(t0 ) = η(t1 ) = 0. Si
Z t1
f (t)η(t)dt = 0
t0
para toda función η que cumple las condiciones señaladas, entonces: f (t) = 0,
para todo t ∈ [t0 , t1 ].
Teorema 1.1 (Condición de Euler) Si x∗ (t) es un máximo local del pro-
blema (1.7), entonces en x∗ (t) se verifica la siguente condicion:
d
F [x∗ (t), ẋ ∗ (t), t] = 0, ∀t ∈ [t0 , t1 ],
Fx [x∗ (t), ẋ ∗ (t), t] −
dt ẋ
que es la ecuación de Euler, en donde Fx es la derivada parcial de F con
respecto a su primera variable x, y Fẋ es la derivada parcial de F con respecto
a su segunda variable ẋ. Prueba. Ver [32].
15
Algunas consideraciones sobre la ecuación de Euler
La ecuación de Euler (aportación de L. Euler, en 1744), para una función
admisible x(t) genérica, es por tanto:
d
Fx (x(t), ẋ(t), t) − Fẋ (x(t), ẋ(t), t) = 0
dt
desarrollando el segundo sumando a partir de la regla de la cadena la
derivada con respecto a t, se obtiene:
Fx = 0 (1.12)
16
que es una ecuación algebraica. La solución a dicha ecuación no dependerá de
constantes arbitrarias, por lo que sólo cumplirá por casualidad las condiciones
inicial y final dadas.
Caso en que F sólo depende de x y de ẋ
Supongamos que F sólo depende de x y de ẋ, es decir, F = F (x, ẋ). Aplicando
regla de la cadena y del hecho que Ft = 0, la ecuación de Euler queda:
F − ẋFẋ = C (1.13)
17
Teorema 1.3 Supongamos que F [x, ẋ, t] es una función cóncava en (x, ẋ)
para cada t ∈ [t0 , t1 ]. Si x∗ = x∗ (t) verifica la ecuación de Euler, junto con la
condición inicial, condición final (en los casos (i) y (ii)), y la correspondiente
condición de transversalidad (en los casos (ii) y (iii)), entonces x∗ (t) en un
máximo global para el problema que estamos considerando.
18
también se le denomina una iteración, y los resultados de una iteración se
utilizan como punto de partida para la siguiente iteración.
19
E(t) es una función del tiempo llamada esfuerzo de pesca que expresa
la medida de la capacidad de pesca: barcos o botes disponibles, redes,
mano de obra, otros insumos o tecnologı́a en general.
R(t) es la función ganancia que puede depender del precio, de los costos,
de esfuerzo, etc.
Hipótesis especı́fica
1. Usando la teorı́a de optimización en dimensión infinita será posible ob-
tener condiciones necesarias y suficientes para garantizar la existencia
de (1.5).
20
2. Usando el análisis convexo es posible estudiar las condiciones de con-
vexidad y diferenciabilidad del problema (1.5).
1.4. Metodologı́a
1.4.1. Tipo de investigación
El estudio de la investigación es de carácter teórico-aplicativo. En el desa-
rrollo del trabajo si se obtiene los resultados deseados, esto será un nuevo
aporte cientı́fico, muy significativo en optimización en la búsqueda de algorit-
mos más eficientes tanto teórica como computacionalmente, para la solución
de problemas prácticos que surgen en diversas áreas de las ciencias e in-
genierı́a, y en lo posible que sirva como una motivación para que se siga
investigando en esta área de la matemática y se desarrollen nuevos métodos.
21
1.4.4. Técnicas e instrumentos de recolección de datos
Para la realización de nuestro trabajo de tesis se revisará bibliografı́a espe-
cializada y recopilación de información obtenida vı́a internet, libros, proyectos
y tesis relacionados al tema de interés.
22
Capı́tulo 2
hT u, v − ui ≥ 0, ∀v ∈ H
hT u, v − ui + ϕ(v, u) − ϕ(u, u) ≥ 0, ∀v ∈ H
S
donde T : H → H es un operador no lineal, ϕ(., .) : H × H → R {+∞}
una función contı́nua y H es un espacio de Hilbert.
El modelo cuasivariacional surge naturalmente como una extensión del
problema de desigualdad variacional con el objetivo de ampliar las aplicacio-
nes del modelo y de los métodos, por ejemplo, a problemas de optimización
no convexo, problemas de singularidad no monótono, sistemas de ecuaciones
no lineales y no convexos, problemas de equilibrio no convexos, etc.
Existen diversas metodologı́as para resolver el problema de desigualdad
cuasivariacional, en este informe presentaremos una de las más conocidas
llamada el método del punto proximal.
23
El método del punto proximal es uno de los métodos más estudiados e
importantes para resolver problemas de optimización, de singularidades, pro-
blemas de desigualdad variacional, de equilibrio, entre otros. Este método fue
introducido por Martinet (1970),[5], motivado por el trabajo de Moreau en
[6] y [7], y fue extensamente estudiado por Rockafellar [16] en los años setenta
del siglo anterior para encontrar ceros de operadores monótonos maximales.
Para el problema de minimización
x0 ∈ H, (2.2)
24
En este informe estamos interesados en estudiar el método de punto pro-
ximal aplicado a resolver desigualdades cuasivariacionales. Este informe es
un desarrollo extendido del artı́culo [8], y es organizado en dos capı́tulos.
25
Definición 2.4 Dada una función f : H → IR, s ∈ H es llamado subgra-
diente de f en x si
Sy := {x ∈ K : hF (y), y − xi ≥ 0} (2.6)
F (y), α y − x1 ≥ 0
(2.7)
F (y), (1 − α) y − x2 ≥ 0.
(2.8)
Sumando (2.7) y (2.8) se tiene,
Definición 2.7
26
1. Sea K ⊂ H un conjunto convexo, f : K → IR es una función convexa
si para cada x, y ∈ K y α ∈ [0, 1], se tiene que f (αx + (1 − α)y) ≤
αf (x) + (1 − α)f (y).
27
Definimos z(α) = αy+(1−α)x̄. Por la convexidad de K se tiene que z(α) ∈ K
para todo α ∈ [0, 1]. Desde que f es una función convexa para α ∈ (0, 1], y
de (2.10) se tiene que
esto es, f (αx + (1 − α)x̄) ≤ z. Desde que z̄ es un valor óptimo del problema,
se tiene que f (αx + (1 − α)x̄) = z̄. Por lo tanto, αx + (1 − α)x̄ ∈ S. Entonces,
el conjunto de minimizadores es convexo.
i. La función f es convexa en K.
28
de donde, α(f (y) − f (x)) ≥ f (x + αd) − f (x). Dividiendo por α > 0,
f (x + αd) − f (x)
f (y) − f (x) ≥ .
α
Desde que f es una función convexa existe el lı́mite. Tomando lı́mite, cuando
α → 0+ tenemos
f (x + αd) − f (x)
f (y) − f (x) ≥ lı́m+
α→0 α
= h∇f (x), di
= h∇f (x), y − xi .
(1 − α)f (x) ≥ (1 − α)f (x + α(y − x)) + (1 − α) h∇f (x + α(y − x)), α(x − y)i .
(2.12)
Sustituyendo x = x + α(y − x) en (2.11) se tiene
Multiplicando por α,
29
2.3. Operador Monótono y Pseudo-Monótono
Definición 2.8 Sea (x, y), (x0 , y 0 ) ∈ T . Un conjunto T ⊂ H × H es
1. monótono(estrictamente), si hy − y 0 , x − x0 i ≥ 0 (> 0 para x 6= x0 ).
2. pseudo-monótono, si hy 0 , x − x0 i ≥ 0 entonces hy, x − x0 i ≥ 0.
3. paramonótono, si es monótono y hx − x0 , y − y 0 i = 0 entonces (x, y 0 ), (x0 , y) ∈
T.
4. monótono maximal, si es monótono y si para cualquier T 0 monótono tal
que
T (x) ⊂ T 0 (x) para todo x, se tiene que T = T 0 .
Teorema 2.5 Si T : Rn → → Rn (función punto conjunto), es monótono ma-
ximal y λk > 0, entonces la aplicación (I + λk T ) es inyectiva y sobreyectiva.
Demostración: Ver [14] pp 342.
Ejemplos 2.1 a. La aplicación M : [−2, 2] ⇒ IR definida como
x2 , Si x ∈ [−2, 0]
M (x) = 2
1 + x , Si x ∈ [0, 2]
es pseudo-monótona.
En efecto, sin pérdida de generalidad podemos suponer que
x ∈ [−2, 0] y x0 ∈ [0, 2], esto es, −x ∈ [0, 2], de donde
x0 − x ∈ [0, 4]. (2.14)
Además, 0 ≤ (1 + (x0 )2 )(x − x0 ) = (x − x0 ) + (x0 )2 (x − x0 ), de donde
x0 − x ≤ (x0 )2 (x − x0 ). (2.15)
Comparando (2.14) y (2.15) se tiene que 0 ≤ (x0 )2 (x − x0 ). Por lo tanto, M
es una aplicación pseudo-monótona.
b. Las aplicaciones N : [0, +∞] → IR y T : [0, 2] ⇒ IR definidas como
1 −x + 2 , Si x ∈ [0, 1]
N (x) = , y T (x) =
1+x x , Si x ∈ [1, 2]
son pseudo-monótonas pero no monótonas.
En efecto, supongamos que es monótona, esto es,
1 1
0 ≤ − (x − x0 )
1 + x 1 + x0
1
= − |x − x0 |2 ,
(1 + x)(1 + x0 )
30
lo cuál es una contradicción desde que (1 + x)(1 + x0 ) > 0. Por lo tanto, la
aplicación punto-punto N no es monótona. Además,
1
0≤ 0
(x − x0 )
(1 + x )
desde que (1 + x0 ) > 0, se tiene que x − x0 ≥ 0. Entonces,
1
(x − x0 ) ≥ 0
1+x
pues x ∈ [0, +∞]. Por lo tanto, la aplicación N es pseudo-convexa. Análo-
gamente se tiene para la aplicación punto-conjunto T .
Θ ∈ ∂f (xk+1 ) + λk xk+1 − xk .
(2.17)
31
De la Proposición 2.4.1, ∂f es un operador maximal; sustituyendo T = ∂f y
reordenando (2.17) se tiene
1
x ∈ I + T (xk+1 ),
k
∀ k ≥ 0.
λk
Por cuestiones computacionales, Rockafellar[12] consideró una sucesión de
error {ek } que está relacionado con la sucesión {xk } de la siguiente ‘versión
inexacta’:
k k+1 1
x +e ∈ I + T (xk+1 ), ∀ k ≥ 0.
λk
El modelo anterior muestra que el MPP clásico es una versión particular del
método proximal para encontrar ceros de operadores monótonos maximales,
el cuál genera una sucesión {xk } ⊆ H, a partir de un punto arbitrario x0 ∈ H,
dado como −1
k+1 1
x ∈ I+ T (xk + ek+1 ).
λk
Del Teorema 2.5, la existencia y unicidad de la sucesión {xk } es garantizada
desde que (I + 1/λk T ) es biyectivo, (la existencia por la sobreyectividad y la
unicidad por la inyectividad).
32
Una desigualdad del tipo (2.18) es llamada Desigualdad Cuasivariacional
Mixta.
S
g(., .) : H → R {+∞} una función contı́nua,
Además, si K es un conjunto en H y
0 , si u ∈ K
g(u) = IK (u) =
+∞ , en otro caso.
hT u, v − ui ≥ 0, ∀v ∈ K (2.20)
hT ū, v − ūi + 0 − 0 ≥ 0
se logra obtener (2.20):
hT ū, v − ūi ≥ 0, ∀v ∈ K
33
si v ∈
/ K, ϕ(v) = IK (v) = +∞, entonces
de esto tenemos
kuk2 + kvk2 + 2hu, vi = ku + vk2
34
Veremos el análisis del método proximal para desigualdades cuasivariaciona-
les mixtas.
Para u ∈ H consideremos el problema de buscar un único w ∈ H tal que:
hT w, v − wi + ϕ(v, w) − ϕ(w, w) ≥ 0
2.6. Algoritmo
S
Para H espacio de Hilbert, sea ϕ(., .) : H × H → R {+∞} una función
contı́nua. Dado un operador no lineal T : H → H, ρ > 0 una constante,
tenemos el siguiente algoritmo:
35
Si la función ϕ(., .) es propia, convexa y semicontı́nua inferior con respecto
a la primera variable, entonces al Algoritmo 2.1 se reduce al siguiente
algoritmo.
hT u, v − ui + ϕ(v, u) − ϕ(u, u) ≥ 0, ∀v ∈ H
36
lo que implica que
es decir
es decir
37
por transitividad de (2.28) y (2.29)
ordenandolo
por lo tanto
kun+1 − uk2 ≤ kun − uk2 − kun+1 − un k2
38
Demostración. Sea u ∈ H una solución de (2.18). De (2.24)
obtenemos que kun+1 − uk ≤ kun − uk, lo cual implica que {ku − un k} es una
sucesión no creciente, es decir, acotado superiormente por un c > 0. Por este
motivo tenemos que kun k − kuk ≤ kun − uk ≤ c, entonces kun k ≤ c + kuk,
lo cual implica que {un } es acotada.
hρT u b−u
b+u b, v − u
bi + ρϕ(v, u
b) − ρϕ(b b) ≥ 0 ∀v ∈ H
u, u
es decir
hT u
b, v − u
bi + ϕ(v, u
b) − ϕ(b b) ≥ 0 ∀v ∈ H
u, u
39
lo cual implica que u
b resuelve (2.18),luego usando (2.24) tenemos que
bk2 ≤ kun − u
kun+1 − u bk2 − kun+1 − un k2
entonces
bk2 ≤ kun − u
kun+1 − u bk2
de aqui, observamos que {kun − u
bk} es decreciente y acotada inferiormente,
osea que
{kun − u
bk} converge (2.33)
de (2.33) y (2.34)
{kun − u
bk} → 0
por lo tanto
lı́m un = u
b
n→∞
lı́m x(t) = xs
t→∞
Para el siguiente problema
R ∞ −δt
max J(x) = 0
e G(x, u)dt
u
sujeto a : x0 = f (x, u),
con : x(0) = x0 ,
lı́mt→∞ x(t) = xs
40
Siendo xs un estado estacionario.
Se supone que f y G poseen derivadas parciales primeras y segundas conti-
nuas, y que G está acotada.
Para resolver el problema se define el Hamiltoniano valor presente:
1)
∂H
m0 = δm − = δm − Gu − mfx
∂u
2) Hay que resolver:
max H
u
∂H
0= = Gu + mfu
∂u
Suponemos que se cumple la condición suficiente de máximo para el
problema a resolver la condición 2),
∂ 2H
<0
∂ 2u
3)
x0 = f (x, u), con x(0) = x0 , lı́m x(t) = xs
t→∞
Gu (xs , us ) + ms fu (xs , us ) = 0
La ecuación:
41
∂U ∂U
y
∂x ∂m
se verificará que:
f (xs , U (xs , ms )) = 0
δms − Hx (xs , U (xs , ms ), ms ) = 0
por lo que el sistema dado se puede aproximar por:
x0 = (fx + fu Ux )(x − xs ) + fu Um (m − ms )
42
Hux fu
Ux = − , Um = −
Huu Huu
queda:
fu2
x0 = (fx − fu H
Hux
uu
)(x − xs ) − Huu
(m − ms )
2
Hxu
m0 = −(Hxx − )(x − xs ) + (δ + Hxu Hfuu
u
− fx )(m − ms )
Huu
Podemos poner:
x0 = a(x − xs ) + b(m − ms )
m0 = c(x − xs ) + (δ − a)(m − ms )
en donde
Hux −fu2 2
Hxu − Hxx Huu
a = fx − fu , b= , c=
Huu Hu Huu
que están particularizados en xs , ms , us = U (xs , ms ).
(x − xs )0
a b x − xs
=
(m − ms )0 c δ−a m − ms
Para estudiar la estabilidad de este sistema, hay que calcular los autovalores
de la matriz de coeficientes:
a−λ b
= 0 ⇐⇒ λ2 − δx + a(δ − a) − bc = 0
c δ−a−λ
Por lo que:
δ 1p
λ= ± 4bc + (δ − 2a)2
2 2
Distinguimos tres casos:
43
1) 4bc + (δ − 2a)2 > 0. Hay dos autovalores reales distintos λ1 , λ2 , obte-
niéndose que:
δ 1p δ 1p
λ1 = + 4bc + (δ − 2a)2 ; λ2 = − 4bc + (δ − 2a)2
2 2 2 2
Se tiene que λ1 > 0, y que λ2 puede ser positivo, negativo o nulo. Se com-
prueba fácilmente que: λ1 > 0, λ2 < 0 ⇐⇒ bc > a(δ − a). En este caso
hay estabilidad punto de silla. Existe una única trayectoria que verifica que
x(0) = x0 y lı́mt→∞ x(t) = xs . En efecto: para que lı́mt→∞ x(t) = xs o lo
que es lo mismo, lı́mt→∞ (x(t) − xs ) = 0, tendrá que ser A = 0, ya que
lı́mt→∞ eλ1 t = ∞, mientras que lı́mt→∞ eλ2 t = 0, por ser λ2 < 0 < λ1 . Por
otra parte:
x0 − xs = B
por lo que:
λ1 > 0 ; λ2 ≥ 0 ⇐⇒ bc ≤ a(δ − a)
44
En este caso hay inestabilidad. No existe ninguna trayectoria que verifique
x(0) = x0 , y lı́mt→∞ x(t) = xs , siempre que x0 6= xs .
Por tanto, las condiciones para obtener estabilidad punto de silla son:
2.10. Adaptación
De (1.6) tenemos
R∞ 0
min − 0
e−δt (pqx(t) −c) F (x(t))−x
qx(t)
dt
s.a
x(t) ∈ C
Donde:
F (x(t))−x0
C = {x(.) :]0; ∞[→]0; ∞[ tal que 0 ≤ qx(t)
≤ EM ∀t ≥ 0, x(0) = x0 }
R∞ 0
Hacemos f (x) = G(t, x(t), x0 (t)) = − 0 e−δt (pqx(t) − c) F (x(t))−x
qx(t)
dt
Entonces, se tiene (
min f (x)
s.a.
x∈C
Además usando
R ∞ la derivada de Gateux de J en la dirección de h en el punto
−δt
x para J = 0 e (pqx(t) − c)Edt, tenemos:
45
J(x0 +θh)−J(x0 )
δJ(x0 , h) = lı́mθ→0 θ
R ∞ −δt
(pq(x0 +θh)−c)Edt− 0∞ e−δt (pqx0 −c)Edt
R
e
= lı́mθ→0 0
θ
R ∞ −δt 0 −c+pqθh)Edt− ∞ e−δt (pqx0 −c)Edt
R
e (pqx
= lı́mθ→0 0
θ
0
R ∞ −δt
(pqx0 −c)Edt+ 0∞ e−δt pqθhEdt− 0∞ e−δt (pqx0 −c)Edt
R R
e
= lı́mθ→0 0 θ
R ∞ −δt
0 e pqθhEdt
= lı́mθ→0 θ
R ∞ −δt
= lı́mθ→0 0 e pqhEdt
R ∞ −δt
= 0
e pqEhdt
−δt 0 −δt
= he pqE, hi, donde J = e pqE
= hJ 0 , hi
= hJ 0 (x0 ), x − x0 i
2.11. Ejemplo
R∞
max J = 0 e−3t (4 − x2 − u2 + 2u)dt
s.a x0 = 2x + 2u
con x(0) = 5
lı́mn→∞ x(t) = 0
Solución:
Se define el Hamiltoniano
H(x, u, m) = 4 − x2 − u2 + 2u + m(2x + 2u)
= 4 − x2 − u2 + 2u + 2mx + 2mu
Aplicando el principio del máximo
1) m0 = δm − ∂H
∂u
m0 = 3m − (−2u + 2 + 2m)
46
∂H
i) ∂u
= −2u + 2 + 2m = 0, entonces u = 1 + m
∂2H
ii) ∂u2
= −2 < 0 (máximo)
e−2t 2udt + c
R
x = e2 t
Hux f2 2
Hxu − Hxx Huu
a = fx − fu , b=− u y c=
Huu Huu Huu
Reemplazando tenemos: a = 2, b = 2 y c = 2.
Las condiciones para obtener estabilidad del sistema son: 4bc + (δ − 2a)2 > 0
y bc > a(δ − a). Reeplazando los valores de a, b y c, obtenemos 17 > 0 y
4 > 2, por lo tanto el problema (2.11) tiene solución.
47
2.12. Conclusiones
Fue posible presentar un algoritmo que resuelva un problema de opti-
mización relacionado a la explotación de recursos pesqueros en el Perú.
2.13. Recomendaciones
Un futuro trabajo puede ser la implementación del método estudiado
para algunos problemas realistas y su respectiva comparación con otros
métodos. Para ello recomendamos una implementación en C ++ .
48
Bibliografı́a
[3] GULER O.,On the convergence of the proximal point algorithm for con-
vex minimization. SIAM J. Control Optim. Vol. 29: 403-419, 1991.
[4] LIONS, P. L., MERCIER, B., Splitting algorithms for the sum of two
nonlinear operators. SIAM Journal on Numerical Analysis Vol. 16 (6):964-
979, 1979.
[9] NOOR, M. A., A Class of New Iterative Methods for General Mixed
Variational Inequalities, Mathematical and Computer Modelling, Vol. 31,
pp. 11-19, 2000.
49
[10] TSENG, P., On Linear Convergence of Iterative Methods for the Va-
riational Inequality Problem, Journal of Computational and Applied
Mathematics, Vol. 60, pp. 237-252, 1995.
50
[23] MORENO, C., E. JARAMILLO e I. LEPEZ. Estudio de áreas poten-
ciales de reservas marinas y parques marinos entre la VIII y X regiones.
Informe Final Proyecto FIP 1999. 2001.
[25] SOTO, D., F. JARA y C. MORENO. Escaped salmon in the inner seans,
southem Chile: facing ecological and social conflicts. Ecological Apllica-
tions. 2001.
51