Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CALLAO - PERÚ
Febrero - 2009
HOJA DE PRESENTACIÓN
Aprobado por:
CALLAO - PERÚ
Febrero - 2009
ii
FICHA CATALOGRÁFICA
iii
Dedicatoria
A Dios y a mi mamá Belia.
iv
AGRADECIMIENTOS
⋆ A mi asesor de tesis, el Profesor Erik Alex Papa Quiroz, por su valiosa colabo-
ración y dirección en la realización de la tesis.
v
RESUMEN
Febrero - 2009
Palabras Claves:
vi
ABSTRACT
We prove the global existence and unicity of the trajectory x : [0, ∞) → Rn for the
system (S), where f : Rn → R be a C 2 (Rn ) function which is bounded from below
n
on R+ . We study the viability in the positive octant and analyze the asymptotic
behavior of the trajectory where we obtain the global convergence of this path to
an optimal solution when f is convex. Also, we extend the global converge to
a KKT point from the convex case to the quasi-convex one. These results are
usefull in the application of the mathematics to the economy. For example cost
functions, production and consumer decision problem are often convex or quasi-
n
convex functions on the nonnegative octant R+ . Thus, our work will solve, in
particular problems in the decision economic theory.
Keywords:
vii
Contenido
Introducción 1
1 Preliminares 6
1.1 Nociones de Convexidad . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Resultados de Análisis . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Resultados de Optimización . . . . . . . . . . . . . . . . . . . . . . . 9
3 Funciones Cuasi-convexas 29
3.1 Funciones Diferenciables Cuasi-convexas . . . . . . . . . . . . . . . . 42
3.2 Funciones Estrictamente Cuasi-convexas . . . . . . . . . . . . . . . . 58
3.3 Funciones Semi-estrictas Cuasi-convexas . . . . . . . . . . . . . . . . 64
3.4 Funciones Pseudo-convexas . . . . . . . . . . . . . . . . . . . . . . . . 76
4 Optimización Cuasi-convexa 83
4.1 Condiciones Suficientes para un Mı́nimo . . . . . . . . . . . . . . . . 83
4.2 Modelos Económicos Cuasi-convexos . . . . . . . . . . . . . . . . . . 89
4.2.1 Demanda del Consumidor . . . . . . . . . . . . . . . . . . . . 90
4.2.2 Producción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2.3 Bienestar Económico . . . . . . . . . . . . . . . . . . . . . . . 93
viii
5.6 Sistema Dinámico Lotka Volterra cuando
ν → 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.7 Nuevos Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.7.1 Algunos Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 125
Conclusiones 133
Bibliografı́a 133
ix
Lista de Figuras
x
Notaciones
R̄ = R ∪ {+∞}.
Rn = {x = (x1 , x2 , ..., xn ) : xi ∈ R, ∀i = 1, ..., n}: espacio euclidiano n-
dimensional.
n
R+ = {x = (x1 , x2 , ..., xn ) ∈ Rn : xi ≥ 0 ∀i = 1, ..., n}: ortante no negativo.
n
R++ = {x = (x1 , x2 , ..., xn ) ∈ Rn : xi > 0, ∀i = 1, ..., n}: ortante positivo.
Dado x ∈ Rn , x ≥ 0 significa x ∈ R+
n
.
Dado x ∈ Rn , x > 0 significa x ∈ R++
n
.
B(x̄, ǫ): denota la bola abierta de centro x̄ y radio ǫ.
′
f (x, d): denota la derivada direccional de f .
∇f (x): denota el gradiente de f en x.
L (f, α): denota el conjunto de nivel inferior de f .
U (f, α): denota el conjunto de nivel superior de f .
Y (f, α): denota la superficie de nivel de f .
xi
Introducción
1
consumidor es equivalente a resolver el problema de maximización:
max f (x)
x∈X
donde µ > 0, ν > 0 son parámetros dados. Estudiamos este sistema como un
método para resolver el problema de minimización convexa y cuasi-convexa, el cual
fue introducido por Attouch, H., y Teboulle, M. [3] en el artı́culo titulado ”Regu-
larized Lotka-Volterra Dynamical System as Continuous proximal - Like Method in
Optimization”.
2
De esta manera, la relación de preferencia da un criterio de valorización entre dos bie-
nes o mercancı́as por medio de la función de utilidad. Esta función es cuasi-cóncava
y monótona si, la relación de prefencia es convexa y monótona. Este capı́tulo, jus-
tifica el estudio y la importancia de las funciones cuasi-cóncavas.
3
Finalmente, en nuestro estudio concluimos y presentamos la convergencia a un punto
óptimo para el caso convexo y como un nuevo resultado tenemos la convergencia
a un punto KKT cuando la función es cuasi-convexa. Parte de este material fue
presentado en el concurso de Iniciación Cientı́fica del IV Congreso Internacional de
Matemática Aplicada y Computacional - IV CIMAC ocupando el primer puesto en
su categorı́a.
4
Revisión de la Bibliografı́a
5
Capı́tulo 1
Preliminares
Definición 1.2 El segmento cerrado que une los puntos x e y es denotado por [x, y]
y está definido por
C1 + C2 = {z = x1 + x2 / x1 ∈ C1 ∧ x2 ∈ C2 }
es un conjunto convexo.
6
Demostración. Ver [10], pág 11.
Lema 1.1 Sea {Cα } una colección de conjuntos convexos tal que
\
C= Cα
α∈I
Haα = {x : ha, xi = α} .
Definición 1.4 Dos conjuntos X e Y son separados por un hiperplano Haα si,
ha, xi ≥ α, ∀x ∈ X ∧ ha, yi ≤ α, ∀y ∈ Y.
ha, xi ≤ α ∧ ha, yi = α.
para todo α ∈ R.
U (f, α) = {x ∈ C : α ≤ f (x)}
para todo α ∈ R.
7
1.2 Resultados de Análisis
Definición 1.8 Dado un punto x0 ∈ Rn y un número real δ > 0, definimos:
Bδ (x0 ) = {x ∈ Rn : kx − x0 k < δ} .
B̄δ (x0 ) = {x ∈ Rn : kx − x0 k ≤ δ} .
8
Definición 1.15 Una función f : X → R, definida en un conjunto X ⊂ Rn , se
dice que es continua en el punto a ∈ X cuando, para cada ǫ > 0 dado, se puede
obtener un δ > 0 tal que si x ∈ X y k x − ak < δ implica que |f (x) − f (a)| < ǫ. En
lenguaje simbólico esto es equivalente a:
1. ∅ ∈ τ , X ∈ τ .
Gi ∩ Gj ∈ τ
El par (X, τ ) es un espacio topológico y los elementos de τ se les llama abiertos del
espacio topológico (X, τ ) .
a. minimizador local en D si
b. minimizador global en D si
f (x0 ) ≤ f (x) , ∀x ∈ D.
9
Teorema 1.3 (Condición necesaria de primer orden) Supongamos que f : Rn → R
es una función diferenciable en el punto x0 ∈ Rn . Si x0 es un mı́nimo local del
problema de minimización irrestricto entonces,
∇f (x0 ) = 0.
v T ∇2 f (x0 ) v ≥ 0, ∀v ∈ Rn .
10
Definición 1.18 Un punto x̄ ∈ Rn es un punto estacionario del problema
min f (x)
(1.1)
x∈D
i. g (x̄) ≤ 0,
ii. µ̄ ≥ 0
11
Capı́tulo 2
Minimización Cuasi-convexa en la
Teorı́a Económica de Decisión
1. Reflexiva : Si x - x ∀x ∈ X .
2. Transitiva : Si x - y ∧ y - z implica x - z ∀x, y, z ∈ X.
12
3. Completa : Si x - y o y - x ∀x, y ∈ X.
(y, x) ∈- ∧ (x, y) ∈-
/ .
{y ∈ X : x ≺ y}
{y ∈ X : y ≺ x}
{y ∈ X : x - y}
es cerrado.
{y ∈ X : y - x}
es cerrado.
{y ∈ X : x - y} y {y ∈ X : y - x}
13
son cerrados.
{y ∈ X : x - y}
es el conjunto
{y ∈ X : y ≺ x} .
En efecto, consideremos
z∈
/ {y ∈ X : x - y}
desde que - es completo
(z, x) ∈- ∧ (x, z) ∈-
/
entonces,
(z, x) ∈≺
luego,
z ∈ {y ∈ X : y ≺ x} .
Analogamente, se observa que el complemento del conjunto
{y ∈ X : y - x}
{y ∈ X : x ≺ y} ∧ {y ∈ X : y ≺ x}
1. La preferencia - es continua.
14
3. Si y ≺ x en X, entonces existen vecindades disjuntas Ux y Uy de x e y respec-
tivamente, tal que a ∈ Ux y b ∈ Uy implica b ≺ a.
Ux = {a ∈ X : z ≺ a} ∧ Uy = {b ∈ X : b ≺ z}
Ux = {a ∈ X : y ≺ a} ∧ Uy = {b ∈ X : b ≺ x}
como a ∈ Ux y b ∈ Uy , tenemos
y≺a ∧ b≺x
(b, a) ∈-
/ ∨ (a, b) ∈- .
Si (b, a) ∈-,
/ por completitud de - tenemos (a, b) ∈-. De ahı́,
y≺a-b≺x
Ux = {a ∈ X : z ≺ a} ∧ Uy = {b ∈ X : b ≺ z}
son disjuntos,
Ux ∩ Uy = ∅.
En efecto, supongamos que Ux ∩ Uy 6= ∅, es decir,
∃ m ∈ X \ m ∈ Ux ∧ m ∈ Uy
entonces,
z≺m ∧ m≺z
por transividad de ≺,
m ≺ m,
lo cual es una contradicción pues ≺ es irreflexiva.
Acontinuación, demostraremos que el item 3 implica 2.
Tomemos (xα , yα ) una sucesión de - por definición tenemos,
xα - yα
15
talque (xα , yα ) → (x, y). Nos proponemos demostrar que (x, y) ∈-.
Supongamos que (x, y) ∈-, / por completación de - tenemos (y, x) ∈- entonces
y ≺ x.
Sabemos que xα → x, desde que x ∈ Ux , por definición existe n0 ∈ N talque α > n0
entonces xα ∈ Ux . Por otro lado, como yα → y y desde que y ∈ Uy , por definición
existe n1 ∈ N talque α > n1 entonces yα ∈ Uy .
Consideremos n2 = max {n0 , n1 } talque α > n2 entonces
xα ∈ Ux ∧ yα ∈ Uy
(yα , xα ) ∈- ∧ (xα , yα ) ∈-
/
{y ∈ X : y - x}
{y ∈ X : x - y}
y - x ⇔ u (y) ≤ u (x) .
16
En el caso de relación estricta ≺ se tiene
y ≺ x ⇔ u (y) < u (x) .
17
y
f (x) = x2
y x x
Ejemplo 2.1 Sea la función u : [0, ∞) → R definida por u (x) = x2 la cual es una
función cuasi-cóncava pero no cóncava.
0 ≤ λ (x − y) ≤ x − y
sumando x,
y ≤ y + λ (x − y) ≤ x
desde que y ≥ 0 elevamos al cuadrado
y 2 ≤ (λx + (1 − λ) y)2 ≤ x2
luego,
f (y) ≤ f (λx + (1 − λ) y) ≤ f (x) , ∀ λ ∈ [0, 1]
de aquı́,
min {f (x) , f (y)} ≤ f (λx + (1 − λ) y) , ∀ λ ∈ [0, 1] .
Por tanto, f es una función cuasi-cóncava. Sin embargo, la función no es cóncava,
es decir, no satisface
Basta considerar,
1
x = m, y = m + 1 ∧ λ =
2
con m ≥ 0, entonces
1 1 2m + 1 1 1
f m + (m + 1) = f ≥ f (m) + f (m + 1)
2 2 2 2 2
lo que implica, 2
2m + 1 1 1
≥ m2 + (m + 1)2
2 2 2
18
lo cual es equivalente a,
2 2
1 1 1
m+ ≥ m+ +
2 2 4
Por tanto, se observa que f no satisface la definición de concavidad.
La definición anterior nos permite afirmar que una función de utilidad sobre una
relación de preferencia convexa es una función cuasi-cóncava. Por tanto, enunciemos
el siguiente teorema.
Teorema 2.2 Para un conjunto convexo C de un espacio vectorial y una función
u : C → R entonces se satisfacen los siguientes enunciados:
1. La función u es cuasi-cóncava si y solo si, la relación de preferencia definida
por u es convexa.
2. La función u es estrictamente cuasi-cóncava si y solo si, la relación de prefe-
rencia definida por u es estrictamente convexa.
Demostración.
1. Supongamos que u es una función cuasi-cóncava y que
y - x ∧ y - z en C.
luego,
u (y) ≤ u (x) ∧ u (y) ≤ u (z) ,
usando la hipótesis de cuasi-concavidad de u tenemos
u (y) ≤ min {u (x) , u (z)} ≤ u (αx + (1 − α) z) , ∀ ∈ [0, 1] .
De aquı́,
u (y) ≤ u (αx + (1 − α) z) ∀, α ∈ [0, 1] .
De la definición de función de utilidad se tiene
y - αx + (1 − α) z, ∀ α ∈ [0, 1]
Ası́, queda probado la convexidad de -.
Reciprocamente, consideremos que la relación de preferencia - definida por
u es convexa. Sean x, y ∈ C, sin pérdida de generalidad supongamos que
u (y) ≤ u (x) por definición de función de utilidad y - x. Ası́, tenemos que
y-x ∧ y-y
De la convexidad de - tenemos
y - αx + (1 − α) y, ∀ α ∈ [0, 1]
Por tanto, de la definición de función de utilidad
min {u (x) , u (y)} = u (y) ≤ u (αx + (1 − α) y) , ∀α ∈ [0, 1]
Entonces, queda probado que la función u es cuasi-cóncava.
19
2. Supongamos que u es una función estrictamente cuasi-cóncava y consideremos
en C, x 6= z tal que
y -x ∧y -z
Por transitividad en ≤
y ≺ αx + (1 − α) z, ∀ α ∈ (0, 1)
y-x ∧ y-y
y ≺ αx + (1 − α) y
20
Definamos, el conjunto E + por:
E + = {x ∈ E : 0 ≤ x}
el cual, es conocido como el cono positivo de E y sus elementos son llamados vectores
positivos. Un ejemplo importante es el espacio vectorial ordenado E = Rn . El
orden es definido por y = (y1 , .., yn ) ≤ (x1 , .., xn ) = x si y solo si yi ≤ xi para todo
i = 1, 2, ..., n. El cono positivo de Rn es denotado por R+ n
, esto es,
n
R+ = {x = (x1 , .., xn ) : 0 ≤ xi , ∀i = 1, .., n} .
u (x1 , x2 ) = x1 x2 .
Sean
x1 = 1 x2 = 0,
y1 = 2 y2 = 0
u (1, 0) ≤ u (2, 0)
entonces,
(1, 0) - (2, 0) .
Además, observamos que
(2, 0) - (1, 0)
lo cual implica que no se satisface
(1, 0) ≺ (2, 0) .
Por tanto, se satisface (1, 0) < (2, 0) y ¬ ((1, 0) ≺ (2, 0)), es decir, la relación de
preferencia no es estrictamente monótona sin embargo, es monótona.
Introducimos una nueva definición
21
S
Definición 2.10 (Convexidad por el origen) Una curva S es convexa por el origen
si existe a lo más un punto de la curva entre el segmento formado por el origen y el
punto de intersección del segmento formado por dos puntos de S.
La curva mostrada en la gráfica es convexa por el origen, desde que A y B son dos
puntos en la curva, entonces el rayo pasando por el origen O y x (punto del segmento
AB) intercepta a la curva en el punto D.
En base a esta definición podemos dar mas resultados de funciones de utilidad cuasi-
cóncavas.
22
Definición 2.11 Sea - una relación de preferencia en un subconjunto X de un
espacio vectorial E. Entonces un vector v ∈ E se dice extremadamente preferible
para - cuando:
n
Teorema 2.4 Para una preferencia continua - definida en el cono positivo R+ del
espacio vectorial Rn se satisfacen los siguientes enunciados:
n n
• x + αv ∈ R+ , ∀x ∈ R+ , ∀α > 0.
n
• x ≺ x + αv, ∀x ∈ R+ , ∀α > 0.
• Desde que,
x + αv < x + αv + α (1, ..., 1) ,
por monotonicidad de - tenemos
x + αv - x + αv + α (1, ..., 1)
y como
x ≺ x + αv
entonces por transitividad tenemos,
x ≺ x + αe, ∀α > 0.
23
Ası́, e también es extremadamente preferible donde e = (e1 , ..., en ).
De esta manera, podemos asumir que existe un vector extremadamente preferible e
satisfaciendo ei > 0 para todo i.
n
Ahora para cada x ∈ R+ definimos el conjunto
{α > 0 : x - αe}
desde que ei > 0 y xi > 0 por el Lema Arquimediano existe α ∈ N talque xi < αei
entonces x < αe por monotonicidad x - αe se concluye que el conjunto es no vacı́o.
Observamos que el conjunto anteriormente definido es no vacı́o y además tiene como
cota inferior 0 y por el axioma del supremo este conjunto tiene ı́nfimo.
A partir de esto definimos
u (x) = inf {α > 0 : x - αe}
el cual está bien definido.
Afirmamos que x ∼ u (x) e.
n
En efecto, desde que - es continua entonces y ∈ R+ : x - y es cerrado.
Por otro lado, si u (x) > 0 entonces para todo ǫ suficientemente pequeño tal que
u (x) − ǫ > 0 se tiene (u (x) − ǫ) e - x. Supongamos que la afirmación anterior no
es cierta, es decir, x - (u (x) − ǫ) e
Desde que u (x) − ǫ > 0 podemos considerar α = u (x) − ǫ talque x - αe, de la
definición de u (x) como el ı́nfimo de este conjunto
u (x) ≤ u (x) − ǫ.
Donde se concluye ǫ < 0 lo cual es una contradicción. Entonces no es cierto que
x - (u (x) − ǫ) e por lo que queda demostrada la afirmación.
Si u (x) = 0 entonces de la hipótesis de x ≥ 0 y la monotonicidad de - implican
o - x Por tanto,
0 = u (x) e - x
Por lo tanto, u (x) e ∼ x.
Hacemos la siguiente observación la que usaremos para demostrar resultados poste-
riores. Si 0 ≤ α y 0 ≤ β, entonces βe - αe si y solo si β ≤ α.
En efecto, supongamos que βe - αe implica α < β.
Entonces β − α > 0 y desde que e es extremadamente preferible cosideremos
α = β − α y αe un vector de Rn obtenemos
αe ≺ αe + (β − α) e = βe
Lo cual es una contradicción, por lo que queda demostrada la afirmación.
En particular, se ha demostrado que para cada x ∈ Rn existe un escalar u (x) tal
que x ∼ u (x) e.
n
Es claro que la función u : R+ → R definida anteriomente es una función de
utilidad representando -.
En efecto, si x - y entonces x ∼ u (x) y y ∼ u (y) por la definición de indiferencia
∼ obtenemos:
u (x) e - x - y - u (y) e
24
u (x) Curva de indiferencia pasando por x
u (x) e
u (xn ) → u (x) .
25
Primero estudiaremos la existencia de tal lı́mite, como u es una función de utilidad
es monótona creciente además por su definición es acotada inferiormente por 0 y
superiormente por un α > 0. Desde que u (xn ) es monótona y acotada entonces es
convergente. Desde que x ∼ u (x) e obtenemos
xn - u (xn ) ∧ u (xn ) - xn
De la continuidad de -
(x1 , x2 ) ≻ (y1 , y2 )
En efecto, supongamos que tal representación es posible, y por lo tanto existe una
función de utilidad. Entonces, para cada r ∈ [0, 1] se tiene
26
S∞ 1
[0, 1] ⊂ n=1 r / d (r) > n
Lo cual es equivalente,
u [(x, 1)] − u [(x, 0)] > 0
luego,
d (x) > 0
1
entonces, por el Lema Arquimediano d (x) > n
para algún n ∈ N se tiene
S∞ 1
x∈ n=1 r / d (r) > n
.
u : [0, 1] × [0, 1] → R
es no numerable. Tomando u [(1, 1)]−u [(0, 0)] = k y sea N entero mayor que km+1,
es decir, N > km + 1 lo cual implica Nm−1 > k.
1
Elijamos un conjunto de N elementos {r1 , r2 , ..., rN } en el conjunto Sm = r / d (r) > m
de manera que r1 < r2 < ... < rN .
Puesto que,
luego,
u [(rn , 0)] > u [(rn−1 , 1)] .
Por lo tanto,
27
1
u [(rn , 0)] − u [(rn−1 , 0)] > u [(rn−1 , 1)] − u [(rn−1 , 0)] > m
.
En consecuencia,
k = u [(1, 1)] − u [(0, 0)] = {u [(1, 1)] − u [(rN , 0)]} + {u [(rN , 0)] − u [(rN −1 , 0)]}
+ {u [(rN −1 , 0)] − u [(rN −2 , 0)]} + {u [(rN −2 , 0)] − u [(rN −3 )]}
+ ... + {u [(r2 , 0)] − u [(r1 , 0)]} + {u [(r1 , 0)] − u [(0, 0)]}
1 1 1 N −1
> 0+ + + ... > > k,
m m m m
lo cual es una contradicción, por lo tanto, ≺ no se puede representar por una función
de utilidad.
28
Capı́tulo 3
Funciones Cuasi-convexas
f (x)
x2
x1
Conjuntos de Nivel Inferior
29
son convexos para todo α ∈ R.
Las funciones definidas de esta manera fueron enunciados por primera vez por
De Finetti [22]. Las propiedades de funciones cuasi-convexas, las relaciones entre
ellas y las funciones convexas fueron estudiadas por Frenchel [20].
Resultados equivalentes pueden obtenerse fácilmente para funciones cuasi-cóncavas,
desde que f es cuasi-cóncava si y solo si −f es cuasi-convexa.
∀ x, y ∈ C, ∀ λ ∈ [0, 1] .
L (f, α) = {x ∈ C : f (x) ≤ α}
f (x) ≤ α ∧ f (y) ≤ α
El recı́proco no es cierto, para ello considere por ejemplo la función f (x) = −x2
que no es convexa pero es cuasi-convexa (ver ejemplo 2.1 ). Algunos resultados de
la composición de funciones cuasi-convexas fueron desarrolladas por Schaible [44].
Uno de estos resultados se muestra en la siguiente proposición.
30
y
31
Proposición 3.1 (Fenchel, 1951) Sea φ : C ⊂ Rn → R una función cuasi-convexa
y sea f : D ⊂ R → R una función no decreciente en D conteniendo la imagen de
φ, entonces la función composición f ◦ φ es también cuasi-convexa.
Lo cual es equivalente a
f :R → R
y → f (y) = y 3
φ:C → R
x → φ (x) = x.
Observación 3.3 Cuando la función es convexa es bien conocido que todo mı́nimo
local es global. Sin embargo, para funciones cuasi-convexas este resultado no es
verdadero. Basta considerar la función cuasi-convexa.
x2
−1≤x≤1
f (x) = 2 1<x≤3
− (x − 4)2 + 6 3 < x ≤ 4.
32
Mı́nimo local
-1 0 1 2 3 4
33
y
Mı́nimo local
Mı́nimo global
x
x = λx1 + (1 − λ) x2 ∈ C, ∀ λ ∈ [0, 1] ,
34
y
x1 x0 x2 x
35
En efecto, sea 0 < t < t̄ entonces,
t
0< <1
t̄
de aquı́,
t t t t
x + tv = x + (t̄v) = +1− x + (t̄v)
t̄ t̄ t̄ t̄
t t
= (x + t̄v) + 1 − x ∈ C.
t̄ t̄
La pertenencia anterior se cumple desde que C es un conjunto convexo.
Ahora probaremos que F es cuasi-convexa en (0, t̄). Por tanto, debemos demostrar
que
F (λt1 + (1 − λ) t2 ) ≤ max {F (t1 ) , F (t2 )} , ∀ t1 , t2 ∈ (0, t̄) .
En efecto, sean t1 , t2 ∈ (0, t̄) luego
x + t1 v, x + t2 v ∈ C,
de la cuasi-convexidad de f tenemos,
f (λ (x + t1 v) + (1 − λ) (x + t2 v)) ≤ max {f (x + t1 v) , f (x + t2 v)} , ∀ λ ∈ [0, 1] .
La expresión anterior es equivalente a
F (λt1 + (1 − λ) t2 ) ≤ max {F (t1 ) , F (t2 )} .
La cual demuestra que F es cuasi-convexa en (0, t̄).
Por tanto, usando la Proposición 3.4 la función F (t) = f (x + tv) no alcanza un
máximo local semi-estricto en t ∈ (0, t̄).
Reciprocamente, sean x1 , x2 ∈ C tal que x1 6= x2 , consideremos
x2 − x1
v= ∧ t̄ = kx2 − x1 k . (3.3)
kx2 − x1 k
Como x1 + tv ∈ C, definamos
F (t) = f (x1 + tv) , ∀t ∈ (0, t̄) .
Desde que f tiene la propiedad de segmento máximo sobre [0, t̄] , F alcanza su
máximo en algún t0 ∈ [0, t̄], es decir,
F (t) ≤ F (t0 ) , ∀ t ∈ [0, t̄] . (3.4)
Ya que F no alcanza un máximo local semi-estricto en t0 ∈ (0, t̄) , entonces
F (t0 ) ≤ max {F (0) , F (t̄)} . (3.5)
De (3.4) y (3.5),
F ((1 − λ) t̄) = F (t) ≤ max {F (0) , F (t̄)} . (3.6)
Usando (3.3) y reemplazando en (3.6) tenemos
f (λx1 + (1 − λ) x2 ) ≤ max {f (x1 ) , f (x2 )} , ∀λ ∈ [0, 1] .
Por lo tanto, f es cuasi-convexa.
36
Proposición 3.5 Sea f : C ⊂ Rn → R una función semicontinua superior definida
en C. Entonces f tiene la propiedad de segmento máximo.
lim xk = x̄ ∧ x̄ ∈ [x1 , x2 ] .
α= sup f (x) .
x∈[x1 ,x2 ]
lim f (xl ) = α.
lim xl = x∗ ∧ x∗ ∈ [x1 , x2 ] .
37
y y
x x
La definición anterior significa que una función de variable real unimodal es dividida
en dos subintervalos (uno de ellos puede ser vacı́o) por el punto que alcanza el mı́nimo
en I, donde el subintervalo de la izquierda de x hace que la función sea no creciente
y el subintervalo de la derecha de x hace que la función sea no decreciente.
x∗ < x1 ≤ x2
luego,
38
Si tenemos x (λ) ≤ x∗ y como x1 < x (λ) entonces
Usando esta definición se puede mostrar que las funciones semicontinuas inferiores
cuasi-convexas y unimodales son equivalentes.
F (λ) = f (λx1 + (1 − λ) x2 )
J = {λ ∈ R : 0 ≤ λ ≤ 1} .
yi = λi x1 + (1 − λi ) x2 , i = 0, 1, 2.
Entonces, existe α ∈ (0, 1) tal que y0 = αy1 + (1 − α) y2 . En efecto, como λ1 < λ0 <
λ2 , existe α ∈ (0, 1) tal que
λ0 = αλ1 + (1 − α) λ2 .
De la definición se tiene
y0 = λ0 x1 + (1 − λ0 ) x2 .
39
Reemplazando el valor de λ0 obtenemos
y0 = α (λ1 x1 + (1 − λ1 ) x2 ) + (1 − α) (λ2 x1 + (1 − λ2 ) x2 ) .
Usando de nuevo la definición se tiene que
y0 = αy1 + (1 − α) y2 .
Luego, de la cuasi-convexidad de f se tiene que
max {f (y1 ) , f (y2 )} ≥ f (y0 ) .
Lo cual implica que
max {F (λ1 ) , F (λ2 )} ≥ F (λ0 ) .
Entonces, F es una función cuasi-convexa.
Reciprocamente, sean x1 , x2 ∈ C y supongamos que F es cuasi-convexa en J, en-
tonces
max {F (0) , F (1)} ≥ F (λ)
y
max {f (x1 ) , f (x2 )} ≥ f (λx1 + (1 − λ) x2 )
Lo cual implica que f es cuasi-convexa.
De esta manera f es una función cuasi-convexa en su dominio convexo C ⊂ Rn si y
solo si es cuasi-convexa en todo segmento contenido en C.
Como los conjuntos de nivel superior y los conjuntos de nivel inferior de las funciones
cuasi-afines, son conjuntos convexos, se satisface, para todo x1 , x2 en el dominio
convexo de f
max {f (x1 ) , f (x2 )} ≥ f (λx1 + (1 − λ) x2 ) ≥ min {f (x1 ) , f (x2 )} , λ ∈ [0, 1] .
Para funciones de variable real las funciones monótonas (funciones crecientes o de-
crecientes) y cuasi-afines son equivalentes.
Cabe resaltar que una función es convexa y cóncava si y solo si es afin. Las funciones
cuasi-afin son generalizaciones de funciones afines en el caso en que reemplazamos
convexidad y concavidad por cuasi-convexidad y cuasi-concavidad.
Un interesante resultado de funciones cuasi-afines en términos de superficie de nivel
se da en las superficies de indiferencia usadas en el análisis económico.
40
Demostración. Asumamos que el conjunto Y (f, α) es convexo. Probaremos que
f es cuasi-afin. Supongamos que f no es cuasi-convexa, entonces existen x¯1 , x¯2 ∈ C
y λ ∈ (0, 1) tal que
x − λx1
x̄ = rx1 + (1 − r)
1−λ
multiplicamos por (1 − λ)
(1 − λ) x̄ = (r − λ) x¯1 + (1 − r) x
1
multiplicamos por 1−r
1−λ r−λ
x̄ − x¯1 = x
1−r 1−λ
1−λ
consideremos γ = 1−r
, entonces
x = γ x̄ + (1 − γ) x1 γ ∈ (0, 1) .
Como Y (f, ᾱ) es convexo y x̄, x1 ∈ Y (f, ᾱ) entonces x ∈ Y (f, ᾱ) luego f (x) = ᾱ
contradiciendo (3.11). Por lo tanto, f es cuasi-convexa.
Por otro lado, probaremos que f es cuasi-cóncava, es decir, −f es cuasi-convexa.
Supongamos que −f no es cuasi-convexa, entonces existen x¯1 , x¯2 ∈ C y λ ∈ (0, 1)
tal que
41
donde x = λx¯1 + (1 − λ) x¯2 . Desde que f es continua en el segmento compacto
[x, x¯2 ] existe
x̄ = λ̄x + 1 − λ̄ x¯2
x = γ x̄ + (1 − γ) x1 , γ ∈ (0, 1) .
Como Y (−f, ᾱ) es convexo y x̄, x1 ∈ Y (−f, ᾱ) entonces x ∈ Y (−f, ᾱ) luego
−f (x) = ᾱ contradiciendo (3.13). Por lo tanto, f es cuasi-cóncava.
Reciprocamente, si f es cuasi-afin entonces es cuasi-convexa y cuasi-cóncava. Por
tanto, U (f, α) y L (f, α) son conjuntos convexos para todo α ∈ R.
En consecuencia, la intersección de U (f, α) y L (f, α) también es convexa.
Concluimos esta sección con dos observaciones dadas por Ponstein [40] y Thompson
y Parke [48]. Primero, para funciones continuas la definición de cuasi-convexidad
se presenta de la manera siguiente: Una función f continua definida en el conjunto
convexo C es cuasi-convexa si sus conjuntos de nivel inferior estricto
f (x1 ) ≤ f (x2 )
42
entonces
f (λx1 + (1 − λ) x2 ) − f (x2 )
≤0
λ
Lo cual es equivalente a
f (x2 + λ (x1 − x2 )) − f (x2 )
≤0
λ
considerando v = x1 − x2 , tenemos
f (x2 + λv) − f (x2 )
≤0
λ
Tomando lı́mite cuando λ → 0+ entonces
∂f
(x2 ) ≤ 0
∂v
Por definición,
∂f
(x2 ) = h∇f (x2 ) , vi ≤ 0
∂v
Por lo tanto,
(x1 − x2 )T ∇f (x2 ) ≤ 0
f (x1 ) ≤ f (x2 )
definiendo,
F (λ) = f (λx1 + (1 − λ) x2 ) , ∀ λ ∈ [0, 1]
entonces
F (1) ≤ F (0) .
Supongamos que la función F no es cuasi-convexa, es decir existe λ∗ ∈ (0, 1) tal que
Por el teorema del valor medio en el intervalo [λ∗ , 1], existe λ0 ∈ (λ∗ , 1) tal que
F (1) − F (λ∗ )
F ′ (λ0 ) = <0
1 − λ∗
43
Entonces,
Reemplazando
x0 − x2 = λ0 (x1 − x2 ) ,
en (3.17) tenemos
λ0 (x2 − x1 )T ∇f (x0 ) ≤ 0
Lo cual es equivalente a
λ0 (x1 − x2 )T ∇f (x0 ) ≥ 0,
(x1 − x2 )T ∇f (x0 ) ≥ 0.
Lo cual contradice (3.16). Por lo tanto, queda demostrado que f es una función
cuasi-convexa.
La condición (3.14) tiene una simple interpretación geométrica cuando ∇f (x0 ) 6= 0.
El vector ∇f (x0 ) define un hiperplano para el conjunto de nivel
{y : f (y) ≤ f (x0 )}
∇f (x0 )
x0
44
Observación 3.4 La función f : R → R definida como f (x) = x3 es una función
cuasi-convexa. Su derivada está dada por f ′ (x) = 3x2 en el punto x0 = 0 tenemos
que f ′ (x0 ) = 0. Sin embargo, x0 = 0 no es un mı́nimo global de f .
lo cual es equivalente a
Por tanto,
(x1 − x2 )T ∇f (x) ≥ 0.
Reciprocamente, sean x1 , x2 ∈ C y x = λx1 + (1 − λ) x2 tal que f (x1 ) ≥ f (x2 )
implica que
(x1 − x2 )T ∇f (x) ≥ 0.
45
Desde que la propiedad anterior se cumple para todo λ ∈ [0, 1], tomando en parti-
cular, a λ = 0 obtenemos
(x1 − x2 )T ∇f (x2 ) ≥ 0
entonces del teorema 3.3 se tiene que f es cuasi-cóncava.
Por otro lado, considerando λ = 1 tenemos
(x1 − x2 )T ∇f (x1 ) ≥ 0
lo cual es equivalente a
(x2 − x1 )T ∇f (x1 ) ≤ 0
por tanto, del teorema 3.3 f es cuasi-convexa. Ası́, f es cuasi-afin.
Otra caracterización de funciones diferenciables cuasi-convexas puede darse en términos
del máximo local semi-estricto. Iniciaremos, considerando el caso de funciones de
una variable.
46
Sin pérdida de generalidad supongamos
f (x2 ) ≤ f (x1 ) ,
luego,
por tanto,
f (x1 ) < f (x0 ) .
Lo cual contradice (3.20), en consecuencia f es cuasi-convexa.
Podemos generalizar la proposición 3.10 para funciones de n variables.
F ′ (0) = v t ∇f (x0 )
usando la Proposición (3.10) para la función F (t) = f (x0 + tv) tenemos que F no
alcanza un máximo local semi-estricto en t = 0.
Reciprocamente, supongamos que para todo x0 ∈ C y todo v ∈ Rn tal que v t v = 1
y v t ∇f (x0) = 0 se tiene que
F (t) = f (x0 + tv)
no alcanza máximo local semi-estricto en t = 0 y con F ′ (0) = v t ∇f (x0 ) = 0 entonces
de la proposición 3.10 se tiene que F es cuasi-convexa en t = [0, t̄]. Luego,
lo que es equivalente a
47
Por lo tanto, f es cuasi-convexa.
La interpretación geométrica de la condición en el teorema anterior es que la función
f restricta para una recta pasando por x0 en dirección de v, ortogonal a la gradiente
de f en x0 , no alcanza un máximo local semi-estricto en x0 . En particular, si
∇f (x0 ) = 0 en algun punto x0 ∈ C, entonces x0 no es un mı́nimo local semi-estricto
de f a lo largo de toda recta pasando por x0 .
Proposición 3.11 (Arrow y Enthoven, 1961; Avriel, 1972) Sea una función
f : C ⊂ Rn → R cuasi-convexa y dos veces continuamente diferenciable en el
conjunto abierto y convexo C. Si x0 ∈ C, v ∈ Rn y v T ∇f (x0 ) = 0 entonces
0 ≤ v T ∇2 f (x0 ) v.
de ahı́,
48
luego,
T
x̂ − x0 2 x̂ − x0
∇ f (x̂ + (1 − λ) x0 ) <0
µ µ
de ahı́,
z T ∇f (x0 ) = 0, ∀z ∈ Rn ,
z T ∇2 f (x0 ) z ≥ 0, ∀z ∈ Rn .
49
negativos.
Consideremos
n o
T = b1 e1 + ... + bn en : (ei )T ∇f (x0 ) = 0; bi ∈ R, i = 1, ..., n
50
Ejemplo 3.1 Considere la función f (x) = −x4 en
C = {x : x ∈ R, −1 < x < 1} .
Entonces
′
∇f (x) = f (x) = −4x3
consideremos x1 = − 12 , x2 = 21 y λ0 = 21 entonces
1 1 1 1
f − + ≤ max f − ,f
4 4 2 2
de ahı́,
1 1
f (0) ≤ max − , −
16 16
luego,
1
0≤−
16
lo cual es una contradicción. Por lo tanto, f no es cuasi-convexa.
Notemos que si aumentamos condiciones adicionales a la proposición 3.11 son su-
ficientes para garantizar cuasi-convexidad. El primer resultado en esta dirección
fue realizado por Katzner [27], donde se demostró que la función dos veces con-
tinuamente diferenciable definida en un conjunto abierto C ⊂ Rn es cuasi-convexa
si
Este resultado ha sido estudiado por Diewert, Avriel y Zang [18], donde (i) fue
reemplazado por la condición que el gradiente no debe anularse en C. Un resultado
más fuerte está dado por el siguiente teorema.
Teorema 3.5 (Crouzeix, 1980) Sea f : C ⊂ Rn → R una función dos veces dife-
renciable en el conjunto abierto y convexo C. Supongamos que se satisfacen (3.25)
y
Entonces f es cuasi-convexa.
51
Demostración. Supongamos que f no es cuasi-convexa entonces, existen
x1 , x2 ∈ C; x1 6= x2 y existe λ ∈ (0, 1) tal que
notemos que,
h (λ) = f x1 + λ + λ̄ (x2 − x1 )
de modo que
λ + λ̄ ∈ [0, 1] ,
lo cual implica que λ ∈ −λ̄, 1 − λ̄ . Desde que f alcanza su máximo global en x̄,
f (x̄) = M , es decir, h (0) = M. Por tanto, h (λ) es una función continua en λ tal
que
h (λ) < h (0) = M, ∀ λ ∈ −λ̄, 0 (3.27)
h (λ) ≤ h (0) = M, ∀ λ ∈ 0, 1 − λ̄ (3.28)
Entonces,
52
para λ suficientemente pequeño. Usando (3.29) obtenemos
Además, consideremos
Por otro lado, de (3.33) concluimos que existe una función g : U ⊂ Rn−1 → R dos
veces diferenciable tal que para todo x̂ ∈ U tenemos
∂f
(x̂, g (x̂)) < 0 (3.35)
∂xn
derivando (3.34) con respecto a x̂ obtenemos
1
∇g (x̂) = − ∂f
∇x f (x̂, g (x̂)) (3.36)
∂xn
(x̂, g (x̂))
53
También, observemos que x̄ = 0 implica que g 0̂ = 0 y que por (3.33) y (3.36)
obtenemos ∇g 0̂ = 0. Además, la diferenciación de (3.36) con respecto a x̂
1
∇2 g (x̂) = − ∂f
∇2x̂x̂ f (x̂, g (x̂)) + ∇g (x̂) ∇2nx̂ f (x̂, g (x̂))T (3.38)
∂xn
(x̂, g (x̂))
+ ∇2x̂n f (x̂, g (x̂)) ∇g (x̂)T + ∇2nn f (x̂, g (x̂)) ∇g (x̂) ∇g (x̂)T (3.39)
∂f
ẑ T ∇x f (x̂, g (x̂)) + ẑ T (x̂, g (x̂)) ∇g (x̂) (3.42)
∂xn
lo cual es equivalente a,
T ∂f
ẑ ∇x f (x̂, g (x̂)) + (x̂, g (x̂)) ∇g (x̂) . (3.43)
∂xn
De (3.36) y (3.43)
z̄∇f (x̂, g (x̂)) = 0
y por (3.25) obtenemos
z̄ T ∇2 f (x̂, g (x̂)) z̄
ẑ T ∇2 g (x̂) ẑ = − ∂f
≥0 (3.45)
∂xn
(x̂, g (x̂))
54
donde v̂ ∈ (0, λû). Desde que g es convexa y los dos primeros términos en el lado
derecho de (3.75) se anulan. Luego,
g (λû) ≥ 0
en particular,
g (λû) > 0
para todo λ ∈ [−λ, 0) ∩ {λ : λû ∈ U } .
Igualmente, la continuidad de ∇f y (3.35) implica la existencia de una vecindad
convexa V de 0̂, V ⊂ U y δ > 0 tal que
∂f
(x̂, xn ) ∈ V × [−δ, δ] ⇒ (x̂, xn ) < 0 (3.48)
∂xn
La continuidad
de g implica la existencia de λ̂ ∈ − λ̄, 0 tal que λ̂û ∈ V y
0 < g λ̂û < δ.
Finalmente, tenemos de (3.46), (3.34) y (3.48), respectivamente,
f λ̂û, 0̂ < 0 (3.49)
f λ̂û, g λ̂û = 0 (3.50)
y
∂f
(0, ..., 1)T ∇f λ̂û, λ = λ̂û, xn < 0 (3.51)
∂xn
h i
para todo xn ∈ 0, g λ̂û . Pero (3.51), implica que f es decreciente en la n-ésima
coordenada de xn = 0 a xn = λ̂û entonces
f λ̂û, g λ̂û < f λ̂û, 0̂
Corolario 3.4 Sea f una función dos veces continuamente diferenciable en el con-
junto abierto y convexo C ⊂ Rn y supongamos que ∇f (x) 6= 0 para todo x ∈ C.
Entonces, f es cuasi-convexa si y solo si
x ∈ C, v ∈ Rn , v T ∇f (x) = 0 ⇒ v T ∇2 f (x) v ≥ 0.
∇f (x) 6= 0, ∀x ∈ C.
55
Sea v tal que v T ∇f (x) = 0. Por la cuasi-convexidad de f de la Proposición 3.11 se
tiene que
v T ∇2 f (x) v ≥ 0.
v T ∇2 f (x0 ) v ≥ 0.
56
es cuasi-convexa en t ∈ [0, t̄]. Consideremos
x2 − x0
v= ∧ t̄ = kx2 − x0 k (3.52)
kx2 − x0 k
Usando (3.52) y la cuasi-convexidad de F entonces
f (λx0 + (1 − λ) x2 ) ≤ max {f (x0 ) , f (x2 )} , ∀ λ ∈ [0, 1]
Por lo tanto, queda demostrada la cuasi-convexidad de f .
Concluimos esta sección mencionando las condiciones necesarias y suficientes para
funciones cuasi-convexas dos veces diferenciable las cuales estan dadas por “determi-
nantes acotadas”. Arrow y Enthoven [3] fueron los primeros en dar estas condiciones
para funciones definidas en octante no negativo de Rn . Estas condiciones fueron ex-
tendidas por Ferland [21] para funciones definidas en conjuntos convexos más gen-
erales. Resultados relacionados fueron también realizados por Avriel y Schaible [7]
y Crouzeix y Ferland [14].
Una condición necesaria para que f sea cuasi-convexa en un conjunto sólido convexo
C ⊂ Rn es
(−1)k det Dk (x) ≤ 0, k = 1, ..., n
para todo x ∈ C, donde det denota la determinante. Una condición suficiente para
una función f : C ⊂ Rn → R dos veces continuamente diferenciable en un conjunto
convexo C sea cuasi-convexa en C es que
(−1)k det Dk (x) < 0, k = 1, ..., n
para todo x ∈ C. Por otro lado, si la función f : C ⊂ Rn → R es cuasi-cóncava en
el conjunto convexo C entonces, para todo x ∈ C se satisface
(−1)k det Dk (x) ≥ 0, k = 1, ..., n.
Además, si para todo x ∈ C tenemos
(−1)k det Dk (x) > 0
la función f es cuasi-cóncava.
57
En efecto,
0 x2 x3 x1 x3 x1 x2
xx 0 x3 x2
D3 (x) = 2 3
x1 x3 x3 0 x1
x1 x2 x2 x1 0
tenemos
entonces
58
en algún intervalo de su dominio. Los conjuntos de nivel inferior de funciones es-
trictamente cuasi-convexas semicontinuas inferiores (continuas) son conjuntos es-
trictamente convexos en el interior de su dominio. Una función estrictamente cuasi-
convexa alcanza su máximo en a no más que un punto.
De la misma manera que en la cuasi-convexidad, discutiremos las propiedades de
funciones estrictamente cuasi-convexas comenzando para el caso de variable real.
Pero esto contradice la hipótesis que no existe una máximo local, x0 en C. Por
tanto, nuestra suposición es falsa y f es una función estrictamente cuasi-convexa.
59
2. Para todo x ∈ C, todo v ∈ Rn tal que v T v = 1 y t̄ ∈ R, t̄ > 0 satisfaciendo
x + t̄v ∈ C la función F (t) = f (x + tv) no alcanza un máximo local en
t ∈ (0, t̄).
∀ t ∈ (0, t̄) ⇒ x + tv ∈ C
x + t1 v, x + t2 v ∈ C,
60
local en t ∈ (0, t̄).
Reciprocamente, sean x1 , x2 ∈ C tal que x1 6= x2 , consideremos
x2 − x1
v= ∧ t̄ = kx2 − x1 k . (3.53)
kx2 − x1 k
Como x1 + tv ∈ C, definamos
Desde que f tiene la propiedad de segmento máximo sobre [0, t̄] , F alcanza su
máximo en algún t0 ∈ [0, t̄] y como F no alcanza un máximo local en t ∈ (0, t̄) ,
entonces por proposición 3.14, F es estrictamente cuasi-convexa, es decir,
61
De (3.55) y (3.56) tenemos
x0 = λ0 x + (1 − λ0 ) x∗ , λ0 ∈ (0, 1)
entonces
f (x0 ) < max {f (x∗ ) , f (x)} = f (x∗ )
lo cual es equivalente a
f (x0 ) < f (x∗ )
contradiciendo la hipótesis que x∗ es un máximo en [x1 , x2 ] .
Reciprocamente, supongamos que f es estrictamente unimodal, entonces es uni-
modal, por tanto f es cuasi-convexa.
Consideremos x1 , x2 ∈ C, x1 6= x2 tal que
x0 = λx1 + (1 − λ) x2 , ∀λ ∈ (0, 1) .
Supongamos que
f (x0 ) = max {f (x1 ) , f (x2 )} = f (x1 )
entonces f debe ser constante en [x1 , x0 ] o [x0 , x2 ], contradiciendo la unimodalidad
estricta de f . Por tanto,
62
Demostración. Si el conjunto de nivel inferior de f
L (f, α) = {x : x ∈ C, f (x) ≤ α}
x∗ = λ∗ x1 + (1 − λ∗ ) x2 ,
f (x∗ ) ≥ ᾱ
Por tanto,
f (x̂) < ᾱ ≤ f (x∗ )
donde x̂ = λ̂x1 + 1 − λ̂ x2 . Desde que f es continua en Rn , existe
x̄ = λ̄x∗ + 1 − λ̄ x̂, λ̄ ∈ (0, 1]
x = λx1 + (1 − λ) x2 , ∀ λ ∈ (0, 1)
63
Esta es una función convexa con conjuntos de nivel estrictamente convexos, pero,
no es estrictamente cuasi-convexa.
En particular consideremos
δ
λ∈ 0, ∩ (0, 1) ,
kx̄ − x∗ k
entonces,
x̂ = λx̄ + (1 − λ) x∗ ∈ C ∩ Bδ (x̄) .
de (3.59) obtenemos que
64
Figura 3.9: Función semi-estricta cuasi-convexa
x<0 ∧ x>0
1 1
− + = 0 ∈ L (f, −1)
2 2
lo cual es una contradicción. De ahı́, L (f, α) no es convexo. Por lo tanto, f no es
una función cuasi-convexa.
Notemos que, f no es estrictamente cuasi-convexa.
Supongamos que la función f es estrictamente cuasi-convexa, es decir,
luego − 21 < −1, lo cual es una falsedad. Por tanto, f no es estricta cuasi-convexa.
Afirmamos, que f es semi-estricta cuasi-convexa, si f (x1 ) < f (x2 ) entonces
65
Proposición 3.18 (Karamardian, 1967) Si f : C ⊂ Rn → R es una función semi-
estricta cuasi-convexa y semicontinua inferior definida en el conjunto convexo C
entonces f también es cuasi-convexa.
para todo 0 < λ < 1. Supongamos que (3.60) no se satisface, entonces existe x0 tal
que
para algún 0 < λ0 < 1. Por cuasi-convexidad semi-estricta de f , f (x1 ) < f (x0 )
implica
f λ̄x1 + 1 − λ̄ x0 < max {f (x1 ) , f (x0 )} , ∀ λ̄ ∈ (0, 1) (3.62)
donde x̄ = λ̄x1 + 1 − λ̄ x0 , es decir,
Si f (x̄) < f (x1 ) = f (x2 ) desde que x0 ∈ [x̄, x2 ], por cuasi-convexidad semi-estricta
de f tenemos
luego,
f (x0 ) < f (x1 ) .
Lo cual contradice (3.61).
Si f (x̄) > f (x1 ) = f (x2 ), entonces
para algún 0 < λ0 < 1. Por cuasi-convexidad semi-estricta de f , f (x2 ) < f (x0 )
implica
f λ̂x0 + 1 − λ̂ x2 < max {f (x0 ) , f (x2 )} , ∀ λ̂ ∈ (0, 1) (3.66)
66
donde x̂ = λ̂x0 + 1 − λ̂ x2 , es decir,
Si f (x̂) < f (x2 ) = f (x1 ) desde que x0 ∈ [x1 , x̂], por cuasi-convexidad semi-estricta
de f tenemos
luego,
f (x0 ) < f (x2 ) .
Lo cual contradice (3.65).
Si f (x̂) > f (x2 ) = f (x1 ), entonces
xn ∈ L (f, α1 ) ∧ xn → x0
entonces,
f (xn ) ≤ α1 . (3.69)
f (λx1 + (1 − λ) x2 ) ≤ f (x0 )
para todo 0 ≤ λ ≤ 1 y
67
Proposición 3.19 (Diewert, Avriel y Zang, 1981) Sea f : I ⊂ R → R una función
semicontinua inferior definida en el intervalo abierto I. Si f es semi-estricta cuasi-
convexa, entonces no existe un punto x0 ∈ I que sea un máximo local semi-estricto
lateral de f .
entonces
De (3.71) y (3.72),
Por lo tanto,
Luego,
max {f (xk ) , f (x2 )} ≤ f (x0 )
lo cual contradice la definición de cuasi-convexidad semi-estricta.
68
Proposición 3.20 Dada la función f : I ⊂ R → R con la propiedad de seg-
mento máximo en el intervalo abierto I. Si no existe un punto x0 ∈ C que sea
un máximo local semi-estricto lateral de f , entonces f es una función semi-estricta
cuasi-convexa.
69
En efecto, sean t1 , t2 ∈ (0, t̄) luego
x + t1 v, x + t2 v ∈ C,
Desde que f tiene la propiedad de segmento máximo sobre [0, t̄] , y como F no
alcanza un máximo local lateral semi-estricto en t0 ∈ (0, t̄) , entonces, usando la
proposición (3.20) tenemos
La cual es equivalente a,
70
El segmento [x1 , x0 ] esta propiamente incluido en [x1 , x2 ] ⊂ L (f, α) para algún
x2 6= x0 .
Supongamos que f (x1 ) 6= f (x2 ), sin pérdida de generalidad consideremos
f (x2 ) < f (x1 )
por cuasi-convexidad semi-estricta de f tenemos
f (x0 ) = f (λx1 + (1 − λ) x2 ) < f (x1 ) ≤ α0
contradiciendo que x0 ∈ Y (f, α0 ).
De la misma manera, si consideramos
f (x1 ) < f (x2 )
por cuasi-convexidad semi-estricta
f (x0 ) = f (λx1 + (1 − λ) x2 ) < f (x1 ) ≤ α0
contradiciendo el argumento que x0 ∈ Y (f, α0 ) . De esta manera, f (x2 ) = f (x1 )
por cuasi-convexidad de f tenemos
α0 ≤ f (x0 ) ≤ f (x1 ) ≤ α0
de ahı́,
f (x1 ) = α0
Desde que x0 es un punto arbitrario de L (f, α0 ), f es constante en L (f, α0 ), lo que
implica
Y (f, α0 ) = L (f, α0 )
Reciprocamente, sea L (f, α) conjunto convexo para todo α. Luego, f es cuasi-
convexa y para todo x1 , x2 ∈ Rn y 0 < λ < 1, si f (x2 ) < f (x1 ) = α1 implica
que
f (λx1 + (1 − λ) x2 ) ≤ α1 (3.78)
Por tanto, x2 ∈ L (f, α1 ) y f no es constante en L (f, α1 ), por consiguiente,
Y (f, α1 ) 6= L (f, α1 )
entonces
Y (f, α1 ) ⊂ B (f, α1 )
sea el punto x2 en el interior de L (f, α1 ), por continuidad existe una vecindad
Nǫ (x2 ) ⊂ L (f, α1 ) tal que para todo x en esta vecindad
f (x) < α1 .
71
L (f, −3) = Y (f, −3) = B (f, −3)
L (f, −2)
Y (f, −2)
B (f, −2)
L (f, −1)
Y (f, −1)
B (f, −1)
Y (f, α) = L (f, α) , ∀α ∈ R
es decir,
L (f, α) ⊂ Y (f, α)
sean x1 , x2 ∈ L (f, α),
f (x1 ) = α ∧ f (x2 ) = α
por convexidad estricta de L (f, α) tenemos,
λx1 + (1 − λ) x2 ∈ L (f, α)
de ahı́,
f (λx1 + (1 − λ) x2 ) = α, ∀λ ∈ (0, 1)
como f es estrictamente cuasi-convexa
72
Por tanto, α < α, lo cual es una contradicción.
En consecuencia, si f es estrictamente cuasi-convexa no se satisface
Y (f, α) = L (f, α) .
Y (f, α) ⊂ B (f, α)
Por cuasi-convexidad de f
En particular consideremos
δ
λ∈ 0, ∩ (0, 1) ,
kx̄ − x∗ k
entonces,
x̂ = λx̄ + (1 − λ) x∗ ∈ C ∩ Bδ (x̄) .
de (3.80) obtenemos que
73
esto es, f es constante en L (f, α) .
Si f es constante en Rn o α = max {f (x) : x ∈ Rn } es claro que,
Y (f, α) = L (f, α) .
es no vacı́o. Consideremos
U (f, α0 ) = {x : x ∈ Rn , f (x) ≥ α0 }
Tomemos,
xn ∈ U (f, α0 ) ∧ xn → x
por definición
f (xn ) ≥ α0
aplicando lı́mite cuando n → ∞
lim f (xn ) ≥ α0
n→∞
x ∈ U (f, α0 ) .
Rn − U (f, α0 )
es abierto, es decir,
L0 (f, α0 )
es abierto. Además, desde que f es cuasi-convexa entonces el conjunto
L (f, α0 ) = {x : x ∈ Rn : f (x) ≤ α0 }
hc, xi ≤ a x ∈ L0 (f, α0 )
hc, xi = a x = x0 ∈/ L0 (f, α0 )
74
Consecuentemente,
Nǫ ∩ L0 (f, α0 ) = φ
y por lo tanto
Nǫ (x̂) ⊂ Y (f, α0 )
desde que x̂ es un mı́nimo local de f entonces si x̂ ∈ Nǫ (x̂)
f (x̂) ≤ f (x) = α0
f (x̂) ≤ f (x) = α0 .
Por tanto,
Y (f, α0 ) = L (f, α0 )
por proposición (3.21) f es semi-estricta cuasi-convexa.
Ejemplo 3.4 Sea f una función definida en el intervalo C = [0, 1] ⊂ R dada por
f (x) = −x2
x2 < x1 .
Por tanto,
x2 < λx1 + (1 − λ) x2
de ahı́,
− (λx1 + (1 − λ) x2 )2 < −x22
en consecuencia,
f (λx1 + (1 − λ) x2 ) < f (x2 ) .
Lo que implica que f es una función estrictamente cuasi-convexa.
Por otro lado, sea x1 ∈ (0, 1] y x2 = 0 entonces
no implica que
(x1 − x2 ) f ′ (x2 ) < 0
75
3.4 Funciones Pseudo-convexas
En la sección de funciones cuasi-convexas se dijo que si una función cuasi-convexa
diferenciable satisface f (x1 ) ≤ f (x2 ) implica que
(x1 − x2 )T ∇f (x2 ) ≤ 0.
Además, debemos resaltar que para una función cuasi-convexa, ∇f (x0 ) = 0 no im-
plica que x0 sea un mı́nimo global. Esta observación permite introducir el concepto
de función pseudo-convexa, la cual se obtiene de una pequeña modificación de la
condición antes mencionada. La definición de pseudo-convexidad para funciones
diferenciables fue introducida por Magasarian.
Proposición 3.22 Para funciones diferenciales las definiciones 3.13 y 3.14 son
equivalentes.
luego,
76
donde α (x1 , x2 ) es una función tal que α (x1 , x2 ) → 0 cuando x1 → x2 . Usando la
definición 3.14
λ (x1 − x2 )T ∇f (x2 ) + λα (x2 + λ (x1 − x2 ) , x2 ) kx1 − x2 k ≤ − (1 − λ) λb (x1 , x2 )
para todo 0 ≤ λ ≤ 1. Dividiendo entre λ y tomando el lı́mite cuando λ → 0
(x1 − x2 )T ∇f (x2 ) ≤ −b (x1 , x2 ) < 0.
Entoncesf satisface la definición 3.13. Reciprocamente, supongamos que no se sa-
tisface la definición 3.14, si f (x1 ) < f (x2 ) y para todo positivo b (x1 , x2 ) existe
λ ∈ (0, 1) tal que
f (λx1 + (1 − λ) x2 ) − f (x2 )
> − (1 − λ) b (x1 , x2 ) > −b (x1 , x2 ) .
λ
En particular, existe 0 < λi < 1 tal que
f (x2 + λi (x1 − x2 )) − f (x2 ) 1
>−
λi i
La sucesión {λi } es acotada, por tanto, posee una subsucesión convergente, esto es,
lim λik = λ0
ik →∞
entonces,
lim {x2 + λik (x1 − x2 )} = x0
ik →∞
77
entonces
luego,
f (λx1 + (1 − λ) x2 ) − f (x2 )
> − (1 − λ) b (x1 , x2 ) > −b (x1 , x2 ) .
λ
En particular, existe 0 < λi < 1 tal que
f (x2 + λi (x1 − x2 )) 1
>−
λi i
La sucesión es acotada, por tanto, posee una subsucesión convergente
Si x0 6= x2 , esto es, λ0 6= 0
f (x0 ) ≥ f (x2 )
f no es estrictamente cuasi-convexa, de aquı́, f no es una función estrictamente
pseudo-convexa, satisfaciendo la definición 3.13.
Si x0 = x2 cuando λik → 0 y
de ahı́,
(x1 − x2 ) ∇f (x2 ) ≥ 0
Consecuentemente, f no satisface la definición 3.13.
78
Teorema 3.10 (Mangasarian,1965) Sea f : C ⊂ Rn → R una función diferenciable
y (estrictamente) pseudo-convexa en el conjunto abierto y convexo C. Si ∇f (x0 ) = 0
para algún x0 ∈ C, entonces x0 es un mı́nimo global (estricto) de f sobre C.
x2 = x0 ∧ x1 = x
entonces
(x − x0 )T ∇f (x0 ) = 0
lo cual implica
f (x0 ) ≤ f (x) , ∀x ∈ C
entonces x0 es un mı́nimo global.
Igualmente, por la definición 3.13 desde que ∇f (x0 ) = 0 consideremos
(x − x0 )T ∇f (x0 ) = 0
Esta función es pseudo-convexa, en efecto, supongamos que f (x) < f (y) entonces
x1 > y1 . En efecto, supongamos que
x1 ≤ y1
de ahı́,
−x1 ≥ −y1 ∧ −x21 ≥ −y12
luego
−x1 − x21 ≥ −y1 − y12
79
es decir,
f (x) ≥ f (y)
lo cual es una contradicción.
x = (α, β) ∧ y = (α, γ)
α < β ∧ α < γ, β 6= γ
(x − y)T ∇f (y) = 0
por tanto,
0 < −α2 − α
desde que 0 < α < 1 tenemos
0<0
lo cual es una contradicción.
Sin embargo, la función f es semi-estricta cuasi-convexa, si f (x) < f (y) de ahi
80
Demostración. Si f es pseudo-convexa, entonces f ′ (x0 ) = 0 implica que x0 es un
mı́nimo local de f . Reciprocamente, sean x1 , x2 ∈ C, x1 6= x2 dos puntos tal que
(x1 − x2 ) f ′ (x2 ) ≥ 0
y supongamos que f (x1 ) < f (x2 ). Si (x1 − x2 ) f ′ (x2 ) > 0 entonces la función
g (λ) = f (λx1 + (1 − λ) x2 )
alcanza al menos un máximo local sobre el intervalo (0, 1). Sea λ0 el mayor punto
que maximiza g sobre (0, 1). Entonces,
F ′ (0) = f (x0 ) = 0
81
Definición 3.16 (Diewert, Avriel y Zang, 1981) Una función f : C ⊂ R → R
definida en el intervalo abierto C alcanza un mı́nimo local fuerte en x0 si existen
números positivos ǫ y α tal que x0 ± ǫ ∈ C y
1
f (x) ≥ f (x0 ) + α (x − x0 )2
2
para |x| < ǫ
F (−t) ≤ F (0)
82
Capı́tulo 4
Optimización Cuasi-convexa
83
∂f (x0 )
a. ∂xi
> 0 para al menos una componente de la variable x0i .
∂f (x0 )
b. ∂xj
< 0 para al menos una componente de la variable relevante x1j .
∂f (x0 )
c. ∂xi
6= 0 para todo i y f (x) es dos veces diferenciable en la vecindad de x0 .
d. f (x) es convexa.
Entonces x0 minimiza f (x) sujeto a las restricciones g (x) ≤ 0 donde x ≥ 0.
luego,
g j x1 ≤ g j x0 .
84
∂f (x0 )
a. ∂xi
> 0 para al menos una coordenada de la variable x0 .
Consideremos h como un vector unitario en la i-ésima dirección x2 = x0 + h
T ∂f (x0 )
x2 − x0 ∇f x0 = ∇f x0 h =
> 0. (4.4)
∂xi
Para x1 en el conjunto de restricciones
entonces
T T
x0 (θ) − x0 ∇f x0 = θx2 − θx0 ∇f x0
lo cual es equivalente a,
T
x2 − x0 θ∇f x0 > 0
f x1 (θ) > f x0
(4.8)
desde que x0 ≥ 0 existe x0j , en el conjunto restricción tal que x0j > 0 luego,
∂f (x0 )
<0 (4.10)
∂xj
85
para alguna variable relevante xj .
Reciprocamente, notemos que g (x1 ) ≤ 0 para x1 ≥ 0 implica que
T 1
∇f x0 x − x0 ≥ 0
entonces,
T T
∇f x0 x1 ≥ ∇f x0 x0 (4.11)
para todo x1 en el conjunto de restricciones Excluyendo (a)
∇f x0 ≤ 0
(4.12)
Además, (b) implica que para algun x∗ en el conjunto de restricciones y para
∂f (x0 ) ∂f (x0 )
algún i, ∂xi < 0 y x∗i > 0, lo cual implica que ∂xi x∗i < 0. Consideremos
x1 = x∗ en
∂f (x0 ) 0 ∂f (x0 ) ∗
xi ≤ xi < 0 (4.13)
∂xi ∂xi
entonces ∇f (x0 ) x0 < 0 para alguna variable relevante.
Para x1 en el conjunto de restricciones, consideremos
x1 (θ) = (1 − θ) x1 ∧ x0 (θ) = (1 − θ) x0
entonces
∇f x0 x0 (θ) − x0 = ∇f x0 −θx0
lo cual es equivalente a,
θ∇f x0 −x0 > 0
86
c. ∇f (x0 ) 6= 0 y f (x) es dos veces diferenciable en una vecindad de x0 .
En efecto, la partición del vector x0 en dos subvectores y 0 y z 0 correspondientes
a las variables relevantes e irrelevantes respectivamente. Entonces, si excluimos
los casos ya estudiados asumiremos ∇f (x0 ) 6= 0 entonces
∇f x0 = ∇f y 0 , ∇f z 0 6= 0
(4.19)
∂f (z 0 )
tal que ∇f (y 0 ) = 0 y ∇f (z 0 ) ≤ 0 donde ∂zi < 0 para algún zi . Por la
definición de la varible irrelevante, z 0 = 0 y z 1 = 0 para todo x1 = (y 1 , z 1 ) en
el conjunto de restricciones. Por lo tanto, para probar el teorema es suficiente
probar que
f y0, 0 ≤ f y1, 0
(4.20)
Definamos la función
φ (u, v) = f (1 − u) y 0 + uy 1 , vz̄ − f y 0 , 0
(4.21)
para 0 ≤ u ≤ 1 y v ≥ 0, para todo z̄ ≥ 0 tal que z¯i0 > 0. Esta función es esen-
cialmente f (x) con el rango de variación de x restricto para un subconjunto
convexo del octante no negativo, φ (u, v) es cuasi-convexa. Entonces tenemos
φ (0, 0) = f y 0 , 0 − f y 0 , 0 = 0
(4.22)
∂φ (0, 0) T 1
= ∇f y 0 y − y0 = 0
(4.23)
∂u
y
∂φ (0, 0) T
= ∇f z 0 z̄ < 0 (4.24)
∂v
Debemos probar φ (1, 0) ≥ 0 o contradecir φ (1, 0) > 0. Primero, si para algún
ū > 0 establecemos una pequeña vecindad de cero, φ (u, 0) es positivo, cero
o negativo (pero no mas de una de las condiciones). Entonces, mostraremos
que φ (u, 0) = 0 y φ (u, 0) > 0 en una vecindad de cero es incompatible con
φ (1, 0) < 0 mientras que φ (u, 0) < 0 contradice la hipótesis del teorema.
luego,
87
Por cuasi-convexidad de φ,
((1 − λ) u (v) , − (1 − λ) v)T ∇φ (0, v) ≤ 0 (4.26)
lo cual es equivalente a,
T ∂φ ∂φ
((1 − λ) u (v) , − (1 − λ) v) (0, v) , (0, v) ≤0 (4.27)
∂u ∂v
desde que (1 − λ) ≥ 0 tenemos
T ∂φ ∂φ
(u (v) , −v) (0, v) , (0, v) ≤ 0 (4.28)
∂u ∂v
Por tanto,
∂φ ∂φ
(0, v) − v
u (v) (0, v) ≤ 0. (4.29)
∂u ∂v
Esto puede escribirse como
u (v) ∂φ ∂φ
(0, v) ≤ (0, v) . (4.30)
v ∂u ∂v
Tomando lı́mite cuando v tiende a cero
u (v) ∂φ ∂φ
lim (0, v) ≤ lim (0, v) (4.31)
v→0 v ∂u v→0 ∂v
∂φ
desde que, ∂v
es continua
u (v) ∂φ ∂φ
lim (0, v) ≤ (0, 0) (4.32)
v→0 v ∂u ∂v
De (4.24) tenemos
u (v) ∂φ ∂φ
lim (0, v) ≤ (0, 0) < 0 (4.33)
v→0 v ∂u ∂v
Además,
∂ 2φ
1 ∂φ ∂φ
lim (0, v) − (0, 0) = (0, 0) . (4.34)
v→0 v ∂u ∂u ∂v∂u
∂φ
Como ∂u
(0, 0) = 0 entonces
1 ∂φ ∂φ 1 ∂φ
lim (0, v) − (0, 0) = lim (0, v) (4.35)
v→0 v ∂u ∂u v→0 v ∂u
88
d. La función es convexa
f (x0 ) + (x1 − x0 )T ∇f (x0 ) ≤ f (x1 )
y desde que
(x1 − x0 )T ∇f (x0 ) > 0
entonces
f (x0 ) ≤ f (x1 ) , ∀ x1 ≥ 0.
Lo cual demuestra el teorema.
−1 1
para x ≤
∂f logx 2
(x, 0) = 1 1
∂x log2
para x > 2
89
4.2.1 Demanda del Consumidor
La propiedad fundamental de la función de utilidad en la teorı́a de demanda del
consumidor consiste en que las curvas de indiferencia definen conjuntos convexos o
una disminución porcentual de sustitución. Ası́, la propiedad de toda función de
utilidad es la cuasi-concavidad. El estudio de la teorı́a de demanda del consumidor
ası́, como el Axioma Débil de Preferencia Relevada.
Consideremos el problema de maximizar la función de utilidad u (x)
max u (x)
s.a
pT x ≤ B
x ≥ 0
min −u (x)
s.a
pT x ≤ B
x ≥ 0
x ≥ 0
90
Por otro lado, es importante considerar que las empresas o cualesquiera otras unidades
que en una economı́a se encarguen de producir bienes y servicios, comparte semejan-
zas desde cierto punto de vista con el del consumidor. En el caso del consumidor, la
microeconomı́a lo reduce al problema de maximizar una función de utilidad, la cual
es cuasi-cóncava, con una restricción presupuestaria. En el caso de la del produc-
tor, se trata de maximizar la función de beneficios teniendo en cuenta restricciones
tecnológicas.
4.2.2 Producción
La teorı́a de la producción eficiente puede extenderse para funciones de producción
que son cuasi-cóncavas pero no cóncavas, esto es para los casos donde existe un
ingreso creciente pero un porcentaje de disminución marginal de sustitución.
Supongamos, por ejemplo, que una empresa alcanza una producción en un conjunto
de procesos independientes los cuales transforman los insumos commprados en bie-
nes intermedios los cuales no son tratados en el mercado, y ambos en producto.
Consideremos que la escala o intensidad del i-ésimo proceso es medida por xi .
Además, consideremos que el j-ésimo insumo o producto en el i-ésimo proceso es
una función monótona gij (xi ) la cual es positiva si el bien es un producto del pro-
ceso, negativa si es un insumo.
Enumeramos el producto final por j = 1, ..., m1 , los insumos comprados por
j = m1 + 1, ..., m2 , los bienes intermedios por j = m2 + 1, ..., m y consideremos n
procesos.
Entonces el conjunto de insumos o productos del j-ésima bien está dada por
n
X
gj (x) = gij (xi )
i=1
gj (x) + ǫj ≥ 0 j = m2 + 1, ..., m
91
Es evidente, que la combinación lineal no negativa de funciones cóncavas es cóncava,
mientras la combinación lineal no negativa de funciones cuasi-cóncavas no necesaria-
mente es cuasi-cóncava.
Como consecuencia, la hipótesis de cuasi-concavidad no puede ser reemplazada por
la hipótesis de concavidad en muchas partes de la economı́a.
Consideremos uno de los productos restricción
gj (x) − gj x0 ≥ 0
lo que es equivalente a
n
X
gij (xi ) − gj x0 ≥ 0.
j=1
Para productos, tenemos gij′ (xi ) ≥ 0. Si gij′′ (xi ) ≤ 0 es cóncava y por lo tanto,
gj (xi ) es cuasi-cóncava.
Si gij′′ (xi ) > 0 para algún proceso, con gij′′ (xi ) ≤ 0 para todos los otros procesos,
entonces gj (xi ) no es necesariamente cuasi-cóncava.
Si gij (xi ) > 0 para dos o mas actividades gj (x) no puede ser cuasi-cóncava. Si
gj (x) es cuasi-cóncava, el porcentaje marginal de sustitución entre todo par de
insumos debe disminuir entre otros insumos que se mantienen constantes. Esto es,
por ejemplo, x3 , ..., xn constantes
′ 2 ′′ ′ 2 ′′
g2j gij + g1j g2j ≤ 0.
′′ ′′
De esta manera, es posible que g1j ó g2j es positivo sin violar la condición anterior,
pero claramente ambos no pueden ser positivos, similarmente, para todos otros pares
de procesos.
Por lo tanto, gij′′ (xi ) > 0 para al menos un proceso i si gj (xi ) es cuasi-cóncava.
Notemos que el mismo se satisface para las restricciones en el uso de bienes inter-
medios.
¿Que pasa con el maximando nj=m1 +1 pj gj (x)?
P
Si las funciones gj (x) son cóncavas, su combinación lineal también es cóncava. Pero,
si las funciones son cuasi-cóncavas y no cóncavas, no se puede garantizar la cuasi-
concavidad de m
X
pj gj (x) .
j=m1 +1
92
para j = m2 + 1, ..., m. Podemos considerar una cantidad total limitada de por-
centaje creciente considerando bienes intermedios, pero no, en general, consideramos
productos o insumos comprados en el mercado (al menos uno es producto y no in-
sumo comprado).
Nuevamente, para todo conjunto de precios una cierta cantidad de porcentaje cre-
ciente en productos o compra de insumos medido en dinero puede ser tolerado.
Alternativamente, sea la función de producción
y = K α Lβ α > 0, β > 0
93
Capı́tulo 5
La función distancia, la cual será base de nuestro estudio del sistema dinámico
propuesto (S) dependerá de una regularización logarı́tmica. En efecto, dado dos
94
n n
parámetros positivos µ > 0 y ν > 0 definimos para todo (x, y) ∈ R++ × R++ la
siguiente función:
n
ν X
kx − yk2 + µ yj ϕ yj−1 xj ,
d (x, y) = (5.2)
2 j=1
donde para todo r > 0 la función ϕ (r) está dada por ϕ (r) = r − log r − 1.
Desde que la función h (x) = log x es una función cóncava entonces se satisface
lo cual es equivalente a
1
log y ≤ log x + (y − x) , ∀x, y ∈ R+
x
Considerando x = 1 tenemos,
0 ≤ y − log y − 1.
x
A partir de este resultado obtenemos que ϕ yjj ≥ 0, desde que xj , yj ∈ R++ .
x
Como los parámetros µ > 0, ν > 0 y ϕ yjj ≥ 0 entonces se satisface la primera
condición de la función distancia, es decir, d (x, y) ≥ 0 y d (x, y) = 0 si y solamente
si x = y.
Observamos también que d (x, y) satisface la segunda condición de la función dis-
tancia definida en (5.2).
Debemos probar que
lo cual es equivalente a
95
luego, adicionamos − h(1 − λ) x2 , yi+h−y, λx1 + (1 − λ) x2 − yi en ambos miembros
Por otro lado, desde que log x es una función cóncava y creciente obtenemos
De (5.3) y (5.4)
donde
n
λx1j + (1 − λ) x2j
ν 2
X
d (λx1 + (1 − λ) x2 , y) = kλx1 + (1 − λ) x2 − yk + µ ϕ .
2 j=1
yj
lo cual es equivalente a
96
Lo cual se reduce a
97
Por otro lado, notemos que para minimizar una función convexa en Rn , el esquema
clásico proximal cuadrático genera una sucesión {xk } ∈ Rn para solucionar la in-
clusión
k k−1 k
0 ∈ λ−1
k x − x + ∂f x , λk > 0
Lo cual es equivalente a
El esquema iterativo visto anteriormente puede ser visto también como la dis-
cretización implı́cita de Euler de la subdiferencial inclusión
′
0 ∈ x (t) + ∂f (x (t))
Lo cual es equivalente a
x kj
gjk λ−1 ′
0∈ + k ν xkj − xk−1j + µxk−1j ϕ ,
xk−1j
luego,
xk−1j
1
gjk λ−1
0∈ + k ν xkj − xk−1j + µxk−1j − ,
xk−1j x kj
de ahı́,
" !#
xjk−1
0 ∈ gjk + λ−1 ν xkj − xj k−1
k +µ 1− k ,
xj
98
donde g k = g1k , ..., gnk ∈ ∂f xk .
La inclusión anterior puede ser escrita equivalentemente como
" ! !#
µ µ
0 ∈ gjk + λ−1k −xjk−1 ν + k + xkj ν + k j = 1, ..., n,
xj xj
entonces
xkj
0 ∈ λ−1 xkj − xjk−1 + g k j = 1, ..., n.
k
µ + νxkj j
Esta expresión puede ser vista como la discretización implı́cita de Euler del Sistema
Dinámico Continuo.
′ xj (t)
0 ∈ xj (t) + gj (x (t)) j = 1, ..., n
µ + νxj (t)
la cual es base del estudio del Sistema Dinámico.
xj (t) ∂f (x (t))
x′j (t) + = 0, j = 1, ..., n (5.5)
µ + νxj (t) ∂xj
n
xj (0) = x0j ∈ R++ , j = 1, ..., n (5.6)
Es importante destacar en el análisis del sistema, la propiedad de viabilidad de las
trayectorias las cuales se deben encontrar en el octante positivo;
n
x (t) ∈ R+ , ∀t ∈ [0, ∞) .
Nuestro principal resultado en esta sección es la prueba de la existencia global de la
n
trayectoria y la propiedad de viabilidad del conjunto R+ para el sistema dinámico
(S).
Teorema 5.1 Sea f : Rn → R una función en C 2 (Rn ) la cual esta acotada infe-
n
riormente en R+ , existe una única solución global x : [0, ∞) → Rn del sistema (S).
Además, x (.) satisface la siguiente propiedad de viabilidad:
xj (t) > 0 ∀t ≥ 0, ∀j = 1, ..., n.
99
n
Demostración. Consideremos F : R+ → Rn una aplicación definida por
x1 ∂f xn ∂f
F (x) = , ...,
µ + νx1 ∂x1 µ + νxn ∂xn
n
Desde que x0 ∈ R++ y µ > 0, trabajando en el sistema (S) obtenemos
xj (t) ∂f (x (t))
= −x′j (t)
νxj (t) + µ ∂xj
F (λx + (1 − λ) y) = (−λx′1 (t) − (1 − λ) y1′ (t) , ..., −λx′n (t) − (1 − λ) yn′ (t))
= λ (−x′1 (t) , ..., −x′n (t)) + (1 − λ) (−y1′ (t) , ..., −yn′ (t))
= λF (x) + (1 − λ) F (y) , ∀ λ ∈ [0, 1]
Por tanto, x0j ≤ xj (t) y desde que x0 > 0 entonces x0j > 0, para todo j = 1, ..., n.
A partir de aquı́ obtenemos la afirmación anterior.
Definimos
100
Sea τn ∈ U , sin pérdida de generalidad asumimos que τn ≤ τ , es decir, 0 ≤ τn ≤ τ
tal que xj (t) > 0, ∀t ∈ [0, τn ].
Desde que τn → τ se tiene
entonces τ ∈ U .
Primero, notamos que x (t) es acotado en [0, T ] desde que x (.) es continua y [0, T ]
es compacto. Además, desde que f ∈ C 2 (Rn ) entonces sus derivadas parciales son
continuas.
∂f
Como ∂x j
es continua aplicada en x (t) (conjunto compacto) para todo t ∈ [0, T ]
∂f (x(t))
entonces ∂xj
es compacto, es decir, existe una constante positiva C > 0 tal que
∂f (x (t))
∂xj ≤ C, ∀t ∈ [0, T ] , ∀j = 1, ..., n. (5.8)
n
Ahora analizamos el hecho que x (.) resuelve (S) y satisface x (t) ∈ R++ para todo
t ∈ [0, τn ].
De la desigualdad probada en (5.8) y usando el siguiente resultado
xj (t)
≥0 (5.9)
µ + νxj (t)
Por lo tanto,
xj (t)
0≤ x′j +C , ∀t ∈ [0, τn ] .
µ + νxj (t)
n
Usando nuevamente la propiedad que x (t) ∈ R++ para todo t ∈ [0, τn ] y µ > 0
entonces obtenemos
xj (t) C
0 ≤ x′j (t) + C ≤ x′j (t) + xj (t) , ∀t ∈ [0, τn ]
µ + νxj (t) µ
1
desde que µ ≤ µ + νxj (t), se cumple que µ+νxj (t)
≤ µ1 .
Ct
Multiplicando por e µ en ambos miembros
Ct C Ct
0 ≤ e µ x′j (t) + e µ xj (t) , ∀t ∈ [0, τn ] .
µ
Esta desigualdad puede ser escrita como
d Ct
0≤ e µ xj (t) , ∀t ∈ [0, τn ] , ∀j = 1, ..., n
dt
101
Integrando ambos miembros de 0 a t
Z t Z t
d Ct
0≤ e µ xj (t) , ∀t ∈ [0, τn ] .
0 0 dt
Luego,
Ct C0
0 ≤ e µ xj (t) − e µ xj (0)
Ct
≤ e xj (t) − x0j
µ
La cual es equivalente a
−Ct
0<e µ x0j ≤ xj (t) , ∀t ∈ [0, τn ] , ∀j = 1, ..., n.
n
En consecuencia x (t) ∈ R++ , ∀t ∈ [0, τ ] y τ ∈ U .
Probaremos, que la única solución máxima x (.) de (S) es definida en el intervalo
[0, ∞]. Haremos la prueba por contradicción.
En efecto, supongamos que la solución máxima está definida en [0, Tmax ), es decir,
Primero probaremos que limt→Tmax , t<Tmax x (t) existe. Para demostrar esto, pro-
baremos que
Z Tmax
2
kx′ (t)k dt < ∞.
0
De esta manera, obtenemos como una consecuencia el hecho que el sistema (S) es
un método de descenso para la función f . Partimos con la identidad
p
df (x (t)) X ∂f
= (x (t)) x′j (t) (5.10)
dt j=1
∂x j
y usando (S) para t < Tmax (recalcando xj (t) > 0, ∀t > 0) obtenemos
102
y de aquı́ se concluye
n
d X
f (x (t)) + ν x′2
j (t) ≤ 0
dt j=1
entonces,
Z t
2
f (x (t)) − f (x0 ) + ν kx′ (s)k ds ≤ 0.
0
n
Desde que f es asumida en R+ , deducimos que
Z t
2
ν kx′ (s)k ds ≤ f (x0 ) − inf
n
f <∞
0 R+
Por lo tanto, limt→Tmax x′ (t) existe. Entonces, x (.) es una solución de (S) en
[0, Tmax ).
En particular, se tiene x (Tmax ) > 0. El final de la prueba termina aplicando el
teorema de Cauchy-Lipschitz con el dato x (Tmax ) lo cual contradice la maximilidad
103
de x (.) .
n
Es interesante notar que cuando partimos con un punto arbitrario x0 ∈ R++ , la
n n
correspondiente trayectoria x : [0, ∞) → R permanece en R++ , es decir,
x (t) > 0, ∀t ≥ 0.
3. limt→∞ x′ (t) = 0
(x(t))
4. limt→∞ xj (t) ∂f∂x j
= 0 j = 1, ..., n
n
desde que µ > 0, ν > 0 y x (t) ∈ R++ , tenemos
df (x (t))
<0
dt
luego, f (x (t)) es decreciente en t.
Por lo tanto, queda demostrado el item (a).
Ahora, integramos la identidad (5.12) de 0 a t
t p
Z tX
df (x (t)) µ
Z
+ ν+ x′2
j (t) = 0
0 dt 0 j=1 xj (t)
104
de ahı́,
n Z t
X µ
f (x (t)) − f (x (0)) + ν+ x′2
j (s) ds = 0
j=1 0 xj (t)
lo cual es equivalente a,
n
Z tX n Z t
X µ
f (x (t)) − f (x0 ) + ν x′2
j (s) ds + x′2 (s) ds = 0
0 j=1 j=1 0 xj (s) j
entonces,
n
t x′2
j (s)
Z
2
X
′
f (x (t)) − f (x0 ) + ν kx (s)k ds + µ ds = 0
0 j=1
xj (s)
donde v
u n ′2
uX
′
kx (s)k = t xj (s).
j=1
Por tanto,
n Z
t t x′2
j (s)
Z
2
X
′
ν kx (s)k ds = f (x0 ) − f (x (t)) − µ ds
0 j=1 0 xj (s)
luego,
n Z
t t x′2
j (s)
Z
2
X
′
ν kx (s)k ds ≤ f (x0 ) − inf f − µ ds
0 j=1 0 xj (s)
≤ f (x0 ) − inf
n
f.
R+
es decir x ∈ L2 ([0, ∞) , Rn ).
Supongamos que x (.) es acotada, es decir,
sup kx (t)k < ∞.
t∈(0,∞]
∂f
Desde que f es suave, ∂xj
continua y x (.) acotada entonces
∂f (x (.))
∂xj
105
es acotada. Por tanto,
∂f (x (t))
sup <∞ (5.14)
t∈[0,∞) ∂xj
p
Desde que x (t) ∈ R++ en el sistema (S) obtenemos
xj (t) ∂f (x (t))
x′j (t) = − ,
µ + νxj (t) ∂xj
aplicando valor absoluto en ambos miembros
′ xj (t) ∂f (x (t))
xj (t) = (5.15)
µ + νxj (t) ∂xj
106
r
Analizando la derivada de θ (r) = µ+νr
obtenemos
µ 1
θ′ (r) = 2 ≤
(µ + νr) µ
entonces θ′ (r) ≤ µ1 .
∂2f ∂f
Como f ∈ C 2 , ∂xi ∂xj
y ∂xi
son continuas
p
X ∂ 2 f (x (t)) ∂f (x (t))
x..j (t) = −θ (xj (t)) x′k (t) − θ′ (xj (t)) x′j (t)
k=1
∂xj ∂xk ∂xj
Aplicando |.| en ambos miembros
p
2
..
xj (t) = θ (xj (t))
X ∂ f (x (t)) ′ ′ ′ ∂f (x (t))
x (t) + θ (xj (t)) xj (t)
∂xj ∂xk k ∂xj
k=1
n
∂ 2 f (x (t)) ′
X ∂f (x (t))
xk (t) + θ (xj (t)) x′j (t)
′
≤ |θ (xj (t))|
k=1
∂x j ∂xk ∂x j
n
1 X ∂ 2 f (x (t)) ′
1 ′ ∂f (x (t))
≤ |x (t)| + x (t) <∞
ν k=1 ∂xj ∂xk k µ j ∂xj
es decir,
sup x..j (t) < ∞
(5.17)
t∈[0,∞)
2
desde que ∂∂xfj(x(t))
∂xk
(x(t))
y ∂f∂x j
son acotadas.
De (5.13) y (5.17) obtenemos
Z ∞
2
kx′ (t)k dt < ∞ ∧ sup kx.. (t)k < ∞
0 t∈[0,∞)
entonces
lim
x′j (t)
= 0. (5.18)
t→∞
Además,
′ xj (t) ∂f (x (t))
xj (t) =
µ + νxj (t) ∂xj
aplicando lı́mite cuando t → ∞
′ xj (t) ∂f (x (t))
lim xj (t) = lim
t→∞ t→∞ µ + νxj (t) ∂xj
de (5.18)
lim x′j (t) = 0
t→∞
entonces
xj (t) ∂f (x (t))
lim = 0.
t→∞ µ + νxj (t) ∂xj
Lo cual demuestra el item 4.
107
5.4 Convergencia Asintótica: Caso Convexo
Estamos interesados en analizar la convergencia asintótica cuando t → ∞ de las
trayectorias {x (t) : t ∈ [0, ∞)} generada por el sistema dinámico (S) donde se asume
que la función f es convexa.
Nuestro principal resultado en esta sección es probar que toda trayectoria generada
por (S) converge a una solución óptima del problema de minimización convexa.
n
(P ) inf f (x) : x ∈ R+ .
Denotemos por
X := arg min
n
f
R+
Proposición 5.1 Supongamos que se satisfacen las hipótesis anteriores y sea {x (t) : t ≥ 0}
una trayectoria generada por (S).
n
Para todo punto fijo z ∈ R+ y todo t ≥ 0 definimos
n n
E : R → R+ × R+
t → E (t) = ǫ (z, x (t))
Entonces
n
1. f (x (t)) − f (z) ≤ t−1 [ǫ (z, x0 ) − ǫ (z, x (t))] , ∀z ∈ R+ , ∀t > 0.
n
2. La función E (t) es decreciente para todo z ∈ R+ tal que f (z) ≤ inf s≥0 f (x (s)).
n
Demostración. Para todo z ∈ R++ consideremos
E (t) = ǫ (z, x (t))
n
ν 2
X zj
= kz − x (t)k + µ xj (t) ϕ
2 j=1
xj (t)
zj zj z z
donde ϕ xj (t) = xj (t)
j
log xj (t) − xj (t)
j
+1 con x (t) solución del sistema (S). Entonces
para todo t ≥ 0
n
ν 2
X zj
E (t) = kz − x (t)k + µ zj log − zj + xj (t)
2 j=1
xj (t)
108
Derivando E (t) respecto a t obtenemos
n
dE (t) ν X xj (t) zj ′
= 2 kz − x (t)k kz − x (t)k′ (−x′ (t)) + µ −zj 2
xj (t) + x′j (t)
dt 2 j=1
z j x j (t)
Notemos que E (t) es una función continua en [0, t], aplicando el teorema de valor
medio obtenemos
109
Reemplazando este resultado en (5.22)
E (0) − E (t)
f (x (s)) − f (z) ≤
t
lo cual es equivalente a
entonces,
n
Teorema 5.3 Supongamos que se satisfacen (H1) y (H2). Si x : [0, ∞) → R++
es una solución global de (S), entonces
f (x (t)) ≥ inf
n
f (5.23)
R+
110
desde que t−1 ǫ (z, x (t)) ≥ 0
n
f (x (t)) − f (z) ≤ t−1 ǫ (z, x0 ) , ∀z ∈ R+
2
kx (t)k2 ≤ ǫ (0, x0 )
ν
A partir de esta expresión obtenemos
es decir, kx (t)k es acotada. Como, x (t) es acotada posee una subsucesión x (tk )
convergente, es decir, limtk →∞ x (tk ) = x∞ , donde x∞ es un punto lı́mite de la
tayectoria x (t).
Por el primer item, se tiene el siguiente resultado
y de esta manera x∞ ∈ X.
Para completar la prueba que la trayectoria converge a x∞ ∈ X, mostraremos que
111
el punto lı́mite x∞ es único.
En efecto, asumiremos que existen dos puntos lı́mites
lim x (tk ) = x∞ ∈ X ∧ lim x (sk ) = y∞ ∈ X
donde {tk } y {sk } son sucesiones en el octante no negativo.
Por la proposición anterior E (t) = ǫ (z, x (t)) es decreciente
E (t) ≤ E (0) , ∀t ∈ [0, ∞)
aplicando lı́mite cuando t → ∞
lim E (t) ≤ E (0) , ∀t ∈ [0, ∞)
t→∞
Por
ν
ǫ (x∞ , x (sk )) ≥ kx∞ − x (sk )k2
2
aplicando lı́mite cuando sk → ∞
ν
lim ǫ (x∞ , x (sk )) ≥ lim kx∞ − x (sk )k2
sk →∞ sk →∞ 2
A partir de obtenemos
ν
0 ≥ lim kx∞ − x (sk )k2 ≥ 0
sk →∞ 2
entonces
ν
lim kx∞ − x (sk )k2 = 0
sk →∞ 2
Por tanto,
lim x (sk ) = x∞
sk →∞
En consecuencia, obtenemos x∞ = y∞ .
112
5.4.1 Minimización Cuasi-convexa
Los problemas de minimización cuasi-convexa tienen diversas aplicaciones, ver el
reciente trabajo de Crouziex. Recalcamos que una función es cuasi-convexa si y solo
si
L (f, α) = {x ∈ Rn : f (x) ≤ α}
entonces obtenemos
hz − x (t) , ∇f (x (t))i ≤ 0, ∀z ∈ Z
es decir
E ′ (t) ≤ 0
E (t) ≤ E (0) , ∀t ≥ 0
113
Por tanto, el limt→∞ E (t) existe. Usando el mismo argumento que en el caso convexo
concluimos que x (t) es acotado, entonces x (t) posee una subsucesión convergente,
es decir, sin pérdida de generalidad x (tk ) → x∞ .
Por otro lado, desde que f (x (t)) es decreciente cuando t → ∞ podemos asumir sin
pérdida de generalidad tk ≥ t para todo t arbitrario pero fijo entonces,
f (x (tk )) ≤ f (x (t))
entonces
entonces desde que existe el lı́mite de E (t) = ǫ (z, x (t)) cuando t → ∞ obtenemos
114
A partir de obtenemos
ν
0 ≥ lim kx∞ − x (sk )k2 ≥ 0
sk →∞ 2
entonces
ν
lim kx∞ − x (sk )k2 = 0
sk →∞ 2
Por tanto
lim x (sk ) = x∞
sk →∞
denotamos
Proposición 5.2 Si x (t) es una solución del sistema (S) con x (0) = x0 y asu-
mimos que X 6= 0. Consideremos x∞ ∈ X tal que x (t) → x∞ cuando t → ∞.
Entonces, p
kx0 − x∞ k ≤ θ ρ (x0 , X)
√
donde la constante θ = 2 2ν −1 > 0.
115
considerando z = πX (x0 ) entonces
2 2
kπX (x0 ) − x∞ k ≤ ǫ (πX (x0 ) , x0 ) ≤ ρ (x0 , X)
ν ν
Por la regla del paralelogramo para u = x0 − πX (x0 ) y v = πX (x0 ) − x∞
entonces
n
A1 Domf ∩ R++ 6= ∅.
Teorema 5.5 Supongamos que las hipótesis (A0) y (A1) se satisfacen. Sea xk ⊂
n
R++ es una sucesión generada por el método proximal. Entonces se satisfacen los
siguientes resultados
3. Si X 6= ∅, σk → ∞, la sucesión xk converge a una solución óptima del
problema (P ).
116
Demostración. Usando la definición de la subdiferencial de la función convexa f
tenemos
f (x) ≥ f (x) + g k , x − xk
donde g k ∈ ∂f xk . Entonces, reemplazamos g k en la siguiente desigualdad
λk f xk − f (x) ≤ −λ g k , x − xk
* !! +
xk1 xkp
k
− f (x) ≤ − ν xk − x k−1
+ µ ϕ′ , ..., ϕ′ , x − xk
λk f x
x1k−1 xpk−1
( n
! )
X xjk−1
= ν xk − xk−1 , x − x k k
+µ 1− k xj − xj
j=1
xj
j
ν
k
2 P n xj k
2
x − x + µ j=1 x j log x k + x j − x j
j
2
2
Desde que
x − xk−1
= x − xk−1 , x − xk−1 y
x − xk
= x − xk , x − xk .
Reemplazando en la igualdad anterior obtenemos
n
!
k
ν
2
X x j
ν x − xk , xk − xk−1 +
xk − xk−1
+ ν xj log k−1 + xjk−1 − xkj (5.28)
2 j=1
xj
λk f xk − f (x) ≤ ǫ x, xk−1 − ǫ x, xk , ∀x ∈ R+
n
Pn
Sumando sobre k = 1, ..., n la siguiente desigualdad y recalcando que σn = k=1 λk
entonces
n
X
λk f xk ≤ ǫ x, x0 − ǫ (x, xn )
−σn f (x) +
k=1
117
Por otro lado, desde que
k−1
f (x) + λ−1 ≥ f xk + λ−1 k k−1
k d x, x k d x ,x
En particular para x = xk−1 ∈ R++ n
, recalcando que d (., .) ≥ 0 y d xk−1 , xk−1 = 0
f xk−1 ≥ f xk , ∀k
k
de esta manera se prueba
Pn que la sucesión f x es decreciente. A partir de la
definición de σn = k=1 λk , entonces para k ≥ 1 se puede escribir la siguiente
relación σk = λk + σk−1 con σ0 = 0, multiplicando la anterior desigualdad por σk−1
lo cual es equivalente a
De (5.30)
Lo cual demuestra 1.
Tomando lı́mite en el resultado de 1 cuando n → ∞ y desde que σn → ∞
Además,
lim f (xn ) = f ∗
n→∞
Lo cual demuestra 2.
Sea x∗ ∈ arg minR+n f 6= φ, desde que
f xk ≥ f (x∗ ) , ∀k
118
obtenemos de
ǫ x∗ , xk ≤ ǫ x∗ , xk−1 .
n n
Pero, para todo (x, y) ∈ R++ × R++
ν
ǫ (x, y) ≥ kx − yk2
2
Por lo tanto, obtenemos
x − xk
2 ≤ 2 ǫ (x∗ , x0 ) < ∞
∗
ν
En consecuencia, la sucesión {xk } es acotada. La convergencia de xk a una solución
x∗ satisface las mismas condiciones que en la prueba del caso continuo.
Usando tenemos que para todo j = 1, ..., n
h i
k−1 k k k−1
xkj gjk = λ−1
k
k ν x j − x j j + µ x j − x j
(x(t))
xj (t) + µ−1 xj (t) ∂f∂x
′
(S0 ) j
= 0 j = 1, ..., n
n
xj (0) = x0j ∈ R++ j = 1, ..., n.
En esta sección damos una respuesta positiva a esta pregunta y por eso hacemos una
justificación de la terminologı́a “sistema dinámico Lotka Volterra” para el sistema
(S) introducido en este trabajo. Para probar este resultado, usamos un argumento
de compacidad primero probaremos que la sucesión {xν } es relativamente compacto
por la topologı́a de la convergencia uniforme en el conjunto acotado de [0, ∞).
119
1. La sucesión {xν (.)}ν>0 es relativamente compacto para la topologı́a de la con-
vergencia uniforme en subconjuntos acotados de [0, +∞).
2. La trayectoria xν (.) generada por (Sν ) converge a x (.) solución de (S0 ) cuando
ν → 0.
Demostración. Primero recalcamos que existe una única solución global del sis-
tema (Sν ), xν (t) ∈ R++
n
, ∀t ≥ 0. Usando el mismo argumento pero ahora para el
sistema obtenemos, para todo ν > 0
n Z t
ν
X ν 2
f (x (t)) + ν + ν (s) x′ν
j (s) ds = f (x0 )
j=1 0
xj
Definiendo
q
yjν (t) = xνj (t) ∀j = 1, ..., p
y notando que
dyjν (t) 1 x′ν
j
= q ∀j = 1, ..., n
dt 2 xν (t)
j
21
√ √
Z t
Z
ν ν
′ν ′ν 2
ky (t) − y (s)k =
y (t) dτ
≤ t − s
ky (τ )k dτ ≤ M t − s(5.31)
0 s
de ahı́,
√
ky ν k ≤ ky0 k + M t (5.32)
120
Elevando al cuadrado en ambos miembros de la desigualdad, para todo T < ∞
√ 2
0 ≤ xνj (t) ≤ ky0 k + M T , ∀j = 1, ..., p , ∀t ∈ [0, T ] .
Por lo tanto, {xν (.)}ν>0 son uniformemente equicontinuas desde que la sucesión
{xν (.)}ν>0 es acotada en [0, T ].
Existe una subsucesión, la cual por simplicidad la denotamos por {xν }, y una función
continua x (.) tal que, para todo T < ∞
xνj (.) → xj (.) uniformemente en [0, T ] , ∀j = 1, ..., n
Pasando el lı́mite en el sistema cuando ν → 0 en el sentido de las distribuciones
′ ′ ′
xjν → xj (.) en D (0, ∞).
De otro lado, cuando ν → 0
xνj (.) xj (.)
ν
→
µ + νxj (.) µ
uniformemente en [0, T ].
Para probar esta afirmación, notemos que para todo t ∈ [0, T ]
ν
xνj µx (t) − µx (t) − νx (t) x ν
(t)
x j (t) j j j j
µ + νxν − =
j µ µ µ + νxνj (t)
ν
xj (t) − xj (t) ν xj (t) xνj (t)
≤ +
µνxνj (t) µ µ + νxνj (t)
1 ν
≤ xj (t) − xj (t) + Cν
µ
donde la constante C es obtenida acotando superiormente .
Por lo tanto, desde que xν (.) → x (.) uniformemente en [0, T ], queda demostrado.
Además, desde que f ∈ C 1 , tenemos también , para todo j = 1, ..., n cuando ν → 0,
∂f (xν (t)) ∂f (x(t))
∂xj
converge uniformemente a ∂xj
en [0, T ]
121
uniformemente en [0, T ].
Por lo tanto, pasando el lı́mite en D′ (0, ∞), obtenemos finalmente
xj (t) ∂f (x (t))
x′j (t) + =0
µ ∂xj
(x(.))
Desde que xj (.) ∂f∂x j
es continuo, esto implica que x (.) es una clásica solución del
sistema (S0 ). Por el teorema de Cauchy Lipschitz, esta es la solución única de (S0 ).
Para terminar la prueba usamos argumentos de compacidad, entonces obtenemos
que la sucesión xν (.) → x (.) cuando ν → 0.
Concluimos en este trabajo notando el interesante hecho que el análisis del sistema
dinámico Lotka Volterra (S0 ) puede ser derivado en el sistema dinámico propuesto.
Para el caso convexo, las funciones de Lyapunov deben elegirse simplemente como
la entropı́a relativa Kullback-Liebler
n
X µj
K (µ, ν) = µ µj log + ν j − µj
j=1
νj
n
Siguiendo la misma técnica usada en la Proposición , para todo z ∈ R+ y todo t ≥ 0
definimos
Entonces, es fácil verificar que para una función convexa f , la función es decreciente
p
para todo z ∈ R+ tal que
de lo cual concluimos
X = arg min
n
f 6= φ
R+
122
entonces, para todo z ∈ X
Teorema 5.7 Supongamos que las hipótesis (H1’) y (H2) se satisfacen. Si la trayec-
n
toria x : [0, +∞) → R+ es una solución global del sistema (S) y si el conjunto
n
Z = z ∈ R+ : f (z) ≤ inf f (x (t)) 6= φ,
t≥0
lim x (t) = x∞ ,
t→∞
123
A partir de la viabilidad de la solución del sistema x∞i ≥ 0.
Para probar las otras condiciones de (5.34) consideremos los siguientes conjuntos:
Desde que
xi (t)
>0
µ + νxi (t)
obtenemos −xi (t) < 0, esto implica que xi (t) > 0. Por tanto, xi (t) es creciente
xi (0) ≤ xi (t) , ∀ t ≥ 0
x0i ≤ x∞i
124
n
a partir de que x0 ∈ R++ concluimos
es cuasi-convexa.
(ln y1 )2 +(ln y2 )2 ≤ (ln (y1 + λ (x1 − y1 )))2 +(ln (y2 + λ (x2 − y2 )))2 ≤ (ln x1 )2 +(ln x2 )2
125
entonces
f (y) ≤ f (λx + (1 − λ) y) ≤ f (x)
Por tanto,
f (λx + (1 − λ) y) ≤ max {f (x) , f (y)} .
Por otro lado, si 0 < yi ≤ xi < 1 desde que 0 ≤ λ ≤ 1
yi ≤ yi + λ (xi − yi ) ≤ xi
ln y1 ≤ ln (y1 + λ (x1 − y1 )) ≤ ln x1
entonces,
por tanto,
f (λx + (1 − λ) y) ≤ max {f (x) , f (y)} , ∀ λ ∈ [0, 1] .
Si 1 ≤ x1 ≤ y1 y 1 ≤ y2 ≤ x2 sin pérdida de generalidad supongamos que y1 ≤ y2
entonces
x1 ≤ y1 ≤ y2 ≤ x2
luego
x1 ≤ x1 + λ (y1 − x1 ) ≤ y1
y2 ≤ x2 + λ (y2 − x2 ) ≤ x2
de ahı́ como y1 ≤ y2
(ln x1 )2 + (ln y1 )2 ≤ (ln (x1 + λ (y1 − x1 )))2 + (ln (x2 + λ (y2 − x2 )))2 ≤ (ln x2 )2 + (ln y2 )2
126
Si 0 < x1 < y1 < 1 y 0 < y2 < x2 < 1 entonces
y2 ≤ λx2 + (1 − λ)y2 ≤ x2
x1 ≤ λx1 + (1 − λ)y1 ≤ y1
luego
xj (t) ln xj (t)
lim 2 = 0, j = 1, 2
t→∞ µ + νxj (t) xj (t)
desde que xj (t) > 0
lim ln xj (t) = 0, j = 1, 2.
t→∞
Por tanto,
lim xj (t) = 1, j = 1, 2.
t→∞
Del teorema 5.7 concluimos que el punto (1, 1) es un punto candidato a solución del
problema
127
Ejemplo 5.2 Consideremos la función f definida en el conjunto convexo
de aquı́,
Además,
Por tanto,
f (λx + (1 − λ) y) ≤ max {f (x) , f (y)} , ∀λ ∈ [0, 1] .
Lo cual demuestra que f es cuasi-convexa. Notemos que,
∂f ∂f
= −2x1 + 1 ∧ = 0.
∂x1 ∂x2
En el sistema (S) tenemos
x1 (t)
x′1 (t) + (−2x1 (t) + 1) = 0
µ + νx1 (t)
x2 (t)
x′2 (t) + 0=0
µ + νx2 (t)
desde que la trayectoria del sistema (Sν ) converge a la trayectoria de (S). En el
sistema (Sν )
x1 (t)
x′1 (t) + (−2x1 (t) + 1) = 0
µ
x2 (t)
x′2 (t) + 0=0
µ
el cual es equivalente a
x1 (t)
x′1 (t) = (2x1 (t) − 1)
µ
x′2 (t) = 0
128
de ahı́,
x′1 (t) 1
=
x1 (t) (2x1 (t) − 1) µ
′
x2 (t) = 0
129
Materiales y Métodos
130
Resultados
131
Discusiones
132
Conclusiones
4. Los resultados del caso convexo se extienden para el caso cuasi-convexo, por
tanto, obtenemos un nuevo resultado, la convergencia de la trayectoria del Sis-
tema Dinámico a un punto candidato a solución del problema de minimización
cuasi-convexa.
133
Bibliografı́a
[1] Aliprantes, C.D., Brown, D.J., and Birkinshaw, O., Existence and Optimality of
Competitive Equilibrium. Berlı́n, 1990.
[2] Arrow, K., and Debreu, G., Existence of an Equilibrium for a Competitive
Economy, Econometrı́a, 27, pp. 265-290, 1954.
[3] Arrow, K., and Enthoven , A., Quasi-concave programming, Econometrı́a, 29,
pp. 779-800, 1961.
[4] Attouch, H., and Teboulle, M., Regularized Lotka-Volterra Dynamical System
as Continuous proximal - Like Method in Optimization, Journal of Optimization
Theory and Applications. V. 121, No 3, pp. 541-570, 2004.
[5] Auslender, A., Teboulle, M., and Ben-Tiba, S., Interior Proximal and Mul-
tiplier Methods Based on Second-Order Homogeneous Kernels, Mathematics of
Operations Research, Vol. 24, pp. 645–668, 1999.
[6] Avriel, M., Nonlinear Programming: Analysis and Methods, Prentice Hall,
Englewood Cliffs, New Yersey, 1976.
[7] Avriel, M., and Schaible, S., Second order characterization of pseudoconvex
functions, Math Programming 14, pp. 170-185, 1978.
[8] Barron, N., and Lui. W., Calculus of Variation in l∞ , Applied Math.Optim.V.35,
pp. 237-263, 1997.
[9] Barten, A.P., and Bohm, Y., Consumer Theory, K.J. Arrrow and M.D. Intrili-
gator (Eds.), Vol II, 1982.
[10] Bartle, R., A Elementos de Análisis, John Wiley & Sons, New York, 1964.
[11] Bazaraa, M.S., Sherald, H.D., and Shetty, C.M., Nonlinear Programming: The-
ory and Algorithms, Second Edition, , John Wiley & Sons, 1993.
[12] Berkovitz, L., Convexity and Optimization in Rn , John Wiley & Sons, Inc.
New York, 2002.
134
[14] Crouzeix, J., and Ferland, J., Criteria for quasiconvexity and pseudo-comvexity
and their relationships, in Generalized Concavity in Optimization and Economics,
Edited by S. Schaible and W. Ziemba, Academic Press, New York, 1981.
[15] Cunha, F.G., da Cruz Neto, X.J., and Oliveira, P.R., A Proximal Point Al-
gorithm with φ-Divergente to Quasiconvex Programming, Artı́culo sometido para
publicación, 2007.
[17] Diewert, W., Avriel, M., and Zang, I., Nine kinds of quasiconcavity and con-
cavity, Department of Economics, University of British Columbia, Vancouver, N.,
Canada, 1977.
[18] Diewert, W., Avriel, M., and Zang, I., Nine kinds of quasiconcavity and con-
cavity, J, Econ. Theory 25, pp. 397-420, 1981.
[19] Elkin, R., Convergence theorems for Gauss-Seidel and other minimization al-
gorithms, University of Maryland, College Park, 1968.
[20] Fenchel, W., Conex cones, sets and functions, Mimeographed lecture notes,
Princeton University, Princeton, New Jersey, 1951.
[21] Ferland, J., Quasi-convex and pseudo-convex functions on sold convex sets,
Ph.D. dissertation, Standford University, Standforf, California, 1971.
[22] De Finetti, B., Sulle stratificazioni convesse, Ann. Math. Pura Appl.30, pp.
173-183,1949.
[23] Gromicho, J., Quasiconvex Optimization and Location Theory, Kluwer Aca-
demic Publishers Dordrecht, The Netherlands, 1998.
[25] Herden, G., On the Existence of Utility Functions, Mathematical Social Sci-
ences 17, pp. 297-313, 1989.
[26] Izmailov, A., and Solodov, M., Otimização -volume 1, IMPA, Rio de Janeiro,
Brazil, 2005.
[27] Katzner, D., Static Demand Theory, Macmillan, New York, 1970.
[28] Kiwiel, K., Convergence and Efficiency of Subgradient Methods for Quasiconvex
Minimizator, Mathematical Programming, 90, pp. 1-25, 2001.
[29] Kreyszig, E., Introductory Functional Analysis with Applications, John Wiley
& Sons.Inc.Canadá, 1978.
135
[31] Lima, E. Curso de Análise, volumen II, Instituto de Matemática Pura y
Aplicada, 1989.
[32] Martos, B., Subdefinite matrices and quadratic forms, Siam J. Appl. Math, 17,
pp. 1215-1223, 1969.
[34] Mas-Collel A., Whinston, M.D., and Green, J.R., Microeconomic Theory, New
York, 1995.
[35] Minoux, M., Mathematical Programing: Theory and Algorithms, Wiley- Inter-
science Publication, 1986.
[36] Newman, D., Location of the maximum on unimodal surfaces, J, Assoc. Comp.
Mach. 12, pp. 395-398, 1965.
[37] Papa Quiroz, E.A., Quispe Cardenas, E.M., and Oliveira, P.R., Steepest De-
scent Method with a Generalized Armijo Search for Quasiconvex Functions on
Riemannian Manifolds, por aparecer en Journal of Mathematical Analysis and
Applications, 2007.
[38] Papa Quiroz, E.A., and Oliveira, P.R., Proximal Point Methods for Quasicon-
vex Functions With Bregman Distances on Hadamard Manifolds, publicado en
Journal of Convex Analysis, 2009.
[39] Papa Quiroz, E.A., and Oliveira, P.R., Clasiccal and Logarithmic- Quadratic
Proximal Methods for Quasiconvex Minimization, artı́culo sometido para publi-
cación, 2006.
[40] Ponstein, J., Seven kinds of convexity, SIAM Rev 9, pp. 115-119, 1967.
[45] Souza, S.S., Oliveira,P.R., da Cruz Neto, J.X., and Soubeyran, A., A Proximal
Point Algorithm with Bregman Distances for Quasiconvex Optimization over the
Positive Orthant, aceptado para publicación en EJOR 2010.
136
[47] Takayama, A., Mathematical Economics, 2nd Edition, Cambridge, Univ. Press,
1995.
[48] Thompson, W., and Parke, D., Some properties of generalized concave func-
tions, Oper. Res 21, pp. 305-313, 1973.
[50] Wilde, D., Optimum Seeking Methods, Prentice Hall, Englewood Cliffs, New
Jersey, 1964.
137