Está en la página 1de 10

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional
Bolivariana
UNEFANB – Extensión Guacara
Guacara, Edo. Carabobo

Unidad 2:
Caracterización de
máximos y mínimos

Profesora: Belén Torres Alumno: Jeykel Infante


Asignatura: Optimización No Lineal C.I: 27.927.489
Ing. De Sistemas

Domingo,10 de enero de 2021


Gradiente

Para tratar de explicar del modo más fácil posible éste método, recordemos los siguientes
conceptos del cálculo variacional. Sea J una funcional diferenciable que mapea algún
conjunto del espacio de Hilbert H sobre los reales R , entonces a partir del concepto de
derivada direccional podemos establecer:

El método del gradiente se basa en la observación de que si tomamos  H con 0<1,


podremos escribir:

El primer miembro de esta igualdad será negativa


para  J ( ẃ+t v́ )=J ( ẃ ) +t ( ∇ J ( ẃ ) , v́ ) +σ ( t ) ∀ ẃ , v́ ∈ H ,t ∈ R suficientemente pequeño, en esa
última condición:

v́=−∇ J ( ẃ)

Lo cual quiere decir que si nos acercamos a un valor de t según una sucesión de valores,
generalmente se cumplirá que:

2
J ( ẃ−t ∇ J ( ẃ ) ) −J ( ẃ )=−t ‖∇ J ( ẃ )‖ + σ (t)

La cual es una sucesión monótona decreciente. Para el caso de una funcional como en
(3), una variación en J implica (forma reducida):

Si se satisfacen las condiciones dadas por (5) y (7), podremos escribir esta última
ecuación como:

J ( ẃ−t ∇ J ( ẃ))< J ( ẃ)

Escribiendo (11) en términos del vector de control y admitiendo proporcionalidad entre ẃ


´ n+1= ẃn−t ∇ J ( ẃ n ) n=1,2,3 , …(11) es posible deducir que:
y w ❑

t t T T
∂h ∂H ∂H
δJ = [ ∂ x́ ]
−λ δ x́ +∫ λ́+
t
{[
∂ x́ ] [ ]δ x́+
∂ ú
T
}
δ ú + [ f́ − x́ ] δt dt
Máximo Global y Local

En matemáticas, los máximos y mínimos de una función, conocidos colectivamente como


extremos de una función, son los valores más grandes (máximos) o más pequeños
(mínimos), que toma una función en un punto situado ya sea dentro de una región en
particular de la curva (extremo local) o en el dominio de la función en su totalidad
(extremo global o absoluto).

De manera más general, los máximos y mínimos de un conjunto (como se define en teoría
de conjuntos) son los elementos mayores y menores en el conjunto, cuando existen. El
localizar valores extremos es el objetivo básico de la optimización matemática.

Sea  , sea    y sea     un punto


perteneciente a la función.
 
Se dice que   es un máximo local de     si existe un entorno reducido de centro , en
símbolos , donde para todo elemento   de   se cumple .
Para que esta propiedad posea sentido estricto debe cumplirse .

Análogamente se dice que el punto   es un mínimo local de   si existe un entorno
reducido de centro , en símbolos , donde para todo elemento   de   se
cumple .

Sea , sea   y sea   un punto


perteneciente a la función.
 
Se dice que P es un máximo absoluto de f si, para todo x distinto de   perteneciente
al subconjunto A, su imagen es menor o igual que la de . Esto es:

 Máximo absoluto de .
 
Análogamente, P es un mínimo absoluto de f si, para todo x distinto de   perteneciente
al subconjunto A, su imagen es mayor o igual que la de . Esto es:

 Mínimo absoluto de  .


Condiciones Necesarias de Primer Orden

Uno de los teoremas de Fermat asegura que los óptimos de los problemas irrestrictos son
encontrados en los puntos estacionarios, donde la primera derivada de la función objetivo
es cero (o su gradiente nulo). De forma más general, también pueden ser encontrados en
los puntos críticos donde la primera derivada o el gradiente de la función objetivo no están
definidos, o en la frontera del conjunto de elección. Una ecuación (o conjunto de
ecuaciones) indicando que la(s) primera(s) derivada(s) es(son) igual(es) a cero en un
óptimo interior se llama una condición de primer orden o un conjunto de condiciones de
primer orden.

Los óptimos de los problemas con restricciones de desigualdad son en cambio


encontrados mediante el método de los multiplicadores de Lagrange. Este método
computa un sistema de desigualdades llamado Condiciones de Karush–Kuhn–Tucker
o condiciones de holguras complementarias, las cuales se usan entonces para calcular el
óptimo.

Dirección de Ascenso

Cada componente del gradiente le dice cuán rápido cambia su función con respecto a la
base estándar. No es demasiado descabellado entonces preguntarse, ¿cuán rápido
podría estar cambiando la función con respecto a alguna dirección arbitraria? Dejando
que  v́ denotan un vector unitario, podemos proyectar a lo largo de esta dirección de forma
natural, es decir, a través del producto punto  grad ( f ( a ) ) . ⃗v . Esta es una definición
bastante común de la derivada direccional.

Podemos entonces preguntar ¿En qué dirección es esta cantidad máxima? Recordará
que

grad ( f ( a ) ) . ⃗v =¿ grad ( f (a))∨¿ ⃗v ∨cos ⁡(θ)

Desde ⃗v  es la unidad, tenemos ¿ grad (f )∨cos ⁡(θ)  que es máximo cuando cos ( θ )=1 en
particular cuando ⃗v  apunta en la misma dirección que  grad (f (a)) .

Condiciones de Segundo Orden

Mientras la prueba de la primera derivada identifica los puntos que pueden ser extremos,
esta prueba no distingue si un punto es mínimo, máximo, o ninguno de los dos. Cuando la
función objetivo es dos veces diferenciable, estos casos pueden ser distinguidos
estudiando la segunda derivada o la matriz de las segundas derivadas (llamada matriz
Hessiana),en problemas irrestrictos, o la matriz de las segundas derivadas de la función
objetivo y las restricciones llamada la matriz Hessiana orlada, en problemas restrictos.

Las condiciones que distinguen a los máximos, o mínimos, de otros puntos estacionarios
son llamadas condiciones de segundo orden. Si un candidato a solución satisface las
condiciones de primer orden y las condiciones de segundo orden también, es suficiente
para establecer, al menos, optimalidad local.

Existencia del Máximo

Dada una función, f(x), se llama máximo o máximo absoluto al mayor valor que toma
dicha función. Se habla de máximo relativo, cuando se restringen los valores de la
variable a un cierto entorno de un determinado punto.

A los máximos y mínimos relativos se los llama extremos relativos o simplemente


extremos.

Sea   una función real, x0 ∈ D un punto de su dominio, si f alcanza un


máximo en x0 y es derivable en dicho punto0, entonces f´(x0)=0.

Por lo tanto:

Si en x0 hay un máximo ⇒ f´(x0)=0

Si f´(x0) ≠ 0 ⇒ No hay máximo en x0.

A los puntos donde se anula la primera derivada se les conoce como puntos críticos, y en
ellos puede haber: un mínimo, un máximo o un punto de inflexión.

Si la función hasta ese punto crítico crece y a partir de él decrece, estaremos ante un
máximo, la función se dice que es convexa o cóncava negativa en este punto.

Sea   una función real, x0 ∈ D un punto de su dominio.

 Criterio de la evolución de la función

Si existe f´(x0) y vale cero 0, entonces x0 es un punto crítico.

Tomando, ahora, dos puntos, tales que, (x0 - k), (x0 + k) ∈ E(x0); ∀ k > 0, entonces
el punto x0 es un máximo relativo si: f(x0 - k) < f(x0) > f(x0 + k).
Es decir, la función f presenta un máximo en el punto x0, si es creciente antes de
él, en (x0-k), y decreciente después del mismo, en (x0+k). Así, la pendiente de la
recta tangente en x0 será cero, en (x0-k) mayor que cero y en (x0+k) menor.

 b) Criterio de la primera derivada

Si la función de referencia es derivable en un intervalo (a, b), tal que x 0 ∈ (a,b) y f
´(x0)=0 entonces f presenta un máximo en x0 si:

∀x1 ∈(a, x0), f´(x1) > 0, y ∀x2 ∈ (x0,b), f´(x2) < 0

En efecto, la primera condición obliga a que las tangentes de la curva en esos


puntos del intervalo (a, x0) tengan pendiente positiva, la función decrezca, y en el
intervalo (x0, b) la derivada negativa indica que las tangentes tienen pendiente
negativa, por tanto, la función decrece, dibujando un máximo en el punto de
inflexión x0.

Matriz Hessiana

El hessiano, conocido también como discriminante o matriz Hessiana, fue introducido en


el año de 1844 por Hesse, matemático alemán quien nació en 1811 y murió en 1874. EL
HESSIANO Matriz que contiene a las segundas derivadas y que sirve para verificar si del
punto crítico del que estamos hablando es máximo, mínimo, punto silla o no puede
determinarse. Primero recordemos que los puntos críticos son aquellos que anulan el
gradiente, es decir los que satisfacen:

Pasos A Seguir Para Encontrar Máximos Y Mínimos Utilizando Matrices Hessianas

1. Tener la función original que se va a trabajar.

2. Calcular las primeras derivadas parciales de la función con respecto a cada una de
las variables que se tiene la función original.

3. Igualar a cero las primeras derivadas que se calcularon en el paso 2.

4. Simultanear las ecuaciones generadas en el paso 3 para encontrar el valor de


cada una de las variables. Esos valores encontrados para cada una de las
variables serán las coordenadas de los puntos críticos.

5. Teniendo los puntos críticos que se encontraron en el paso 4, se tiene que calcular
las segundas derivadas parciales en el punto crítico de modo que asignemos los
valores de cada elemento de la matriz Hessiana, ya sea matriz 2 x 2 (si la función
es de 2 variables), 3 x 3 (si la función es de 3 variables), 4 x 4 (si la función es de 4
variables), n x n (si la función es de n variables).

6. Resolver la matriz Hessiana normalmente como se resuelve la determinante de


una matriz cuadrada. El resultado que se obtenga de la matriz Hessiana es la
respuesta.

Matriz Hessiana de Tres Variables

Antes de presentar ejemplos, se muestra la matriz resultante cuando se trabaja con


ejercicios o problemas de tres variables. La matriz Hessiana será de 3 x 3 y queda de esta
forma:

Significado de Cada Elemento de la Matriz Hessiana de Tres Variables

Con el objetivo de explicar cada detalle con la mayor claridad posible, se expresa el
significado de cada uno de los elementos que aparecen dentro de la matriz:

  Significa que se deriva la función original por primera vez con respecto a x y


luego ese resultado se deriva por segunda vez con respecto a x nuevamente.

  Significa que se deriva la función original por primera vez con respecto a x y luego
ese resultado se deriva por segunda vez pero ahora con respecto a y.

  Significa que se deriva la función original por primera vez con respecto a x y
luego ese resultado se deriva por segunda vez, pero ahora con respecto a z.
  Significa que se deriva la función original por primera vez con respecto a y y
luego ese resultado se deriva por segunda vez, pero ahora con respecto a x.

  Significa que se deriva la función original por primera vez con respecto a y y luego
ese resultado se deriva por segunda vez con respecto a y nuevamente.

  Significa que se deriva la función original por primera vez con respecto a y y
luego ese resultado se deriva por segunda vez, pero ahora con respecto a z.

  Significa que se deriva la función original por primera vez con respecto a z y
luego ese resultado se deriva por segunda vez, pero ahora con respecto a x.

  Significa que se deriva la función original por primera vez con respecto a z y
luego ese resultado se deriva por segunda vez, pero ahora con respecto a y.

  Significa que se deriva la función original por primera vez con respecto a z y
luego ese resultado se deriva por segunda vez con respecto a z nuevamente.

NOTA: Es bueno tomar en cuenta que:

,      ,  , …

Teorema de Taylor

En cálculo diferencial, el teorema de Taylor, recibe su nombre


del matemático británico, Brook Taylor, quien lo enunció con mayor generalidad en 1712,
aunque previamente James Gregory lo había descubierto en 1671. Este teorema permite
obtener aproximaciones polinómicas de una función en un entorno de cierto punto en el
que la función sea diferenciable. Además el teorema permite acotar el error obtenido
mediante dicha estimación.

Sea k ≥ 1 un entero y sea f : R → R una función diferenciable k veces en el punto a ∈ R.


Entonces existe una función hk : R → R tal que:

f ' ' ( a) f (k ) ( a ) k k
f ( x )=f ( a ) + f ' ( a )( x−a )+ ( x−a)2 +…+ ( x−a ) +h k ( x ) ( x −a ) ,
2! k!
Con lim
x→ a
hk ( x ) =0. Esta es la llamada forma de Peano del resto.
El polinomio que aparece en el teorema de Taylor,

' f ' ' (a ) 2 f ( k) ( a ) k


Pk ( x )=f ( a )+ f ( a ) ( x −a ) + (x−a) + …+ ( x−a ) ,
2! k!

Se denomina polinomio de Taylor de orden k de la función f en el punto a. El polinomio de


Taylor es el único polinomio que «mejor aproxima la función en forma asintótica», en el
sentido de que si existe una función hk : R → R y un polinomio p de orden k tal que:

f ( x )= p ( x ) +hk ( x )( x−a )k , lim hk ( x )=0 ,


x →a

Entonces p = Pk. El teorema de Taylor describe el comportamiento asintótico del término


del resto:

Rk ( x )=f ( x )−P k ( x ) ,

El cuál es el error de aproximación cuando se aproxima f con su polinomio de Taylor.


Utilizando la notación o el teorema de Taylor se puede expresar de la siguiente forma:

k
Rk ( x )=o (|x−a| ) , x → a .

Funciones convexas y cóncavas

Formalmente, una función real f definida en un intervalo se dice que es cóncava, si para


dos puntos x e y cualesquiera definidas en su dominio C, y para cualquier t en [0,1], se
cumple:

f ( tx+ ( 1−t ) y ) ≥ tf ( x )+(1−t ) f ( y )


Además, f(x) es cóncavo en [a, b] si y solo si la función −f(x) es convexa en [a, b].

Una función que es cóncava es a menudo también llamada cóncava hacia abajo, mientras
que una función convexa es llamada cóncava hacia arriba.

Una función es estrictamente cóncava si:

f ( tx + ( 1−t ) y ) >tf ( x ) +(1−t) f ( y)

Para cualquier t en (0,1) y x ≠ y.

Una función continua en C es cóncava si y solo si:

f ( x +2 y ) ≥ f ( x) +2f ( y )
Para cualquier x e y en C.

Una función diferenciable f es cóncava en un intervalo si su derivada f ′


es monótonamente decreciente en ese intervalo: una función cóncava posee
una pendiente negativa o decreciente. (entendiendo por "decreciente" aquí a que es "no-
creciente", en lugar de "estrictamente decreciente"; es decir, se permite la pendiente
cero).

Una función real f definida en un intervalo se llama función convexa o cóncava hacia


arriba, si está definida sobre un conjunto convexo C y para cualesquiera dos
puntos x, y miembros de C, y para cada t en [0,1], se cumple que:

f ( tx+ ( 1−t ) y ) ≤ tf ( x )+(1−t ) f ( y )

En otras palabras, una función es convexa sí y solo si su epígrafo (el conjunto de puntos


situados en o sobre el grafo) es un conjunto convexo.

Una función estrictamente convexa es aquella en que:

f ( tx+ ( 1−r ) y ) <tf ( x ) +(1−t)f ( y )

Para cualquier t en (0,1) y x ≠ y .


Una función f  es cóncava si la función −f  es convexa.

También podría gustarte