Está en la página 1de 19

Técnicas de optimización clásica

Las técnicas de optimización son herramientas matemáticas que tienen como


objetivo la maximización de beneficios, digamos de la eficiencia de un proceso o la
minimización de esfuerzos o pérdidas, digamos de las pérdidas de un material para
elaborar un producto. Dado que la medida de un esfuerzo requerido, medida de
pérdidas o medida de beneficios puede expresarse como una función (función
objetivo) de varias variables, el proceso de optimización se puede definir como el
proceso de búsqueda de aquellas variables que minimizan o maximizan el valor de
la función. El proceso de optimización con la búsqueda de la minimización o
maximización de una función objetivo se trata del mismo problema, simplemente
con el negativo de la función se obtiene el máximo o con la función se obtiene el
mínimo Se puede decir que no existe un solo método para resolver todos los
problemas de optimización de forma eficiente, sino que se han desarrollado una
gran cantidad de métodos de optimización para resolver diferentes tipos de
problemas. Existen técnicas de optimización que se les conoce como técnicas de
programación matemática o determinísticas, técnicas estocásticas, técnicas
estadísticas y técnicas modernas. √ Las técnicas determinísticas son muy útiles
para encontrar el mínimo de una función objetivo de varias variables bajo una serie
de restricciones pre-establecidas siendo las restricciones y las funciones, lineal o no
lineal. √ Las técnicas estocásticas se pueden emplear para analizar problemas
descritos por un conjunto de variables aleatorias que tienen una función de
distribución de probabilidad.
Las técnicas estadísticas permiten analizar los problemas con datos
experimentales y la construcción de modelos empíricos para obtener la
representación más adecuada de la situación física que se quiere optimizar.
Las técnicas modernas de optimización son algoritmos poderosos que
permiten resolver problemas tan complejos como el caso de movimiento de masas
o tendencias, entre otras, que se adecuaron para ser aplicados a problemas de
ingeniería.

Método analítico

El siguiente resultado, denominado teorema fundamental de la


programación lineal, nos permite conocer otro método de solucionar un programa
con dos variables.

La evaluación de la función objetivo en los vértices de la región factible nos


va a permitir encontrar el valor óptimo (máximo o mínimo) en alguno de ellos.
En un programa lineal con dos variables, si existe una solución única que
optimice la función objetivo, ésta se encuentra en un punto extremo (vértice) de la
región factible acotada, nunca en el interior de dicha región.

Si la función objetivo toma el mismo valor óptimo en dos vértices, también


toma idéntico valor en los puntos del segmento que determinan.

En el caso de que la región factible no es acotada, la función lineal objetivo


no alcanza necesariamente un valor óptimo concreto, pero, si lo hace, éste se
encuentra en uno de los vértices de la región

Veámoslo con un ejemplo:

Maximizar Z = f(x,y) = 3x + 8y
sujeto a: 4x + 5y 40
2x + 5y 30
x 0,y 0

1) Hallar los puntos de corte de las rectas asociadas a las restricciones:

Calculamos las soluciones de cada uno de los seis sistemas de dos


ecuaciones con dos incógnitas que se pueden formar con las cuatro restricciones:

{ 4x + 5y = 40 , 2x + 5y = 30}. Solución { 4x + 5y = 40 , x = 0 } Solución:B


A(5,4) (0,8)
{ 2x + 5y = 30 , x = 0} Solución:
{ 4x + 5y = 40 , y = 0}. Solución: C(10,0)
D(0,6)
{ 2x + 5y = 30 , y = 0}. Solución : E(15,0) { x = 0, y = 0} Solución: O(0,0)

2) Determinar los vértices de la región factible:

Los vértices de la región factible son aquellos puntos que cumplen todas las
restricciones.

Si sustituimos los puntos en cada una de las desigualdades tenemos que:

 B no cumple la segunda restricción 2x + 5y 30 , ya que 2·0 + 5·8 = 40 . Por


tanto, el punto B no es un vértice de la región factible.
 E no cumple la primera restricción 4x + 5y 40 , ya que 4·15 + 5·0 = 60 .
Por tanto, el punto E no es un vértice de la región factible.

Los puntos A, C, D y O verifican todas las desigualdades, son los vértices de la


región factible.
3) Calcular los valores de la función objetivo en los vértices:

f(A) = f(5,4) = 3·5 + 8·4 = 47 f(C) = f(10,0) = 3·10 + 8· 0 = 30


f(D) = f(0,6) = 3·0 + 8·6 = 48 f(O) = f(0,0) = 3·0 + 8·0 = 0

La solución óptima corresponde al vértice para el que la función objetivo toma el


valor máximo. En este caso es el vértice D(0,6).

Optimización no restringida
Los problemas de optimización no restringida no tienen restricciones, por lo
que la función objetivo es sencillamente
Maximizar f(x)
sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la
condición necesa-ria para que una solución específica x = x* sea óptima cuando f(x)
es una función diferenciable es
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la
obtención de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al
establecer las n derivadas parciales iguales a cero. Por desgracia, cuando se trata
de funciones no lineales f (x), estas ecuaciones suelen ser no lineales también, en
cuyo caso es poco probable que se pueda obtener una solu-ción analítica
simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5
descri-ben procedimientos algorítmicos de búsqueda para encontrar x* primero para
n = 1 y luego para n > 1. Estos procedimientos también tienen un papel importante
en la solución de varios tipos de problemas con restricciones, que se describirán en
seguida. La razón es que muchos algo-ritmos para problemas restringidos están
construidos de forma que se adaptan a versiones no restringidas del problema en
una parte de cada iteración.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la
condición ne-cesaria (y tal vez) suficiente anterior cambia ligeramente a para cada
j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima
de un problema con una sola variable es x = 0 aun cuando la derivada ahí es
negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar
sujeta a una restricción de no negatividad, el que su derivada sea menor o igual a 0
en # = 0, es una condición necesaria y su-ficiente para que x= 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene
restriccio-nes funcionales es un caso especial (m = 0) de la siguiente clase de
problemas.

Optimización con restricciones de igualdad

1. Formulación del problema

Sea:
ƒ: ℜn → ℜ diferenciable
gi: ℜn → ℜ i = 1…m diferenciables
b1…bm ∈ ℜ

Un problema de optimización con restricciones de igualdad se formula:

Ejemplo y representación gráfica

(n=2, m=1)
Nota:

1. Las restricciones de tipo igualdad no establecen fronteras al conjunto de


las soluciones factibles del programa, sino que reducen las dimensiones del
espacio donde el programa está definido.

2. Los óptimos que obtendremos serán “débiles” en el sentido de que una


pequeña variación en las restricciones hará que dejen de ser óptimos. Por
este motivo los llamaremos óptimos condicionados o restringidos.

2. Resolución de un problema de optimización con restricciones de igualdad

Métodos:

i. Resolución gráfica, por curvas de nivel


ii. Eliminación o sustitución de variables

iii. Método de Lagrange

i. Resolución gráfica por curvas de nivel

Siempre que sea posible será muy cómodo dibujar las curvas de nivel.

Se
trata de determinar el punto de la restricción por el que pasa la curva de nivel más
baja.

ii. Eliminación o sustitución de variables

Ejemplo:
es equivalente a

La función objetivo es ahora una función con una variable menos:

Por tanto,

Entonces, es mínimo restringido o condicionado.

iii. Método de Lagrange

El método consiste en convertir el problema con restricciones de igualdad en uno


de óptimos libres, gracias a la incorporación de las restricciones a la función
objetivo. Distinguimos dos casos:

1. Caso de una única restricción

2. Caso de más de una restricción

En ambos casos, se construye una función, llamada función de Lagrange, y se


determina qué puntos cumplen la condición necesaria para ser óptimos del
problema y, posteriormente, se estudia si son máximos o mínimos analizando el
cumplimiento de la condición suficiente.

iii.1 Caso de una única restricción

se sustituye por

siendo la denominada función de Lagrange que


tiene una variable más, , que recibe el nombre de multiplicador de Lagrange.

Observamos que cuando se satisface la restricción se cumple


que

 Ver ejemplo 1

 Ver ejemplo 2

Condición necesaria (Caso m = 1)

 Ver ejemplo 1

 Ver ejemplo 2
Condición suficiente

Sea un punto que cumple la condición necesaria; es decir:

tq

entonces, si denotamos como Hx L la hessiana de la función de Lagrange


en respecto de las variables iniciales (no respecto λ) tenemos:

definida positiva es mínimo condicionado o restringido

definida negativa es máximo condicionado o restringido

en otro caso:

tal que

>0 es mínimo condicionado

<0 es máximo condicionado


iii.2 Caso de más de una restricción:

La función L se llama función de Lagrange y los , multiplicadores de


Lagrange.

Observamos que se añade un multiplicador por cada restricción y que cuando se


satisfacen todas se cumple que

Ejemplo de aplicación 1

Condición necesaria:
(*) =

(*)Observemos que la condición equivale a pedir que se satisfaga la


restricción.

Resolvemos:

Obtenemos:

Condición suficiente:

definida positiva

Resultado:

es un mínimo condicionado o restringido


Ejemplo de aplicación 2

Condición necesaria:

Por lo tanto resolvemos:

Y obtenemos:

x = ½, y=½ λ=½

Condición suficiente: indefinida


Veamos qué sucede exactamente sobre la restricción.

Por tanto, como se comprueba en el gráfico, para mantenernos encima de la


restricción es necesario

Entonces,

Resultado:

máximo condicionado o restringido

Interpretación de los multiplicadores de Lagrange

Dado un problema con restricciones de igualdad:


Si se modifica un poco , cambiará también el punto óptimo y, en consecuencia,
el valor óptimo.

Así se entiende que el valor óptimo de un problema es función de cada . Pues

bien, la derivada de esta función respecto de es justamente


. De aquí se deduce la siguiente fórmula:

que también se puede escribir como

Optimización con restricciones de desigualdad

1. Formulación del problema

Sean
ƒ: ℜn → ℜ diferenciable
gi:ℜ → ℜi=1..m diferenciables
m

Un problema diferenciable de optimización con restricciones de desigualdad se


formula:
Ejemplo y representación gráfica

(n=2, m=3)
Nota: Las restricciones de desigualdad definen fronteras al dominio de soluciones
factibles .

2. Resolución de un problema de optimización con restricciones de

desigualdad

Los siguientes conceptos y teoremas proporcionan los distintos enfoques que


conducirán a la resolución del problema.

i. Aplicación Convexidad. Teorema local-global

ii. Aplicación Curvas de Nivel

iii. Aplicación Teorema de Weierstrass

iv. Aplicación Condiciones de Kuhn-Tucker

v. Interpretación económica de los multiplicadores de Kuhn-Tucker

i. Aplicación Convexidad. Teorema local-global.

Antes de proceder a la resolución de un problema es importante clasificarlo,


estudiando:

a) La convexidad de la función objetivo.

b) La continuidad de la función objetivo.

c) La convexidad del dominio.


d) La compacidad del dominio.

Ejemplo:

a) La función objetivo es estrictamente convexa, pues la matriz


hessiana de es:

que corresponde a una forma cuadrática definida positiva.

b) La función objetivo es continua.

c) El dominio es un conjunto convexo

d) El dominio es un conjunto compacto

Por tanto:

 Será aplicable el Teorema de Weierstrass

 El teorema local-global nos dirá que el mínimo local será global ( y único).
 Las condiciones de Kuhn-
Tucker serán necesarias y suficientes para mínimos(pero no
para máximos).

ii. Aplicación Curvas de Nivel.

Ejemplo:

Observemos que la ecuación corresponde a una


circunferencia centrada en (a,b) de radio .

Por tanto, se tratará de circunferencias concéntricas centradas en el punto (3,2).

Del dibujo de las curvas de nivel podemos deducir:

· (3,2) es mínimo global.


· (0,7) es máximo global.

· (0,0) es máximo local.

· (7,0) es máximo local.

También se deduce que:

· (0,2) no es óptimo local.

Notar que por la zona del dominio pintada en azul pasan curvas de niveles más
bajos que las que pasan por el punto (0,2) y que por la zona del dominio

También podría gustarte