Está en la página 1de 14

Programación  Geométrica

Cuando se aplica programación no lineal a problemas de diseño de ingeniería,


muchas veces la función objetivo y las funciones de restricción toman la forma

En tales casos, las ci y a ty representan las constantes físicas y las x} son las
variables de diseño. Estas funciones por lo general no son ni cóncavas ni
convexas, por lo que las técnicas de programación convexa no se pueden aplicar
directamente a estos problemas de programacióngeo- métrica. Sin embargo, existe
un caso importante en el que el problema se puede transformar en un problema de
programación convexa equivalente. Este caso es aquel en el que todos los
coeficientes ¿ en cada función son estrictamente positivos, es decir, las funciones
son polinomios positivos generalizados (ahora llamados posinomiales), y la función
objetivo se tiene que minimizar. El problema equivalente de programación convexa
con variables de decisión yx, y2,…, yn se obtiene entonces al establecer

en todo el modelo original. Ahora se puede aplicar un algoritmo de programación


convexa. Se ha desarrollado otro procedimiento de solución para resolver estos
problemas de programación posinomial, al igual que para problemas de
programación geométrica de otros tipos.

Programación Fracccional
Suponga que la función objetivo se encuentra en la forma de una fracción, esto es,
la razón o cociente de dos funciones,

Estos problemas de programación fraccional surgen, por ejemplo, cuando se


maximiza la razón de la producción entre las horas-hombre empleadas
(productividad), o la ganancia entre el capital invertido (tasa de rendimiento), o el
valor esperado dividido entre la desviación estándar de alguna medida de
desempeño para una cartera de inversiones (rendimiento/riesgo). Se han
formulado algunos procedimientos de solución especiales 1 para ciertas formas de
f1(x) y f2 (x)
 Cuando se puede hacer, el enfoque más directo para resolver un problema de
programación fraccional es transformarlo en un problema equivalente de algún tipo
estándar que disponga de un procedimiento eficiente. Para ilustrar esto, suponga
que f(x) es de la forma de programación fraccional lineal

donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares.


También suponga que las funciones de restricción g¡ (x)son lineales, es decir, las
restricciones en forma matricial son Ax < b y x > 0.
 Con algunas suposiciones débiles adicionales, el problema se puede transformar
en un problema equivalente de programación lineal si se establece que se puede
resolver con el método símplex. En términos generales, se puede usar el mismo
tipo de transformación para convertir un problema de programación fraccional con /
¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente de
programación convexa.

DIFERENCIAS ENTRE PROGRAMACIÓN LINEAL Y


PROGRAMACIÓN NO LINEAL
El supuesto de la proporcionalidad de la programación lineal no siempre es
adecuado para representar de buena forma situaciones de naturaleza real
que requieren de un modelo de optimización como apoyo para el proceso
de toma de decisiones. Cabe señalar que un modelo de programación no
lineal es aquel donde la función objetivo y/o las restricciones son funciones
no lineales de las variables de decisión. En este sentido la programación no
lineal permite enfrentar una serie de aplicaciones prácticas que requieren
una representación a través de funciones no lineales. Algunos casos
característicos de la programación no lineal son los problemas de
minimización de distancia, economías o deseconomías de escala, carteras
de inversión, ajuste de curva, entre otros. En general cuando formulamos un
modelo de optimización no lineal esperamos que éste sea más
representativo de una situación real en comparación a un modelo lineal, sin
embargo, a la vez asumimos que es probable que la complejidad de la
resolución aumente. Por ello quien formule un modelo debe equilibrar la
representatividad del mismo con la dificultad de la resolución. A
continuación presentaremos dos modelos de optimización que comparten
las mismas restricciones (que asumiremos por simplicidad que son
funciones lineales) y se diferencian por la naturaleza de la función objetivo
(lineal y no lineal, respectivamente). Estos ejemplos nos ayudarán a explicar
algunas diferencias entre la programación lineal y programación no lineal: 
      
          Modelo Lineal 

  

Modelo Minimización PNL 

Si resolvemos gráficamente el modelo de programación lineal obtenemos la


solución óptima en el vértice C (X=14/5 Y=8/5 y valor óptimo V(P)=20,8). En
efecto, una de las propiedades básicas de la programación lineal es que
cuando un modelo admite solución, ésta se encontrará en un vértice (o
tramo frontera) del dominio de soluciones factibles. 
En cuanto a la resolución del modelo de programación no lineal, la función
objetivo no lineal tiene la forma de circunsferencias concéntricas desde la
coordenada (X,Y)=(2,4). Como la función objetivo es de minimización,
buscamos la circunsferencia de menor radio que intersecte por primera vez
el dominio de soluciones factibles. Esto se alcanza en (X,Y)=(1,2,2,4).
Conclusión: Si un modelo de programación no lineal admite solución óptima,
ésta se puede encontrar en cualquier punto del dominio de soluciones
factibles. Por ejemplo, si nuestra función objetivo estuviese centrada en
(X,Y)=(2,1) ésta ya sería la solución óptima del problema. Notar que esta
situación (solución en un punto interno del dominio factible) no sería posible
en la resolución de un modelo de programación lineal. En próximos artículos
en la categoría de programación no lineal analizaremos algunos algoritmos
especializados para la resolución de modelos no lineales como también
herramientas computacionales para enfrentar este tipo de problemas.

Programación Cuadrática 

La programación cuadrática (QP) es el nombre que se le da a un


procedimiento que minimiza una función cuadrática de n variables sujeta a m
restricciones lineales de igualdad o desigualdad. Un programa cuadrático es la
forma más simple de problema no lineal con restricciones de desigualdad. La
importancia de la programación cuadrática es debida a que un gran número de
problemas aparecen de forma natural como cuadráticos (optimización por
mínimos cuadrados, con restricciones lineales), pero además es importante
porque aparece como un subproblema frecuentemente para resolver
problemas no lineales más complicados. Las técnicas propuestas para
solucionar los problemas cuadráticos tienen mucha similitud con la
programación lineal. Específicamente cada desigualdad debe ser satisfecha
como igualdad. El problema se reduce entonces a una búsqueda de vértices
exactamente igual que se hacía en programación lineal.

Donde c es un vector de coeficientes constantes; A es una matriz (m x n) y se


asume, en general que Q es una matriz simétrica. Dado que las restricciones
son lineales y presumiblemente independientes la cualificación de las
restricciones se satisface siempre, así pues, las condiciones de Karush-
KuhnTucker son también condiciones suficientes para obtener un extremo, que
será además un mínimo global si Q es definida positiva. Si Q no es definida
positiva el problema podría no estar acotado o llevar a mínimos locales.

La Programación Cuadrática juega un papel muy relevante en la teoría de


optimización lineal y no lineal pues guarda una relación muy estrecha con la
Programación Lineal y es un paso intermedio esencial para resolver
eficazmente problemas generales de Programación No Lineal.

Para qué se usa

Existen diferentes tipos de problemas de programación cuadrática, los


cuales se pueden clasificar en:
1. -Problemas cuadráticos de minimización sin restricciones, requieren
minimizar la función cuadrática f (x) sobre el espacio completo.
2. -Problemas cuadráticos de minimización sujetos a restricciones de
igualdad, requieren minimizar la función objetivo f (x) sujeta a restricciones
lineales de igualdad Ax = b. 
3. -Problemas cuadráticos de minimización sujetos a restricciones
lineales de desigualdad. Requieren minimizar la función objetivo f (x) sujeta
a restricciones lineales de desigualdad Ax = b, también puede contener
restricciones de igualdad. 
4. -Problemas de optimización de redes cuadráticas. Son problemas
cuadráticos en los que las restricciones son restricciones de baja
conservación sobre una red pura generalizada.
5. -Problemas cuadráticos convexos. Son cualquiera de los
mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es
convexa.
6. -Problemas cuadráticos no convexos. Son cualquiera de los
mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es
no convexa. 
7. -Problemas de complementariedad lineal. Son problemas especiales
con un sistema de ecuaciones en variables no negativas, en el cual las
variables están formadas en varios pares llamados pares complementarios. 
Históricamente, las funciones cuadráticas fueron prominentes porque
proveían modelos locales simples para funciones no lineales generales. Una
función cuadrática, es la función no lineal más simple, y cuando es usada
como una aproximación para una función no lineal general, esta puede
capturar la información importante de la curvatura, lo que una aproximación
lineal no puede. El uso de aproximaciones cuadráticas para resolver
problemas con funciones no lineales generales se remonta mucho tiempo
atrás. Entre los métodos más destacados, tenemos al método de Newton y
el método de gradiente conjugado. Para la programación cuadrática se
pueden encontrar mínimos locales, mínimos globales, puntos estacionarios
o de KKT, (son los que satisfacen las condiciones de KKT del problema).
Problemas Resueltos

Para desarrollar el problema hacemos:


(x 1 - 2)² + (x 2 - 2)² = a²

Y tenemos una circunferencia de radio a y centro en (2, 2). Por lo tanto, para
obtener el mínimo de z necesitamos calcular el mínimo valor de a que cumple
las restricciones. Gráficamente tenemos la situación de la figura y en ella
vemos que el valor mínimo de a que verifica las restricciones es el de la
perpendicular desde el punto (2, 2) a la recta dada por:

pues en dicho punto se tiene: 

y de ese modo se cumplen todas las restricciones.

Para obtener la perpendicular hacemos: 

y puesto que pasa por el punto (2, 2): 


con lo que tendremos:

 Condiciones Karush Kuhn Tucker (KKT)

Las condiciones necesarias que deben satisfacer los óptimos de problemas


de optimización no lineal con restricciones de desigualdad fueron publicadas
por primera vez (1939) en la tesis de Maestría de William Karush (1917-
1997) (en aquél entonces estudiante de matemáticas de la Universidad de
Chicago) , aunque fueron renombradas tras un artículo en una conferencia
de Harold W. Kuhn y Albert W. Tucker en 1951. Las condiciones de Karush-
Kuhn-Tucker (KKT) son una generalización del método de los
multiplicadores de Lagrange para restricciones de desigualdad. 

Problema General de Optimizaciòn 


Consideremos el siguiente problema general:


donde   es la función objetivo a minimizar,   son las restricciones de
desigualdad y   son las restricciones de igualdad, con   y   el número
de restricciones de desigualdad e igualdad, respectivamente.
Las condiciones necesarias para problemas con restricciones de
desigualdad fueron publicadas por primera vez en la tesis de máster de W.
Karush, aunque fueron renombradas tras un artículo en una conferencia
de Harold W. Kuhn y Albert W. Tucker.

Condiciones Generales de Primer Orden 


Supongamos que la función objetivo, por ejemplo, a minimizar,
es   y las funciones de restricción son   
y  . Además, supongamos que
son continuamente diferenciales en el punto  . Si   es un mínimo local,
entonces existe constantes  ,   
y   tales que

Condiciones de Regularidad o Clasificación de las Restricciones

En la condición necesaria anterior, el multiplicador dual   puede ser igual a


cero. Este caso se denomina degenerado o anormal. La condición
necesaria no tiene en cuenta las propiedades de la función sino la
geometría de las restricciones.Existen una serie de condiciones de
regularidad que aseguran que la solución no es degenerada (es decir 
).
1.  Estas incluyen:Cualificación de la restricción de independencia lineal
(CRIL): los gradientes de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad son linealmente independientes
en  .
2. Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los
gradientes de las restricciones activas de desigualdad y los gradientes de
las restricciones de igualdad son linealmente independientes positivos en 
.
3. Cualificación de la restricción de rango constante (CRRC): para cada
subconjunto de las restricciones activas de desigualdad y los gradientes de
las restricciones de igualdad, el rango en el entorno de   es constante.
4. Cualificación de la restricción de dependencia lineal constante
positiva (DLCP): para cada subconjunto de restricciones activas de
desigualdad y de gradientes de las restricciones de igualdad, si es
linealmente dependiente positivo en   entonces es linealmente
dependiente positivo en el entorno de  . (  es linealmente
dependiente positivo si existe   distintos de cero tal
que  )
5. Condición de Slater: para un problema únicamente con restricciones
de desigualdad, existe un punto   tal que   para
todo 
Condiciones Suficientes
Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque
CRMF no es equivalente a CRRC. En la práctica, se prefiere cualificación de
restricciones más débiles ya que proporcionan condiciones de optimalidad
más fuertes.
Sea la función objetivo   y las funciones de
restricción   sean funciones convexas y   sean
las funciones de afinidad, y séa un punto  . si existen
constantes   y   tales que

entonces el punto   es un mínimo global.

EJEMPLO RESUELTO

El problema anterior se puede representar gráficamente a través del


software Geogebra de modo de encontrar su solución óptima (x1=2 y x2=1)
en la coordenada “C” con valor óptimo V(P)=2. El conjunto de factibilidad
corresponde al área achurada y se puede observar que en la solución
óptima se encuentran activas las restricciones 1 y 3 (el resto de las
restricciones por cierto se cumple pero no en igualdad).
Por supuesto la resolución gráfica es sólo referencial y se ha utilizado en
este caso para corroborar los resultados a obtener en la aplicación del
teorema. En este contexto el problema en su forma estándar es
simplemente:

Notar que sólo fue necesario cambiar la forma de las restricciones de no


negatividad (esto se puede hacer multiplicando por -1 cada una de ellas).
Cabe destacar que en este caso en particular el problema no considera
restricciones de igualdad. Luego las condiciones necesarias de primer orden
de Karush Kuhn Tucker (KKT) están dadas por:

  si en las condiciones generales anteriores consideramos el problema no


restringido (asumiendo que todas las restricciones son inactivas) la solución
óptima por simple inspección es x1=3 y x2=2, que corresponde a la
coordenada “E” de la gráfica anterior y que se puede observar no es a una
solución factible para el problema. Luego la circunferencia de menor radio
que intersecta el conjunto de factibilidad es precisamente aquella que pasa
por la coordenada “C” donde las restricciones 1 y 3 se cumplen en igualdad,
razón por la cual las cuales activaremos de forma simultanea:

Al calcular los gradientes respectivos se obtiene:

Lo cual da origen al siguiente sistema de ecuaciones:

Reemplazando x1=2 y x2=1 podemos despejar los valores de los


multiplicadores los cuales cumplen con las condiciones de no negatividad:

Adicionalmente se puede verificar que x1=2 y x2=1 satisface las


restricciones omitidas (2,4 y 5) por lo cual se puede afirmar que dicha
solución cumple las condiciones necesarias de primer orden de Karush
Kuhn Tucker (KKT).

También podría gustarte