Está en la página 1de 27

UNIVERSIDAD DE ORIENTE

NCLEO ANZOTEGUI
EXTENSIN REGIN CENTRO SUR ANACO
ESCUELA DE INGENIERIA Y CIENCIAS APLICADAS
DEPARTAMENTO DE SISTEMAS











PROGRAMACION NO LINEAL



Profesor(a):
Carmen Salas
Autores:
Franco, Jos C.I. 21.042.561
Sol, Alexis C.I. 20.712.443





Anaco, Diciembre de 2013

INDICE

Introduccin 3
1. Mtodo De Multiplicadores de Lagrange 4
1.1 Ejemplo 1 6
1.2 Ejemplo 2 7
1.3 Ejemplo 3 9
2. Condiciones de Karush- Kuhn- Tucker 10
2.1 Condiciones Necesarias de Primer Orden 11
2.2 Condiciones de Regularidad o Cualificacin de las Restricciones 12
2.3 Condiciones Suficientes 13
3. Programacin Cuadrtica 13
4. Programacin Geomtrica 19
4.1 Programacin Geomtrica Restringida 20
4.2 Programacin Geomtrica No restringida 20
5. Programacin Separable 23
Conclusin 26
Referencias Bibliogrficas 27



3


INTRODUCCION
La programacin no lineal forma parte de la investigacin de operaciones
y tambin, como la programacin lineal, tiene como finalidad proporcionar los
elementos para encontrar los puntos ptimos para una funcin objetivo. En
este planteamiento, tanto la funcin objetivo como las restricciones son no
lineales. Se presenta un problema de programacin no lineal cuando tanto la
funcin objetivo que debe optimizarse, como las restricciones del problema, o
ambas, tienen forma de ecuaciones diferenciales no lineales, es decir,
corresponden a ecuaciones cuyas variables tienen un exponente mayor que.

La programacin no lineal, es el proceso de resolucin de un sistema de
igualdades y desigualdades sujetas a un conjunto de restricciones sobre un
conjunto de variables reales desconocidas, con una funcin objetivo a
maximizar o minimizar, cuando alguna de las restricciones o la funcin
objetivo no son lineales. Los problemas de programacin no lineal son ms
difciles de resolver que los lineales. Estas dificultades aparecen incluso en el
caso ms simple como el de optimizar una funcin de una variable en R sin
restricciones.

Existen diferentes mtodos para resolver los problemas no lineales, el
presente trabajo se centrara en explicar y ejemplificar algunos de ellos.





4


1. METODO DE MULTIPLICADORES DE LAGRANGE.

En los problemas de optimizacin, el mtodo de los multiplicadores de
Lagrange, llamados as en honor a Joseph Louis Lagrange, es un
procedimiento para encontrar los mximos y mnimos de funciones de
mltiples variables sujetas a restricciones. Este mtodo reduce el problema
restringido con n variables a uno sin restricciones de n + k variables, donde k
es igual al nmero de restricciones, y cuyas ecuaciones pueden ser resueltas
ms fcilmente. Estas nuevas variables escalares desconocidas, una para
cada restriccin, son llamadas multiplicadores de Lagrange. El mtodo dice
que los puntos donde la funcin tiene un extremo condicionado con k
restricciones, estn entre los puntos estacionarios de una nueva funcin sin
restricciones construida como una combinacin lineal de la funcin y las
funciones implicadas en las restricciones, cuyos coeficientes son los
multiplicadores.

La demostracin usa derivadas parciales y la regla de la cadena para
funciones de varias variables. Se trata de extraer una funcin implcita de las
restricciones, y encontrar las condiciones para que las derivadas parciales
con respecto a las variables independientes de la funcin sean iguales a
cero.

Consideremos un caso bidimensional. Supongamos que tenemos la
funcin, f (x, y), y queremos maximizarla, estando sujeta a la condicin:


Donde c es una constante. Podemos visualizar las curvas de
nivel de f dadas por
5


Para varios valores de d
n
, y el contorno de g dado por g(x, y) = c.
Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en
general, las curvas de nivel de f y g sern distintas, y la curva g = c por lo
general intersecar y cruzar muchos contornos de f. En general,
movindose a travs de la lnea g=c podemos incrementar o disminuir el
valor de f. Slo cuando g=c (el contorno que estamos siguiendo) toca
tangencialmente (no corta) una curva de nivel de f, no se incrementa o
disminuye el valor de f. Esto ocurre en el extremo local restringido y en
los puntos de inflexin restringidos de f.

Un ejemplo familiar puede ser obtenido de los mapas climatolgicos, con
sus curvas de nivel de presin y temperatura (isbaras e isotermas
respectivamente): el extremo restringido ocurrir donde los mapas
superpuestos muestren curvas que se tocan.

Geomtricamente traducimos la condicin de tangencia diciendo que los
gradientes de f y g son vectores paralelos en el mximo. Introduciendo un
nuevo escalar, , resolvemos
[f(x, y) - (g(x, y) c)] = 0
Para 0.

Una vez determinados los valores de , volvemos al nmero original de
variables y as continuamos encontrando el extremo de la nueva ecuacin no
restringida.

6

De forma tradicional, eso es: para todo (x, y)
satisfaciendo la condicin porque es igual a cero en la
restriccin, pero los ceros de F(x, y) estn todos en

Sea f (x) una funcin definida en un conjunto abierto n-dimensional
{x R
n
}. Se definen s restricciones g
k
(x) = 0, k=1,..., s, y se observa (si las
restricciones son satisfechas) que:

Se procede a buscar un extremo para h

lo que es equivalente a


Los multiplicadores desconocidos
k
se determinan a partir de las
ecuaciones con las restricciones y conjuntamente se obtiene un extremo
para h que al mismo tiempo satisface las restricciones (i.e.g
k
=0), lo que
implica que f ha sido optimizada
El mtodo de multiplicadores de Lagrange es generalizado por las
condiciones de Karush-Kuhn-Tucker.

Ejemplo #1
Supongamos que queremos encontrar la distribucin probabilstica
discreta con mxima entropa. Entonces
7



Podemos usar los multiplicadores de Lagrange para encontrar el punto
de mxima entropa (dependiendo de las probabilidades). Para todo k desde
1 hasta n, necesitamos

lo que nos da

Derivando estas n ecuaciones, obtenemos

Esto muestra que todo p
i
es igual (debido a que depende solamente de ).
Usando la restriccin
k
p
k
= 1, encontramos

Esta (la distribucin uniforme discreta) es la distribucin con la mayor
entropa.

Ejemplo #2
Determinar los puntos en la esfera que estn ms
cercanos al punto la distancia al punto :
8


Para hacer ms sencilla la operacin se maximiza o minimiza el
cuadrado de la distancia:


la restriccin:

De acuerdo con el mtodo de los multiplicadores de Lagrange, se
resuelven las ecuaciones " " y " " y el resultado es:
(1)
(2)
(3)
(4)
La manera ms sencilla de resolver estas ecuaciones es dejar x, y, z en
funcin de y luego sustituimos en la ecuacin (4).
De la ecuacin (1) obtenemos se observa que 1 porque
si no se puede realizar la operacin.
Lo mismo sucede con la ecuacin (2) y (3)


Sustituyendo en la ecuacin (4)
9


se obtiene que
y entonces los puntos (x, y, z) son :
y
se puede observar que el punto ms cercano entonces
es
Ejemplo #3

Restricciones:


Aplicar el mtodo:







10








2. CONDICIONES DE KARUSH- KUHN- TUCKER.
Un modelo de Programacin Lineal (PNL) es aquel donde las variables de
decisin se expresan como funciones no lineales ya sea en la funcin
objetivo y/o restricciones de un modelo de optimizacin. Esta caracterstica
particular de los modelos no lineales permite abordar problemas donde
existen economas o des- economas de escala o en general donde los
supuestos asociados a la proporcionalidad no se cumplen.
Las condiciones que establecen las condiciones de optimalidad de KKT
permiten resolver modelos de PNL con restricciones mediante la activacin
progresivas de las restricciones del modelo. Una restriccin activa es aquella
que se cumple en igualdad.
Para cualquier problema de programacin lineal si un punto es ptimo es
porque cumple estas condiciones. Para programacin no lineal las
condiciones de KKT son necesarias y suficientes para la optimalidad cuando
la funcin objetivo, las restricciones de igualdad se encuentran ante
apropiadas condiciones de convexidad.
Consideremos el siguiente problema general:

11


,
,
Donde es la funcin objetivo a minimizar, son las
restricciones de desigualdad y son las restricciones de igualdad,
con y el nmero de restricciones de desigualdad e igualdad,
respectivamente.
Las condiciones necesarias para problemas con restricciones de
desigualdad fueron publicadas por primera vez en la tesis de mster de W.
Karush, aunque fueron renombradas tras un artculo en una conferencia
de Harold W. Kuhn y Albert W. Tucker.

Condiciones Necesarias de Primer Orden

Supongamos que la funcin objetivo, por ejemplo, a minimizar,
es y las funciones de restriccin son
y . Adems, supongamos que son continuamente
diferenciables en el punto . Si es un mnimo local, entonces
existe constantes, y tales que




12

Condiciones de Regularidad o Cualificacin de las Restricciones

En la condicin necesaria anterior, el multiplicador dual puede ser igual
a cero. Este caso se denomina degenerado o anormal. La condicin
necesaria no tiene en cuenta las propiedades de la funcin sino la geometra
de las restricciones.
Existen una serie de condiciones de regularidad que aseguran que la
solucin no es degenerada (es decir ). Estas incluyen:
Cualificacin de la restriccin de independencia lineal (CRIL): los
gradientes de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad son linealmente
independientes en .
Cualificacin de la restriccin de Mangasarian-Fromowitz (CRMF):
los gradientes de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad son linealmente
independientes positivos en .
Cualificacin de la restriccin de rango constante (CRRC): para
cada subconjunto de las restricciones activas de desigualdad y los
gradientes de las restricciones de igualdad, el rango en el entorno
de es constante.
Cualificacin de la restriccin de dependencia lineal constante
positiva (DLCP): para cada subconjunto de restricciones activas de
desigualdad y de gradientes de las restricciones de igualdad, si es
linealmente dependiente positivo en entonces es linealmente
dependiente positivo en el entorno de . ( es
linealmente dependiente positivo si
existe distintos de cero tal
que )
13

Condicin de Slater: para un problema nicamente con
restricciones de desigualdad, existe un punto tal
que para todo

Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque
CRMF no es equivalente a CRRC. En la prctica, se prefiere cualificacin de
restricciones ms dbiles ya que proporcionan condiciones de optimalidad
ms fuertes.

Condiciones Suficientes
Sea la funcin objetivo y las funciones de
restriccin sean funciones convexas y sean
las funciones de afinidad, y sea un punto . Si existen
constantes y tales que:


Entonces el punto es un mnimo global.

3. PROGRAMACION CUADRATICA.

Existen diferentes tipos de problemas de programacin cuadrtica, los
cuales se pueden clasificar en:
Problemas cuadrticos de minimizacin sin restricciones, requieren
minimizar la funcin cuadrtica f (x) sobre el espacio completo.

14

Problemas cuadrticos de minimizacin sujetos a restricciones de
igualdad, requieren minimizar la funcin objetivo f (x) sujeta a restricciones
lineales de igualdad Ax = b.

Problemas cuadrticos de minimizacin sujetos a restricciones
lineales de desigualdad. Requieren minimizar la funcin objetivo f (x) sujeta
a restricciones lineales de desigualdad Ax = b, tambin puede contener
restricciones de igualdad.

Problemas de optimizacin de redes cuadrticas. Son problemas
cuadrticos en los que las restricciones son restricciones de baja
conservacin sobre una red pura generalizada.

Problemas cuadrticos convexos. Son cualquiera de los mencionados
arriba, en el cual la funcin objetivo a ser minimizada, f (x) es convexa.

Problemas cuadrticos no convexos. Son cualquiera de los
mencionados arriba, en el cual la funcin objetivo a ser minimizada, f (x) es
no convexa.

Problemas de complementariedad lineal. Son problemas especiales
con un sistema de ecuaciones en variables no negativas, en el cual las
variables estn formadas en varios pares llamados pares complementarios.

Histricamente, las funciones cuadrticas fueron prominentes porque
provean modelos locales simples para funciones no lineales generales. Una
funcin cuadrtica, es la funcin no lineal ms simple, y cuando es usada
como una aproximacin para una funcin no lineal general, esta puede
capturar la informacin importante de la curvatura, lo que una aproximacin
lineal no puede.
15


El uso de aproximaciones cuadrticas para resolver problemas con
funciones no lineales generales se remonta mucho tiempo atrs. Entre los
mtodos ms destacados, tenemos al mtodo de Newton y el mtodo de
gradiente conjugado.

Para la programacin cuadrtica se pueden encontrar mnimos locales,
mnimos globales, puntos estacionarios o de KKT, (son los que satisfacen las
condiciones de KKT del problema).

En problemas convexos de programacin cuadrtica, todo punto KKT o
mnimo local, es un mnimo global.

Consideremos un problema de programacin no lineal cuya funcin
objetivo es la suma de trminos de la forma el grado
del trmino Un
problema de programacin no lineal, cuyas restricciones son lineales y cuya
funcin objetivo es la suma de trminos de la
forma (en la cual cada trmino tiene un grado de 2,
1 o 0) es un problema de programacin cuadrtica.

Vamos a ilustrar de manera general el mtodo de WOLFE para resolver
problemas de programacin cuadrtica:
Se define un problema de programacin cuadrtica como:

Con sus restricciones:
16


Donde (Vector en con componentes continuas), C es un vector
de precios con n componentes, Q es una matriz de n x n, simtrica y positiva
definida, es decir, para toda , excepto X = 0, b es el vector
de recursos con m componentes, A es una matriz dem*ncoeficientes
tecnolgicos y 0 es un vector con n ceros.
El problema de optimizacin anterior tiene restricciones lineales, si Q es
una matriz nula se convierte en un problema de programacin lineal.
Como Q es positiva definida, implica que W es una funcin estrictamente
convexa y por lo tanto el mnimo si existe es global; si Q es negativa
definida, W es estrictamente cncava y si el mximo existe es global.
A continuacin se escribe el problema en notacin algebraica, se le
aplican los multiplicadores de Lagrange, se verifican las condiciones
necesarias y suficientes de Karush Kuhn- Tucker que deben existir en un
ptimo global.
El mtodo de Wolfe sigue con la reescritura del problema original como
un problema de programacin lineal con holguras complementarias; ste
ltimo problema es equivalente al problema original. El problema de
programacin lineal a resolver ser de 2(m + n)n variables, m +
nrestricciones lineales y m + n restricciones de holgura complementaria.
Ejemplo:
Resolver el siguiente problema de programacin cuadrtica por el mtodo de
Wolfe:
17



Aplicando los multiplicadores de Lagrange tenemos:

Las primeras derivadas parciales son:

El problema de programacin lineal equivalente al original de acuerdo al
mtodo Wolfe es:


Con las siguientes restricciones de holgura complementaria:
18


Utilizando el mtodo Simplex se tiene que la solucin bsica inicial es:

En la primera iteracin entra y sale X1 (es de aclarar que aunque
el Simplex escoge 1 y 2 para entrar a la base antes que lo haga X2, 1 y
2 no son aceptables, ya que Y1 y Y2 son positivos). El punto extremo luego
de recalcular es:

En la tercera iteracin no pueden entrar a la base 1 y 2 y Y1 y Y2 son
positivas; el Simplex toma como siguiente candidato a 1 y de salida Y1; el
punto extremo despus de iterar es:

En la ltima iteracin (V1 = 0 y V2 = 0) debe entrar X1 pero no puede
porque 1 es positivo; el siguiente elemento a entrar a la base es 1 el cual
reemplaza a V2 Luego De recalcular (pivotear) el punto extremo es:


La solucin anterior corresponde al ptimo:
19



4. PROGRAMACION GEOMETRICA
Un programa geomtrico es un problema de optimizacin de la forma
Minimizar tal que


Donde son posinomios y son monomios. Hay
que subrayar que al hablar de programacin geomtrica (al contrario que en
otras disciplinas), un monomio se define como una funcin
con definido como donde:
y .
Tiene mltiples aplicaciones, como el dimensionamiento de circuitos y la
estimacin paramtrica va regresin logstica en estadstica.
Los programas geomtricos no son por regla general problemas de
optimizacin convexa, pero pueden transformarse en ellos mediante un
cambio de variables y una transformacin de las funciones objetivo y de
restriccin. Definiendo , el monomio
, donde . De la misma forma,
si es el posinomio

20

Entonces ,
donde y . Tras el cambio de variables, el
posinomio se convierte en una suma de exponenciales de funciones afines.
La Programacin geomtrica soluciona un caso especial de problemas de
Programacin No lineal. Este mtodo resuelve al considerar un problema
dual asociando los siguientes dos tipos de Programacin No lineal:
1. Problema geomtrico no restringido:


2. Problema geomtrico restringido:

Donde es real, para toda i=1,...,n;
j=1,.,m; k=0,1,2,...,p; supone para ambos casos n, m y
p son finitas, los exponentes no tienen restricciones de signo, las funciones
toman la forma de un polinomio, excepto que los exponentes
pueden ser negativos; por esta razn y porque todas las ; se
denominan posinomiales. La Programacin Geomtrica fue diseada por
Duffin, Peterson y Zener.
21


La lgica de la Programacin Geomtrica se basa en la desigualdad de
Cauchy (desigualdad de media aritmtica - geomtrica):

El mtodo de solucin consiste en calcular las primeras derivadas
parciales de de la funcin objetivo se obtiene la ecuacin:

De las primeras derivadas parciales iguales a cero se escribe la relacin:

Donde aij son los coeficientes positivos, m es el nmero de variables
y n el nmero de trminos. Generalmente, el nmero de trminos determina
el nmero de factores de peso y el nmero de variables independientes
seala el nmero de ecuaciones.

Cuando n = m + 1, se dice que el problema tiene cero grados de
dificultad.
Cuando n - (m + 1)> 0, es un problema que no se puede resolver mediante
Programacin Geomtrica. Finalmente se resuelven los sistemas de
22

ecuaciones simultneas planteadas y se obtiene la solucin del problema.
Ejemplo:

Ejercicio. Encontrar la cantidad econmica de pedido de un producto, es
decir, se debe decidir qu cantidad del artculo conviene almacenar
peridicamente; los costos totales asociados al producto y su
almacenamiento se pueden expresar
CT = CCI + CHP + VC donde

Donde:

La funcin objetivo tiene la siguiente formula general:

De tal modo que al resolver el anterior sistema de ecuaciones
simultneas llegamos a que 1 = 2 y la variable Q* debe ser tal que haga
que los dos trminos de la funcin objetivo sean iguales:
23




5. PROGRAMACION SEPARABLE.

Una funcin es separable si se puede expresar como la
suma de n funciones de una sola variable , es
decir, Un caso especial de
programacin separable ocurre cuando las funciones son convexas,
resultando as un espacio convexo de solucin; adems la funcin es
convexa en caso de minimizacin y cncava en caso de maximizacin.

No existe un algoritmo nico para solucionar problemas de programacin
convexa; en general los algoritmos conocidos se pueden clasificar as:
1. Algoritmos de gradiente, en estos casos se modifica de alguna manera el
procedimiento de bsqueda del gradiente para evitar que la trayectoria de
bsqueda penetre la frontera de restriccin.
2. Algoritmos secuenciales no restringidos, incluye los mtodos de funcin de
penalizacin y de funcin barrera; estos algoritmos convierten el problema de
optimizacin restringida original en una sucesin de problemas de
24

optimizacin no restringida, cuyas soluciones ptimas convergen a la
solucin ptima del problema original.
3. Algoritmos de Aproximacin Secuencial, incluye mtodos de aproximacin
lineal y aproximacin cuadrtica; estos algoritmos sustituyen la funcin
objetivo no lineal por una sucesin de aproximaciones lineales o cuadrticas.
Para problemas de optimizacin linealmente restringidos, estas
aproximaciones permiten la aplicacin repetida de los algoritmos de
programacin lineal o cuadrtica.

A continuacin resolvemos un problema de programacin separable
aplicando el mtodo de la base restringida.

El mtodo de aproximacin nos sugiere que las variables separables son:
K


1 0 0 0
2 1 1 2
3 2 16 8
4 3 81 18
Luego:
25


Entonces el problema original por aproximacin se convierte en:

El tablero simplex inicial corresponde a:

Donde S1 es una variable de holgura (relleno).
La solucin ptima por el Simplex a este problema equivalente
es: . Luego el ptimo en trminos
de es:


26


CONCLUSIN
Los problemas prcticos de programacin matemtica con frecuencia
incluyen un comportamiento no lineal que deba tomarse en cuenta. A veces
es posible reformular las no lineales para que se ajusten al formato de
programacin lineal, como en los problemas de programacin separable. Sin
embargo, muchas veces es necesario usar formulaciones de programacin
no lineal.

Al contrario del caso del mtodo simplex para programacin lineal, no
existe un algoritmo eficiente que se pueda utilizar para resolver todos los
problemas de programacin no lineal.

De hecho, algunos de estos problemas no se pueden resolver de modo
satisfactorio por ningn mtodo, pero se han hecho grandes progresos en
ciertas clases importantes de problemas que incluyen programacin
cuadrtica, convexa y algunos tipos especiales de no convexa.

Se dispone de una gran variedad de algoritmos que casi siempre tienen
un buen desempeo en estos casos.

El mtodo de multiplicadores de Lagrange es generalizado por las
condiciones de Karush-Kuhn-Tucker.




27

REFERENCIAS BIBLIOGRAFICAS

Investigacin de Operaciones por Taha, H. [Libro Digital]. Disponible:
http://books.google.co.ve/books?id=3oHztjMSuL8C&printsec=frontcover&dq=
investigacion+de+operaciones+taha&hl=es&sa=X&ei=x6CeUp-JBozmkAeH1
oHYDg&sqi=2&ved=0CCwQ6AEwAA#v=onepage&q=investigacion%20de%2
0operaciones%20taha&f=false. [Consulta: 2013, Diciembre 2]

Introduccin a la Investigacin de Operaciones por Lieberman, G y Hiller, F.
[Libro Digital]. Disponible: http://books.google.co.ve/books?id=3
oHztjMSuL8C&printsec=frontcover&dq=investigacion+de+operaciones+taha&
hl=es&sa=X&ei=x6CeUp-JBozmkAeH1oHYDg&sqi=2&ved=0CCwQ6AEwAA
#v=onepage&q=investigacion%20de%20operaciones %20taha&f=false
[Consulta: 2013, Diciembre 2]

Optimizacin No Lineal. . [Pgina Web en Lnea]. Disponible en
http://www.buenastareas.com/ensayos/Optimizacion-No-Lineal/282688.html.
[Consulta: 2013, Diciembre 1]