Está en la página 1de 11

NDICE

UNIDAD III PROGRAMACIN NO LINEAL I. INTRODUCCIN La programacin lineal tiene un papel fundamental en la investigacin de operaciones (IO). Una suposicin importante de programacin lineal es que todas sus funciones (funcin objetivo y funciones de restriccin) son lineales. Aunque, en esencia, esta suposicin se cumple para muchos problemas prcticos, con frecuencia no es as. De hecho, muchos economistas han encontrado que cierto grado de no linealidad es la regla, y no la excepcin, en los problemas de planeacin econmica, por lo cual, muchas veces es necesario manejar problemas de programacin no lineal, que es el rea que se examinar en seguida. De una manera general, el problema de programacin no lineal consiste en encontrar x=(x1,x2,...,xn) para Maximizar f(x), sujeta a gi(x)<=bi, para i =1, 2,...,m, y x>=0, Donde f(x) y las gi(x) son funciones dadas de n variables de decisin. No se dispone de un algoritmo que resuelva todos los problemas especficos que se ajustan a este formato. Sin embargo, se han hecho grandes logros en lo que se refiere a algunos casos especiales importantes de este problema, haciendo algunas suposiciones sobre las funciones, y la investigacin 1

sigue muy activa. Esta rea es amplia y aqu no se cuenta con el espacio suficiente para un estudio completo. Se presentarn algunos ejemplos de aplicacin y despus se introducirn algunas ideas bsicas para resolver ciertos tipos importantes de problemas de programacin no lineal. 3.1 PLANTEAMIENTO DE PROBLEMAS DE PROGRAMACIN NO LINEAL Los siguientes ejemplos ilustran unos cuantos de los muchos tipos importantes de problemas a los que se ha aplicado la programacin no lineal. Problema de mezcla de productos con elasticidad en los precios En problemas de mezcla de productos, la meta es determinar la mezcla ptima de los niveles de produccin para los productos de una empresa, dadas las limitaciones sobre los recursos necesarios para producirlos, con el objeto de maximizar la ganancia total de la empresa. En algunos casos existe una ganancia unitaria fija asociada a cada producto, con lo que la funcin objetivo que se obtiene es lineal. Sin embargo, en muchos problemas de mezcla de productos, ciertos factores introducen no linealidades en la funcin objetivo. Por ejemplo, un fabricante grande puede encontrar elasticidad en los precios mediante los cuales la cantidad que se puede vender de un producto tiene una relacin inversa con el precio cobrado. As, la curva precio-demanda para un producto puede parecerse a la mostrada en la figura, donde p{x) es el precio que se necesita para poder vender x unidades. Entonces la ganancia de la empresa por producir y vender x unidades es el ingreso por las ventas xp(x) menos los costos de produccin y distribucin. Por lo tanto, si el costo unitario de producir y distribuir el artculo est fijo en el, entonces la ganancia de la empresa por producir y vender x unidades est dada por una funcin no lineal P(x)=xp(x)-cx, Si cada uno de los n productos de la empresa tiene una funcin parecida para la ganancia, por ejemplo Pj (xj) por producir y vender Xj unidades del producto f(j=1,2,...,n), entonces la funcin objetivo global es
f ( x ) = Pj ( x j ) , una suma de funciones no lineales.
j =1 n

Otra razn por la que pueden surgir no linealidades en la funcin objetivo es que el costo marginal de producir otra unidad ms de un producto dado puede variar con el nivel de produccin. Por ejemplo, el costo marginal puede disminuir cuando aumenta el nivel de produccin, gracias al efecto de curva de aprendizaje (mayor eficiencia con ms experiencia). Por otro lado, pueden aumentar a causa de ciertas 2

medidas especiales, como tiempos extra o instalaciones de produccin ms costosas, necesarias para aumentar la produccin. La no linealidad tambin puede surgir en las funciones de restriccin g i ( x ) en forma bastante parecida. Por ejemplo, si existe una restriccin de presupuesto sobre el costo total de produccin, la funcin de costo ser no lineal si el costo marginal de produccin vara como se acaba de describir. Para restricciones sobre otro tipo de recursos, g i ( x ) ser no lineal siempre que el uso del recurso correspondiente no sea estrictamente proporcional a los niveles de los respectivos productos. TIPOS DE PROBLEMAS DE PROGRAMACIN NO LINEAL Los problemas de programacin no lineal se presentan de muchas formas distintas. Al contrario del mtodo smplex para programacin lineal, no se dispone de un algoritmo que resuelva todos estos tipos especiales de problemas. En su lugar, se han desarrollado algoritmos para algunas clases (tipos especiales) de problemas de programacin no lineal. Se introducirn las clases ms importantes y despus se describir cmo se pueden resolver algunos de estos problemas. Optimizacin no restringida Los problemas de optimizacin no restringida no tienen restricciones, por lo que la funcin objetivo es sencillamente Maximizar f(x) Sobre todos los valores x= (x1, x2,, xn). La condicin necesaria para que una solucin especfica x= x* sea ptima cuando f(x) es una funcin diferenciable es
f =0 x j

en x= x*

para j= 1, 2,..., n.

Cuando f(x) es cncava, esta condicin tambin es suficiente, con lo que la obtencin de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no lineales f (x), estas ecuaciones suelen ser no lineales tambin, en cuyo caso es poco probable que se pueda obtener una solucin analtica simultnea Cuando una variable X: tiene una restriccin de no negatividad, x >= 0, la condicin necesaria (y tal vez) suficiente anterior cambia ligeramente a
f donde a) <= 0 en x = x* si xj*=0 xj

b) = 0

en x = x*

si xj*>0

para cada j de este tipo. Donde la solucin ptima de un problema con una sola variable es x = 0 aun cuando la derivada ah es negativa y no cero. Como este ejemplo tiene una funcin cncava para maximizar sujeta a una restriccin de no negatividad, el que su derivada sea menor o igual a 0 en x = 0, es una condicin necesaria y suficiente para que x = 0 sea ptima. Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones funcionales es un caso especial (m = 0) de la siguiente clase de problemas. Optimizacin linealmente restringida Los problemas de optimizacin linealmente restringida se caracterizan por restricciones que se ajustan por completo a la programacin lineal, de manera que todas las funciones de restriccin g i(x) son lineales, pero la funcin objetivo es no lineal. El problema se simplifica mucho si slo se tiene que tomar en cuenta una funcin no lineal junto con una regin factible de programacin lineal. Se han desarrollado varios algoritmos especiales basados en una extensin del mtodo smplex para analizar la funcin objetivo no lineal. Un caso especial importante descrito a continuacin es la programacin cuadrtica. 3

Programacin cuadrtica De nuevo los problemas de programacin cuadrtica tienen restricciones lineales, pero ahora la funcin objetivo f(x) debe ser cuadrtica. Entonces, la nica diferencia entre stos y un problema de programacin lineal es que algunos trminos de la funcin objetivo incluyen el cuadrado de una variable o el producto de dos variables. La programacin cuadrtica es muy importante, en parte porque las formulaciones de este tipo surgen de manera natural en muchas aplicaciones. Sin embargo, otra razn por la que es importante es que al resolver problemas generales de optimizacin linealmente restringida se pueda obtener la solucin de una sucesin de aproximaciones de programacin cuadrtica. 3.2 OPTIMIZACIN CLSICA La teora de optimizacin clsica considera el uso del clculo diferencial para determinar puntos de mximos y mnimos (extremos) para funciones restringidas y no restringidas. Los mtodos expuestos pueden no ser adecuados para clculos numricos eficientes. Sin embargo, la teora subyacente proporciona la base para visualizar la mayora de los algoritmos de programacin no lineal 3.2.1. MXIMOS Y MNIMOS (Problemas de extremos no restringidos) Un punto extremo de una funcin f(x) define un mximo o un mnimo de la funcin. Matemticamente, un punto x0 = (x1,...xj,...xn) es un mximo si f(X0+h) <=f(X0) para toda h = (h1,.hj, ,...hn) y es suficientemente pequea para toda j. En otras palabras, X0 es un valor mximo si el valor de f en cada punto de la proximidad de X0 no es mayor que f(x). En forma parecida, X0 es un mnimo si para h, tal como se defini anteriormente, F(x6)=max{f(x1), f(x3), f(x6)} La figura ilustra los mximos y mnimos de una funcin f (x) de una sola variable dentro del intervalo [a, b]. [El intervalo a<= x <= b no significa que no haya restricciones sobre f(x)]. Los puntos x1, x2, x3, x4, x5, x6 son extremos de f(x), esto incluye a x1, x3, x6, como mximos, y x2 y x4 como mnimos ya que f(x6) es un mximo global o absoluto, mientras que f(x1) y f(x3) son mximos locales o relativos. De igual manera f(x4) es un mnimo local y f(x2) es un minino global. Aunque x1 (en la figura) es un punto mximo, se diferencia de los otros mximos locales porque el valor de f correspondiente a por lo menos un punto en el entorno de x1 es igual a f(x1). En este aspecto, x1 se llama mximo dbil comparado con x3, por ejemplo, donde f(x3) define un mximo fuerte. Un mximo dbil por consiguiente, implica (un numero infinito) de mximos alternativos. Pueden obtenerse resultado similares para el mnimo dbil en x4, En general, X0 es un mximo dbil si f(X0+h) <=f(X0), y un mximo fuerte si f(X0+h) <f(X0), donde h es tal como se defini anteriormente. Una observacin interesante acerca de los extremos en la figura es que la primera derivada de f(pendiente) se anula en estos puntos. Sin embargo, esta propiedad no es nica de los extremos. Por ejemplo, la pendiente de f(x) en x5 es cero. 3.2.2 PUNTOS DE INFLEXIN Debido a que una primera derivada (generalmente, el gradiente) que se hace cero tiene un papel importante en la identificacin de los mximos y mnimos, es esencial definir de manera separada puntos tales como x5. Estos puntos se conocen como de inflexin [o en casos especiales de silla]. SI un 4

punto con pendiente (gradiente) cero no es un extremo (mximo o mnimo), entonces debe ser, automticamente, un punto de inflexin.

3.3 PROBLEMAS NO RESTRINGIDOS


OPTIMIZACIN NO RESTRINGIDA DE UNA VARIABLE

La optimizacin no restringida con una sola variable x (n = 1), en donde la funcin diferenciable f(x) que debe maximizarse es cncava. As, la condicin necesaria y suficiente para que una solucin particular x = x* sea ptima (un mximo global) es
df =0 dx

en x = x*,

Si en esta ecuacin se puede despejar de modo directo, el problema lleg a su fin; pero si f(x) no es una funcin sencilla y su derivada no es una funcin lineal o cuadrtica, tal vez sea imposible resolver la ecuacin analtica. De ser as, el procedimiento de bsqueda en una dimensin proporciona una forma sencilla de obtener una solucin numrica. Procedimiento de bsqueda en una dimensin Al igual que otros procedimientos de bsqueda para programacin no lineal, ste trata de encontrar una serie de soluciones prueba que conduzcan hacia una solucin ptima. En cada iteracin, se comienza con la solucin prueba actual para llevar a cabo una bsqueda sistemtica, que culmina con la identificacin de una nueva solucin prueba mejorada (se espera que sustancialmente mejorada).
Problema de programacin no restringida de una variable cuando la funcin es cncava.

La idea que fundamenta el procedimiento de bsqueda en una dimensin es muy intuitiva; se basa en el hecho de que la pendiente (derivada) sea positiva o negativa en una solucin prueba indica definitivamente si la mejora est a la derecha o a la izquierda, respectivamente. As, si la derivada evaluada para un valor especfico de x es positiva, entonces x* debe ser ms grande que esta x (vea la figura 2), con lo que x se convierte en una cota inferior para las soluciones prueba que en adelante se tomarn en cuenta. Por el contrario, si la derivada es negativa, entonces x* debe ser ms chica que esta x, y x se convierte en una cota superior. Una vez identificadas ambas cotas, cada nueva solucin prueba que se selecciona entre ellas proporciona una nueva cota ms estrecha de uno de los dos tipos, cerrando la bsqueda cada vez ms. Siempre y cuando se use una regla razonable para elegir cada solucin prueba en esta forma, la sucesin de soluciones prueba debe converger a x*. En la prctica, esto significa continuar la sucesin, hasta que la distancia entre las cotas sea lo suficientemente pequea como para que la siguiente solucin prueba se encuentre dentro de una tolerancia de error de x* especificada. En seguida se resume este proceso completo, usando la notacin x' = solucin prueba actual, x = cota inferior actual sobre x*, x = cota superior actual sobre x*, = tolerancia del error para x*. Aunque existen varias reglas razonables para elegir cada nueva solucin prueba, la que se usa en el siguiente procedimiento es la regla del punto medio (tradicionalmente llamada de bsqueda de Bolzano), que dice que se seleccione el punto medio entre las dos cotas actuales. Resumen del procedimiento de bsqueda en una dimensin Paso inicial: se selecciona . Se encuentran x y x iniciales por inspeccin (o encontrando valores respectivos de x en los cuales la derivada sea positiva y luego negativa). Se elige una solucin prueba x+x x= 2 inicial, Paso iterativo: df ( x) Se evala dx en x=x'. df ( x) 0 Si dx se hace x = x'. df ( x) 0 Si dx se hace x = x'. x+x x= 2 Se elige una nueva Regla de detencin: si x x 2 , de manera que la nueva x' se encuentra a una distancia de x* menor que , el proceso termina. De otra manera, se regresa al paso iterativo. 6

OPTIMIZACIN NO RESTRINGIDA DE VARIAS VARIABLES

Ahora considere el problema de maximizar una funcin cncava f (x) de variables mltiples, x = (xj, x2,..., xn), en la que no se tienen restricciones sobre los valores factibles. Suponga de nuevo que la condicin necesaria y suficiente para la optimalidad, dada por el sistema de ecuaciones que se obtiene al establecer las respectivas derivadas parciales iguales a cero), no se puede resolver en forma analtica, por lo que debe emplearse un procedimiento de bsqueda numrico. Ahora se tienen innumerables direcciones posibles hacia dnde moverse: corresponden a las tasas proporcionales posibles a las cuales las respectivas variables pueden cambiar. La meta es alcanzar eventualmente un punto en el que todas las derivadas parciales sean (en esencia) 0. Por tanto, la extensin del procedimiento de bsqueda en una dimensin requiere emplear los valores de las derivadas parciales para seleccionar la direccin especfica en la que conviene moverse. Esta seleccin implica el uso del gradiente de la funcin objetiva como se describir en seguida. Como se supone que la funcin objetivo f(x) es diferenciable, posee un gradiente denotado por f ( x ) en cada punto x. En particular, el gradiente en un punto especfico x = x' es el vector cuyos elementos son las derivadas parciales respectivas evaluadas en x = x', entonces
f f f f ( x) = , ,..., x2 xn x1 en x=x

El significado del gradiente es que el cambio (infinitesimal) en x, que maximiza la tasa a la que f(x) aumenta, f ( x ) . Para expresar geomtricamente esta idea, la "direccin" del es el cambio que es proporcional a

f ( x) , se interpreta como la direccin del segmento de recta dirigido (flecha) que va del gradiente, f x j se evala en xj = x'j. f x1 , f x 2 ,... , f x n ), donde origen (0, 0,..., 0) al punto (
Entonces, se puede decir que la tasa a la que aumenta f(x) se maximiza si los cambios (infinitesimales) en x f ( x ) . Como el objetivo es encontrar la solucin factible que se hacen en la direccin del gradiente

maximice f(x), parece adecuado intentar moverse lo ms posible en la direccin del gradiente. Procedimiento de bsqueda del gradiente Debido a que el problema en cuestin no tiene restricciones, esta interpretacin del gradiente sugiere que un procedimiento de bsqueda eficiente debe moverse en la direccin del gradiente hasta que (en esencia) alcance una solucin ptima x*, en la que Vf (x*) = 0. Sin embargo, no resultara prctico cambiar f ( x ) , ya que esta serie de cambios requerira una reevaluacin x continuamente en la direccin de f x continua de j y el cambio en la direccin de la trayectoria. Entonces, una mejor forma de hacerlo
es continuar el movimiento en una direccin fija a partir de la solucin prueba actual, sin detenerse, hasta que f(x) deje de aumentar. Este punto de detencin sera la siguiente solucin prueba, por lo que se debe volver i calcular el gradiente para determinar la nueva direccin de movimiento. Con este enfoque, cada iteracin incluye cambiar la solucin prueba actual x' como sigue:

t * f ( x) , en donde t que se maximiza f ( x+ t f ( x)) ; es decir, Se modifica x= x+ f ( x+t * f ( x)) = max f ( x+tf ( x)) Note que f ( x+ t f ( x)) es sencillamente f(x) en
t 0

f donde xj x j = x j +t ( x ) x =x , para j=1,2,,n. j

y estas expresiones para la xj incluyen slo constantes y t, de manera que f(x) se convierte en una funcin de una sola variable t.] Las iteraciones de este procedimiento de bsqueda del gradiente
f ( x ) = 0 dentro de una pequea tolerancia , o sea, hasta que continan hasta que
f xj

para j=

1, 2,..., n 7

Por lo general, la parte ms difcil del procedimiento de bsqueda del gradiente es encontrar t*, el valor f ( x ) tienen valores de t que maximiza f en la direccin del gradiente, en cada iteracin. Como x y fijos para la maximizacin y como f(x) es cncava, este problema se debe ver como el de maximizar una funcin cncava de una sola variable t. En efecto, se puede resolver con el procedimiento de bsqueda en una dimensin (en donde la cota inferior inicial sobre t debe ser no negativa por la restriccin de t >=0). De otra manera, si f es una funcin simple, es posible que se pueda obtener una
solucin analtica estableciendo la derivada con respecto a t igual a cero y despejando.

3.3.1 MULTIPLICADORES DE LAGRANGE (Optimizacin restringida con restriccin de igualdad) Ahora considere el problema de encontrar el mnimo o mximo de la funcin f (x), sujeta a la restriccin de que x debe satisfacer todas las ecuaciones
g1 ( x ) = b1 , g 2 ( x ) = b2 ,...., g m ( x) = bn

en donde m<n. Por ejemplo, si n = 2 y m = 1, el problema podra ser: 2 2 Maximizar f ( x1 , x2 ) = x1 + 2 x2 x2 , sujeta a g ( x1 , x2 ) = x12 + x2 = 1 .En este

caso, (x1,x2) est restringido a

encontrarse sobre el crculo de radio 1, cuyo centro est en el origen, de forma que la meta es encontrar el punto sobre este crculo que proporcione el mayor valor de f ( x1 , x 2 ) . Es sencillo resolver este ejemplo despus de bosquejar un enfoque general del problema.

Un mtodo clsico para manejar este problema es el mtodo de los multiplicadores de Lagrange. Este procedimiento comienza por plantear la funcin lagrangiana. h( x, ) = f ( x) i [ g i ( x) bi ] en donde las nuevas variables = (1 , 2 ,..., m ) se llaman multiplicadores de Lagrange. Note el hecho fundamental de que para los valores factibles de x,
i =1 m

g i ( x) bi = 0 para toda i entonces h( x, ) = f ( x ) . Por lo tanto, se puede demostrar que si ( x, ) = ( x*, *) es un mnimo o mximo local o global para la funcin no restringida h( x, ) , x* es el punto crtico correspondiente para el problema original. Como resultado, el mtodo se reduce ahora al anlisis de h( x, ) por el

procedimiento descrito para optimizacin no restringida. Se igualan a cero las n + m derivadas parciales,
m g i h f = i =0 x j x j i =1 x j

para j=1,2,,n,

h = g i ( x) + bi = 0 , para i=1,2,,m j y entonces se obtienen los puntos crticos al despejar ( x, ) de estas ecuaciones. Observe que las

ltimas m ecuaciones son equivalentes a las restricciones del problema original, de manera que slo se consideran las soluciones factibles. Despus del anlisis adicional para identificar el mximo o mnimo global de h() , el valor de x que resulta es la solucin deseada para el problema original. Desde un punto de vista prctico y de clculo, el mtodo de los multiplicadores de Lagrange no es un procedimiento eficaz en particular. Con frecuencia es en esencia imposible resolver las ecuaciones para obtener los puntos crticos. Es ms, aun cuando sea posible obtenerlos, el nmero de puntos crticos puede ser tan grande (a menudo infinito) que no ser prctico intentar la identificacin de un mximo o un mnimo global. Sin embargo, para ciertos tipos de problemas pequeos, algunas veces puede usarse este mtodo con xito. 8

A manera de ilustracin, considere el ejemplo 2 h( x1 , x2 ) = x12 + 2 x2 ( x12 + x2 1) , de manera que


h = 2 x1 2x1 = 0 , x1 h = 2 2x2 = 0 x2
h 2 2 = ( x1 + x2 1) = 0 x

presentado

antes.

En

este

caso

La primera ecuacin implica que = 1, o x1 = 0. Si = 1, entonces las otras dos ecuaciones implican que x2 = 1 y x1= 0. Si x1 = 0, entonces la tercera ecuacin implica que x2 = 1- As, los dos puntos crticos para el problema original son (x1,x2) = (0, 1)y (0, -1). As, es evidente que estos dos puntos son los respectivos mximo y mnimo globales.

3.3.2 INTERPRETACIN ECONMICA Los multiplicadores de Lagrange tienen una interpretacin econmica interesante e importante. Como antes dijimos, estos multiplicadores en PNL tienen casi la misma interpretacin que los precios sombra en la PL. En otras palabras, en el punto ptimo, el valor del multiplicador de Lagrange es la tasa de cambio instantnea del VO(el valor ptimo de la funcin objetivo), cuando el -simo LD(valor en solucin), bi aumenta, permaneciendo iguales todos los dems datos. Otra forma de expresar este concepto en trminos de economa, es que el i-esimo multiplicador de Lagrange refleja el valor marginal del i-simo recurso. Por consiguiente, sus unidades son Unidades de la funcin objetivo Unidades del LD de la restriccin i Por ejemplo, un fabricante desea minimizar el costo total de un producto, el objetivo estaba expresado en dlares, bajo la restriccin de que la produccin total, digamos en toneladas, de dos productos deba ser igual a K. As pues, las unidades del multiplicador de Lagrange para esta restriccin son dlares por tonelada, y el valor de la misma es el costo marginal instantneo de produccin correspondiente a la R-sima unidad. Sin embargo, los nmeros correspondientes a la sensibilidad tienen un significado un poco ms restringido que en el Informe de sensibilidad de PNL. Para modelos de PNL, el multiplicador de Lagrange de una restriccin es la tasa de cambio inicial (es decir, instantnea) en el valor ptimo de la funcin objetivo, cuando el LD de la restriccin aumenta. Igual que los precios sombra en la PL, un multiplicador de Lagrange positivo indicara que al aumentar el LD se "beneficiara" inicialmente el valor de la funcin objetivo en un modelo Max, e inicialmente se "perjudicara el valor de la funcin objetivo en un modelo Min. Un multiplicador de Lagrange negativo indicara que al aumentar el LD se "perjudicara inicialmente el valor de la funcin objetivo en un modelo Max, y se "beneficiara" inicialmente el valor de la funcin objetivo en un modelo Min. Beneficiar significa un aumento en el objetivo si es un modelo Max, y una disminucin en el objetivo si es un modelo Min. En forma similar, perjudicar significa una disminucin en el objetivo de un modelo Max y un aumento del objetivo en un modelo Min. Sin embargo, a diferencia de lo que aprendimos en el caso de la programacin lineal, no es posible decir sobre qu rango de aumento o disminucin del LD es vlido dicho multiplicador de Lagrange. De hecho, en el caso ms ordinario, el propio multiplicador de Lagrange cambia en cuanto se modifica el LD, por lo cual el incremento y el decremento permisibles son cero. Sin embargo, esto no 9

les impide utilizar el multiplicador de Lagrange para estimar qu pasara con el valor ptimo si cambiara el LD. En forma similar, los valores de gradiente reducido incluidos en el Informe de sensibilidad de PNL de Solver tienen una interpretacin anloga a la de los valores de costo reducido del Informe de sensibilidad de PL. El gradiente reducido de una variable est relacionado con las restricciones que imponen un lmite o acotamiento superior o inferior para las variables de decisin. Un gradiente reducido negativo para una variable de decisin indica que aumentar la variable perjudicara inicialmente el valor de la funcin objetivo en un modelo Max. Mientras que un gradiente reducido positivo para una variable indica que aumentar dicha variable "perjudicar" inicialmente el valor de la funcin objetivo en un modelo Min. Si una variable de decisin est en su acotamiento superior, el gradiente reducido deber ser no negativo para que la solucin sea ptima en un modelo Max: por lo contrario, disminuir la variable mejorara el valor de la funcin objetivo. S una variable de decisin est en su acotamiento inferior, el gradiente reducido no sera positivo en un modelo Max; y, por lo contrario, aumentar la variable mejorara la funcin objetivo. (Las conclusiones opuestas son aplicables a los modelos Min.) Si una variable de decisin est entre sus acotamientos superior e inferior, el gradiente reducido deber ser cero para que la solucin sea ptima.
CONCLUSIONES Y RECOMENDACIONES

La investigacin de operaciones tiene como uno de sus temas fundamentales el tratar los problemas de ndole lineal, donde variables y funciones objetivo tienen esta restriccin, pero, en la vida no solo nos encontramos con este tipo de problemas, sino que nos encontramos con otra variedad que requieren encontrar una solucin de optimizacin, hablamos de los problemas no lineales. Aqu es donde una de las mltiples herramientas de la Investigacin de Operaciones hace aparicin, me refiero a la Programacin No Lineal. Su manera de atacar este tipo de problemas es diferente a la lineal, en aquella programacin podemos ver que con el simple uso del mtodo simplex, encontramos la solucin de optimizacin al problema lineal que lo requiera, aun con lo laborioso que eso implique. En la Programacin no Lineal descubrimos que el hecho de tratar de resolver problemas con distinto grado, requiere mtodos y algoritmos diferentes y avocados a resolver problemas con los grados para los que fueron diseados. Los algoritmos los podemos clasificar en dos ramas: los algoritmos de optimizacin no restringidos, y los de optimizacin restringida, y estos ltimos a su vez, con una sola variable, y con mltiples variables. En los Algoritmos de optimizacin no restringidos, como su nombre lo dice, no tienen restricciones, solamente se trata de maximizar la funcin objetivo, sobre todos las variables que se sujetan a esta funcin, si esta es lineal es suficiente con que sea cncava y resolver el sistema de todas las derivadas parciales de las variables igualadas a cero, pero si no son lineales, hay que implementar algoritmos de bsqueda, que puede ser en una direccin o en mas de una (multidimensional), por medio de procedimiento de bsqueda en una dimensin y para el ultimo el procedimiento de bsqueda del gradiente. Para los algoritmos de optimizacin no restringidos, nos encontramos con los linealmente restringidos y los cuadrticos, los dos poseen restricciones lineales, pero en el primero la funcin objetivo no es Lineal, y en el segundo caso, la funcin objetivo es cuadrtica, ya que incluye el producto de dos variables o el cuadrado de una de ellas. Este tipo de problemas se ataca con una extensin del mtodo simplex para poder analizar la funcin objetivo no lineal. 10

Uno de los elementos mas importantes dentro de la optimizacin restringida son los multiplicadores de Lagrange, ya que cuando nos encontramos en el punto ptimo, el valor del multiplicador de Lagrange funciona indicando la tasa de cambio instantnea del valor ptimo de la funcin objetivo, cuando el simo LD, que es el valor en solucin, bi aumenta, permaneciendo iguales todos los dems datos.
BIBLIOGRAFA Hillier Frederick S. y Gerald J. Lieberman Investigacin de operaciones Sptima Edicin Edit. McGraw-Hill Mxico 2003 Pgs. 654-656,664-667,670-676,1166-1167 Hamdy A, Taha Investigacin de Operaciones Quinta Edicin Edit. AlfaOmega Mxico 1995 Pgs.837-839

G. D. Eppen, Jeffrey H. Moore y C. P. SCHMIDT


Investigacin de Operaciones en la ciencia Administrativa Quinta Edicin Edit. Prentice Hall Mxico 2000 Pgs. 337-338

11

También podría gustarte