Está en la página 1de 29

INSTITUTO TECNOLÓGICO SUPERIOR DE MOTUL

INVESTIGACION DE OPERACIONES

ING. JOSE AURELIO LARA MARTIN

UNIDAD 3
PROGRAMACION NO LINEAL

NOMBRE:

Moo Méndez Aldo M.

Tuyub Xihuiz Jhonatan

Villanueva Can Yulissa A.

Xul Cauich Jorge L.

CUARTO SEMESTRE
GRUPO “A”

MOTUL YUCATAN 14 ABRIL DEL 201


Resumen
Programación no lineal es un proceso de sistema de igualdades y
desigualdades sujeta a un conjunto de variables reales desconocidas, con una
función objetivo a maximizar, cuando alguna de las funciones objetivo o
restricciones no son lineales. Los problemas de programación lineal se resuelven
por medio de algoritmos se demuestra cómo resolver los problemas no lineales de
optimización no restringida, Optimización linealmente restringida, Programación no
cuadrática, Programación convexa, Programación separable, Programación no
convexa, Programación geométrica, Programación fracciona y Problemas de
complejidad, cada una tiene una forma de resolverse aunque algunas se
relacionan entre, varios de estos se pueden resolver por el método simplex.
Optimización clásica sirve para determinar puntos de máximos y mínimos por
medio de un cálculo diferencial en donde, lo que realmente se busca son los
máximos y mínimos pero globales, donde se tiene que comprobar si nuestra
funciones se cumple con los requisitos máximos globales y mínimos globales.

En el tema de los problemas no restringidos nos muestra como buscar los


máximos y los mínimos en el subtema del método de LaGrange, esta además de
buscar máximos y mínimos, sus funciones son de varias variables sujetas a
restricciones, al igual que este método reduce el problema con n variables a uno
sin restricción.

3
Índic

e
Capitulo 1 Generalidades...........................................................................................................1
Introducción.......................................................................................................................................1
Planteamiento del proyecto...............................................................................................................1
Objetivo General................................................................................................................................1
Objetivos específicos..........................................................................................................................2
Preguntas de investigación................................................................................................................2
Justificación........................................................................................................................................2
Alcances y limitaciones......................................................................................................................3
Capitulo 2 Marco teórico.............................................................................................................4
2.1 Programación no lineal (PNL).......................................................................................................4
2.2 Planteamiento de problemas de Programación no lineal............................................................5
2.2.1. Optimización no restringida.....................................................................................................5
2.2.3. Optimización linealmente restringida......................................................................................6
2.2.4. Programación no cuadrática....................................................................................................6
2.2.5. Programación convexa.............................................................................................................7
2.2.6. Programación separable.....................................................................................................7
2.2.7. Programación no convexa........................................................................................................8
2.2.8. Programación geométrica........................................................................................................8
2.2.9. Programación fraccional...........................................................................................................9
2.2.10. Problemas de complejidad...................................................................................................10
2.3 Optimización clásica...................................................................................................................11
2.3.1 MÁXIMOS Y MINIMOS.............................................................................................................12
2.3.2 Punto de inflexión...................................................................................................................14
2.4 Problemas no restringidos..........................................................................................................14
2.4.1 Método de LaGrange...............................................................................................................15
Capitulo 3. Procedimiento................................................................................................................23
Descripción de las actividades..........................................................................................................23

4
Capitulo 4. Conclusiones y recomendaciones..................................................................................24
Conclusión........................................................................................................................................24
Recomendaciones............................................................................................................................24
Bibliografía.......................................................................................................................................25

Índice de figura
Figura 1…………………………………………………………………………………………………………………………………………13

5
Capitulo 1 Generalidades

Introducción

En este proyecto leerá sobre el tema de programación no lineal, el cual s un


modelo matemático que se aplica cuando alguna función dada, no se puede
resolver por medio de la programación lineal, esta es un proceso de
desigualdades e igualdades sujetas a restricciones de variables reales
desconocidas, con una función objetivo a maximizar, cuando una o mas de las
restricciones o la función no son lineales todo esto no dará como resultado los
puntos óptimos para la función objetivo.  Aunque los problemas de
programación lineal son muy comunes y cubren un amplio rango de
aplicaciones, en la vida real uno se tiene que enfrentar con cierta
frecuencia a otro tipo de problemas que no son lineales. Cuando el conjunto
de restricciones, la función objetivo, o ambos, son no lineales, se dice que
se trata de un tipo de problema de programación no lineal (PPNL).

Planteamiento del proyecto


En programación lineal encontramos muchos métodos de resolver, en el
cual encontramos el simplex, el de la M, esquina noreste entre otras, pero en
ocasiones estas funciones no son lineales, así que en estos casos para resolver
las funciones se aplica la programación no lineal.

Objetivo General

Es el de dar a conocer las aplicaciones del programación no lineal, todas


los requerimientos necesarios para llevar a cabo este y dar algunos ejemplos
sobre este tema.

1
Objetivos específicos

 Se realizaran investigaciones, en libros, internet, revistas y


entre otras fuentes de información
 Se analizara la información obtenida de los diversa fuentes y se
dividirá por importancia.
 Se leerá y comprenderá la información para poderla expresar mejor
en el proyecto

Preguntas de investigación

¿Por qué?

Para saber del tema de programación no lineal.

¿Cuándo?

La realización de este trabajo inicio el día 11 de abril del 2011 y finalizamos


el día 14 de abril del 2011.

¿Cómo lo hicimos?

Realizamos una investigación en libros de investigación de operaciones, en


donde encontramos los temas que necesitábamos de programación lineal.

Justificación

En ocasiones en los libros encontramos información sobre programación no


lineal pero no es muy clara, entonces en este proyecto se mejorara el
entendimiento para los futuros lectores.

2
Alcances y limitaciones

Alcances:

 Libros didácticos los cuales contenían los temas,


 Internet con información en la que nos podíamos basar y guiar para
los temas de nuestra investigación.

Limitaciones:

 Tiempo para corregir nuestro error.


 Conocimientos necesarios para la realización correcta del
documento.
 Coordinación en el equipo.
 Lugares de residencia de los miembros del equipo.
 Comunicación.

3
Capitulo 2 Marco teórico

2.1 Programación no lineal (PNL) 

El papel fundamental que juega la programación lineal en la investigación


de operaciones se refleja con exactitud en el hecho de que es el teme central. Una
suposición importante de programación lineal es que todas sus funciones (función
objetivo y funciones de restricción) son lineales. Aunque, en esencia esta
suposición se cumple para muchos problemas prácticos, es frecuente que no sea
así. De hecho, muchos economistas han encontrado que cierto grado de no
linealidad es la regla, y no la excepción, en los problemas de planeación no lineal,
que es el área que se examinara en seguida.

De una manera general, el problema de programación no lineal consiste en


encontrar x= (x1, x2,…., xn) para:

Maximizar f ( x ) ,

En donde f(x) y las g(x) son funciones dadas de n variables de decisión.

No se dispone de un algoritmo que resuelva todos los problemas


específicos que se ajustan a este formato. Sin embargo, se han hecho grandes
logros en los que se refiere a algunos casos especiales importantes de este
problema, haciendo algunas suposiciones sobre las funciones, y la investigación
sigue muy activa.

El problema de programación no lineal puede enunciarse de una forma muy


simple:

Max f ( x ) Cuando x ∈ X

4
2.2 Planteamiento de problemas de Programación no lineal.

Los problemas de programación no lineal se presentan de muchas formas


distintas. Se han desarrollado algoritmos para algunas clases (tipos especiales) de
problemas de programación no lineal.

2.2.1. Optimización no restringida

Los problemas de optimización no restringida no tiene restricciones, por lo


que la función objetivo es sencillamente
Maximizar f (x).
Sobre todos los valores x= (x1, x2, …, xn). La condición necesaria para que
una solución especifica x = x* sea óptima cuando f (x) es una función diferenciable
es
∂y
=0 en x = x*, para j = 1, 2, …, n.
∂x
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la
obtención de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al
establecer las n derivadas parciales iguales a cero. Cuando se trata de funciones
no lineales f (x), estas ecuaciones suelen ser no lineales también, es poco
probable que en estos casos se pueda obtener analíticamente su solución
simultánea.
Cuando una variable xj tiene una restricción de no negatividad, x j ≥ 0, la
condición necesaria (y tal vez) suficiente anterior cambia ligeramente a
∂ f ≤ 0 en x=x ¿ si x ¿j
{
∂ x j ¿ 0 en x=x ¿ si x ¿j

Para cada j de este tipo. Donde la solución óptima de un problema con una
sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como
este ejemplo tiene una función cóncava para maximizar sujeta a una restricción de

5
no negatividad, el que su derivada sea menor o igual a 0 en x = 0, es una
condición necesaria y suficiente para que x = 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no
tiene restricciones funcionales es un caso especial (m = 0) de la siguiente clase de
problemas.

2.2.3. Optimización linealmente restringida

Estos problemas se caracterizan por restricciones que se ajustan por


completo a la programación lineal, de manera que todas las funciones de
restricción gj(x) son lineales, pero la función objetivo es no lineal. El problema se
simplifica mucho si solo se tiene que tomar en cuenta una función no lineal junto
con una región no factible de programación lineal. Se han desarrollado varios
algoritmos especiales basados en una extensión del método símplex para analizar
la función objetivo no lineal.

2.2.4. Programación no cuadrática

Los problemas de programación no cuadrática tienen restricciones lineales,


pero ahora la función objetivo f (x) debe ser cuadrática. Algunos términos de la
función objetivo incluyen el cuadrado de una variable o el producto de dos
variables.
Se han desarrollado muchos algoritmos para este caso, con la suposición
adicional de que f (x) es cóncava.

2.2.5. Programación convexa

6
La programación no convexa abarca una amplia clase de problemas entre
los que se encuentra, como los tipos anteriores cuando f (x) es cóncava. Las
suposiciones son que
1. f (x) es cóncava.
2. Cada una de las g(x) son cóncavas.
Estas suposiciones son suficientes para asegurar que un máximo local es
un máximo global.

2.2.6. Programación separable

La programación separable es un caso especial de programación convexa,


en donde la suposición adicional es
3. Todas las funciones f (x) y gi(x) son funciones separables.
Una función separable es una función en la que cada término incluye una
sola variable, por lo que la función se puede separar en una suma de funciones de
variables individuales.
Por ejemplo si f (x) es una función separable, se puede expresar como
n
f ( x )= ∑ f j ( x j ) ,
j=1

En donde cada f j ( x j )incluye sólo los términos con x j .


Cualquier problema de programación separable se puede aproximar muy de
cerca mediante uno de programación lineal y, entonces, se puede aplicar el
eficiente método simplex.

2.2.7. Programación no convexa

La programación no convexa incluye todos los problemas de programación


no lineal que no satisfacen las suposiciones de programación convexa. Aun
cuando se tenga éxito en encontrar un máximo local, no hay garantía de que sea

7
también un máximo global. No se tiene un algoritmo para garantizar un resultado
óptimo para todos estos problemas, pero si hay algunos bastante adecuados para
encontrar los máximos locales, es decir cuando las formas de las funciones no
lineales se desvían demasiado de aquellas que se supieran para programación
convexa.
Ciertos tipos específicos de problemas de programación no convexa se
pueden resolver mediante métodos especiales.

2.2.8. Programación geométrica

Cuando se aplica programación no lineal a problemas de diseño de


ingeniería, muchas veces la función objetivo y las funciones de restricción toman
la forma
n
g ( x )= ∑ c i Pi ( x )
i=1

En donde
Pi ( x ) =x1a i1 x a2 i 2 … x an ∈¿
En estos casos, las ci y aij representas las constantes físicas y las x j las
variables de diseño. Por lo general estas funciones no son ni cóncavas ni
convexas por lo que no se pueden aplicar directamente las técnicas de
programación convexa. Pero, existe un caso en el que el problema se puede
transformar en un problema de programación convexa equivalente. Este caso es
aquel en el que todos los coeficientes c i en cada función son estrictamente
positivos, en otras palabras, las funciones son polinomios positivos generalizados
(llamados posinomiales), y la función objetivo se tiene que minimizar. El problema
equivalente de programación convexa con variables de decisión y 1, y2, … yn se
obtiene entonces al establecer
x j=e yj , parai=1, 2 , … , n

8
En todo el modelo original, y ahora se puede aplicar un algoritmo de
programación convexa.

2.2.9. Programación fraccional

Supongamos que la función objetivo se encuentra en la forma de una


fracción, esto es, la razón o cociente de dos fracciones
f 1( x )
f ( x )= .
f 2( x )
Se han formulado algunos procedimientos de solución especial para ciertas
formas de f 1 ( x ) y f 2 ( x ) .
El enfoque más directo para resolver un problema de programación
fraccional es transformarlo en un problema equivalente de algún tipo estándar que
disponga de un procedimiento estándar.
Suponga que f ( x ) es de la forma de programación fraccional lineal
cx +c 0
f ( x )= .
dx +d 0
En donde c y d son vectores renglón, x es un vector columna y c0 y d0 son
escalares. También suponga que las funciones de restricción g i(x) son lineales, es
decir, las restricciones en forma matricial son Ax ≤ b y x ≥ 0.
Con algunas suposiciones débiles adicionales, el problema se puede
transformar en un problema equivalente de programación lineal haciendo.
x 1
y= y t= ,
dx +d 0 dx+ d 0
De manera que x = y/t. este resultado conduce a
Maximizar Z=cy+ c 0 t ,
Sujeta a
Ay−bt ≤ 0
dy +d 0 t=1
Y
y ≥0 ,t ≥ 0

9
Que se puede resolver con el método simplex. Se puede usar el mismo tipo
de transformación para convertir un problema de programación fraccional con f 1 ( x )
cóncava, f 2 ( x )convexa y gi ( x ) convexas, en un problema equivalente de
programación convexa.

2.2.10. Problemas de complejidad

Dadas las variables w 1 , w 2 , … w p , y z 1 , z 2 , … z p ,el problema de complejidad


encuentra una solución factible para el conjunto de restricciones
w=F ( z ) , w ≥ 0 , z ≥ 0 ,
Que también satisface la restricción de complementariedad,
w T z=0.
Donde, w y z son vectores columna, F es una función con valores
vectoriales dada y el superíndice T denota la transpuesta. El problema no tiene
función objetivo, así que no es técnicamente un problema de programación no
lineal completo. Se le llama problema de complementariedad por las relaciones
complementarias que establecen que una de las dos
w i=0 o z i=0 ( o ambas ) para cada i=1 , 2 ,… , p .
Un caso especialmente importante es el problema de complementariedad
lineal, en el que
F ( z )=q+ Mz ,
En donde q es un vector columna dada y M es una matriz de p x p dada. Se
dispone de algoritmos eficientes para resolver este problema bajo algunas
suposiciones adecuadas sobre las propiedades de la matriz M.

10
2.3 Optimización clásica

Es el uso de cálculo diferencial para determinar puntos máximos y mínimos


(extremos) para funciones restringidas y no restringidas. Los métodos expuestos
pueden no ser adecuados para los cálculos numéricos eficientes.

Un problema de optimización sin restricciones tiene el aspecto.

Max .(O Min .)f (X )

s . a X € IR n

El conjunto factible es todo IR n. La condición Xϵ IR n no supone ninguna


restricción habitualmente la omitiremos, escribiendo simplemente.

Max .(o Min .) f ( X )

Este tipo de problemas ya han sido estudiados parcialmente por el alumno


en las Matemáticas II, en donde se estudia cómo hallar los máximos o mínimos
locales de una función. (Aunque en un problema de optimización lo que realmente
buscamos son los máximos y mínimos globales).

La forma de buscar los máximos y mínimos globales es comprobar


previamente si nuestra función cumple algún requisito que garantice la existencia
de mínimo global o máximo global.

En este sentido, el hecho de que la función sea coerciva, anticoerciva,


cóncava o convexa puede ser de gran ayuda.

En todo lo que sigue supondremos que las funciones que manejamos son
continuas y que tienen derivadas parciales continuas, al menos hasta el segundo
orden, es decir, que son de clase C2en IRn.

11
2.3.1 MÁXIMOS Y MINIMOS

En esta investigación se presenta el método de optimización clásica


relacionado con los máximos y mínimos de funciones no lineales. También se
muestra una explicación del método de optimización simplex para funciones
lineales por el cual se pueden obtener los máximos y mínimos de una función
restringida.
Un problema de optimización combinatoria siempre se le involucra un
conjunto de instancias, donde cada una de ellas cuenta con un conjunto finito de
posibles soluciones (característica imprescindible de los problemas continuos).
Por otra parte la teoría de optimización clásica se usa para la obtención de
los máximos y mínimos de funciones no lineales restringidas y no restringidas, en
los que se hace uso del cálculo diferencial.
MÁXIMOS Y MINIMOS: Mínimo (fuerte): Un punto extremo X 0 de una
función f ( X 0) define un mínimo de la función si f ( X 0+h) > f ( X 0), donde X 0 es
cualquier punto de la función y h en valor absoluto es suficientemente pequeña.

Máximo (fuerte): Un punto extremo X 0 de una función f ( X 0 ) define un


máximo de la función si f ( X 0 +h) < f ( X 0), donde X 0 es cualquier punto de la
función y h en valor absoluto es suficientemente pequeña.
Una función puede contener varios máximos y mínimos, identificados por
los puntos extremos de la función. En la figura se puede observar esto, los puntos
X 1 , X 3 y X 6 son máximos, de la figura notamos que f ( X 6 ) es el mayor que f (x 1) y
f(x3), a este punto se le conoce como máximo global de la función y a los
restantes como máximos locales. Lo mismo se puede ver para los mínimos, en los
que también existe un mínimo global f (X 2 ) y un mínimo local f (X 4) . Como es de
lógico, solo puede existir un solo global y posiblemente varios locales.

12
Figura 1

Figura 1.- Es la representación de máximos y mínimos en una función con una


sola variable [Taha 1991].

Una condición necesaria pero no suficiente para que X 0 sea un punto


extremo, es que para una función con más de una variable, el gradiente ∇ f ( X 0) =
0. Si es cierto esto entonces X 0 será conocido como punto estacionario.
Una condición suficiente para que un punto estacionario sea extremo es
que
La matriz Hessiana H obtenida en X 0del sistema de ecuaciones sea positiva
cuando X 0 es un punto extremo de mínimo. Y negativa cuando X 0 es un punto
extremo del máximo.
Un máximo débil implica un numero finito de máximos alternativos (ver
figura) y se define como X 0 es un máximo débil, si f ( X 0 + h) <= f ( X 0). Un análisis
similar es para los mínimos débiles.
Un punto de inflexión se encuentra cuando la evaluación del gradiente da
cero y no es un extremo, esto se debe de cumplir la condición de la matriz
Hessiana.

13
2.3.2 Punto de inflexión.

Un punto de inflexión es un punto donde los valores de x de una función


continua pasan de un tipo de concavidad a otro. La curva "atraviesa" la tangente.
Matemáticamente la derivada segunda de la función f en el punto de inflexión es
cero, o no existe.

En el cálculo de varias variables a estos puntos de inflexión se les conoce


como puntos de ensilladura.

2.4 Problemas no restringidos.

Un punto extremo de una función f (X ) define un máximo o un mínimo de la


función. Matemáticamente, un punto X 0=( x i , … x j , … x n) es un máximo si,

f¿

Para toda h=(hi , … h j , …h n) tal que |h j| es suficientemente pequeña para


toda j.

En otras palabras, X 0 es un máximo si el valor de f en cada punto en el


entorno de X 0 no excede a f (X 0 ). En forma similar, X 0 es un mínimo si parah, tal
como se definio anteriormente.

f¿

14
2.4.1 Método de LaGrange
En los problemas de optimización, el método de los multiplicadores de
Lagrange, es un procedimiento para encontrar los máximos y mínimos de
funciones de varias variables sujetas a restricciones. Este método reduce el
problema restringido con n variables a uno sin restricciones de n + k variables,
donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser
resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una
para cada restricción, son llamadas multiplicadores de Lagrange. El método dice
que buscar los extremos condicionados de una función con k restricciones, es
equivalente a buscar los extremos sin restricciones de una nueva función
construida como una combinación lineal de la función y las restricciones, donde
los coeficientes de las restricciones son los multiplicadores.
La demostración usa derivadas parciales y la regla de la cadena para
funciones de varias variables. Se trata de extraer una función implícita de las
restricciones, y encontrar las condiciones para que las derivadas parciales con
respecto a las variables independientes de la función sean iguales a cero.

Pueden ser utilizados para estudiar el efecto de variación pequeño en las


restricciones sobre el valor óptimo de f. también se indicó que estos coeficientes
son constantes. Estas propiedades pueden ser utilizadas para resolver los
problemas restringidos por restricciones de igualdad.

Sea

∂f
λ=∇ Y 0 J −1=
∂g

Por consiguiente,

∂ f −λ ∂ g=0

15
Esta ecuación satisface las condiciones necesarias para puntos
estacionarios, ya que la expresión para ∂ f /∂ g se calcula tal que ∇ c f =0. Sin
embargo, se obtiene una forma más conveniente para presentar estas ecuaciones
tomando sus derivadas parciales con respecto a todas las x j . Lo anterior da


( f −λ g )=0 , j=1 , 2, … , n
∂x j

Las ecuaciones resultantes junto con las ecuaciones de restricciones g=0


proporcionan los valores factibles de x y λ que satisfacen las condiciones
necesarias para puntos estacionarios.

El procedimiento anterior define el método conocido como LaGrange para


identificar los puntos estacionarios de problemas de optimización con restricciones
de igualdad. Este procedimiento puede desarrollarse formalmente como sigue. sea

L ( X , λ )=f ( X )−λ g (X )

La función L se llama la función de LaGrange y los parámetros λ,


multiplicadores deLaGrange.

Las ecuaciones:

∂L ∂L
=0 y =0
∂λ ∂X

Proporcionan las mismas condiciones necesarias dadas anteriormente y,


por tanto, la función de LaGrange puede utilizarse directamente para generar las
condiciones necesarias. Esto significa esto significa que la optimización de f (X )
sujeto a g ( X )=0es equivalente a la optimización de la función de LaGrange se
establecerán sin demostración. Defínase:

16
0| P
HB=
( |)
PT Q ( m+n ) x(m +n)

Donde

∇ g1 (X )
P=
( )⋮
∇ gm( X ) mx n
y ‖
Q=
∂2 L( X ,)
∂ xi ∂ x j ‖
m xn
, para toda i y j

La matriz H B se conoce como matriz hessiana en la frontera.

Dado el punto estacionario ( X 0 , λ 0), para la función de LaGrange L(X , λ) y


la matriz hessiana en la frontera H B evaluada en ( X 0 , λ 0), entonces X 0 es:

1. Un punto máximo si, comenzado con el menor principal del


determinante de orden (2 m+ 1), los últimos (n−m) menores principales del
determinante de H B forman una configuración de signos alternos
comenzando con (−1)m+1.
2. Un punto mínimo si, comenzando con el menor principal del
determinante de orden (2 m+ 1), los últimos (n−m) menores principales del
determinante de H B tienen el signo de (−1)m.

Las condiciones anteriores son suficientes para identificar un punto


extermo, pero no necesarias. En otras palabras, un punto estacionario puede ser
un punto extremo sin satisfacer las condiciones anteriores.

Existen otras condiciones que son tanto necesarias como suficientes para
identificar puntos extremos. La desventaja en este caso es que este
procedimiento es computacionalmente infactible para la mayoría de los propósitos
prácticos. Defina:

17
0p
∆=
( T
P Q−μI )

Evaluado en el punto estacionario ( X 0 , λ 0), donde P y Q son como se


definieron antes y μ es un parámetro desconocido. Considere el determinante |∆|;
entonces cada una de las (n−m) raíces ui del polinomio.

|∆|=0

Deben ser,

1. Negativas si X 0 es un punto máximo.


2. Positivas si X 0 es un punto mínimo.

Ejemplo. 1

La función de LaGrange es:

L ( X , λ )=x 21 + x 22+ x 23− λ1 ( x 1 + x 2+ 3 x 3−2 )−λ 2(5 x 1 +2 x 2 + x 3−5)

Esto proporciona las siguientes condiciones necesarias:

∂L
=2 x1 −λ1−5 λ 2=0
∂ x1

∂L
=2 x 2−λ1−2 λ 2=0
∂ x2

∂L
=2 x 3−3 λ1− λ2=0
∂ x3

∂L
=− ( x1 + x 2 +3 x3 −2 )=0
∂ λ1

18
∂L
=−( 5 x 1+2 x 2+ x3 −5 )=0
∂ λ2

La solución para estas ecuaciones simultáneas proporciona,

X 0=( x 1 , x 2 , x 3 )=( .81 , .35 ,.28 )

λ=( λ 1 , λ2 ) =( .0867 ,.0367 )

Esto muestra que estos coeficientes son independientes de la selección del


vector dependiente Y en el método jacobiano. Para mostrar que el punto dado es
mínimo, considere

0 0 1 1 3
B

(0
H =1
1
3
0
5
2
1
5
2
0
0
2
0
2
0
1
0
0
2
)
Ya que n=3 y m=2, se deduce que n−m=1. Por consiguiente, es necesario
verificar el determinante de H B =460> 0 , X 0 es un punto mínimo.

Un método que es conveniente algunas veces para resolver ecuaciones


resultantes a partir de las condiciones necesarias es seleccionar valores
numéricos sucesivos de λ y luego resolver las ecuaciones dadas para determinar
X . Esto se repite hasta que para algunos valores de λ, la X resultante satisface
todas las restricciones activas en forma de ecuación. Sin embargo, este
procedimiento llega a ser muy tedioso computacionalmente cuando aumenta el
numero de restricciones.

19
Ejemplo. 2

Considere el problema

Minimizar z=x 21 + x 22+ x 23

Sujeto a

4 x1 + x 22 +2 x 3−14=0

La función de LaGrange es

L ( X , λ )=x 21 + x 22+ x 23− λ(4 x1 + x 22 +2 x 3−12)

Esto proporciona las siguientes condiciones necesarias:

∂L
=2 x1 −4 λ=0
∂ x1

∂L
=2 x 2−2 λx 2=0
∂ x2

∂L
=2 x 3−2 λ=0
∂ x3

∂L
=−( 4 x1 + x 22−2 x 3−14)=0
∂λ

Cuya solución es

( X 0 , λ 0 )=(2 ,2 , 1, 1)

( X 0 , λ 0)2=(2 ,−2 , 1, 1)

( X 0 , λ 0)3=(2.8 , 0 ,1.4 ,1.4)

20
Aplicando las condiciones de suficiencia se obtiene,

0 4 2 x2 2
HB= 4
(
2 x2
2
2 0
0 2−2 λ
0 0
0
0
2
)
Ya que m=1 y n=3, entonces el signo de los últimos ( 3−1 )=2 menores
principales del determinante debe ser el de (−1)m=−1 a fin de que un punto
estacionario sea un mínimo. Por consiguiente, para ( X 0 , λ 0)1=(2 ,2 , 1 ,1),

0 4 4 2
0 4 4
| |
4 2 0 =−32<0
4 0 0
y
| |
4
4
2
2 0
0 0
0 0
0 =−64<0
0
2

Para ( x 0 , λ 0)2 =( 2,−2 ,1 , 1 ) ,

0 4 −4 2

|
0 4 −4
4 2 0 =−32<0
−4 0 0 | y
|4
−4
2
0 0 0
0 0 2
|
2 0 0 =−64< 0

Finalmente, para ( X 0 , λ 0)3=( 2.8 , 0 , 1.4 , 1.4 ) ,

0 4 0 2

|
0 4
4 2
0
0 =12.8>0
0 0 −0.8 | y
|
4
0
2
2 0
0 −0.8 0
0 0 2
|
0 =32>0

Esto muestra que ( X 0)1 y ( X 0)2 son puntos mínimo. El hecho de que ( X 0)3 no
satisfagan las condiciones de suficiencia de un maximo o un mínimo no es
necesariamente significa que no sea un punto extremo. Esto, como se explicó
anteriormente, se deduce a partir de las condiciones dadas que, aunque

21
suficiente, pueden no ser fatisfechas para cada punto extremo. En tal caso, es
necesario usar la otra condicion de suficiencia.

Para ilustrar el uso de la otra condiciones de suficiencia que emplea las


raíces del polinomio, considere.

0 4 2 x2 2

2
(
∆= 4 2−μ
2 x2 0
0
0
2−2 λ−μ
0
0
0
2−μ
)
Ahora, para ( X 0 , λ 0)1=( 2,2 , 1, 1 ) ,

|∆|=9 μ 2−26 μ+16=0

Esto da μ=2 o sea 8 /9. Ya que todas las μ>0 ( X 0 )1=( 2 ,2 , 1 ) es un punto
mínimo. Finalmente, para ( X o , λ 0)2=( 2 ,−2 ,1 ) ,

|∆|=9 μ 2−26 μ+16=0

El cual es el mismo que en el caso anterior. Entonces, ( X 0)2=(2 ,−2 , 1) es


un punto mínimo. Finalmente, para ( X 0 , λ 0)3=( 2.8 , 0 , 1.4 , 1.4 ) ,

|∆|=5 μ2 −6 μ−8=0

Esto proporciona π=2 y −0.8 . lo anterior significa que ( X 0)3=(2.8 , 0 ,1.4 ) no


es un punto extremo.

22
Capitulo 3. Procedimiento.

Realizamos lo siguiente: juntarnos en equipo, buscar y recopilar


información sobre los temas que contiene esta unidad en diferentes fuentes, ya
sea, en internet, libros, revistas y entre otros; luego de recopilar toda la
información es necesario leer, entender sobre los temas que investigamos ya que
no solo es copiar, pegar información, si no sabes delo que trata los temas que
hemos investigado y eso de nada nos podría servir. Luego de seleccionar lo más
importante de cada tema lo pasamos en el proyecto de un forma muy entendible
para nosotros.

Descripción de las actividades.


Juntarse.- Reunión de los miembros del equipo para la coordinación de
tareas para cada uno de estos.

Investigar.- Lectura de información en libros, revistas e internet.

Analizar.- Observamos la información obtenida, y tomamos lo más


importante que debe ir en el proyecto.

23
Capitulo 4. Conclusiones y recomendaciones.

Conclusión

La programación no lineal es un proceso matemático que se realiza cuando


una función dada no cumple con algunos requisitos para realizarlo con
programación lineal. Y Se puede concluir del planteamiento de programación no
lineal que sus aplicaciones se resuelven mediante la utilización de algoritmos, y
algunos han sido desarrollado para algunas clases especiales de estos. La
optimización clásica es el uso de cálculo diferencial que sirve como una base para
programación no lineal en donde esta incluido los máximos y mínimos para
funciones restringidas y no restringidas de un problema. Problemas no
restringidos, su tarea es encontrar o definir un máximo o un mínimo de una
función, donde usa diferentes métodos por ejemplo el de LaGrange donde sus
funciones son de varias variables sujetas a restricciones.

Recomendaciones.

Cabe mencionar que para poder resolver y entender estos diferentes


métodos hay que leer sobre lo que estemos proporcionando en este documento
puesto que contiene pequeñas información y ejemplos no muy detallados sobre el
tema.

Bibliografía

24
Frederick S. Hillier, G. J. (1997). Introducción a La Investigación De Operaciones.
Mexico D.F: Mc Graw Hill.

G.D. Eppen, F. G. (2000). Investigacion de Operaciones en la Ciencia Administrativa.


Prentice Hall.

TAHA. (1992). INVESTIGACION DE OPERACIONES. MEXICO D.F.: ALFAOMEGA.

Taha, H. A. (2004). Investigación De Operaciones. Mexico : Prentice Hall.

25

También podría gustarte