Está en la página 1de 7

INVESTIGAR LOS SIGUIENTES TEMAS

Programación No Lineal (PNL)

Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y


desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales
desconocidas, con una función objetivo a maximizar, cuando alguna de las restricciones o la
función objetivo no es lineal.
 
Una suposición importante de programación lineal es que todas sus funciones (función
objetivo y funciones de restricción) son lineales. Aunque, en esencia, esta suposición se
cumple para muchos problemas prácticos, con frecuencia no es así. De hecho, muchos
economistas han encontrado que cierto grado de no linealidad es la regla, y no la excepción,
en los problemas de planeación económica, por lo cual, muchas veces es necesario manejar
problemas de programación no lineal, lo cual vamos a analizar enseguida.
De la manera general el problema de programación no lineal consiste en encontrar:
X= (X1, X2, X3, X4, XN) para
 
Maximizar f(X), sujeta a
Gi(X)<= bi para i=1,2…..m,
Y    X=>0,
 
Donde  f(X) y gi(x) son funciones dadas de n variables de decisión.
  
Se puede expresar un problema de programación no lineal (PNL)de la siguiente manera:
Encuentre los valores de las variables que

Como en la programación lineal z es el funcional del problema de programación no lineal y


son las restricciones del problema de programación no lineal.
Un problema de programación no lineal es un problema de programación no lineal no
restringido.
El conjunto de puntos, tal que es un número real, es, entonces, es el conjunto de los números
reales.
Los siguientes subconjuntos de (llamados intervalos) serán de particular interés:

La región factible para el problema de programación no lineal es el conjunto de puntos que


satisfacen las m restricciones de (1).
  

Por supuesto, si son funciones lineales, entonces (1) será un problema de programación
lineal y puede resolverse mediante el algoritmo simplex
 

Programación No Lineal diferenciable.

Nos ocuparemos en esta sección de problemas del tipo


donde tanto la función objetivo como las funciones de restricciones son funciones diferenciables.
como hemos dicho, el problema se puede plantear a algo a un problema extendido de máximos y
mínimos.
Teoría en extensión
Sea f continua y diferenciable
El gradiente de la función f se define como

Que también denotaremos aquí como grad f(x).

Es decir, el gradiente es el vector formado por todas las derivadas de la función f.


A continuación vemos el concepto de derivada direccional, dicha derivada mide la tasa de
cambio de la función en la dirección del vector v.
Derivada direccional
Dado un vector v, se define la derivada de direccional de f en la dirección v como
Df(x)v = df(x+tv)/dt, evaluado en t=0.

También se puede definir como el límite

El siguiente Teorema nos asegura la existencia de todas las derivadas direccionales en el caso de
funciones diferenciables
Teorema (Existencia de derivadas direccionales en funciones diferenciables)
Sea
función diferenciable, entonces existen todas las derivadas direccionales, y la derivada en un
punto x en la dirección v está dada por el producto escalar del Gradiente de f por v:
Df(x)v = <grad f(x) . v >

Como resultado de que la derivada direcciona mide la tasa de cambio de la función en la


dirección de v. Esto es muy interesante en nuestro problema pues dado un punto, nos interesa
saber en que dirección la función es creciente o decreciente y sobre todo en qué dirección crece o
decrece más rápido.
El siguiente problema responde a esta cuestión
Teorema
Si el grad f(x) ≠ 0, entonces grad f(x) apunta en la dirección de mayor crecimiento de la función

En otras palabras, si queremos saber en que dirección la función f, crece más rápidamente,
tenemos que mirar en la dirección del vector grad f(x).
Análogamente, la dirección en la que la función decrece más deprisa es la de -grad f(x)
Esto nos da una idea de un algoritmo, dado un punto (x, f(x)), mediante los métodos de cálculo
numérico podemos calcular el vector grad f(x) e iterar en esa dirección (en el sentido creciente o
decreciente, según sea nuestro problema de maximizar o minimizar).
El siguiente Teorema nos habla de extremos locales de funciones.
Teorema
Sea

f tiene un mínimo local en x, at x entonces ∇ f(x) = 0

Teorema (Relacción Mínimos - Convexidad)


Sea f como antes
f tiene un mínimo local en x

y f es convexa en un entorno de x

Nota Se puede formular un teorema análogo con la relación concavidad/Máximos locales


Ahora bien, dado un punto en el que grad f(x) = 0. ¿Como saber si este punto es un máximo, un
mínimo o un punto de silla? Lo que resta de sección trata de este asunto.
Si f es dos veces diferenciable, define la matriz Hessiana de f

Teorema (Caracterización de extremos locales)


Sea

y sea x un punto en el cual grad f(x) = 0, entonces

    a) Si la matriz Hessiana de f:

     es definida positiva entonces x es un mínimo local de f.


b) Si es definida negativa entonces x es un máximo local de f.
   c) Si no es ni definida positiva ni definida negativa, entonces x es un punto de silla de f.
Teorema (Caracterización de convexidad por el Hessiano)
Sea

f es convexa si y solo sí la matriz

es definida positiva

Entonces si f es convexa en toda la región S y tiene un mínimo local en el punto x, entonces x es


solución de nuestro Problema pues será un mínimo global .
La convexidad de una función sólo asegura la continuidad de dicha función. Por tanto, no
podemos hablar genéricamente del gradiente y menos aún de matriz Hessiana.
En lugar de eso, en la próxima sección definiremos el su gradiente, que hace el papel del
gradiente para funciones no diferenciables (de hecho, el su gradiente es el gradiente cuando la
función es diferenciable)
Aquí ya podemos ver la complejidad de un problema de programación no-lineal. En el caso de
funciones convexas todo es mucho más sencillo ya que mínimos locales se convierten en
mínimos globales.

Programación No Lineal no diferenciable.


Programación Cuadrática

También podría gustarte