Está en la página 1de 18

Ingeniería en Sistemas Computacionales

Sara Patricia Jaimes Santos

17071567

Investigación de Operaciones

Programación no Lineal

8:00 – 9:00 am
Índice

3.1 Conceptos básicos de problemas de programación no lineal....................................1


3.2 Ilustración grafica de problemas de programación no lineal......................................5
3.3 Tipos de problemas de programación no lineal.............................................................9
3.4 Optimización clásica............................................................................................................12
3.4.1 Puntos de inflexión...........................................................................................................14
3.4.2 Máximos y mínimos..........................................................................................................16
Unidad III: Programación no lineal

3.1 Conceptos básicos de problemas de programación no lineal

La programación no lineal forma parte de la investigación de operaciones y


también, como la programación lineal, tiene como finalidad proporcionar los
elementos para encontrar los puntos óptimos para una función objetivo. En este
planteamiento, tanto la función objetivo como las restricciones son no lineales. Se
presenta un problema de programación no lineal cuando tanto la función objetivo
que debe optimizarse, como las restricciones del problema, o ambas, tienen forma
de ecuaciones diferenciales no lineales, es decir, corresponden a ecuaciones
cuyas variables tienen un exponente mayor que 1.
La programación no lineal también es conocida con el nombre de programación
cuadrática, en virtud de que la mayor parte de los problemas que resultan
contienen ecuaciones cuadráticas o de segundo grado. Muchas veces se
presentan casos en que se deben maximizar.
Los problemas no lineales se caracterizan por tener relaciones no lineales; es
decir, no existe una relación directa y proporcional entre las variables que
intervienen. Los problemas de programación no lineal, también son llamados
curvilíneos, ya que el área que delimita las soluciones factibles en un gráfico se
presenta en forma de curva. La función objetivo en la programación no lineal,
puede ser cóncavo o convexo. Es cóncavo cuando se trata de maximizar
utilidades, contribuciones, etc. Es convexo cuando trata de minimizar recursos,
costos, etc. Los problemas que contienen restricciones lineales, se resuelven de
una forma más sencilla que los problemas con restricciones no lineales.
Se considera como tal al conjunto de métodos utilizados para optimizar una
función objetivo, sujeta a una serie de restricciones en los que una o más de las
variables incluidas es no lineal.
Como ejemplo considere el siguiente problema de programación no lineal
Minimizar f(x)
sujeta a g¡(x) < 0 i - 1, 2 m
h¡(x)- 0 j - 1,2 1
donde f. gj. g-, gm. h b h2,...., h, son funciones definidas en L„. el espacio
euclidiano de n dimensiones. X es un subconjunto de Ln. y x es un vector de
componentes x,.
x2,...,xn.
El problema anterior puede ser resuelto para los valores de las variables
x|,x2,...,xn que satisfacen las restricciones y que minimicen la función f.
La función f es llamada usualmente la función objetivo o la función criterio.
Cada una de las restricciones para i 1.2 m es llamada restricción de desigualdad
y cada una de las restricciones h-Jx) para j-l,2,...,l es llamada restricción de
igualdad.

1
Un vector x que satisface todas las restricciones es llamado una solución factible
al problema.
La colección de todas las posibles soluciones forma la región factible. El
problema de programación no lineal es encontrar un punto factible x tal que f(x)
>f(X)
para cada punto factible a*. Un punto tal x es llamado una solución óptima o
simplemente
una solución al problema. Si existe más de un punto óptimo, estos son referidos
como soluciones alternativas óptimas.
Asimismo, un problema de programación no lineal puede expresarse como un
problema de maximización y las restricciones de desigualdad pueden estar
escritas en la forma g/x) >0 para i = 1.2,...,m. En el caso especial cuando la
función objetivo es lineal y cuando todas las restricciones, incluyendo al conjunto.
puede ser representado por desigualdades lineales y/o ecuaciones lineales, el
problema anterior es llamado un problema lineal.
Lo anterior indica que la programación lineal es un caso particular de la
programación no lineal. Por tal motivo, los problemas no lineales son mucho mas
difíciles de resolver que los de programación lineal. Haciendo un análisis de las
características de los problemas lineales y no lineales tenemos la siguiente
comparación entre ambos problemas.

Por otra parte, existen algunas condiciones o postulados que se cumplen para los
dos modelos, los de programación lineal y los de programación no lineal:
1. Al aumentar (disminuir) el lado derecho de una restricción ≤ o ≤ se relaja la
restricción. Esta no puede contraer y si puede expandir al conjunto factible.

2 Aumentar (disminuir) el lado derecho de una restricción estrecha la restricción. Esto


no puede expandir, pero si contraer el conjunto no restringido.

3. Una restricción no puede perjudicar, sino quizá ayudar, al valor óptimo de la función
objetivo.

4. Una una restricción no puede perjudicar, sino quizá ayudar, al valor óptimo de la
función objetivo.

Las ventajas más importantes de la programación no lineal son dos:


1. En algunas ocasiones la distribución óptima del presupuesto excluye cualquiera
de los bienes considerados en el presupuesto general; esta situación se refleja en
cualquiera de las restricciones del modelo.
2. La programación no lineal aporta mayor información que la contenida en el
análisis marginal. No sólo define el objetivo, sino que también señala la orientación
específica para lograr el objetivo.
La programación lineal da respuesta a situaciones en las que se
exige maximizar o minimizar funciones que se encuentran sujetas a
determinadas limitaciones, que llamaremos restricciones.

2
Función objetivo

En esencia la programación lineal consiste en optimizar (maximizar o


minimizar) una función objetivo, que es una función lineal de varias variables:
f(x, y) = ax + by.

Restricciones
La función objetivo está sujeta a una serie de restricciones, expresadas
por inecuaciones lineales:

a1x+b1y≤c1
a2x+b2y≤c2
………
anx+bny≤cn

Cada desigualdad del sistema de restricciones determina un semiplano.

Solución factible
El conjunto intersección, de todos los semiplanos formados por las restricciones,
determina un recinto, acotado o no, que recibe el nombre de región de validez o
zona de soluciones factibles.

Solución óptima
El valor que toma la función objetivo en el vértice de solución óptima se
llama valor del programa lineal.

PASOS PARA RESOLVER UN PROBLEMA DE PROGRAMACION LINEAL

1. Elegir las incógnitas.
2. Escribir la función objetivo en función de los datos del problema.
3. Escribir las restricciones en forma de sistema de inecuaciones.
4. Averiguar el conjunto de soluciones factibles representando gráficamente las
restricciones.
5. Calcular las coordenadas de los vértices del recinto de soluciones factibles (si
son pocos).
6. Calcular el valor de la función objetivo en cada uno de los vértices para ver
en cuál de ellos presenta el valor máximo o mínimo según nos pida el problema

3
(hay que tener en cuenta aquí la posible no existencia de solución si el recinto no
está acotado).
Una forma de resolver los problemas de programación no lineal es convirtiendo
los problemas de forma tal, que se pueda aplicar la programación lineal. Los
problemas de programación no lineal abarcan problemas con función objetivo no
lineal y restricciones no lineales, como se presenta en el ejemplo siguiente:
Maximizar Z= ($9.6 X - $0.06 X2) + $10Y
Sujeto a: 3 X2+ 2Y2< 13,950
X > 0, Y > 0
Como se puede observar, tanto la función objetivo como la restricción presentan
variables de segundo grado (potencia cuadrática); por lo tanto, son no lineales.
Para comenzar con la resolución de un problema no lineal se representa la
restricción en un gráfico, para ello, se utiliza el mismo procedimiento empleado en
el método gráfico de programación lineal Considerando la desigualdad 3X2+ 2Y <
13, 950, se le asigna un valor de 0 a la variable Y, para encontrar el punto de X en
el gráfico. Así mismo, se asigna un valor de 0 a la variable X, para encontrar el
punto Y en el gráfico:
Despejando la variable X se procede de la forma siguiente:
3 X2 + 2Y2< 13,950
3 X2 + 2(0)2< 13,950
X2<13,950 / 3
X2 < 4,650
X < 4,650
X < 68.19
Para despejar la variable Y se procede como sigue:
3 X2 + 2Y2 < 13,950
3 (0)2 + 2Y2 < 13,950
Y2 < 13,950 / 2
Y2 < 6,975
Y < 6,975
Y < 83.51
De acuerdo con el procedimiento por el método grafico de programación lineal, se
debe dibujar en un plano cartesiano cada una de las restricciones formuladas

4
matemáticamente, de esa forma se representa como se muestra en el grafico
siguiente la restricción considerada para este ejemplo:

Como podemos observar, la restricción se representa por una curva convexa, por
lo que la función objetivo es cóncava.

3.2 Ilustración grafica de problemas de programación no lineal.

Cuando un problema de programación no lineal tiene solo una o dos variables,


se puede representar gráficamente. Una representación gráfica de este tipo proporciona
una visión global de las propiedades de las soluciones optimas de programación lineal y
no lineal.
La siguiente figura muestra un problema en el que la segunda y
tercera restricciones funcionales se sustituyen por la restricción no lineal 9x12+ 5x22≤ 216.
La solución es (x1, x2) = (2,6).
Se observa que se encuentra sobre la región factible, pero no es una solución factible en
vértice (fev). La solución óptima pudo haber sido una solución fev con una función objetivo
diferente, pero que no necesite serlo significa que ya no se puede aprovechar la gran
simplicidad utilizada en programación lineal que permite limitar la búsqueda de una
solución óptima para las soluciones fev.

5
Ahora suponga que las restricciones lineales se conservan sin cambio, pero la
función objetivo se hace no lineal.

Entonces la gráfica de la figura anterior indica que la solución óptima es x1= 8/3 y x2= 5,
que de nuevo se encuentra en frontera de la región factible. (El valor óptimo de z es
z=857; así en la figura muestra el hecho de que el lugar geométrico de todos los puntos
para los que z=857 tiene en común con la región factible solo este punto, mientras que el
lugar geométrico de los puntos con z más grande no toca la región factible en ningún
punto.)
por otro lado, si,

Entonces en la siguiente figura se ilustra que la solución óptima es (x1,x2)= (3,3), que se
encuentra dentro de la frontera de la región factible. (se puede comprobar que esta
solución es óptima si se usa calculo para derivarla como un máximo global no restringido;
como también satisface las restricciones, debe ser óptima para el problema restringido.)
Por lo tanto, es necesario que un algoritmo general para resolver problemas de este tipo
tome en cuenta todas las soluciones en la región factible, y no solo aquellas que están
sobre la frontera.

6
Otra complicación que surge en programación no lineal son los máximos globales (las
soluciones optima globales).
Por ejemplo:
Consideremos la función de una sola variable graficada como se muestra en la siguiente
figura.

en el intervalo 0≤x≤5 esta función tiene tres máximos locales –x =0, x=2, x=4 –pero solo
uno de estos – x=4 es un máximo global. De igual manera, existen mínimos locales en
x=1,3 y 5, pero solo x=5 es un mínimo global.
En general, los algoritmos de programación no lineal no pueden distinguir entre un
máximo local y máximo global (excepto si encuentran otro máximo local mejor), por lo que
es determinante conocer las condiciones bajo las que se garantiza que un máximo local
es un máximo global en la región factible. Recuerde que en calculo, cuando se maximiza
una función ordinaria (doblemente diferenciable) de una sola variable f(x)sin restricciones,
esta garantía está dada cuando:

7
Una función de este tipo cuya curvatura siempre es “hacia abajo” o que no tiene curvatura
se llama cóncava. cuando tiene curvatura “hacia arriba” se llama función convexa.

Las funciones de variables múltiples también se pueden caracterizar como cóncavas o


convexas si su curvatura es siempre hacia abajo o hacia arriba.
La siguiente es una forma conveniente de verificar esto para una función de más de dos
variables cuando la función consiste en una suma de funciones más pequeñas cada una
de sólo una o dos variables. Si cada función más pequeña es cóncava, entonces la
función completa es cóncava. De manera similar, la función completa es convexa si cada
función más pequeña es convexa.

La suma de las dos funciones más pequeñas dadas en los paréntesis cuadrados. La
primera función más pequeña 4x1-x21 es una función de la variable xx nada más, por lo que
puede verse que es cóncava si se observa que su segunda derivada es negativa. La
segunda función más pequeña -(x2–x3)2 es una función de x2 y por lo que se puede aplicar
la prueba para funciones de dos variables. De hecho, se usa esta función en particular
para ilustrar la prueba y encontrar que la función es cóncava. Como las dos funciones
más pequeñas son cóncavas, la función completa f (jVj ,x2,x3) debe ser cóncava.
Si un problema de programación no lineal no tiene restricciones, el hecho de que la
función objetivo sea cóncava garantiza que un máximo local es un máximo global. (De
igual manera, una función objetivo convexa asegura que un mínimo local es un mínimo
global.) Si existen restricciones, entonces se necesita una condición más para dar esta
garantía, a saber, que la región factible sea un conjunto convexo.

8
En general la región factible para un problema de programación no lineal es un conjunto
convexo siempre que todas las funciones g¡(x) [para las restricciones g (x) < b] sean
convexas. Para el ejemplo de la figura 13.5, las dos gt (x) son convexas, ya que gx(x)=xx
(una función lineal es automáticamente cóncava y convexa) y g2 (x) = 9x|+ 5x| (tanto 9x|
como 5x2 son funciones convexas, por lo que su suma es una función convexa). Estas
dos funciones convexas g¡ (x) conducen a que la región factible de la figura 13.5 sea un
conjunto convexo.

3.3 Tipos de problemas de programación no lineal.

Los problemas de programación no lineal se presentan de muchas formas distintas. Al


contrario del método simplex para programación lineal, no se dispone de un algoritmo que
resuelva todos estos tipos especiales de problemas. En su lugar, se han desarrollado
algoritmos para algunas clases de problemas de programación no lineal.
Se introducirán las clases más importantes y después se describirá cómo se pueden
resolver algunos de estos problemas.
Si la función objetivo f es lineal y el espacio restringido es un politopo, el problema es de
Programación lineal y puede resolverse utilizando alguno de los bien conocidos algoritmos
de programación lineal.
Si la función objetivo es cóncava (problema de maximización), o convexa (problema de
minimización) y el conjunto de restricciones es convexo, entonces se puede utilizar el
método general de Optimización convexa.
Existe una variedad de métodos para resolver problemas no convexos.
Uno de ellos consiste en utilizar formulaciones especiales de problemas de programación
lineal.

Optimización no restringida
Los problemas de optimización no restringida no tienen restricciones, por lo que la función
objetivo es sencillamente maximizar /(x)
sobre todos los valores x= (jíj, x2,…,xn) la condición necesaria para que una solución
específica x = x* sea óptima cuando /(x) es una función diferenciable es:

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de
x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las n
derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no
lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco
probable que se pueda obtener una solución analítica simultánea.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición
necesaria (y tal vez) suficiente anterior cambia ligeramente a para cada j de este tipo.

9
Optimización linealmente restringida
Los problemas de optimización linealmente restringida se caracterizan por restricciones
que se ajustan por completo a la programación lineal, de manera que todas las funciones
de restricción g¡ (x) son lineales, pero la función objetivo es no lineal. El problema se
simplifica mucho si sólo se tiene que tomar en cuenta una función no lineal junto con una
región factible de programación lineal. Se han desarrollado varios algoritmos especiales
basados en una extensión del método simplex para analizar la función objetivo no lineal.
Un caso especial importante descrito a continuación es la programación cuadrática.

Programación cuadrática
De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero
ahora la función objetivo /(x) debe ser cuadrática. Entonces, la única diferencia entre
éstos y un problema de programación lineal es que algunos términos de la función
objetivo incluyen el cuadrado de una variable o el producto de dos variables.

Programación convexa
La programación convexa abarca una amplia clase de problemas, entre ellos como casos
especiales, están todos los tipos anteriores cuando /(x) es cóncava. Las suposiciones son
1. /(x) es cóncava.
2. Cada una de las g(x) es convexa.

Programación separable
La programación separable es un caso especial de programación convexa, en donde la
suposición adicional es:
Todas las funciones / ( x ) y g¡(x) son funciones separables.
Una función separable es una función en la que cada término incluye una sola variable,
por lo que la función se puede separar en una suma de funciones de variables
individuales. Por ejemplo, si /(x) es una función separable, se puede expresar como:

en donde cada / • (Xj) incluye sólo los términos con Xj. En la terminología de
programación lineal los problemas de programación separable satisfacen las suposiciones
de aditividad, pero no las de proporcionalidad (para funciones no lineales).

Programación no convexa

La programación no convexa incluye todos los problemas de programación no lineal que


no satisfacen las suposiciones de programación convexa. En este caso, aun cuando se
tenga éxito
en encontrar un máximo local, no hay garantía de que sea también un máximo global. Por
lo
tanto, no se tiene un algoritmo que garantice encontrar una solución óptima para todos
estos

10
problemas; pero sí existen algunos algoritmos bastante adecuados para encontrar
máximos locales, en especial cuando las formas de las funciones no lineales no se
desvían demasiado de aquellas que se supusieron para programación convexa.

Programación geométrica

Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas


veces la función objetivo y las funciones de restricción toman la forma:

En tales casos, las ci y a ty representan las constantes físicas y las x} son las variables de
diseño.
Estas funciones por lo general no son ni cóncavas ni convexas, por lo que las técnicas de
programación convexa no se pueden aplicar directamente a estos problemas de
programación geométrica.
Sin embargo, existe un caso importante en el que el problema se puede transformar en un
problema de programación convexa equivalente. Este caso es aquel en el que todos los
coeficientes en cada función son estrictamente positivos, es decir, las funciones son
polinomios

positivos generalizados (ahora llamados polinomiales), y la función objetivo se tiene que


minimizar. El problema equivalente de programación convexa con variables de decisión
yx,y2,…, yn se obtiene entonces al establecer Xj = ey\ para;’ = l , 2 , . . . ,n en todo el
modelo original. Ahora se puede aplicar un algoritmo de programación convexa. Se ha
desarrollado otro procedimiento de solución para resolver estos problemas.

Problema de complementariedad
La solución de ciertos problemas de programación no lineal se puede reducir a resolver el
problema de complementariedad. Dadas las variables wy,w2,…,wp y el problema de
complementariedad encuentra unas o l u c i o n a r á para el conjunto de restricciones que
también satisface la restricción de complementariedad, wr z = 0 .
Aquí, w y z son vectores columna, F es una función con valores vectoriales dada y el
superíndice
T denota la traspuesta. El problema no tiene función objetivo, de manera que
técnicamente no es un problema de, programación no lineal completo. Se llama problema
de complementariedad por las relaciones complementarias que establecen que una de las
dos wi = Ó o zi = 0 (o ambas) para cada i = 1, 2,…,.

11
3.4 Optimización clásica

La teoría de optimización clásica o programación matemática está constituida por un


conjunto de resultados y métodos analíticos y numéricos enfocados a encontrar e
identificar al mejor candidato de entre una colección de alternativas, sin tener que
enumerar y evaluar explícitamente todas esas alternativas. Un problema de optimización
es, en general, un problema de decisión.

Ejemplo 1.- Construcción de una caja con volumen máximo) Supongamos que queremos
determinar las dimensiones de una caja rectangular de forma que contenga el mayor
volumen posible, pero utilizando para ello una cantidad fija de material. El problema en
forma abstracta se podría plantear en los siguientes términos Maximizar Volumen de la
caja sujeto a Área lateral fija Con el fin de resolver este problema habrá que modelizarlo
matemáticamente, es decir tendremos que expresarlo en términos matemáticos.

El primer paso para modelizar un problema de optimización es identificar y definir las


variables que están implicadas en dicho problema, en este caso y puesto que estamos
tratando de determinar el tamaño de una caja rectangular, la opción más clara es
considerar como variables sus tres dimensiones rectangulares usuales (ancho, largo, alto)
y que representamos con x, y, z. Con estas variables, la función para la que tenemos que
encontrar el mejor valor será el volumen de la caja que puede expresarse como V (x, y, z)
= xyz.

A continuación, debemos tener en cuenta las limitaciones existentes sobre el material.


Como este material se utiliza para construir las paredes de la caja, necesitaremos
considerar el área lateral de la misma, y si la caja tiene tapa, dicha área será A (x, y, z)=
2(xy + yz + zx).

Por último, teniendo en cuenta que las dimensiones de la caja no pueden ser negativas el
problema puede expresarse matemáticamente como Maximizar xyz sujeto a 2 (xy + yz +
zx) = A x, y, z ≥ 0.

Fundamentos de Optimización

En este ejemplo se distinguen tres elementos fundamentales: las variables del problema,
una función de esas variables y un conjunto de relaciones que deben cumplir las variables
del problema. Estos elementos se repetirán en todos los problemas de optimización y se
definen formalmente a continuación:
1.- Variables de decisión: El primer elemento clave en la formulación de problemas de
optimización es la selección de las variables independientes que sean adecuadas para
caracterizar los posibles diseños candidatos y las condiciones de funcionamiento del
sistema. Como variables independientes se suelen elegir aquellas que tienen un impacto
significativo sobre la función objetivo.

Representaremos las variables independientes se representarán mediante vectores


columna de Rn x = x1 . . . + xn o vectores fila xt= (x1,...,xn) Aunque para los casos n = 1,
2 y 3 se emplearán las notaciones usuales de x, (x, y) y (x, y, z) respectivamente.

2.- Restricciones: Una vez determinadas las variables independientes, el siguiente paso
es establecer, mediante ecuaciones o inecuaciones las relaciones existentes entre las
variables de decisión. Estas relaciones son debidas, entre otras razones, a limitaciones en

12
el sistema, a leyes naturales o a limitaciones tecnológicas y son las llamadas restricciones
del sistema. Podemos distinguir dos tipos de restricciones:

(a) Restricciones de igualdad: Son ecuaciones entre las variables de la forma h (x) = h
(x1,....xn)=0 donde g : A ⊆ Rn → R es una función real de variables reales definida sobre
un conjunto A de números reales.

(b) Restricciones de desigualdad: Son inecuaciones entre las variables de la forma g (x) =
g(x1,....xn) ≤ 0 donde A : C ⊆ Rn → R es una función real de variables reales definida
sobre un conjunto A de números reales.

Observación: Solamente se han considerado restricciones de dos tipos: restricciones de


igualdad del forma h (x1,....xn)=0 y restricciones de desigualdad de la forma g(x1,....xn) ≤
0, debido a que siempre es posible, mediante una simple transformación, expresar el
problema en términos de esta clase de restricciones.

Función objetivo: Finalmente, el último ingrediente de un problema de optimización es la


función objetivo, también llamado índice de rendimiento o criterio de elección. Este es el
elemento utilizado para decidir los valores adecuados de las variables de decisión que
resuelven el problema de optimización. La función objetivo permite determinar los mejores
valores para las variables de decisión. Independientemente del criterio seleccionado,
dentro del contexto de la optimización matemática el adjetivo “mejor” siempre indica los
valores de las variables de decisión que producen el mínimo o máximo valor (según el
criterio utilizado) de la función objetivo elegida. Algunos de estos criterios pueden ser por
ejemplo de tipo económico (coste total, beneficio), de tipo tecnológico (energía mínima,
máxima capacidad de carga, máxima tasa de producción) o de tipo temporal (tiempo de
producción mínimo) entre otros.

13
3.4.1 Puntos de inflexión

Un punto de inflexión es un punto donde los valores de x de una función continua pasan
de un tipo de concavidad a otra. La curva "atraviesa" la tangente.
Matemáticamente la derivada segunda de la función f en el punto de inflexión es cero, o
no existe.

Cálculo de los puntos de inflexión en funciones reales derivables de variable real


En las funciones derivables reales de una variable real, para hallar estos puntos de
inflexión, basta con igualar la segunda derivada de la función a cero y despejar. Los
puntos obtenidos deberán ser sustituidos en la derivada tercera o sucesiva hasta que nos
dé un valor diferente de cero. Cuando esto suceda, si la derivada para la que es distinto
de cero es impar, se trata de un punto de inflexión; pero, si se trata de derivada par, no lo
es.

Más concretamente:

1. Se halla la primera derivada de


2. Se halla la segunda derivada de
3. Se halla la tercera derivada de
4. Se iguala la segunda derivada a 0:
5. Se despeja la variable independiente y se obtienen todos los valores posibles de la
misma.
6. Se halla la imagen de cada sustituyendo la variable dependiente en la función.
7. Ahora, en la tercera derivada, se sustituye cada:
1. Si, se tiene un punto de inflexión en.
2. Si, debemos sustituir en las sucesivas derivadas hasta sea distinto de cero. Cuando
se halle la derivada para la que no sea nulo, hay que ver qué derivada es:
1. Si la derivada es impar, se trata de un punto de inflexión.
2. Si la derivada es par, no se trata de un punto de inflexión.
La ecuación no tiene puntos de inflexión, porque la derivada segunda es siempre mayor o
igual a cero, por tanto, no hay cambio de concavidad dado que es no negativa en todo su
dominio. Sin embargo, en la derivada segunda se anula y la primera derivada no nula en
es la derivada cuarta, que es par. Obsérvese que tampoco presenta un extremo.

Se define un punto de inflexión como el punto en que la función pasa de ser convexa a
cóncava o de cóncava a convexa.
En la siguiente gráfica podemos ver que cuando x = 0, la gráfica pasa de ser cóncava a
ser convexa, por lo que podemos decir que el punto de inflexión está en X = 0.

14
Una característica de los puntos de inflexión es que son los puntos donde la función
derivada tiene máximos y mínimos. Si nos fijamos, cuando nos acercamos a un punto de
inflexión la función cada vez crece más (o decrece menos), pero al sobrepasar el punto de
inflexión la función empieza a crecer menos (o decrecer menos). Esto significa que
justamente donde haya un punto de inflexión la derivada tendrá un máximo o un mínimo.
Consecuentemente encontraremos los puntos de inflexión buscando ceros de la segunda
derivada.

Vamos a ilustrar el proceso con un ejemplo para así dar una explicación simple y clara:
Consideraremos la función F(x) = x³ - 3x (es la función representada en la anterior
gráfica).
Sabemos ya calcular los máximos y los mínimos de la función f(x) usando la primera
derivada. La expresión de ésta es 3x² - 3 y justamente encontramos máximos y mínimos
respectivamente en x = -14 y x = 1. Si representamos la gráfica de la derivada queda:

Observamos que justamente donde la derivada tiene un mínimo es donde la función tiene
el punto de inflexión.

Para saber qué punto es vamos a derivar la función derivada e igualarla a cero: F´´(x) =
6x=0 = x = 0/6 = 0, y por tanto la función original en x = 0 tiene un punto de inflexión.

15
3.4.2 Máximos y mínimos

El punto minimax de la función lagrangiana es otro concepto relacionado con la solución


de un problema de optimización. Si bien su definición no le hace útil a la hora de la
resolución directa del problema, sí constituye un paso intermedio muy importante en la
obtención del problema dual, que estudiaremos más adelante. En esta sección definimos
dicho punto y estudiamos su relación con otro concepto, el punto de silla de la
lagrangiana.
La relación del punto minimax con la solución del problema de programación no lineal se
obtiene de forma inmediata sin más que tener en cuenta que:
Min L (x, ë ) = f (x) − Max ët [g(x) − b]R m+R m+
Si gi (x) – bi ≤ 0, entonces ëi [gi(x) - bi] ≤ 0, luego
Max ëi ( gi (x) − bi ) = 0R m+ (se alcanza en ë = 0). Por tanto, si x ∈ X, Min L (x, ë ) = f
(x) .R m+ Si gi (x) – bi > 0, entonces Sup ëi [gi(x) - bi] = ∞, por lo que en este caso no se
alcanza el R m+ mínimo de la Lagrangiana.
Por tanto,
Max Min L (x, ë ) = Max f (x) D R m+ X
Así pues, si (x0, ë0) es un punto minimax, x0 es una solución óptima del problema
original.

Los máximos y mínimos de una función son los valores más grandes o más pequeños de
ésta, ya sea en una región o en todo el dominio.
Los máximos y mínimos en una función f son los valores más grandes (máximos) o más
pequeños (mínimos) que toma la función, ya sea en una región (extremos relativos) o en
todo su dominio (extremos absolutos).

16

También podría gustarte