Está en la página 1de 18

1.

Contextualización de la optimización
Optimización de procesos Página 1
matemática de procesos

1. CONTEXTUALIZACIÓN DE LA OPTIMIZACIÓN
MATEMÁTICA DE PROCESOS
Johanny Franchesco Niño Fonseca

Desde siempre, la inteligencia ha impulsado al ser humano a buscar la optimización;


esto es, obtener más con menos, aumentar la ganancia y reducir tiempos de
producción. Desde la década de 1940, la optimización también se ha conocido como
programación matemática (el término “programación” no hace referencia a un
programa computacional, sino a la búsqueda metódica de la mejor opción).

Los métodos actuales de optimización matemática tienen origen en los tiempos de la


Segunda Guerra Mundial. El primer computador para procesamiento de datos se
utilizó en la Universidad de Pennsylvania en 1945, solo un año antes del desarrollo del
método simplex. Posteriormente, en 1952, se llevó a cabo la primera solución de un
problema de programación lineal (LP, por dos de sus iniciales en inglés) mediante el
uso de un computador, en la Oficina Nacional de Estándares (National Bureau of
Standards) de Estados Unidos. En la década de 1960 se desarrollaron varios métodos
para solucionar problemas no lineales; y en el decenio siguiente se desarrolló la
técnica de programación cuadrática secuencial (SQP, por sus iniciales en inglés).

En la actualidad existen dos tipos de problemas en el ámbito industrial: unos de


solución conocida y otros de solución desconocida. Los primeros pueden resolverse
con base en información hallada en libros y revistas técnicas, o con apoyo del
conocimiento de expertos en el área. En tales casos, la resolución sigue un camino
convencional: a partir de la solución estándar, el ingeniero desarrolla —por cálculo—
una solución particular adaptada al problema específico. Puede decirse, entonces, que
esta es una vía de solución inercial basada en la experiencia existente. Sin embargo, el
estudio apropiado del problema y las soluciones existentes hace factible desarrollar
pequeñas mejoras (y de modo excepcional, mejoras importantes) en torno de
problemas diversos; aún más, en ciertos casos se busca aprovechar otros principios
para dar lugar a un cambio mayor en la solución.

Un ingeniero puede seguir dos caminos para solucionar un problema, aportando en


mayor o menor medida una dosis de creatividad:

• Optimizar las soluciones existentes, buscando mejorarlas.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
1. Contextualización de la optimización
Optimización de procesos Página 2
matemática de procesos

• Innovar, planteando diferentes alternativas de solución.

Sin duda, el primer camino resulta más sencillo, por cuanto es aplicable en cualquiera
de las fases del ciclo de vida del producto: puede limitarse solo al rediseño de alguna
parte, o bien a plantear cambios en el proceso de manufactura. En muchos casos, el
simple cambio de valor de un componente hace posible obtener una mejora notable
en el desempeño de un circuito.

La condición óptima se obtiene al indagar qué tan cerca se está del ideal de producto,
valorando los siguientes efectos:

• Efectos indeseados: alto costo, altos rechazos, altas temperaturas, alta tasa de
fallas, gran volumen, entre otros.
• Efectos deseados: larga vida útil, alta eficiencia, alta capacidad de disipación de
calor y mejores prestaciones en general.

En este punto es necesario encauzar el proyecto para minimizar los efectos indeseados
y maximizar los deseados, aprovechando los grados de libertad disponibles: la relación
entre ambos determina un factor de ideal del producto —o “idealidad”— al que
debería acercarse la solución.

Una solución ideal no siempre es posible: su búsqueda podría llegar a ser tan compleja
que es mejor optar por una solución aceptable. Además, el desarrollo de proyectos
suele acomodarse a cronogramas ajustados, por lo que la toma de decisiones debe ser
rápida y puede resultar difícil examinar todas las alternativas. En este caso, debe
establecerse bajo algún criterio si los beneficios que resultan de una optimización
compensan los esfuerzos necesarios para su logro.

La expresión “la meta de un ingeniero de procesos es desarrollar el mejor sistema


posible de acuerdo con los recursos asignados para cumplir con el objetivo inicial
establecido” es común en el ámbito industrial. En este sentido, la frase “mejor sistema
posible” lleva implícitos los dos elementos más importantes del proceso de
optimización, que siempre deberán tenerse presentes:

• La existencia de un criterio para establecer que un sistema es mejor que otro.


Cuando este no se encuentre explícito en los requerimientos, deberá obtenerse
como parte del proceso de diseño.
• La existencia de alternativas o grados de libertad.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
1. Contextualización de la optimización
Optimización de procesos Página 3
matemática de procesos

Bibliografía básica (obligatoria)

Goberna, M. (2009). Programación lineal. Barcelona: McGraw-Hill.

Martínez, E. (2002). Propuestas críticas y creativas para vivir en la nueva sociedad


mediática. Ágora digital, 3, 1-23.

Sabino, C. (1992). El proceso de investigación. Caracas: Panapo.

Tovar, A. (2007). Introducción al diseño óptimo en ingeniería. Bogotá.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 2. Formulación de modelos de optimización Página 1

2. FORMULACIÓN DE MODELOS DE OPTIMIZACIÓN


Johanny Franchesco Niño Fonseca

Enfrentar cualquier problema de optimización requiere identificar cuatro componentes


básicos, necesarios para encontrar la solución óptima:

• Conjunto de información o variación del desempeño.


• Variables involucradas en el problema (estableciéndose los dominios factibles
para cada una).
• Restricciones del problema: condiciones que definen o acotan el conjunto de
soluciones factibles.
• Función objetivo (aquella que requiere optimizarse).

A continuación se mostrarán dos casos típicos que pueden resolverse si se plantean


como problemas de optimización, cuyos componentes bastarían para solucionarlos.

2.1. Caso I: problema del transporte

Una empresa comercializadora distribuye un producto a varias ciudades; diversas


fábricas lo compran según su nivel de productividad. Es necesario determinar las
cantidades óptimas de producto que la empresa debe comprar a cada fábrica para
satisfacer la demanda de sus clientes.

a) Conjunto de información

A: número de fábricas.
B: número de clientes.
Ui: cantidad de producto que se debe comprar a la fábrica i.
Vj: cantidad de producto requerido por el cliente j.
Cij: costo de envío por unidad de producto desde la fábrica i hasta el cliente j.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 2. Formulación de modelos de optimización Página 2

b) Variables

Xij: cantidad de producto que se envía desde la fábrica i hasta el cliente j. Aunque en
principio sería posible suponer que la variable Xij debe ser positiva en este caso, el
hecho de que el producto pase por diversas fábricas antes de llegar al cliente podría
hacer que resultara positiva (no es muy frecuente). Empero, la situación anterior no es
frecuente.

c) Restricciones

𝐵𝐵

� 𝑋𝑋𝑖𝑖𝑖𝑖 = 𝑈𝑈𝑖𝑖 , para 𝑖𝑖 = 1, … 𝐴𝐴


𝑗𝑗 =1

𝐴𝐴

� 𝑋𝑋𝑖𝑖𝑖𝑖 = 𝑉𝑉𝑗𝑗 , para 𝑗𝑗 = 1, … B


𝑖𝑖=1

El primer conjunto de condiciones asegura que el total recibido en el destino j debe


corresponder a la suma de todas las cantidades que llegan a ese destino y parten de los
distintos orígenes (i = 1,…, A). El segundo señala que la cantidad del producto que
parte de la fábrica i debe coincidir con la suma de las cantidades que parten de esa
fábrica hasta los distintos clientes (j = 1,…, B).

d) Función objetivo

Vistos los componentes anteriores, resulta claro que se desea minimizar el costo total
de envío de los productos; es decir, la suma de los costos de envío multiplicada por la
cantidad a enviar. La ecuación resultante es la siguiente:

𝐵𝐵 𝐴𝐴

𝑍𝑍 = � � 𝐶𝐶𝑖𝑖𝑖𝑖 𝑋𝑋𝑖𝑖𝑖𝑖
𝑗𝑗 =1 𝑖𝑖=1

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 2. Formulación de modelos de optimización Página 3

2.2. Caso II: problema de la dieta

Al involucrarse en temas de salud pública, los nutricionistas observan dos factores que
influyen en la mala alimentación de los niños:

• Los niños consumen alimentos que no cumplen con ciertas condiciones


nutritivas de forma desorganizada.
• En algunos hogares, la situación económica y el costo de los alimentos hacen
que el presupuesto para la comida sea muy bajo.

Supóngase que se conocen los contenidos nutritivos, los precios y la cantidad mínima
de nutrientes aconsejada respecto de ciertos alimentos indispensables en la canasta
familiar. Se requiere entonces determinar la cantidad y tipo de alimento por persona
que debe comprarse para satisfacer los mínimos aconsejados y alcanzar un precio total
mínimo.

a) Conjunto de información

A: número de alimentos.
B: número de nutrientes.
Cij: la cantidad de nutriente i en el alimento j.
Di: cantidad mínima del nutriente i recomendada.
Ej: precio de la unidad del alimento j.

b) Variables

Xj: cantidad del alimento j que se debe suministrar.

c) Restricciones

La cantidad de un nutriente dado se establece como la suma de nutrientes en un


alimento multiplicada por la cantidad de ese alimento y además, la cantidad de
alimento debe ser positiva, entonces:

𝐴𝐴

� 𝐶𝐶𝑖𝑖𝑖𝑖 𝑋𝑋𝑗𝑗 ≥ 𝐷𝐷𝑖𝑖 ; para 𝑖𝑖 = 1, … , 𝑚𝑚


𝑗𝑗 =1
𝑋𝑋𝑗𝑗 ≥ 0; para 𝑗𝑗 = 1, … , 𝑛𝑛

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 2. Formulación de modelos de optimización Página 4

d) Función objetivo

Considerando que se desea minimizar el costo total de la dieta, la ecuación resultante


es la siguiente:

𝐴𝐴

𝑍𝑍 = � 𝐸𝐸𝑗𝑗 𝑋𝑋𝑗𝑗
𝑗𝑗 =1

Bibliografía básica (obligatoria)

Biegler, L. T. (2010). Nonlinear Programming: Concepts, Algorithms, and Applications


to Chemical Processes. Filadefia: Society for Industrial and Applied Mathematics.

Goberna, M. (2009). Optimización lineal. Teoría, métodos y modelos. Barcelona:


McGraw-Hill Interamericana S.L.

Tovar, A. (2007). Introducción al diseño óptimo en ingeniería. Bogotá.

Bibliografía complementaria

Arora, J. (2004). Optimum Design Problem Formulation. En J. Arora (Ed.), Introduction


to Optimum Design (pp. 15-46). San Diego: Elsevier Academic Press.

Mora, H. (2001). Condiciones de Karush – Kuhn – Tucker. En H. Mora (Ed.),


Optimización no lineal y dinámica. Bogotá: Universidad Nacional de Colombia.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 1

3. OPTIMIZACIÓN SIN RESTRICCIONES


Johanny Franchesco Niño Fonseca

3.1. Generalidades

Antes de la aparición de los supercomputadores, los métodos de optimización estaban


prácticamente limitados a los indirectos: en ellos, el cálculo del extremo potencial
estaba restringido al uso de derivadas y a las condiciones necesarias para la
optimización. En contraste, los ordenadores modernos han hecho posibles los métodos
directos; esto es, la búsqueda de un óptimo por comparación sucesiva de los valores
de la función 𝑓𝑓(𝑥𝑥) en una secuencia de puntos (x1, x2, x3…), sin la necesidad de hacer
intervenir derivadas analíticas.

Los métodos indirectos tienen la ventaja inherente de que la convergencia suele ser
más rápida aun cuando se utilicen métodos numéricos para calcular las derivadas. Sin
embargo, en problemas de ingeniería esta ventaja se ve neutralizada por la falta de
interés de determinaciones precisas de la función objetivo, debido a la falta de
precisión de los coeficientes que se emplean con frecuencia. Los métodos numéricos
directos, por su parte, tienen la ventaja de que pueden tratar fácilmente con
problemas que incluyan discontinuidades, puntos de inflexión y puntos finales;
además, el carácter de 𝑓𝑓(𝑥𝑥) en las vecindades de un extremo puede estudiarse con
facilidad. Para llevar a cabo los métodos directos de minimización numérica solo se
usa el valor de la función objetivo: se comienza con un valor inicial 𝑥𝑥 y luego siguen
seleccionándose valores de 𝑥𝑥 según una estrategia preseleccionada.

Para resolver un problema de optimización no lineal sin restricciones bastaría derivar


cada una de las funciones e igualar a cero, tras lo cual aparecería un sistema de N
ecuaciones no lineales. Sin embargo, el problema así planteado podría ser incluso más
difícil que el problema de optimización original. Por ello, muchos autores prefieren
resolver el problema de optimización por métodos directos, empleando algunas de las
técnicas que se examinarán en próximas secciones.

Aplicar los métodos de búsqueda supone comenzar por acotar el punto donde se
encuentra el óptimo y asegurarse de que la función es unimodal (función en la cual
existe un valor 𝑀𝑀 tal que para 𝑥𝑥 ≤ 𝑀𝑀 la función es decreciente y para 𝑥𝑥 ≥ 𝑀𝑀 es
creciente) en el intervalo considerado. Aunque resulta muy difícil determinar a priori si
una función es unimodal o no, ese rasgo se presenta en muchos casos prácticos. Con

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 2

lo anterior, un método de optimización para una variable única podría consistir en


dividir el intervalo de búsqueda en una rejilla (número de intervalos) y calcular la
función objetivo en cada uno de sus puntos: el óptimo será el mejor de todos los
valores obtenidos. Es casi imposible, sin embargo, llevar a la práctica estos métodos en
un espacio múltiple de variables. Así entonces, seleccionar el método de optimización
requiere alcanzar un compromiso entre la complejidad del procedimiento y el número
total de evaluaciones que deben realizarse.

Los algoritmos para la optimización no lineal sin restricciones con múltiples variables se
clasifican en tres grupos: 1) búsqueda sin el uso de derivadas; 2) búsqueda usando
información de la derivada primera; y 3) búsqueda usando información de la derivada
segunda. A este respecto, ejemplos típicos de algoritmos que no usan derivadas son el
método simplex, el algoritmo de Hooke y Jeeves, el método de Rosenbrock y el
método de las direcciones conjugadas.

Entre los algoritmos que usan información del gradiente se encuentran el método de
máximo descenso, el método del gradiente conjugado y los métodos cuasi Newton. El
primero realiza una búsqueda a lo largo de la dirección opuesta al gradiente para
minimizar la función; el segundo combina la información del último gradiente con la
información de gradientes de iteraciones previas; y los terceros construyen una
aproximación de la curvatura de la función no lineal utilizando solo información del
gradiente, evitando por lo tanto calcular de forma explícita la matriz hessiana. En los
métodos cuasi Newton, la inversa de la matriz hessiana premultiplica la dirección de
máximo descenso y se halla una dirección adecuada usando una aproximación
cuadrática de la función objetivo.

3.2. Optimización de funciones de una variable

Cuando se estudia el concepto de derivada, la primera aplicación que se presenta está


dirigida a la maximización o minimización de funciones. Así entonces, supóngase que
𝑦𝑦 = 𝑓𝑓(𝑥𝑥) es una función y se desea conocer los valores mayor y menor que 𝑦𝑦 para 𝑥𝑥
en algún dominio conocido. En la mayor parte de los casos, los valores máximo o
mínimo se encuentran en un punto de silla, que es un máximo o mínimo local. Utilizar
una buena técnica de optimización de funciones de una única variable es fundamental
por tres razones, cuando menos:

• En muchos problemas es posible incluir las restricciones dentro de la función


objetivo, razón por la cual la dimensión del problema se reduce a una variable.
• Algunos problemas sin restricciones incluyen de forma inherente una variable
única.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 3

• Las técnicas de optimización con y sin restricciones suelen incluir pasos de


búsqueda unidireccional en sus algoritmos.

a) Clasificación de los puntos óptimos

Mínimo local. Un punto es un mínimo local si 𝑓𝑓(𝑥𝑥 ∗ ) ≤ 𝑓𝑓(𝑥𝑥) para todo 𝑥𝑥 en el


vecindario δ de 𝑥𝑥 ∗ . De modo informal, puede decirse que un mínimo local es un
punto cuya imagen 𝑓𝑓(𝑥𝑥 ∗ ) es un mínimo para un intervalo específico. Es factible que
exista más de un punto mínimo local dentro del mismo intervalo.

Mínimo local estricto. Un punto es un mínimo local estricto si 𝑓𝑓(𝑥𝑥 ∗ ) < 𝑓𝑓(𝑥𝑥) para
todo 𝑥𝑥 en el vecindario δ de 𝑥𝑥 ∗ .

Mínimo global. Un punto es un mínimo global si 𝑓𝑓(𝑥𝑥 ∗ ) < 𝑓𝑓(𝑥𝑥) para todo 𝑥𝑥 la región
factible de 𝑥𝑥 ∗ . De modo informal, es posible considerar que este mínimo es único y no
existe bajo el dominio de 𝑥𝑥 un punto cuya imagen 𝑓𝑓(𝑥𝑥) sea menor que 𝑓𝑓(𝑥𝑥 ∗ ).

b) Condición necesaria para establecer un mínimo local

Si la función objetivo 𝑓𝑓 es de clase C1 (derivable por lo menos una vez), una condición
𝑑𝑑
necesaria para que 𝑥𝑥 ∗ sea un mínimo local de 𝑓𝑓 es 𝑓𝑓(𝑥𝑥 ∗ ) = 0, donde 𝑓𝑓(𝑥𝑥) = 𝑓𝑓(𝑥𝑥).
𝑑𝑑𝑑𝑑
Dicho en otros términos, la pendiente de la función en el punto 𝑥𝑥 ∗ es cero. El punto
que satisface esta condición se denomina estacionario y puede ser mínimo, máximo o
de inflexión.

c) Condición suficiente

Si la función objetivo 𝑓𝑓 es de clase C2 (derivable dos veces, cuando menos), una


condición suficiente para que 𝑥𝑥 ∗ sea un mínimo local de 𝑓𝑓 es 𝑓𝑓(𝑥𝑥 ∗ ) > 0, donde
𝑑𝑑 2
𝑓𝑓(𝑥𝑥) = 2 𝑓𝑓(𝑥𝑥). Si 𝑓𝑓(𝑥𝑥 ∗ ) < 0, el punto 𝑥𝑥 ∗ se denomina máximo local. Ahora bien, si
𝑑𝑑𝑥𝑥
𝑓𝑓(𝑥𝑥 ∗ ) = 0, se deben evaluar las siguientes derivadas para determinar la naturaleza del
punto; es decir, si 𝑓𝑓 (𝑛𝑛) (𝑥𝑥 ∗ ) > 0 para un 𝑛𝑛 par, 𝑥𝑥 ∗ es un mínimo local estricto; y si
𝑓𝑓 (𝑛𝑛) (𝑥𝑥 ∗ ) ≠ 0 para 𝑚𝑚 impar, 𝑥𝑥 ∗ es un punto de inflexión.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 4

d) Localización del intervalo que contiene un mínimo

Las herramientas numéricas para hallar un mínimo local tienen dos etapas básicas. La
primera consiste en hallar un intervalo donde esté contenido el punto mínimo,
teniendo en cuenta que solo es posible hacerlo en funciones unimodales; y la segunda
es la reducción del tamaño de ese intervalo. Establecer el intervalo inicial y verificar los
siguientes exige que cada uno de ellos cumpla con la siguiente condición: deben
existir tres puntos 𝑥𝑥1 , 𝑥𝑥2 y 𝑥𝑥3 de forma que cumplan que 𝑓𝑓(𝑥𝑥1 ) ≥ 𝑓𝑓(𝑥𝑥2 ) < 𝑓𝑓(𝑥𝑥), o bien
𝑓𝑓(𝑥𝑥1 ) > 𝑓𝑓(𝑥𝑥2 ) ≤ 𝑓𝑓(𝑥𝑥3 ).

Para establecer el intervalo inicial y verificar los que siguen, en cada uno de ellos
deben existir tres puntos 𝑥𝑥1 , 𝑥𝑥2 y 𝑥𝑥3 de forma que cumplan que 𝑓𝑓(𝑥𝑥1 ) ≥ 𝑓𝑓(𝑥𝑥2 ) < 𝑓𝑓(𝑥𝑥)
o 𝑓𝑓(𝑥𝑥1 ) > 𝑓𝑓(𝑥𝑥2 ) ≤ 𝑓𝑓(𝑥𝑥3 ).

Existen métodos diversos para reducir el tamaño del intervalo (de los cuales se
examinará en detalle el primero de la lista), a saber:

• Método de Fibonacci: basado en el planteamiento hecho por Leonardo de Pisa


(1202) para estudiar la reproducción de conejos en circunstancias ideales (a
partir de ello se estableció la “serie de Fibonacci”).
• Método de Powell: basado en el supuesto de que toda función suave puede
aproximarse a una función de segundo orden. A partir de ello se encuentra el
mínimo como la aproximación cuadrática de la función.
• Método de Brent: aproxima un polinomio utilizando cinco puntos e
introduciendo uno en cada iteración.
• Método de la sección áurea: es un método de relación de reducción constante
α. La llamada “sección áurea” es un número utilizado desde la Grecia antigua
que se asocia a proporciones halladas en la naturaleza como caracoles,
nervaduras de las hojas de algunos árboles y grosor de sus ramas, entre otras.

Método de Fibonacci. Este método se basa en la “serie de Fibonacci” (véase video


sobre este tema). Esta se construye a partir de los números 1 y 2 en principio; luego, se
obtiene el siguiente término al sumar el anterior y el que lo precede:

• Primer término: 1.
• Segundo término: 2.
• Tercer término: 2 + 1 = 3.
• Cuarto término: 3 + 2 = 5.
• Quinto término: 5 + 3 = 8.
• Sexto término: 8 + 5 = 13.
• …

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 5

Para utilizar este método es preciso seguir los pasos que se muestran a continuación:

1. Establecer un intervalo de tamaño 𝐼𝐼1 , definido por [𝑥𝑥1 , 𝑥𝑥2 , 𝑥𝑥4 ], que cumpla con
la configuración 𝑓𝑓1 ≥ 𝑓𝑓2 < 𝑓𝑓4 , o bien 𝑓𝑓(𝑥𝑥1 ) > 𝑓𝑓(𝑥𝑥2 ) ≤ 𝑓𝑓(𝑥𝑥4 ).
2. Encontrar un cuarto punto 𝑥𝑥3 que satisfaga que la distancia entre |𝑥𝑥1 | y |𝑥𝑥3 |sea
igual a la existente entre |𝑥𝑥2 | y |𝑥𝑥4 |.
3. Evaluar 𝑓𝑓(𝑥𝑥3 ): si 𝑓𝑓(𝑥𝑥2 ) < 𝑓𝑓(𝑥𝑥3 ), el nuevo intervalo de tamaño 𝐼𝐼2 estará
definido por [𝑥𝑥1 , 𝑥𝑥2 , 𝑥𝑥3 ]; si 𝑓𝑓(𝑥𝑥2 ) = 𝑓𝑓(𝑥𝑥3 ) estará definido por [𝑥𝑥2 , 𝑥𝑥3 , 𝑥𝑥4 ]
(cualquiera de las dos formas es válida para definir el intervalo).
4. Evaluar de nuevo el primer paso, iniciando con ello la segunda iteración.

3.3. Optimización de funciones de más de una variable

Al igual que en las funciones de una sola variable, en aquellas con más de una variable
existen una condición necesaria y una suficiente, ligadas al gradiente y al hessiano de
la función objetivo.

a) Métodos basados en gradiente

Existen diversos métodos numéricos basados en gradiente: la mayoría de ellos requiere


un punto inicial 𝑥𝑥0 , una dirección de búsqueda 𝑑𝑑0 y un tamaño de paso ∝0 ,
definiéndose el punto optimizado como 𝑥𝑥1 = 𝑥𝑥0 + ∝0 𝑑𝑑0 . Algunos de los métodos
basados en gradiente, de los cuales se examinará el primero en razón de su eficiencia,
son los siguientes:

• Método del máximo descenso: busca la dirección de mayor crecimiento de la


función a través de un escalado en la velocidad de búsqueda, logrando
convergencia en una iteración.
• Método del gradiente conjugado: presentado por Fletcher y Reeves en 1964.
Con este método es posible encontrar el mínimo de una función de n variables
en n iteraciones.
• Método de Newton: construye una aproximación cuadrática a partir de la
función a minimizar, alrededor de un punto xk.
• Método de Newton modificado: la modificación más importante al método de
Newton radica en modificar en cada iteración el tamaño de búsqueda,
reduciéndose con ello el número de iteraciones.
• Métodos de la región de confiabilidad.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 3. Optimización sin restricciones Página 6

Método del máximo descenso. Este método, planteado por Augustin Louis Cauchy en
1847, consta de las siguientes etapas:

1. Establecer el punto de búsqueda inicial 𝑥𝑥0 .


2. Determinar el gradiente de 𝑓𝑓,∇𝑓𝑓(𝑥𝑥0 ).
3. Determinar la dirección de búsqueda 𝑑𝑑0 = −∇𝑓𝑓(𝑥𝑥).
4. Obtener 𝛼𝛼0 minimizando 𝑓𝑓(∝) = 𝑓𝑓(𝑥𝑥0 +∝ 𝑑𝑑0 ).
5. Calcular 𝑥𝑥1 = 𝑥𝑥0 + ∝ 𝑑𝑑0 y evaluar.
6. Hacer 𝑥𝑥0 = 𝑥𝑥1 e ir al paso 2.

Bibliografía básica (obligatoria)

Freund, R. (2004). Nonlinear Programming. Cambridge: MIT.

Goberna, M. (2009). Optimización lineal. Teoría, métodos y modelos. Barcelona:


McGraw-Hill Interamericana S.L.

Murty, K. (1997). Linear Complementarity, Linear and Nonlinear Programming. Berlín:


Heldermann Verlag.

Tovar, A. (2007). Introducción al diseño óptimo en ingeniería. Bogotá.

Varaiya, P. (1972). Notes on Optimization. Berkeley: Van Nostrand.

Bibliografía complementaria

Chong, E. & Zak, S. (2008). One-dimensional Search Methods. En E. K. Chong & S.


Zak (Eds.), An Introduction to Optimization (pp. 101-121). Nueva York: Wiley.

Chong, E. & Zak, S. (2008). Conjugate Direction Methods. En E. K. Chong & S. Zak
(Eds.), An Introduction to Optimization (pp. 169-182). Nueva York: Wiley.

Mora, H. (2001). Minimización en una variable. En H. Mora (Ed.) Optimización no


lineal y dinámica. Bogotá: Universidad Nacional de Colombia.

Mora, H. (2001). Minimización sin restricciones. En H. Mora (Ed.), Optimización no


lineal y dinámica. Bogotá: Universidad Nacional de Colombia.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 4. Técnicas de optimización con restricciones Página 1

4. TÉCNICAS DE OPTIMIZACIÓN CON RESTRICCIONES


Johanny Franchesco Niño Fonseca

4.1. Generalidades

Los métodos para resolver problemas de optimización con restricciones se pueden


agrupar en seis clases, que se examinarán en detalle en las próximas páginas:

• Métodos de penalización exterior.


• Métodos de penalización interior (barrera).
• Métodos de proyección de gradiente.
• Métodos de programación lineal.
• Métodos de programación no lineal.

4.2. Métodos de penalización exterior

En el método de penalización exterior se añade un término de penalización para cada


violación de las restricciones de igualdad o desigualdad. El problema se transforma
entonces en uno sin restricciones, o bien en una sucesión de problemas sin
restricciones, y se genera una secuencia de puntos no factibles. El parámetro de
penalización debe hacerse lo bastante grande para generar una secuencia de
soluciones que lleven al óptimo desde puntos no factibles.

Las funciones de penalización exterior exactas se desarrollaron para evitar el mal


condicionamiento derivado de tener que hacer el parámetro de penalización
infinitamente grande conforme se avanza hacia el óptimo. Estos métodos tratan de
conseguir el óptimo utilizando valores finitos del parámetro de penalización. Las
funciones de penalización exactas no diferenciables introducen los valores absolutos
de las restricciones de igualdad en la función objetivo; y las diferenciables suelen
definir una lagrangiana aumentada, añadiendo a la lagrangiana original términos
cuadráticos para penalizar las restricciones de igualdad y desigualdad.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 4. Técnicas de optimización con restricciones Página 2

4.3. Métodos de penalización interior (barrera)

Los métodos de barrera transforman el problema original con restricciones en una


sucesión de problemas sin restricciones, introduciendo una función de barrera que
evita la generación de puntos externos a la región factible. El límite de la secuencia de
puntos generados corresponde al óptimo del problema. Los métodos clásicos de
barrera presentan graves problemas de mal condicionamiento en las proximidades del
óptimo, aunque en años recientes se han introducido mejoras en los algoritmos con el
ánimo de evitarlos. Un ejemplo de función de barrera es aquella que introduce los
logaritmos de las desigualdades en la función objetivo.

4.4. Métodos de proyección de gradiente

Al aplicarse a problemas con restricciones lineales, estos métodos proyectan el


gradiente de la función objetivo en el espacio nulo de gradientes de las igualdades y
desigualdades activas, buscando mejorar en la dirección factible. En presencia de
restricciones no lineales, el gradiente proyectado podría no llevar a direcciones
factibles; por lo tanto, es necesario introducir alguna corrección que permita obtener
una. Los métodos de gradiente reducido emplean linealizaciones sucesivas de la
función objetivo y de las restricciones; reducen la dimensionalidad del problema a un
subconjunto reducido de variables; determinan los componentes de las variables
independientes; y expresan los gradientes y la dirección de búsqueda en términos de
las variables independientes.

4.5. Métodos de programación lineal

En cada iteración de los métodos de programación lineal sucesiva se formula un


problema de programación lineal por linealización de la función objetivo y de las
restricciones; la solución a este problema brinda una nueva dirección de búsqueda.
De modo habitual, se emplea una función de penalización exacta para aceptar o
rechazar aquellas nuevas direcciones de búsqueda que llevan a violaciones en los
límites de las variables. Esta clase de métodos tienen la ventaja de utilizar solo
problemas lineales, por lo que se recomienda usarlos cuando predominan las
restricciones lineales.

La mayoría de los problemas susceptibles de optimizarse que se encuentran en la


ingeniería incluyen restricciones en las variables y en el desempeño del proceso. Sin

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 4. Técnicas de optimización con restricciones Página 3

perder generalidad, es factible expresar un problema de optimización de la siguiente


manera:

𝑚𝑚í𝑛𝑛
𝑓𝑓(𝑥𝑥1 , 𝑥𝑥2 , … )
𝑥𝑥1 , 𝑥𝑥2 , …

𝑠𝑠. 𝑎𝑎. 𝑔𝑔𝑖𝑖 (𝑥𝑥1 , 𝑥𝑥2 , … ) ≤ 0

ℎ𝑗𝑗 (𝑥𝑥1 , 𝑥𝑥2 , … ) = 0

𝑓𝑓 es la función objetivo; 𝑥𝑥 = [𝑥𝑥1 , 𝑥𝑥2 , … ]; las funciones 𝑔𝑔𝑖𝑖 son las restricciones de
desigualdad; y las funciones ℎ𝑗𝑗 son las de igualdad. 𝑔𝑔𝑖𝑖 y ℎ𝑗𝑗 son continuas, y se asume
que tienen segunda derivada en circunstancias normales. La anterior es la forma
genérica de presentar los problemas de optimización, con miras a utilizar los métodos
convencionales. No obstante, en algunos casos se requiere hacer algunos ajustes a los
problemas para denotarlos de esta forma:

• Maximizar 𝑓𝑓(𝑥𝑥) equivale a minimizar – 𝑓𝑓(𝑥𝑥).


• Una restricción de desigualdad de la forma 𝑔𝑔𝑖𝑖 (𝑥𝑥) ≥ 0 equivale a −𝑔𝑔𝑖𝑖 (𝑥𝑥) ≤ 0.
• Una restricción del tipo menor o igual (≤) puede convertirse en una restricción
de igualdad adicionando una variable de déficit.
• Una restricción del tipo mayor o igual (≥) se convierte en una restricción de
igualdad sustrayendo una variable de superávit.

4.6. Métodos de programación no lineal

Aunque los problemas de optimización con restricciones lineales son muy comunes y
abarcan un amplio rango de aplicaciones, muchos problemas de ingeniería tienen
restricciones no lineales que deben resolverse. Las situaciones de este tipo se conocen
como problemas de programación no lineal. Algunos de los métodos para resolverlos
son los siguientes:

• Método de las direcciones factibles: fue planteado por Zoutendijk en 1960.


Aún se utiliza ampliamente por cuanto se lo considera un método de
optimización robusto. Es una extensión de los métodos de optimización sin
restricciones.
• Método del gradiente reducido generalizado: fue desarrollado por Wolfe en
1967. Con este método se empieza por convertir todas las restricciones en
igualdades, incluyendo variables de déficit.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central
Optimización de procesos 4. Técnicas de optimización con restricciones Página 4

• Método de programación lineal secuencial: convierte cada iteración en un


problema de programación lineal, mediante la “linealización” de la función
objetivo y las restricciones alrededor del punto de búsqueda actual.
• Método de programación cuadrática secuencial: forma que adopta el método
de Newton cuando hay restricciones. De forma similar al método de
programación lineal secuencial, en cada iteración se resuelve un problema de
programación cuadrática alrededor del punto de búsqueda actual.

Bibliografía básica (obligatoria)

Biegler, L. T. (2010). Nonlinear Programming: Concepts, Algorithms, and Applications


to Chemical Processes. Filadelfia: Society for Industrial and Applied Mathematics.

Freund, R. (2004). Nonlinear Programming. Cambridge: MIT.

Goberna, M. (2009). Optimización lineal. Teoría, modelos y métodos. Barcelona:


McGraw-Hill Interamericana S.L.

Williamson, D. (2010). The Design of Approximation Algorithms. Cambridge:


Cambridge University Press.

Bibliografía complementaria

Fletcher, R. (2001). Introduction. En R. Fletcher (Ed.), Practical Methods of


Optimization (pp. 139-149). Nueva York: Wiley.

www.ucvirtual.edu.co
Todos los derechos son propiedad de la Universidad Central

También podría gustarte