Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TEMARIO ................................................................................................................ 5
CONCLUSIÓN ...................................................................................................... 29
BIBLIOGRAFÍA .................................................................................................... 29
2
INTRODUCCIÓN
La humanidad hace tiempo que busca, o profesa buscar, mejores maneras de
realizar las tareas cotidianas de la vida. A lo largo de la historia de la humanidad, se
puede observar la larga búsqueda de fuentes más efectivas de alimentos al
comienzo y luego de materiales, energía y manejo del entorno físico. Sin embargo,
relativamente tarde en la historia de la humanidad, comenzaron a formularse ciertas
clases de preguntas generales de manera cuantitativa, primero en palabras y
después en notaciones simbólicas. Un aspecto predominante de estas preguntas
generales era la búsqueda de lo "mejor" o lo "óptimo". Generalmente, los gerentes
buscan simplemente lograr alguna mejora en el nivel de rendimiento, es decir, un
problema de "búsqueda de objetivo". Cabe destacar que estas palabras
normalmente no tienen un significado preciso
3
La Programación Matemática, en general, aborda el problema de determinar
asignaciones óptimas de recursos limitados para cumplir un objetivo dado. El
objetivo debe representar la meta del decisor. Los recursos pueden corresponder,
por ejemplo, a personas, materiales, dinero o terrenos. Entre todas las asignaciones
de recursos admisibles, queremos encontrar la/s que maximiza/n o minimiza/n
alguna cantidad numérica tal como ganancias o costos.
4
DESARROLLO DE LA UNIDAD IV
TEMARIO
Áreas
Hay tres parámetros que pueden ajustarse para afectar el rendimiento óptimo:
• Continuos: estos problemas son los que pueden ser resueltos tomando un
rango de valores, comúnmente utilizando los números reales, esta
característica los distingue de la optimización discreta (combinatoria) ya que
en ese caso las variables son restringidas y pueden ser binarias.
6
• Combinatorios: estos problemas son difíciles de resolver, por lo que se
recurre a explorar solamente un espacio de soluciones en lugar de todas las
soluciones posibles, de esta manera se reduce el espacio de búsqueda y así
se resuelven de forma eficiente.
Problemas P y NP
8
Nos contentaremos en un primer momento por aproximaciones visuales,
introduciremos a continuación medidas cuantitativas que permitan evaluar las
distancias entre un modelo teórico y una distribución empírica.
9
datos que son inferiores a . Si los datos habían sido simulados a partir de la ley
teórica, esta proporción debería estar cercana al valor correspondiente de la función
de distribución teórica.
10
Por útiles que ellos sean, los métodos gráficos no constituyen una respuesta
matemática al problema del ajuste. Para cuantificar el alejamiento de la distribución
empírica con respecto a una ley teórica empleamos las distancias entre leyes de
probabilidad. Introduciremos dos de estas distancias, la distancia de chi-cuadrado y
la distancia de Kolmogorov-Smirnov. La distancia de chi-cuadrado concierne
únicamente a las leyes discretas, pero es posible utilizarla también para muestras
continuas reagrupadas en clases.
11
Definición 2.8 Sean y dos funciones de distribución de leyes de
12
La función objetivo es la ecuación que será optimizada dadas las limitaciones o
restricciones determinadas y con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o no lineal.
13
que muchos algoritmos para problemas restringidos están construidos de forma que
se adaptan a versiones no restringidas del problema en una parte de cada iteración.
Algoritmos de optimización
Métodos iterativos
14
Un importante criterio para los optimizadores es justo el número de evaluaciones de
funciones requerido, como este con frecuencia es de por sí un gran esfuerzo
computacional, usualmente mucho más esfuerzo que el del optimizador en sí, ya
que en su mayoría tiene que operar sobre N variables. Las derivadas proveen
información detallada para los optimizadores, pero son aún más costosas de
calcular, por ejemplo aproximando el gradiente toma al menos N+1 evaluaciones de
funciones. Para la aproximación de las segundas derivadas (agrupadas en la matriz
Hessiana) el número de evaluaciones de funciones es de orden N². El método de
Newton requiere las derivadas de Segundo orden, por lo tanto por cada iteración el
número de llamadas a función es de orden N², pero para el optimizador de un
gradiente puro más simple es de orden N. Sin embargo, los optimizadores de
gradiente necesitan usualmente más iteraciones que el algoritmo de Newton. Ser
mejor con respecto al número de llamadas a funciones depende del problema en sí.
15
solamente información del subgradiente, y otros requieren la
evaluación de las Hessianas.
o Descenso del gradiente (alternativamente, descenso pronunciado o
ascenso pronunciado): un método lento de interés teórico e histórico,
el cual ha sido renovado para encontrar soluciones aproximadas de
problemas enormes.
o Método del subgradiente: un método iterativo para grandes funciones
de Lipschitz localmente usando gradientes generalizados.
• Métodos que evalúan solamente valores de funciones: si un problema es
continuamente diferenciable, entonces los gradientes pueden ser
aproximados usando diferencias finitas, en tal caso puede ser usado un
método basado en gradiente.
o Métodos de interpolación.
o Métodos de búsqueda de patrones, los cuales tienen mejores
propiedades de convergencia que la heurística de Nelder-Mead.
Convergencia global
Heurísticas
16
Además de los algoritmos (terminación finita) y los métodos
iterativos (convergentes), existen heurísticas que pueden proveer soluciones
aproximadas a algunos problemas de optimización:
• Evolución diferencial.
• Algoritmo de búsqueda diferencial.
• Relajación Dinámica.
• Algoritmos genéticos.
• Ascenso de montañas.
• Nelder-Mead: una heurística popular por aproximar la minimización (sin
llamadas a gradientes).
• Optimización por enjambre de partículas.
• Optimización artificial de la colonia de abejas.
18
Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos
con un valor inicial x0 y definimos para cada número natural n
Tres son las formas principales por las que tradicionalmente se ha obtenido el
algoritmo de Newton-Raphson.
19
Ilustración de una iteración del
método de Newton (la función f se
demuestra en azul y la línea de la
tangente está en rojo). Vemos que xn
+1 es una aproximación mejor que xn
para la raíz x de la función f.
En la ilustración adjunta del método de Newton se puede ver que xn + 1 es una mejor
aproximación que xn para el cero (x) de la función f.
Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:
20
Entonces:
Como h (x) no tiene que ser única, se escoge de la forma más sencilla:
Existen numerosas formas de evitar este problema, como pudieran ser los métodos
de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen.
Derivados de Newton-Raphson destacan el método de Ralston-Rabinowitz, que
restaura la convergencia cuadrática sin más que modificar el algoritmo a:
21
Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz,
lo cual no siempre es posible. Por ello también se puede modificar el algoritmo
tomando una función auxiliar g(x) = f(x)/f'(x), resultando:
Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y
g'(x) si f(x) no es fácilmente derivable.
Por otro lado, la convergencia del método se demuestra cuadrática para el caso
más habitual en base a tratar el método como uno de punto fijo: si g'(r)=0, y g' '(r)
es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto
a las particularidades de estos métodos.
para una cierta constante C. Esto significa que si en algún momento el error es
menor o igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número
de decimales exactos. En la práctica puede servir para hacer una estimación
aproximada del error:
xTHx+cTx+b, (6)
minx12
∇f(x∗)=Hx∗+ c=0. (7)
x∗=−H−1c. (8)
23
Los métodos de tipo Newton (en contraposición a los métodos quasi-Newton)
calculan directamente y proceden en una dirección de descenso para localizar el
mínimo después de un número de iteraciones.H Calcular numéricamente implica
una gran cantidad de cálculo.H Los métodos quasi-Newton evitan esto utilizando el
comportamiento observado de () yfx ∇f(x) para crear información de curvatura para
hacer una aproximación al uso de una técnica de actualización adecuada.H
Hk+1=Hk+ k Tk Tk k− k k Tk Tk Tk k k, (9)
q q q s H s s H s H s
Dónde
skqk=xk+1−xk,=∇f(xk+1)−∇f(xk).
24
( ) (10)
d=−H−1k⋅∇f xk .
25
4.2.5 Método de eliminación de regiones.
Los métodos de eliminación de regiones se basan en eliminar una región, en cada
etapa del intervalo en el que está comprendido el mínimo. Cuando la región posible
es suficientemente pequeña la búsqueda termina.
Los métodos más eficientes de búsqueda por eliminación de regiones son los
métodos de la sección dorada y Fibonacci.
26
4.3 OPTIMIZACIÓN DE FUNCIONES MULTIVARIABLES.
Cuando las funciones incluyen más de una variable independiente se llaman
funciones multivariadas o funciones de varias variables. Se cuenta con métodos del
cálculo diferencial para examinar su comportamiento y determinar los valores
óptimos (máximos y mínimos). Al estudiar algunos de esos procedimientos en el
presente capítulo, se verá que se parecen a los que se aplicaron a las funciones de
una variable independiente.
27
Sea, pues, a = x0 < x1 < . . . < xN < xN+1 = b una partición uniforme de paso h =
b−a N+1 ; entonces, en cada nodo, se tienen las derivadas num´ericas (diferencias
centradas):
respectivamente.
28
semisumergible construida en Brasil y que ya está en operación. El objetivo fue
encontrar las dimensiones del casco de la plataforma que minimicen el movimiento
vertical de la misma y cumplan con varias restricciones de proyecto, como de
movimiento, de construcción y de ensamblaje.
CONCLUSIÓN
Optimizar un proceso implicar en primer lugar poseer el conocimiento total del
mismo, es decir, se necesita poseer toda la información relativa de las operaciones
realizadas en forma sistemática.
BIBLIOGRAFÍA
1. Duran, M. A. & Grossmann, I. E. (1986) Simultaneous Optimization and Heat
Integration of Chemical Processes. AIChE Journal, Vol. 32 pp 123.
2. Perry, R. (2008). Perry´s chemical engineer´s handbook. 8th Ed. Nueva York,
EEUU: Mc Graw Hill.
3. Peters, M. S., Timmerhaus, K. D.(2002) Plant Design and Economics for
Chemical Engineers. 5th ed.New York: McGraw Hill.
29
4. Reklaitis, G. V., Ravindran, A. Ragsdell, K. M. (2006) Enginnering
Optimization. Methods and Applications. 2d. Ed.. New York. USA: John Wiley
& Sons.
5. Rudd, D. F. y Watson, C. C. (1986). Estrategias en Ingeniería de Procesos.
Alhambra. España: Ed. Alhambra.
6. Scenna, N. (1999) Modelado, Simulación y Optimización de Procesos
Químicos. Libro electrónico obtenido el 9 de febrero del 2010 en:
http://www.modeladoeningenieria.edu.ar/libros/modeinge/modinge.htm.
7. Seider, W. D., Seader J. D. and Lewin,D.R., Widagdo R. (2009) Product &
Process Design Principles, 3th. Ed. USA: John Wiley &Sons Inc.
8. Turton, R., (2009) Analysis, Synthesis, and Design of Chemical Processes.
USA : Prentice Hall International.
9. Ulrich, G.D. Procesos de Ingeniería Química.(1986).. México: Nueva Editorial
Interamericana. S.A. de C.V.
10. Vilbrand, F.C., Dryden, Ch. E. Chemical Engineering Plant Design.
4thEdition. International Student Edition. Mc Graw Hill Int. Book Co. U.S.A.
1999.
30