Está en la página 1de 30

INGENIERÍA BIOQUÍMICA

Investigación de la Unidad IV: Optimización


Integrantes del equipo:
Reyes Martín Itzayana 16080359
Apellido Paterno Apellido Materno Nombre(s) Número de control

Nombre de la Asignatura: Periodo:


Ingeniería de procesos Enero-Mayo 2020

Semestre: ¨8¨ Grupo: B

Nombre del Ing. Lira Barrientos Lizeth


Docente: Apellido Paterno Apellido Materno Nombre(s)
Contenido
INTRODUCCIÓN .................................................................................................... 3

DESARROLLO DE LA UNIDAD IV ........................................................................ 5

TEMARIO ................................................................................................................ 5

4.1 Introducción a la optimización.................................................................... 5

4.1.1 Características de los problemas de optimización. .................................. 6

4.1.2 Ajuste de datos empíricos da funciones. ................................................. 8

4.1.3 Función objetivo. .................................................................................... 12

4.2 Optimización de funciones no restringidas. ............................................ 13

4.2.1 Métodos numéricos para optimización de funciones. ............................ 14

4.2.2 Método de Newton ................................................................................. 17

4.2.3 Método de Semi-Newton (Quasi-Newton) ............................................. 23

4.2.4 Método de la Secante ............................................................................ 25

4.2.5 Método de eliminación de regiones ....................................................... 26

4.3 Optimización de funciones multivariables............................................... 27

4.3.1 Métodos Directos ................................................................................... 27

4.3.2 Métodos Indirectos................................................................................. 27

4.3.3 Método de Diferencias Finitas ............................................................... 27

4.4 Aplicaciones de optimización. .................................................................. 28

CONCLUSIÓN ...................................................................................................... 29

BIBLIOGRAFÍA .................................................................................................... 29

2
INTRODUCCIÓN
La humanidad hace tiempo que busca, o profesa buscar, mejores maneras de
realizar las tareas cotidianas de la vida. A lo largo de la historia de la humanidad, se
puede observar la larga búsqueda de fuentes más efectivas de alimentos al
comienzo y luego de materiales, energía y manejo del entorno físico. Sin embargo,
relativamente tarde en la historia de la humanidad, comenzaron a formularse ciertas
clases de preguntas generales de manera cuantitativa, primero en palabras y
después en notaciones simbólicas. Un aspecto predominante de estas preguntas
generales era la búsqueda de lo "mejor" o lo "óptimo". Generalmente, los gerentes
buscan simplemente lograr alguna mejora en el nivel de rendimiento, es decir, un
problema de "búsqueda de objetivo". Cabe destacar que estas palabras
normalmente no tienen un significado preciso

Se han realizado grandes esfuerzos por describir complejas situaciones humanas y


sociales. Para tener significado, esto debería escribirse en una expresión
matemática que contenga una o más variables, cuyos valores deben determinarse.
La pregunta que se formula, en términos generales, es qué valores deberían tener
estas variables para que la expresión matemática tenga el mayor valor numérico
posible (maximización) o el menor valor numérico posible (minimización). A este
proceso general de maximización o minimización se lo denomina optimización.

La optimización, también denominada programación matemática, sirve para


encontrar la respuesta que proporciona el mejor resultado, la que logra mayores
ganancias, mayor producción o felicidad o la que logra el menor costo, desperdicio
o malestar. Con frecuencia, estos problemas implican utilizar de la manera más
eficiente los recursos, tales como dinero, tiempo, maquinaria, personal, existencias,
etc. Los problemas de optimización generalmente se clasifican en lineales y no
lineales, según las relaciones del problema sean lineales con respecto a las
variables. Existe una serie de paquetes de software para resolver problemas de
optimización. Por ejemplo, LINDO o WinQSB resuelven modelos de programas
lineales y LINGO y What’sBest! resuelven problemas lineales y no lineales.

3
La Programación Matemática, en general, aborda el problema de determinar
asignaciones óptimas de recursos limitados para cumplir un objetivo dado. El
objetivo debe representar la meta del decisor. Los recursos pueden corresponder,
por ejemplo, a personas, materiales, dinero o terrenos. Entre todas las asignaciones
de recursos admisibles, queremos encontrar la/s que maximiza/n o minimiza/n
alguna cantidad numérica tal como ganancias o costos.

El objetivo de la optimización global es encontrar la mejor solución de modelos de


decisiones difíciles, frente a las múltiples soluciones locales.

4
DESARROLLO DE LA UNIDAD IV

TEMARIO

4.1 INTRODUCCIÓN A LA OPTIMIZACIÓN.


La optimización de procesos es la disciplina de ajustar un proceso para optimizar
(hacer el mejor uso o el más efectivo) de un conjunto específico de parámetros sin
violar alguna restricción. Los objetivos comunes son minimizar el costo y maximizar
el rendimiento y/o la eficiencia. Esta es una de las principales herramientas
cuantitativas en la toma de decisiones industriales.

Al optimizar un proceso, el objetivo es maximizar una o más de las especificaciones


del proceso, manteniendo todas las demás dentro de sus limitaciones. Esto se
puede hacer usando una herramienta de minería de procesos, descubriendo las
actividades críticas y los cuellos de botella, y actuando solo en ellos.

Áreas

Hay tres parámetros que pueden ajustarse para afectar el rendimiento óptimo:

• Optimización de equipos: El primer paso es verificar que el equipo existente


se está utilizando al máximo, examinando los datos de operación para
identificar cuellos de botella en el equipo.
• Procedimientos de operación: Los procedimientos operativos pueden variar
ampliamente de persona a persona o de turno a turno. La automatización de
la planta puede ayudar significativamente. Pero la automatización no servirá
si los operadores toman el control y ejecutan la planta en forma manual.
• Control optimización: En una planta de procesamiento típica, como una
planta química o una refinería de petróleo, hay cientos o incluso miles de
bucles de control. Cada circuito de control es responsable de controlar una
parte del proceso, como mantener la temperatura, el nivel o el flujo.

Si el circuito de control no está correctamente diseñado y sintonizado, el proceso se


ejecuta por debajo de su óptimo. El proceso será más costoso de operar y el equipo
5
se desgastará prematuramente. Para que cada circuito de control funcione de
manera óptima, la identificación del sensor, la válvula y los problemas de ajuste es
importante.

El proceso de monitoreo y optimización continua de toda la planta a veces se


denomina supervisión del rendimiento.

4.1.1 Características de los problemas de optimización.


Un problema de optimización también se conoce como un problema de
programación matemática o problema de minimización. En el caso más simple, un
problema de optimización consiste en maximizar o minimizar una función real
eligiendo sistemáticamente valores de entrada (tomados de un conjunto permitido)
y computando el valor de la función.

Problemas de Optimización: son problemas de asignación óptima de recursos


limitados, para cumplir un objetivo dado que representa la meta del decisor. Los
recursos pueden corresponder a personas, materiales, dinero, etc. Entre todas las
asignaciones de recursos admisibles, se quiere encontrar la/s que maximiza/n o
minimiza/n alguna cantidad numérica tal como ganancias o costos, etc.

Un problema de optimización consiste en: maximizar o minimizar una función


objetivo, es decir, obtener el valor máximo o mínimo de una función dada una
variable.

En el mundo de la computación se busca resolver los problemas de forma óptima,


utilizando la menor cantidad de recursos, con algoritmos eficientes y rápidos.

Problemas continuos y combinatorios

Existen dos tipos de problemas de optimización:

• Continuos: estos problemas son los que pueden ser resueltos tomando un
rango de valores, comúnmente utilizando los números reales, esta
característica los distingue de la optimización discreta (combinatoria) ya que
en ese caso las variables son restringidas y pueden ser binarias.

6
• Combinatorios: estos problemas son difíciles de resolver, por lo que se
recurre a explorar solamente un espacio de soluciones en lugar de todas las
soluciones posibles, de esta manera se reduce el espacio de búsqueda y así
se resuelven de forma eficiente.

Problemas P y NP

Recordando la definición de un algoritmo, sabemos que es un procedimiento finito


que se sigue paso a paso para dar solución a un problema, recibiendo una entrada
y devolviendo una salida satisfactoria. La complejidad computacional de un
algoritmo, es medida en base al tiempo de ejecución que tarda en llevar a cabo cada
paso hasta obtener un resultado, esta es mejor expresada como el número total de
operaciones realizadas para obtener la solución.

Un algoritmo es polinomial (P) cuando su tiempo de ejecución está acotado por un


polinomio dependiente del tamaño de la entrada. Por lo que un problema es de
clase P si tiene solución en un tiempo polinómico por una máquina de Turing
determinista, entonces se consideran problemas factibles para resolver de forma
eficiente. La familia de problemas P pertenecen a los de optimización continuos.

Algunos ejemplos de problemas de clase P son:

• Ordenamiento por selección


• Algoritmos matemáticos (logaritmos, lineales, cuadráticos o cúbicos)
• La función esfera
• La función de Langermann
• La función de Michalewicz
• Las seis jorobas de camello
• Algoritmo de Dijkstra
• Problemas de optimización continuos.

Un algoritmo polinomial no determinista (NP), es aquel que no se ejecuta en un


tiempo polinomial, por lo que dado un problema de clase NP no se conoce un
algoritmo que sea capaz de dar solución en un tiempo polinomial. Estos problemas
7
solo pueden ser resueltos encontrando las soluciones de forma aleatoria, para dar
con la mejor solución posible. Estos solo pueden ser resueltos en un tiempo
polinomial utilizando una máquina de Turing no determinista. Además existe una
subclase dentro de los NP conocida como NP-Completo de los cuales si se puede
demostrar que uno de ellos es resoluble en tiempo polinomial, entonces también
cualquier problema en esta subclase es resoluble en ese tiempo, estos problemas
son conocidos como los más complicados de resolver, dado que no se ha podido
demostrar que existe dicha solución en tiempo polinomial, así que los
problemas NP-Completos no pueden ser resueltos con algoritmos eficientes. Para
este tipo de problemas se utilizan algoritmos heurísticos y evolutivos, que si bien,
no garantizan que se encontrará la solución óptima, por lo menos encontrarán
buenas soluciones en tiempos aceptables. La familia de problemas NP pertenecen
a los de optimización combinatorios.

4.1.2 Ajuste de datos empíricos da funciones.

Cuando las hipótesis de modelación conducen a suponer que las son


realizaciones de variables aleatorias independientes y de una misma ley, la Ley de
los Grandes Números justifica que se considere esta ley como próxima de
la distribución empírica. Todas las características usuales de la distribución
empírica estarán cercanas a las carácterísticas análogas de la ley teórica.
Llamamos problema de ajuste al problema que consiste en encontrar, dentro de una
familia de leyes de probabilidad, aquella que se acerca más a una distribución
empírica observada. Es frecuente que se efectúen transformaciones de los datos
antes del ajuste. Por ejemplo en la Medicina, las leyes log-normales aparecen a
menudo. Una variable aleatoria sigue una ley log-normal si su logaritmo sigue
una ley normal. Entonces en lugar de ajustar directamente una ley log-normal, se
empezará por transformar la muestra, reemplazando los datos por sus logaritmos y
después se ajustará la nueva muestra por una ley normal.

8
Nos contentaremos en un primer momento por aproximaciones visuales,
introduciremos a continuación medidas cuantitativas que permitan evaluar las
distancias entre un modelo teórico y una distribución empírica.

El caso más frecuente en las aplicaciones es el de una muestra continua. La primera


aproximación consiste en superponer en un mismo gráfico un histograma de los

datos con una densidad de la ley teórica. Encima de una clase, ,


el histograma representa un rectángulo de superficie igual a la frecuencia empírica
de esta clase. Si la muestra se produjo simulando la ley teórica, esta frecuencia
empírica estará cerca de la probabilidad teórica, que es la integral de la densidad
sobre la clase. En consecuencia, el histograma estará cercano al valor medio de la
densidad sobre la clase, o sea:

Un poco de experiencia permite reconocer a ojo cuando un histograma está


demasiado lejos de una densidad para que el ajuste se considere bueno.

Gráfico 10: Estaturas de niños de 6


años. Superposición de un histograma
y de la densidad de la ley normal con la
misma media y varianza.

El inconveniente del histograma es que conlleva una parte importante de


arbitrariedad en la elección de las clases. Otra solución consiste en comparar

la función de distribución de la ley teórica con la función de distribución empírica


. La justificación proviene también de la Ley de los Grandes Números. En el
punto , la función de distribución empírica toma por valor la proporción de los

9
datos que son inferiores a . Si los datos habían sido simulados a partir de la ley
teórica, esta proporción debería estar cercana al valor correspondiente de la función
de distribución teórica.

Gráfico 11: Estaturas de niños de 6


años. Superposición de la función de
distribución empírica y de la función de
distribución de la ley normal con la
misma media y la misma varianza

En general se prefiere efectuar un cambio de ejes que da una representación


equivalente, pero más fácil de controlar visualmente: es el ajuste por

cuantiles o QQ-plot o ploteo-QQ. Denotemos por la función cuantil de la ley

teórica. En lugar de representar los puntos de coordenadas para


la función de distribución empírica, el QQ-plot consiste en representar los

puntos . Si el ajuste es correcto, la función cuantil empírica de la


muestras debería estar cerca de la función cuantil teórica. En particular los

puntos estarán cerca de la primera bisectriz, lo que es fácil de


verificar. (figura 12).

Gráfico 12: Estaturas de niños de 6


años. Ajuste por cuantiles de la ley
normal con la misma media y varianza.
Superposición de la primera bisectriz.

10
Por útiles que ellos sean, los métodos gráficos no constituyen una respuesta
matemática al problema del ajuste. Para cuantificar el alejamiento de la distribución
empírica con respecto a una ley teórica empleamos las distancias entre leyes de
probabilidad. Introduciremos dos de estas distancias, la distancia de chi-cuadrado y
la distancia de Kolmogorov-Smirnov. La distancia de chi-cuadrado concierne
únicamente a las leyes discretas, pero es posible utilizarla también para muestras
continuas reagrupadas en clases.

Definición 2.7 Sea un conjunto finito fijo.

Sean y dos leyes


de probabilidad sobre este conjunto. Llamamos distancia de chi-

cuadrado de con respecto a , y denotamos por , a la cantidad:

La ''distancia'' de chi-cuadrado es por tanto una media ponderada de las diferencias

cuadradas entre los valores de y . No es una distancia en el sentido usual de la


palabra, pues ni siquiera es simétrica. En la práctica se emplea siempre en el caso en

que es una distribución teórica y es la distribución empírica . Para una muestra


fija, el mejor ajuste será aquel para el cual la distancia de chi-cuadrado es menor.

La otra noción de distancia que se emplea corrientemente para los ajustes es


la distancia de Kolmogorov-Smirnov que es más general que la anterior. Es la
distancia de la norma uniforme entre funciones de distribución.

11
Definición 2.8 Sean y dos funciones de distribución de leyes de

probabilidad (funciones de en . Llamamos distancia de Kolmogorov-

Smirnov de y , y denotamos por , a la cantidad:

En la práctica se emplea esta distancia en el caso en que es la función de

distribución de la ley teórica y es la función de distribución empírica.

Recordemos que la función de distribución empírica de la muestra es

la función en escalera que vale 0 antes de , entre y ,

y después de (los son los estadígrafos de orden de la muestra). Toda


función de distribución es creciente. Como la función de distribución empírica se
mantiene constante entre dos valores sucesivos de los estadígrafos de orden, para
calcular la distancia de Kolmogorov-Smirnov, será suficiente evaluar la diferencia

entre y en los puntos .

4.1.3 Función objetivo.


Las funciones objetivo representan las metas del proyecto, o sea, minimizar o
maximizar variables como eficiencia, costos, tensiones, pérdida de carga,
rozamiento, intercambio de calor etc. Estas funciones son las fuerzas motrices de
la optimización, y se puede tener una o más. Finalmente, las restricciones son los
requisitos que deben ser satisfechos por los nuevos designs. Pueden ser exigencias
provenientes de normas, de viabilidad, de fabricación.

12
La función objetivo es la ecuación que será optimizada dadas las limitaciones o
restricciones determinadas y con variables que necesitan ser minimizadas o
maximizadas usando técnicas de programación lineal o no lineal.

¿Cómo se puede disminuir los costos MINIMIZAR costos de mtto. Y de


de inventario? ordenar.

¿Qué se debe hacer para mejorar las MAXIMIZAR utilidades después de


utilidades netas de la compañía? causar impuestos

Una función objetivo puede ser el resultado de un intento de expresar un objetivo


de negocio en términos matemáticos para su uso en el análisis de toma de
decisiones, operaciones, estudios de investigación o de optimización.

4.2 OPTIMIZACIÓN DE FUNCIONES NO RESTRINGIDAS.


Los problemas de optimización no restringida no tienen restricciones, por lo que la
función objetivo es sencillamente. Maximizar f(x) sobre todos los valores x= (x1,
x2,…,xn). Según el repaso del apéndice 3, la condición necesaria para que una
solución específica x = x* sea óptima cuando f(x) es una función diferenciable es

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la


obtención de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al
establecer las n derivadas parciales iguales a cero. Por desgracia, cuando se trata
de funciones no lineales f (x), estas ecuaciones suelen ser no lineales también, en
cuyo caso es poco probable que se pueda obtener una solución analítica
simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5
describen procedimientos algorítmicos de búsqueda para encontrar x* primero para
n = 1 y luego para n > 1

Estos procedimientos también tienen un papel importante en la solución de varios


tipos de problemas con restricciones, que se describirán en seguida. La razón es

13
que muchos algoritmos para problemas restringidos están construidos de forma que
se adaptan a versiones no restringidas del problema en una parte de cada iteración.

Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición


necesaria (y tal vez) suficiente anterior cambia ligeramente a

4.2.1 Métodos numéricos para optimización de funciones.


Para resolver problemas, los investigadores pueden usar algoritmos que terminen
en un número finito de pasos, o métodos iterativos que convergen a una solución
(en alguna clase específica de problemas), o heurísticas que pueden proveer
soluciones aproximadas a algunos problemas (aunque sus iteraciones no
convergen necesariamente).

Algoritmos de optimización

• Algoritmo Simplex de George Dantzig, diseñado para la programación lineal.


• Extensiones del algoritmo Simplex, diseñados para la programación
cuadrática y para la programación lineal-fraccionaria.
• Variantes del algoritmo Simplex que son especialmente apropiadas para
la optimización de redes.
• Algoritmos combinatorios.

Métodos iterativos

Los métodos iterativos usados para resolver problemas de programación no


lineal difieren según lo que evalúen: Hessianas, gradientes, o solamente valores de
función. Mientras que evaluando Hessianas (H) y gradientes (G) mejora la velocidad
de convergencia, tales evaluaciones aumentan la complejidad computacional (o
costo computacional) de cada iteración. En algunos casos, la complejidad
computacional puede ser excesivamente alta.

14
Un importante criterio para los optimizadores es justo el número de evaluaciones de
funciones requerido, como este con frecuencia es de por sí un gran esfuerzo
computacional, usualmente mucho más esfuerzo que el del optimizador en sí, ya
que en su mayoría tiene que operar sobre N variables. Las derivadas proveen
información detallada para los optimizadores, pero son aún más costosas de
calcular, por ejemplo aproximando el gradiente toma al menos N+1 evaluaciones de
funciones. Para la aproximación de las segundas derivadas (agrupadas en la matriz
Hessiana) el número de evaluaciones de funciones es de orden N². El método de
Newton requiere las derivadas de Segundo orden, por lo tanto por cada iteración el
número de llamadas a función es de orden N², pero para el optimizador de un
gradiente puro más simple es de orden N. Sin embargo, los optimizadores de
gradiente necesitan usualmente más iteraciones que el algoritmo de Newton. Ser
mejor con respecto al número de llamadas a funciones depende del problema en sí.

• Métodos que evalúan Hessianas (o aproximan Hessianas,


usando diferencias finitas):
o Método de Newton.
▪ Programación secuencial cuadrática: un método de Newton
basado en problemas restrictos de pequeña-mediana escala.
Algunas versiones pueden manejar problemas de gran
dimensión.
• Métodos que evalúan gradientes o aproximan gradientes usando diferencias
finitas (o incluso subgradientes):
o Métodos Quasi-Newton: métodos iterativos para problemas
medianos-grandes (ejemplo N<1000).
o Métodos de gradiente conjugado: métodos iterativos para problemas
grandes. (En teoría, estos métodos terminan en un número finito de
pasos con funciones objetivo cuadráticas, pero esta terminación finita
no se observa en la práctica en computadoras de precisión finita.)
o Métodos de punto interior: esta es una gran clase de métodos para la
optimización restricta. Algunos métodos de punto interior usan

15
solamente información del subgradiente, y otros requieren la
evaluación de las Hessianas.
o Descenso del gradiente (alternativamente, descenso pronunciado o
ascenso pronunciado): un método lento de interés teórico e histórico,
el cual ha sido renovado para encontrar soluciones aproximadas de
problemas enormes.
o Método del subgradiente: un método iterativo para grandes funciones
de Lipschitz localmente usando gradientes generalizados.
• Métodos que evalúan solamente valores de funciones: si un problema es
continuamente diferenciable, entonces los gradientes pueden ser
aproximados usando diferencias finitas, en tal caso puede ser usado un
método basado en gradiente.
o Métodos de interpolación.
o Métodos de búsqueda de patrones, los cuales tienen mejores
propiedades de convergencia que la heurística de Nelder-Mead.

Convergencia global

De modo general, si la función objetivo no es una función cuadrática, entonces


muchos métodos de optimización usan otros métodos para garantizar que alguna
subsecuencia de iteraciones converge a una solución óptima. El primer método
popular que garantiza convergencia se apoya en búsquedas lineales, el cual
optimiza una función en una dimensión. Un segundo y popularizado método para
garantizar convergencia usa regiones de confianza. Ambos búsquedas lineales y
regiones de confianza son usados en métodos modernos de optimización no
diferenciable. Usualmente un optimizador global es mucho más lento que los
optimizadores locales avanzados (por ejemplo BFGS), por lo tanto con frecuencia
un optimizador global eficiente puede ser construido por el inicio del optimizador
local de diferentes puntos de partida.

Heurísticas

16
Además de los algoritmos (terminación finita) y los métodos
iterativos (convergentes), existen heurísticas que pueden proveer soluciones
aproximadas a algunos problemas de optimización:

• Evolución diferencial.
• Algoritmo de búsqueda diferencial.
• Relajación Dinámica.
• Algoritmos genéticos.
• Ascenso de montañas.
• Nelder-Mead: una heurística popular por aproximar la minimización (sin
llamadas a gradientes).
• Optimización por enjambre de partículas.
• Optimización artificial de la colonia de abejas.

4.2.2 Método de newton.


El método de Newton fue descrito por Isaac Newton en De analysi per aequationes
número terminorum infinitas (escrito en 1669, publicado en 1711 por William Jones)
y en De metodis fluxionum et serierum infinitarum (escrito en 1671, traducido y
publicado como Método de las fluxiones en 1736 por John Colson). Sin embargo,
su descripción difiere en forma sustancial de la descripción moderna presentada
más arriba: Newton aplicaba el método solo a polinomios, y no consideraba las
aproximaciones sucesivas xn, sino que calculaba una secuencia de polinomios para
llegar a la aproximación de la raíz x. Finalmente, Newton ve el método como
puramente algebraico y falla al no ver la conexión con el cálculo.

Isaac Newton probablemente derivó su método de forma similar aunque menos


precisa del método de François Viète. La esencia del método de Viète puede
encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi.

El método de Newton-Raphson es llamado así por la razón de que el matemático


inglés Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal
Society en 1691 por su libro aequationum universalis Análisis que publico en 1690
17
y el cual contenía este método para aproximar raíces. Mientras que Newton en su
libro Método de las fluxiones describe el mismo método escrito en 1671, pero
publicado hasta 1736, lo que significa que Raphson había publicado este resultado
casi 50 años antes, aunque no fue tan popular como los trabajos de Newton y se le
reconoció posteriormente.

Descripción del método

La función ƒ es mostrada en azul y


la línea tangente en rojo. Vemos que
xn+1 es una mejor aproximación que
xn para la raíz x de la función f.

El método de Newton-Raphson es un método abierto, en el sentido de que su


convergencia global no está garantizada. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz
buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano
al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del
punto inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta
presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz,
entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige
seleccionar un valor supuesto cercano a la raíz. Una vez se ha hecho esto, el
método linealiza la función por la recta tangente en ese valor supuesto. La abscisa
en el origen de dicha recta será, según el método, una mejor aproximación de la
raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta que el método
haya convergido lo suficiente.

18
Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos
con un valor inicial x0 y definimos para cada número natural n

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una


sola variable con forma analítica o implícita cognoscible. Existen variantes del
método aplicables a sistemas discretos que permiten estimar las raíces de la
tendencia, así como algoritmos que extienden el método de Newton a sistemas
multivariables, sistemas de ecuaciones, etc.

Obtención del Algoritmo

Tres son las formas principales por las que tradicionalmente se ha obtenido el
algoritmo de Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo


al desarrollo geométrico del método de la secante, podría pensarse en que si los
puntos de iteración están lo suficientemente cerca (a una distancia infinitesimal),
entonces la secante se sustituye por la tangente a la curva en el punto. Así pues, si
por un punto de iteración trazamos la tangente a la curva, por extensión con el
método de la secante, el nuevo punto de iteración se tomará como la abscisa en el
origen de la tangente (punto de corte de la tangente con el eje X). Esto es
equivalente a linealizar la función, es decir, f se reemplaza por una recta tal que
contiene al punto (x0, f (x0)) y cuya pendiente coincide con la derivada de la función
en el punto, f'(x0). La nueva aproximación a la raíz, x1, se logra la intersección de la
función lineal con el eje X de abscisas. Matemáticamente

19
Ilustración de una iteración del
método de Newton (la función f se
demuestra en azul y la línea de la
tangente está en rojo). Vemos que xn
+1 es una aproximación mejor que xn
para la raíz x de la función f.

En la ilustración adjunta del método de Newton se puede ver que xn + 1 es una mejor
aproximación que xn para el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en


serie de Taylor, para un entorno del punto xn:

Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1:

Si además se acepta que xn + 1 tiende a la raíz, se ha de cumplir que f(xn + 1) = 0,


luego, sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse


como un método de iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede
considerar el siguiente método de iteración de punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

20
Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson

Convergencia del Método

El orden de convergencia de este método es, por lo menos, cuadrático. Sin


embargo, si la raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz
doble, triple, ...), el método de Newton-Raphson pierde su convergencia cuadrática
y pasa a ser lineal de constante asintótica de convergencia 1-1/m, con m la
multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los métodos
de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen.
Derivados de Newton-Raphson destacan el método de Ralston-Rabinowitz, que
restaura la convergencia cuadrática sin más que modificar el algoritmo a:

21
Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz,
lo cual no siempre es posible. Por ello también se puede modificar el algoritmo
tomando una función auxiliar g(x) = f(x)/f'(x), resultando:

Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y
g'(x) si f(x) no es fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el caso
más habitual en base a tratar el método como uno de punto fijo: si g'(r)=0, y g' '(r)
es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto
a las particularidades de estos métodos.

Nótese de todas formas que el método de Newton-Raphson es un método abierto:


la convergencia no está garantizada por un teorema de convergencia global como
podría estarlo en los métodos de falsa posición o de bisección. Así, es necesario
partir de una aproximación inicial próxima a la raíz buscada para que el método
converja y cumpla el teorema de convergencia local.

Estimación del Error

Se puede demostrar que el método de Newton-Raphson tiene convergencia


cuadrática: si α es raíz, entonces:

para una cierta constante C. Esto significa que si en algún momento el error es
menor o igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número
de decimales exactos. En la práctica puede servir para hacer una estimación
aproximada del error:

Error relativo entre dos aproximaciones sucesivas:


22
Con lo cual se toma el error relativo como si la última aproximación fuera el valor
exacto. Se detiene el proceso iterativo cuando este error relativo es
aproximadamente menor que una cantidad fijada previamente.

Teorema de Convergencia Local del Método de Newton

Sea . Si , y , entonces existe un r>0

tal que si , entonces la sucesión xn con verifica que:

para todo n y xn tiende a p cuando n tiende a infinito.

Si además , entonces la convergencia es cuadrática.

4.2.3 Método de Semi-Newton (Quasi-newton).


De los métodos que utilizan la información de degradado, los más favorecidos son
los métodos quasi-Newton. Estos métodos acumulan información de curvatura en
cada iteración para formular un problema de modelo cuadrático de la forma

xTHx+cTx+b, (6)
minx12

donde la matriz Hessiana, es una matriz simétrica definida positivamente, es un


vector constante, y es una constante.Hcb La solución óptima para este problema se
produce cuando los derivados parciales de ir a cero, es decir,x

∇f(x∗)=Hx∗+ c=0. (7)

El punto de solución óptimo, *, se puede escribir comox

x∗=−H−1c. (8)

23
Los métodos de tipo Newton (en contraposición a los métodos quasi-Newton)
calculan directamente y proceden en una dirección de descenso para localizar el
mínimo después de un número de iteraciones.H Calcular numéricamente implica
una gran cantidad de cálculo.H Los métodos quasi-Newton evitan esto utilizando el
comportamiento observado de () yfx ∇f(x) para crear información de curvatura para
hacer una aproximación al uso de una técnica de actualización adecuada.H

Se ha desarrollado un gran número de métodos de actualización de hessian. Sin


embargo, la fórmula de Broyden, Fletcher, Goldfarb y Shanno (BFGS) se cree que
es la más eficaz para su uso en un método de propósito general.[3][12][20][37]

La fórmula dada por BFGS es

Hk+1=Hk+ k Tk Tk k− k k Tk Tk Tk k k, (9)
q q q s H s s H s H s

Dónde

skqk=xk+1−xk,=∇f(xk+1)−∇f(xk).

Como punto de partida,H0 se puede establecer en cualquier matriz definida


simétrica positiva, por ejemplo, la matriz de identidad.I Para evitar la inversión de la
hessian, puede derivar un método de actualización que evita la inversión directa de
mediante el uso de una fórmula que hace una aproximación de la inversa
hessianHHH–1 en cada actualización. Un procedimiento bien conocido es la fórmula
de DFP de Davidon, Fletcher y Powell.[7][14] Esto utiliza la misma fórmula que el
método BFGS (), excepto queEcuación 9 Qk se sustituye por sk.

La información de degradado se suministra a través de gradientes calculados


analíticamente, o derivadas de derivados parciales utilizando un método de
diferenciación numérica a través de diferencias finitas. Esto implica perturbar cada
una de las variables de diseño, a su vez, y calcular la tasa de cambio en la función
objetiva.x

En cada iteración principal, se realiza una búsqueda de línea en la direcciónk

24
( ) (10)
d=−H−1k⋅∇f xk .

El método quasi-Newton se ilustra mediante la ruta de la solución en La función de


Rosenbrock en.Figura 6-2, Método BFGS en la función de Rosenbrock El método
es capaz de seguir la forma del valle y converge al mínimo después de 140
evaluaciones de función utilizando sólo gradientes de diferencia finita.

Figura 6-2, Método BFGS en la función de Rosenbrock

4.2.4 Método de la secante.


Este método consiste en una alteración de la ecuación de newton en el
cual se utiliza la ecuación iterativa que define el método de newton intercambiando
la f´ por una expresión aproximada lo cual nos genera un cambio en el resultado del
nuevo método dicho de otro modo es un algoritmo de la raíz que emplea raíces del
proceso con líneas secantes para aproximar mejor la raíz de una función f.
Este método esta dado por la siguiente ecuación:

25
4.2.5 Método de eliminación de regiones.
Los métodos de eliminación de regiones se basan en eliminar una región, en cada
etapa del intervalo en el que está comprendido el mínimo. Cuando la región posible
es suficientemente pequeña la búsqueda termina.

El elemento básico dentro de los métodos de eliminación de regiones es la


comparación de valores de f(x) en dos o más puntos dentro del intervalo de x.

Los métodos más eficientes de búsqueda por eliminación de regiones son los
métodos de la sección dorada y Fibonacci.

26
4.3 OPTIMIZACIÓN DE FUNCIONES MULTIVARIABLES.
Cuando las funciones incluyen más de una variable independiente se llaman
funciones multivariadas o funciones de varias variables. Se cuenta con métodos del
cálculo diferencial para examinar su comportamiento y determinar los valores
óptimos (máximos y mínimos). Al estudiar algunos de esos procedimientos en el
presente capítulo, se verá que se parecen a los que se aplicaron a las funciones de
una variable independiente.

4.3.1 Métodos Directos.


Los métodos directos son la solución
exacta de un sistema de ecuaciones en
un número finito de pasos, buscando de
esta manera resolver el problema de
inmediato. Cuando se utiliza este
método para los cálculos aritméticos
finitos usualmente obtiene una solución
aproximada, por lo general debido a
errores de redondeo.
Estos métodos buscan convertir el sistema de ecuación inicial en un sistema de
ecuación equivalente y más simple, para resolverla a través de operaciones de
equivalencia como: La multiplicación de una ecuación por un escalar, el
intercambio del orden de dos ecuaciones o la adición de una ecuación a otra.

4.3.2 Métodos Indirectos.


Los métodos indirectos hacen uso de derivadas en la determinación de las
direcciones de búsqueda. Una buena dirección de búsqueda debería reducir la
función objetivo, entonces si x0 es el punto inicial y x1 es el nuevo punto: f(x1)<f(x0).

4.3.3 Método De Diferencias Finitas.


Ahora pretendemos resolver numéricamente, el p.v.f. (4.5) sin pasar por un p.v.i.
asociado. Para ello, usamos derivadas numéricas adecuadas de la función
desconocida, y(x).

27
Sea, pues, a = x0 < x1 < . . . < xN < xN+1 = b una partición uniforme de paso h =
b−a N+1 ; entonces, en cada nodo, se tienen las derivadas num´ericas (diferencias
centradas):

Si aplicamos ´estas al p.v.f. obtenemos el sistema, en general, no lineal:

donde yn ≈ y(xn). Así, resolver numéricamente el problema (4.5) equivale a buscar


la solución del sistema. En consecuencia, vamos a analizar la existencia de solución
del sistema en los casos lineal y no lineal

respectivamente.

4.4 APLICACIONES DE OPTIMIZACIÓN.


Varios casos de éxito en ingeniería utilizaron técnicas de optimización. Por ejemplo,
en la reducción del tiempo por vuelta de un carro de carreras del BMW Team en el
circuito de Interlagos, durante el Campeonato de GT3. Con la intención de disminuir
el tiempo de vuelta (función objetivo), fueron modificados varios parámetros del
setup del carro, como: ángulo del alerón, configuración de los amortiguadores, de
las ruedas, entre otros. En total fueron evaluadas 600 diferentes simulaciones en
apenas 01 día, obteniendo al final una reducción de 1.38 segundos por vuelta, una
reducción significativa para esta competición.

En la industria petrolera, Petrobras utilizó optimización para realizar el


dimensionamiento inicial de la plataforma P-55, la cual es la más grande plataforma

28
semisumergible construida en Brasil y que ya está en operación. El objetivo fue
encontrar las dimensiones del casco de la plataforma que minimicen el movimiento
vertical de la misma y cumplan con varias restricciones de proyecto, como de
movimiento, de construcción y de ensamblaje.

La naturaleza del problema y la cantidad de restricciones acabaron reduciendo


drásticamente el número de configuraciones viables, de esta forma, fue necesario
usar un algoritmo de optimización robusto, capaz de encontrar las regiones viables.
Los estudios incluyeron análisis hidrodinámicos, de estabilidad y de fatiga.

Finalmente, otra ventaja de la metodología de optimización en ingeniería es la


facilidad de acoplar distintas áreas de estudio en un mismo proyecto. Esta área
conocida como Multidisciplinary Design Optimization (MDO) permite encontrar el
design óptimo tomando en cuenta al mismo tiempo: Fluidodinámica, Análisis
Estructural, Electromagnetismo, Costos, Logística etc. Esto es importante, ya que
la mayoría de los proyectos de ingeniería es de naturaleza multidisciplinar.

CONCLUSIÓN
Optimizar un proceso implicar en primer lugar poseer el conocimiento total del
mismo, es decir, se necesita poseer toda la información relativa de las operaciones
realizadas en forma sistemática.

Solamente conociendo el proceso en su totalidad se puede proceder al Análisis del


mismo y de las operaciones para su mejoramiento.

BIBLIOGRAFÍA
1. Duran, M. A. & Grossmann, I. E. (1986) Simultaneous Optimization and Heat
Integration of Chemical Processes. AIChE Journal, Vol. 32 pp 123.
2. Perry, R. (2008). Perry´s chemical engineer´s handbook. 8th Ed. Nueva York,
EEUU: Mc Graw Hill.
3. Peters, M. S., Timmerhaus, K. D.(2002) Plant Design and Economics for
Chemical Engineers. 5th ed.New York: McGraw Hill.

29
4. Reklaitis, G. V., Ravindran, A. Ragsdell, K. M. (2006) Enginnering
Optimization. Methods and Applications. 2d. Ed.. New York. USA: John Wiley
& Sons.
5. Rudd, D. F. y Watson, C. C. (1986). Estrategias en Ingeniería de Procesos.
Alhambra. España: Ed. Alhambra.
6. Scenna, N. (1999) Modelado, Simulación y Optimización de Procesos
Químicos. Libro electrónico obtenido el 9 de febrero del 2010 en:
http://www.modeladoeningenieria.edu.ar/libros/modeinge/modinge.htm.
7. Seider, W. D., Seader J. D. and Lewin,D.R., Widagdo R. (2009) Product &
Process Design Principles, 3th. Ed. USA: John Wiley &Sons Inc.
8. Turton, R., (2009) Analysis, Synthesis, and Design of Chemical Processes.
USA : Prentice Hall International.
9. Ulrich, G.D. Procesos de Ingeniería Química.(1986).. México: Nueva Editorial
Interamericana. S.A. de C.V.
10. Vilbrand, F.C., Dryden, Ch. E. Chemical Engineering Plant Design.
4thEdition. International Student Edition. Mc Graw Hill Int. Book Co. U.S.A.
1999.

30

También podría gustarte