Está en la página 1de 16

INGENIERÍA BIOQUÍMICA

TEMA II: Optimización


Investigación de Optimización de funciones no restringidas.

Integrantes del equipo:


Ramírez Ramírez David 17080046
Apellido Paterno Apellido Materno Nombre(s) Número de control

Nombre de la Asignatura: Periodo:


Ingeniería de procesos Enero-Junio 2021

Semestre: ¨8¨ Grupo: A

Nombre del M.A. Torres Cruz Sergio


Docente: Apellido Paterno Apellido Materno Nombre(s)
4.2.1. Métodos numéricos para optimización de funciones.
Todos los problemas investigados en un análisis de optimización tendrán como objetivo la
mejora del sistema o sistemas. Está claro que para mejorar cualquier sistema es necesario que
se pueda obtener una solución, en otras palabras, es necesario que una vez definidas las
entradas a un sistema, podamos encontrar las salidas correspondientes. Si esto no es posible,
no podremos diseñar, ni operar, ni controlar el sistema y mucho menos optimizarlo.

Si el problema está completamente definido por un conjunto de entradas específicas, la salida


estará también fijada. Por ejemplo, el volumen de un cilindro puede determinarse si se
conocen la altura y el diámetro. No se puede mejorar el sistema a menos que se elimine una
de las especificaciones. Cuando un sistema no está completamente definido se denomina
indeterminado y existe la posibilidad, al menos en principio, de un número infinito de
soluciones. Esta es una condición necesaria para que pueda utilizarse la optimización en el
análisis de un sistema.

Normalmente ningún problema tiene solución única y por lo tanto es necesario escogerla
mejor entre todas las posibles, Pero ¿cómo puede conseguirse esto? En primer lugar, es
necesario definir el objetivo del estudio que puede variar de un problema a otro, pero para
aplicaciones industriales generalmente será económico o técnico. Como objetivos
económicos podemos citar "máximo beneficio", "mínimo coste", "máxima rentabilidad",
etc., mientras que como objetivos técnicos podemos citar "mayor rendimiento de un producto
determinado en un reactor", "menor volumen para un reactor", "menor área de intercambio
en un cambiador de calor", etc. Normalmente la mayoría de las optimizaciones industriales
se llevan a cabo en un marco económico.

Hasta que no se decide cual va a ser el objetivo del estudio no puede esperarse ninguna mejora
ya que no existe base de comparación. Debe tenerse en cuenta que no todos los problemas
son susceptibles de un análisis cuantitativo, aunque todos tengan el objetivo común de crear
un conjunto de condiciones mejor para conseguir los mejores resultados posibles. De todas
formas, es necesario tener siempre una medida cuantitativa para proporcionar una base de
comparación y poder formular los problemas, aunque para ello haya que asignar unos
números relativos de forma empírica para evaluar un conjunto de condiciones. Esta forma
cuantitativa de expresar el objetivo se denomina "función objetivo" y relaciona el criterio de
selección con las variables del sistema.

1Función objetivo = F (variables de diseño)


Una característica de muchos problemas de optimización, especialmente en el diseño y
operación de plantas, es la presencia de influencias opuestas. Así, un proceso puede llevarse
a cabo con muy poco o ningún tipo de control dando lugar a un producto de baja calidad, sin
embargo, el uso de automatismos permite obtener un producto de mejor calidad debido a un
mayor nivel en el sistema de control, pero aumentará considerablemente los costes de
mantenimiento.

Un ejemplo sencillo que muestra claramente las influencias opuestas es la elección de un


cambiador de calor para conseguir un enfriamiento determinado. Debido a su colocación no
puede asociársele un beneficio, por lo que debemos centrarnos en los costes relativos de
operación entre varios diseños alternativos. Puede tomarse como variable de diseño el caudal
del fluido refrigerante, por ejemplo. Cuanto mayor sea el caudal, mayor será el coeficiente
de transmisión de calor y menor será el área de intercambio necesaria, reduciendo así la
inversión (menores costes de amortización). Por el contrario, a medida que aumente el
caudal, aumentarán los costes de bombeo, aumentando los costes de operación. Los dos
componentes del coste total tienen el efecto que se aprecia en la figura:

En todas estas situaciones existe siempre una forma de compromiso. Una operación acostes
bajos puede ser deseable, pero suele ir unida a un aumento de la inversión, por lo que es
esencial lograr un equilibrio entre ambas partes. Ya veremos más adelante que el punto de
equilibrio dependerá bastante de la forma y tipo del objetivo elegido.

Aunque los métodos de optimización se utilizan para conseguir el mejor resultado posible en
una situación dada, es decir, para obtener el "mejor absoluto", no siempre será posible hacerlo
debido a la presencia de restricciones. Existen muy pocas situaciones en las que las variables
de las que depende la función objetivo puedan variar libremente sin que estén sometidas a
ningún tipo de restricción. Normalmente las variables de diseño(independientes) no son
totalmente libres, sino que tienen su variación limitada ya sea en su magnitud absoluta o en
relación a las otras variables.

Podemos tomar como ejemplo de un problema sin restricciones el caso de un proceso de


extracción en el que obtendremos la máxima extracción usando una cantidad infinita de
disolvente. Obtendremos un "mejor absoluto" en el sentido de recuperar totalmente el soluto.
Cuando se imponen restricciones, por ejemplo, en la disponibilidad del disolvente, la
cantidad de soluto recuperada será menor, pero si resulta ser la máxima posible en estas
condiciones se tratará de un óptimo relativo a esa restricción.

4.2.2. Método de Newton.


El método de Newton fue descrito por Isaac Newton en De analysi per aequationes número
terminorum infinitas (escrito en 1669, publicado en 1711 por William Jones) y en De metodis
fluxionum et serierum infinitarum (escrito en 1671, traducido y publicado como Método de
las fluxiones en 1736 por John Colson). Sin embargo, su descripción difiere en forma
sustancial de la descripción moderna presentada más arriba: Newton aplicaba el método solo
a polinomios, y no consideraba las aproximaciones sucesivas xn, sino que calculaba una
secuencia de polinomios para llegar a la aproximación de la raíz x. Finalmente, Newton ve
el método como puramente algebraico y falla al no ver la conexión con el cálculo.

Isaac Newton probablemente derivó su método de forma similar aunque menos precisa del
método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo
del matemático persa Sharaf al-Din al-Tusi.

El método de Newton-Raphson es llamado así por la razón de que el matemático inglés


Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal Society en 1691
por su libro aequationum universalis Análisis que publico en 1690 y el cual contenía este
método para aproximar raíces. Mientras que Newton en su libro Método de las fluxiones
describe el mismo método escrito en 1671, pero publicado hasta 1736, lo que significa que
Raphson había publicado este resultado casi 50 años antes, aunque no fue tan popular como
los trabajos de Newton y se le reconoció posteriormente.

Descripción del método

La función ƒ es mostrada en azul y la


línea tangente en rojo. Vemos que xn+1 es
una mejor aproximación que xn para la
raíz x de la función f.

El método de Newton-Raphson es un método abierto, en el sentido de que su convergencia


global no está garantizada. La única manera de alcanzar la convergencia es seleccionar un
valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración
con un valor razonablemente cercano al cero (denominado punto de arranque o valor
supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de
la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el
entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual
exige seleccionar un valor supuesto cercano a la raíz. Una vez se ha hecho esto, el método
linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de
dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior.
Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente.

Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada número natural n
Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable
con forma analítica o implícita cognoscible. Existen variantes del método aplicables a
sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos que
extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.

Obtención del Algoritmo

Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de
Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al


desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de
iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante se
sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración trazamos
la tangente a la curva, por extensión con el método de la secante, el nuevo punto de iteración
se tomará como la abscisa en el origen de la tangente (punto de corte de la tangente con el
eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por una recta tal
que contiene al punto (x0, f (x0)) y cuya pendiente coincide con la derivada de la función en
el punto, f'(x0). La nueva aproximación a la raíz, x1, se logra la intersección de la función
lineal con el eje X de abscisas. Matemáticamente:

Ilustración de una iteración del método de


Newton (la función f se demuestra en azul y la
línea de la tangente está en rojo). Vemos que xn +
1 es una aproximación mejor que xn para la raíz x
de la función f.
En la ilustración adjunta del método de Newton
se puede ver que xn + 1 es una mejor aproximación
que xn para el cero (x) de la función f
Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de
Taylor, para un entorno del punto xn:

Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1:

Si además se acepta que xn + 1 tiende a la raíz, se ha de cumplir que f(xn + 1) = 0, luego,


sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un
método de iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede considerar el
siguiente método de iteración de punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson

Convergencia del Método


El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la raíz
buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el método
de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de constante
asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los métodos de
aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de
Newton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergencia
cuadrática sin más que modificar el algoritmo a:

Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual


no siempre es posible. Por ello también se puede modificar el algoritmo tomando una función
auxiliar g(x) = f(x)/f'(x), resultando:

Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x)
no es fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual
en base a tratar el método como uno de punto fijo: si g'(r)=0, y g' '(r) es distinto de 0, entonces
la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos
métodos.

Nótese de todas formas que el método de Newton-Raphson es un método abierto: la


convergencia no está garantizada por un teorema de convergencia global como podría estarlo
en los métodos de falsa posición o de bisección. Así, es necesario partir de una aproximación
inicial próxima a la raíz buscada para que el método converja y cumpla el teorema de
convergencia local.

Estimación del Error


Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si α
es raíz, entonces:

para una cierta constante C. Esto significa que, si en algún momento el error es menor o igual
a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales exactos.
En la práctica puede servir para hacer una estimación aproximada del error:

Error relativo entre dos aproximaciones sucesivas:

Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto.
Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una
cantidad fijada previamente.

Teorema de Convergencia Local del Método de Newton

Sea . Si , y , entonces existe un r>0 tal

que sí , entonces la sucesión xn con verifica que: para


todo n y xn tiende a p cuando n tiende a infinito.

Si además , entonces la convergencia es cuadrática.

Ejemplo

Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos
tratar de encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos
que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5
Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de
decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se
incrementa desde 2 (para x3) a 5 y 10, ilustrando la convergencia cuadrática.

4.2.3. Método de Semi-Newton (Quasi-Newton).


Los métodos cuasi-Newton son métodos que se utilizan para encontrar ceros o máximos y
mínimos locales de funciones, como alternativa al método de Newton. Se pueden usar si el
jacobiano o el hessiano no están disponibles o son demasiado costosos de calcular en cada
iteración. El método de Newton "completo" requiere el jacobiano para buscar ceros, o el
hessiano para encontrar extremos.

Este método es una solución a las limitaciones del método de Newton. En el caso en que la
función objetivo no sea conocida o no puedan evaluarse las derivadas, estas pueden
reemplazarse por aproximaciones de diferencias finitas:

La desventaja adicional de este método consiste en la necesidad de evaluar funciones


adicionales en cada iteración, también es necesario conocer el valor de h (paso de la
diferencia finita).

4.2.4. Método de la Secante.


El principal inconveniente del método de Newton estriba en que requiere conocer el valor de
la primera derivada de la función en el punto, lo cual puede llegar a resultar engorroso. Sin
embargo, la forma funcional de f (x) dificulta en ocasiones el cálculo de la derivada. El
método de la secante es casi idéntico al de regula falso salvo por un detalle: no se tiene en
cuenta el signo de la función para estimar el siguiente punto. Se procede independientemente
de los signos de la función. De todas maneras, en algunos casos es más útil emplear el método
de la secante.

Este método, a diferencia del de bisección y regla falsa, casi nunca falla ya que solo requiere
de 2 puntos al principio, y después el mismo método se va retroalimentando. Lo que hace
básicamente es ir tirando rectas secantes a la curva de la ecuación que se tiene originalmente,
y va chequeando la intersección de esas rectas con el eje de las X para ver si es la raíz que se
busca.

Fig. 1Representación grafica del método de la secante

Una forma de evitar el cálculo de f '(x) consiste en considerar como aproximación a la


derivada la recta que pasa por los valores de 2 iteraciones sucesivas (estima la tangente) es
𝑓 (𝑥1 )−𝑓(𝑥0 )
decir, la pendiente de la recta)f ′(𝑥0 ) = 𝑥1 −𝑥0
. Esta variante se conoce con el nombre de

método de la Secante. Sustituyendo esta expresión en la ecuación del método de Newton, se


obtiene la expresión del método de la secante que proporciona el siguiente punto de
𝑓(𝑥1 )−𝑓(𝑥0 )
iteración:𝑥2 = 𝑥1 − 𝑓(𝑥1 )
𝑥1 −𝑥0
Fig. 2 Representación geométrica de las iteraciones al aplicar el método de la secante

La sucesión queda expresada en términos generales como:

𝑓 (𝑥𝑛−1 ) − 𝑓 (𝑥𝑛−2 )
𝑥𝑛 = 𝑥𝑛−1 − [ ] 𝑓(𝑥𝑛−1 )
𝑓 (𝑥𝑛−1 ) − 𝑓 (𝑥𝑛−2 )

A partir de ciertos valores 𝑥0 y 𝑥1 dados. El algoritmo deberá parar cuando |𝑥𝑛+1 − 𝑥𝑛 | sea
menor que la precisión requerida. Obviamente, para poder arrancar el método se necesitan
dos valores iniciales.

Forma de hacerlo:

Primero hay que definir algunos conceptos como:

• 𝑥𝑛 Es el valor actual de X
• 𝑥𝑛−1 Es el valor anterior de X
• 𝑥𝑛+1 Es el valor siguiente de X

Como su nombre lo dice, este método va trazando rectas secantes a la curva original, y como
después del primer paso no depende de otras cantidades, sino que solito va usando las que ya
se obtuvieron, casi nunca falla porque se va acomodando y hará que encuentra la raíz.

Lo primero que se hace, igual que con otros métodos es dar 2 puntos cualesquiera que sean
sobre el eje de las X que se llaman A y C.

Después se sustituyen esos puntos en la ecuación original para obtener f(A) y f(C). Una vez
que se tienen todos esos datos se obtiene el punto B con la fórmula B=((Af(C))-
(C(f(A)))/(f(C)-f(A)).
A diferencia del resto de los métodos, aquí no hay que acomodar en columnas cada uno de
los datos, sino que se utiliza la simplificación de conceptos y como se simplifica la fórmula
para seguir con el método.

Aquí solo se usan 2 columnas, una de 𝑥𝑛 y de otra 𝑓(𝑥𝑛 )f.

4.2.5. Métodos de eliminación de regiones.


Método de la Sección Dorada

En el método de la sección dorada, el intervalo se reduce a (0.618)𝑛−1 después de 𝑛


evaluaciones de la función objetivo. De tal forma, el número de evaluaciones de la función
objetivo que se requieren para lograr una precisión deseada ∈ se calcula resolviendo (para 𝑛)
la siguiente ecuación: (0.618)𝑛−1 (𝑏 − 𝑎) =∈.

Al igual que en la búsqueda de Fibonacci, sólo se requiere una evaluación de la función


objetivo por iteración y la eliminación regional efectiva por evaluación de la función es
exactamente 38.2 %, que es un valor más alto que en el método de división de intervalos por
la mitad. Esta cantidad es la misma que en la búsqueda de Fibonacci para un valor grande de
n. De hecho, para un valor grande de n, el método de Fibonacci es equivalente a la sección
dorada.

Comparación de los Métodos de Eliminación de Regiones

Comparemos ahora las eficiencias relativas de los métodos de eliminación de regiones que
hemos visto hasta ahora. Denotemos el intervalo de incertidumbre original como Lo y al
intervalo de incertidumbre final, después de N evaluaciones de la función objetivo le
llamaremos LN. Supongamos ahora que consideramos a la reducción fraccional (RF) del
intervalo original como una medida de mérito de los métodos de eliminación de regiones.
𝐿𝑁
Tenemos entonces: 𝑅𝐹 (𝑁) = 𝐿𝑜

La siguiente tabla muestra los intervalos finales de incertidumbre de cada uno de los métodos
que vimos:
Las reducciones fraccionales pueden obtenerse fácilmente:

𝐿𝑁 2𝐿 2
Búsqueda exhaustiva: 𝑅𝐹 (𝑁) = = 𝑁𝐿𝑜𝑜 = 𝑁
𝐿𝑜

𝑁
𝐿𝑁 0,5 ⁄2𝐿𝑜 𝑁⁄
División de intervalos por la mitad: 𝑅𝐹 (𝑁) = = = 0,5 2
𝐿𝑜 𝐿𝑜

𝐿𝑁 2𝐿𝑜 2
Fibonacci: 𝑅𝐹 (𝑁) = =𝐹 =𝐹
𝐿𝑜 𝑁+1 𝐿𝑜 𝑁+1

𝐿𝑁 (0,618)𝑁−1 𝐿𝑜
Sección Dorada: 𝑅𝐹 (𝑁) = 𝐿𝑜
= 𝐿𝑜
= (0,618)𝑁−1

La siguiente tabla muestra los valores de RF(N) para distintos valores de N. Estos valores
son indicativos de la eficiencia de cada método.

De esta tabla se desprende que el método más eficiente es el de Fibonacci, seguido por la
sección dorada.

En la práctica, suele calcularse el número de iteraciones que se requieren para obtener una
precisión dada. Esto se puede obtener usando:

𝐿𝑁 =∈

∈= precisión requerida. Si usamos Lo = 1, podemos obtener el número de iteraciones que


requiere cada método para lograr una precisión dada. Ver la tabla siguiente:
Métodos de Aproximación Polinomial o Estimación de Puntos

Los métodos de eliminación de regiones que vimos anteriormente, sólo requieren que la
función sea unimodal. Por tanto, son aplicables tanto a funciones continuas como
discontinuas, así como a problemas con variables discretas. La lógica de estos métodos se
basa en una simple comparación de valores de la función en 2 puntos diferentes. Además,
esta comparación sólo toma en cuenta el ordenamiento de los valores de la función y no
involucra de manera alguna a las magnitudes de la diferencia entre valores funcionales.

Los métodos de estimación de puntos sí toman en cuenta las magnitudes relativas de los
valores de la función y, en consecuencia, suelen tener mejor desempeño que los métodos de
eliminación de regiones. Sin embargo, esta mejora en eficiencia se obtiene a partir de requerir
que las funciones a optimizarse sean sufrientemente “suaves”.

La idea básica de los métodos de estimación de puntos es que, si la función es suficientemente


“suave”, entonces puede ser aproximada mediante un polinomio, y dicho polinomio puede
entonces usarse para predecir la ubicación del ´optimo. Para que esta estrategia sea efectiva,
es necesario que la función a optimizarse sea tanto unimodal como continua.

El teorema de la aproximación de Weierstrass garantiza que, si la función es continua en el


intervalo considerado, entonces ´esta puede ser aproximada con la precisión deseada usando
polinomios de un orden suficientemente alto. Consecuentemente, si la función es unimodal
y se cuenta con un polinomio que la aproxime razonablemente bien, entonces la ubicación
del ´optimo puede predecirse razonablemente bien usando el polinomio en cuestión.

El teorema de Weierstrass también sugiere que se puede mejorar nuestra aproximación del
´optimo usando polinomios de aproximación mediante alguno de los 2 mecanismos
siguientes: 1. Usando un polinomio de mayor orden, o 2. Reduciendo el intervalo sobre el
cual se aproximar ‘a el ´óptimo de la función.
De entre estas 2 opciones, suele preferirse la segunda, porque el ´algebra de los polinomios
de un orden superior a tres se complica bastante y, debido a la premisa de una modalidad, la
reducción de intervalos es mucho más fácil de realizarse.

El método de interpolación lineal más simple es la aproximación cuadrática. Se basa en la


observación de que, si una función alcanza su mínimo en el interior de un intervalo, entonces
debe ser al menos cuadrática. Si es lineal, se supondrá que su ´optimo se encuentra en alguno
de los extremos del intervalo. Por tanto, un esquema de estimación cuadrática presupone que,
dentro del intervalo dado, la función puede ser aproximada mediante una cuadrática y dicha
aproximación mejorar ‘a conforme los puntos utilizados para construir la aproximación se
acercan al mínimo real.

Bibliografía
CHAN KEB, C. A. R. L. O. S. (s. f.). Ingerniería de Procesos. Sylabus. Recuperado 14 de
abril de 2021, de https://www.itescam.edu.mx/portal/asignatura.php?clave_asig=BQM-
0520&carrera=IBQA-2005-288&id_d=142

También podría gustarte