Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Normalmente ningún problema tiene solución única y por lo tanto es necesario escogerla
mejor entre todas las posibles, Pero ¿cómo puede conseguirse esto? En primer lugar, es
necesario definir el objetivo del estudio que puede variar de un problema a otro, pero para
aplicaciones industriales generalmente será económico o técnico. Como objetivos
económicos podemos citar "máximo beneficio", "mínimo coste", "máxima rentabilidad",
etc., mientras que como objetivos técnicos podemos citar "mayor rendimiento de un producto
determinado en un reactor", "menor volumen para un reactor", "menor área de intercambio
en un cambiador de calor", etc. Normalmente la mayoría de las optimizaciones industriales
se llevan a cabo en un marco económico.
Hasta que no se decide cual va a ser el objetivo del estudio no puede esperarse ninguna mejora
ya que no existe base de comparación. Debe tenerse en cuenta que no todos los problemas
son susceptibles de un análisis cuantitativo, aunque todos tengan el objetivo común de crear
un conjunto de condiciones mejor para conseguir los mejores resultados posibles. De todas
formas, es necesario tener siempre una medida cuantitativa para proporcionar una base de
comparación y poder formular los problemas, aunque para ello haya que asignar unos
números relativos de forma empírica para evaluar un conjunto de condiciones. Esta forma
cuantitativa de expresar el objetivo se denomina "función objetivo" y relaciona el criterio de
selección con las variables del sistema.
En todas estas situaciones existe siempre una forma de compromiso. Una operación acostes
bajos puede ser deseable, pero suele ir unida a un aumento de la inversión, por lo que es
esencial lograr un equilibrio entre ambas partes. Ya veremos más adelante que el punto de
equilibrio dependerá bastante de la forma y tipo del objetivo elegido.
Aunque los métodos de optimización se utilizan para conseguir el mejor resultado posible en
una situación dada, es decir, para obtener el "mejor absoluto", no siempre será posible hacerlo
debido a la presencia de restricciones. Existen muy pocas situaciones en las que las variables
de las que depende la función objetivo puedan variar libremente sin que estén sometidas a
ningún tipo de restricción. Normalmente las variables de diseño(independientes) no son
totalmente libres, sino que tienen su variación limitada ya sea en su magnitud absoluta o en
relación a las otras variables.
Isaac Newton probablemente derivó su método de forma similar aunque menos precisa del
método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo
del matemático persa Sharaf al-Din al-Tusi.
Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada número natural n
Donde f ' denota la derivada de f.
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable
con forma analítica o implícita cognoscible. Existen variantes del método aplicables a
sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos que
extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de
Newton-Raphson.
Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un
método de iteración de punto fijo. Así, dada la ecuación f(x) = 0, se puede considerar el
siguiente método de iteración de punto fijo:
Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:
Entonces:
Como h (x) no tiene que ser única, se escoge de la forma más sencilla:
Existen numerosas formas de evitar este problema, como pudieran ser los métodos de
aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de
Newton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergencia
cuadrática sin más que modificar el algoritmo a:
Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x)
no es fácilmente derivable.
Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual
en base a tratar el método como uno de punto fijo: si g'(r)=0, y g' '(r) es distinto de 0, entonces
la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos
métodos.
para una cierta constante C. Esto significa que, si en algún momento el error es menor o igual
a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales exactos.
En la práctica puede servir para hacer una estimación aproximada del error:
Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto.
Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una
cantidad fijada previamente.
Ejemplo
Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos
tratar de encontrar el cero de f(x) = cos(x) - x3.
Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos
que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5
Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de
decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se
incrementa desde 2 (para x3) a 5 y 10, ilustrando la convergencia cuadrática.
Este método es una solución a las limitaciones del método de Newton. En el caso en que la
función objetivo no sea conocida o no puedan evaluarse las derivadas, estas pueden
reemplazarse por aproximaciones de diferencias finitas:
Este método, a diferencia del de bisección y regla falsa, casi nunca falla ya que solo requiere
de 2 puntos al principio, y después el mismo método se va retroalimentando. Lo que hace
básicamente es ir tirando rectas secantes a la curva de la ecuación que se tiene originalmente,
y va chequeando la intersección de esas rectas con el eje de las X para ver si es la raíz que se
busca.
𝑓 (𝑥𝑛−1 ) − 𝑓 (𝑥𝑛−2 )
𝑥𝑛 = 𝑥𝑛−1 − [ ] 𝑓(𝑥𝑛−1 )
𝑓 (𝑥𝑛−1 ) − 𝑓 (𝑥𝑛−2 )
A partir de ciertos valores 𝑥0 y 𝑥1 dados. El algoritmo deberá parar cuando |𝑥𝑛+1 − 𝑥𝑛 | sea
menor que la precisión requerida. Obviamente, para poder arrancar el método se necesitan
dos valores iniciales.
Forma de hacerlo:
• 𝑥𝑛 Es el valor actual de X
• 𝑥𝑛−1 Es el valor anterior de X
• 𝑥𝑛+1 Es el valor siguiente de X
Como su nombre lo dice, este método va trazando rectas secantes a la curva original, y como
después del primer paso no depende de otras cantidades, sino que solito va usando las que ya
se obtuvieron, casi nunca falla porque se va acomodando y hará que encuentra la raíz.
Lo primero que se hace, igual que con otros métodos es dar 2 puntos cualesquiera que sean
sobre el eje de las X que se llaman A y C.
Después se sustituyen esos puntos en la ecuación original para obtener f(A) y f(C). Una vez
que se tienen todos esos datos se obtiene el punto B con la fórmula B=((Af(C))-
(C(f(A)))/(f(C)-f(A)).
A diferencia del resto de los métodos, aquí no hay que acomodar en columnas cada uno de
los datos, sino que se utiliza la simplificación de conceptos y como se simplifica la fórmula
para seguir con el método.
Comparemos ahora las eficiencias relativas de los métodos de eliminación de regiones que
hemos visto hasta ahora. Denotemos el intervalo de incertidumbre original como Lo y al
intervalo de incertidumbre final, después de N evaluaciones de la función objetivo le
llamaremos LN. Supongamos ahora que consideramos a la reducción fraccional (RF) del
intervalo original como una medida de mérito de los métodos de eliminación de regiones.
𝐿𝑁
Tenemos entonces: 𝑅𝐹 (𝑁) = 𝐿𝑜
La siguiente tabla muestra los intervalos finales de incertidumbre de cada uno de los métodos
que vimos:
Las reducciones fraccionales pueden obtenerse fácilmente:
𝐿𝑁 2𝐿 2
Búsqueda exhaustiva: 𝑅𝐹 (𝑁) = = 𝑁𝐿𝑜𝑜 = 𝑁
𝐿𝑜
𝑁
𝐿𝑁 0,5 ⁄2𝐿𝑜 𝑁⁄
División de intervalos por la mitad: 𝑅𝐹 (𝑁) = = = 0,5 2
𝐿𝑜 𝐿𝑜
𝐿𝑁 2𝐿𝑜 2
Fibonacci: 𝑅𝐹 (𝑁) = =𝐹 =𝐹
𝐿𝑜 𝑁+1 𝐿𝑜 𝑁+1
𝐿𝑁 (0,618)𝑁−1 𝐿𝑜
Sección Dorada: 𝑅𝐹 (𝑁) = 𝐿𝑜
= 𝐿𝑜
= (0,618)𝑁−1
La siguiente tabla muestra los valores de RF(N) para distintos valores de N. Estos valores
son indicativos de la eficiencia de cada método.
De esta tabla se desprende que el método más eficiente es el de Fibonacci, seguido por la
sección dorada.
En la práctica, suele calcularse el número de iteraciones que se requieren para obtener una
precisión dada. Esto se puede obtener usando:
𝐿𝑁 =∈
Los métodos de eliminación de regiones que vimos anteriormente, sólo requieren que la
función sea unimodal. Por tanto, son aplicables tanto a funciones continuas como
discontinuas, así como a problemas con variables discretas. La lógica de estos métodos se
basa en una simple comparación de valores de la función en 2 puntos diferentes. Además,
esta comparación sólo toma en cuenta el ordenamiento de los valores de la función y no
involucra de manera alguna a las magnitudes de la diferencia entre valores funcionales.
Los métodos de estimación de puntos sí toman en cuenta las magnitudes relativas de los
valores de la función y, en consecuencia, suelen tener mejor desempeño que los métodos de
eliminación de regiones. Sin embargo, esta mejora en eficiencia se obtiene a partir de requerir
que las funciones a optimizarse sean sufrientemente “suaves”.
El teorema de Weierstrass también sugiere que se puede mejorar nuestra aproximación del
´optimo usando polinomios de aproximación mediante alguno de los 2 mecanismos
siguientes: 1. Usando un polinomio de mayor orden, o 2. Reduciendo el intervalo sobre el
cual se aproximar ‘a el ´óptimo de la función.
De entre estas 2 opciones, suele preferirse la segunda, porque el ´algebra de los polinomios
de un orden superior a tres se complica bastante y, debido a la premisa de una modalidad, la
reducción de intervalos es mucho más fácil de realizarse.
Bibliografía
CHAN KEB, C. A. R. L. O. S. (s. f.). Ingerniería de Procesos. Sylabus. Recuperado 14 de
abril de 2021, de https://www.itescam.edu.mx/portal/asignatura.php?clave_asig=BQM-
0520&carrera=IBQA-2005-288&id_d=142