Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DE MXICO
FACULTAD DE INGENIERIA
T E S I S
P R E S E N T A:
DIRECTOR DE TESIS:
DR. TEODORO IVN GUERRERO SARABIA
2016
Investigacin realizada gracias al Programa
UNAM-DGAPA-PAPIIT (PE102516)
UN AGRADECIMIENTO ESPECIAL AL DOCTOR
TEODORO IVAN GUERRERO SARABIA Y AL
GRUPO DE INVESTIGACIN EN INGENIERA
MULTIFSICA Y ASEGURAMIENTO DE FLUJO
(GIIMAF) POR LA DIRECCIN DE ESTE
TRABAJO DE TESIS.
Contenido
ECUACIONES NO LINEALES 4
1.1 Generalidades 4
1.2 Mtodos Iterativos 6
1.2.1 Mtodo de punto fijo 8
1.2.2 Mtodo de Biseccin 12
1.2.3 Mtodo de la falsa posicin 15
1.2.4 Mtodo de Newton-Raphson 20
1.2.5 Mtodo de la secante 28
1.2.6 Mtodo de Halley 31
1.2.7 Mtodo de Chebyshev 34
1.2.8 Aceleracin de la convergencia: mtodo 2 de Aitken y mtodo de
Steffensen 36
1.2.9 Resumen de los mtodos iterativos 38
1.3 Mtodos para calcular races de polinomios 39
1.3.1 Mtodos analticos 40
1.3.2 Mtodo de Mller 43
1.3.3 Mtodo de Newton para polinomios 46
1.3.4 Mtodo de Bairstow 48
1.3.5 Mtodo de Laguerre 51
SISTEMAS DE ECUACIONES NO LINEALES 52
2.1 Generalidades 52
2.2 Iteracin de punto fijo para SENL 53
2.3 Mtodo de Newton multivariable 56
2.3.1 Modificaciones al mtodo de Newton 58
2.4 Mtodos cuasi-Newton 60
2.4.1 Mtodo de Broyden 61
2.4.2 Mtodo de Broyden-Fletcher-Goldfarb-Shanno (BFGS) 62
2.4.3 Mtodo de Davidon-Fletcher-Powell (DFP) 63
OPTIMIZACIN UNIDIMENSIONAL 64
3.1 Generalidades 64
3.3.1 Mtodo de la seccin dorada 66
3.2.2 Interpolacin cuadrtica 70
i
3.2.3 Mtodo de Newton 71
OPTIMIZACIN MULTIDIMENSIONAL 72
4.1 Generalidades 72
4.2 Mtodos de Descenso 75
4.2.1 Mtodo de gradiente conjugado 78
4.3 Mtodo Gauss-Newton 80
4.4 Mtodo de Levenberg-Marquardt 82
4.5 Otros mtodos 84
Conclusiones 89
Recomendaciones 90
Referencias 91
ii
Lista de tablas
Lista de Figuras
iii
Figura 1.20 Algoritmo del mtodo de Chebyshev 34
Figura 1.21 Algoritmo del mtodo de Steffesen 36
Figura 1.22 Mtodo de Mller 43
Figura 1.23 Algoritmo del mtodo de Mller 45
Figura 1.24 Algoritmo del mtodo de Newton 47
Figura 1.25 Algoritmo del mtodo de Bairstow 51
Figura 1.26 Algoritmo del mtodo de Laguerre 52
Figura 2.1 Mtodos para resolver sistemas de ecuaciones no lineales 54
Figura 2.2 Algoritmo de iteracin punto fijo en SENL 55
Figura 2.3 Mtodo de Newton multivariable 58
Figura 3.1 Races, mximos y mnimos 65
Figura 3.2 Mximo local 65
Figura 3.3 Mnimo 65
Figura 3.4 Punto de inflexin 65
Figura 3.5 Mtodos de optimizacin unidimensional. 66
Figura 3.6 Definicin de Sub-intervalos en el Mtodo de la seccin
dorada 67
Figura 3.7 Clculo de los puntos internos 69
Figura 3.8 Actualizacin del Intervalo de Bsqueda con el Mtodo de
la Seccin Dorada 69
Figura 3.9 Mtodo de interpolacin cuadrtica 70
Figura 4.1 Mtodos multivariables 74
Figura 4.2 el descenso ms rpido, curvas de nivel 77
iv
Resumen
Muchos de estos mtodos les pueden resultar difciles de entender a los estudiantes
de ingeniera petrolera por la manera en que comnmente son descritos en la
literatura; o bien, puede ser que simplemente no los conozcan. Por lo tanto, el
objetivo de este trabajo es presentar de manera sencilla algunos mtodos para
resolver ecuaciones y problemas de optimizacin no lineales, y motivar su inters
en estos tpicos.
v
Abstract
This paper begins with a description of methods for solving non-linear equations.
Their advantages and disadvantages are mentioned, and some strategies to
accelerate their convergence are discussed. Analytical and numerical methods for
calculating roots of polynomials are presented. In regards to non-linear equation
systems, the fixed point method is tackled in its multidimensional version, Newton
method for several variables, and quasi-Newton methods. Some one-dimensional
and multi-dimensional techniques optimization are described. Finally, an introduction
to optimization metaheuristic methods is presented.
vi
Introduccin
Pgina 1 de 91
Objetivo
Alcances
Pgina 2 de 91
Contenido
Pgina 3 de 91
Captulo 1
ECUACIONES NO LINEALES
En el presente captulo se presentan algunos conceptos generales sobre las
ecuaciones no lineales de una sola variable independiente, as como algunos
mtodos numricos para resolverlas.
1.1 Generalidades
El problema de resolver una ecuacin no lineal de la forma:
() = 0 , (1.1)
consiste en encontrar el o los valores que la anulan. A stos se les denomina
races, ceros o soluciones de la funcin ().
Tomando en cuenta que en general las races de las ecuaciones pueden ser reales
o complejas, los problemas de bsqueda de races pueden dividirse en dos (Chapra
& Canale, 1999) :
Pgina 4 de 91
Por otra parte, los mtodos de resolucin de las ecuaciones no lineales pueden
clasificarse en los siguientes rubros:
2 4
() = 2 + + = 0 = .
2
Pgina 5 de 91
1.2 Mtodos Iterativos
Los mtodos iterativos consisten en aplicar una regla determinada para generar una
sucesin de valores cada vez ms prximos a alguna de las races de la ecuacin
no lineal que se trata de resolver. Dependiendo de las caractersticas de la ecuacin,
de la aproximacin inicial y de la regla utilizada, los mtodos iterativos pueden o no
converger a la solucin.
Pgina 6 de 91
muy pequea. Por otro lado, si la longitud es muy grande, entonces las races
cercanas entre s pueden pasar inadvertidas. En este ltimo caso, si existen races
mltiples, se puede calcular la primera derivada de la funcin () al inicio y al final
de cada intervalo. Cuando la derivada cambia de signo, puede existir un mximo o
un mnimo en ese intervalo, lo que representa una bsqueda ms detallada para
detectar la posibilidad de una raz.
Orden de convergencia
|+1 |
2. > 1 si el lim = siendo 0 < < .
| |
Lineal si = 1.
Sper lineal s 1 < < 2.
Cuadrtica s = 2.
Cbica s = 3.
Pgina 7 de 91
TABLA 1.1 M TODOS ITERATIVOS PARA RESOLVER UNA ECUACIN NO LINEAL DE UNA
SOLA VARIABLE INDEPENDIENTE
Continuidad Tipo de
Mtodos Orden
de f ecuacin
Biseccin No Cualquiera Lineal
cerrados
Mtodos
Raphson
Halley Si Derivable Cbico
Steffensen Si Derivable Cbico
Chebyshev Si Derivable Cbico
Secante Si Cualquiera Sper lineal
Secante Si Cualquiera Cuadrtico
modificada
= () , (1.2)
donde () es una funcin auxiliar que se obtiene mediante operaciones
algebraicas sobre la funcin (). Si esto no es posible, entonces se define
() = () + .
Posteriormente, considerando una estimacin inicial del valor de la raz, , se
obtiene una nueva aproximacin +1, a partir de la siguiente frmula iterativa:
+1 = ( ) .
Imponiendo algunas restricciones sobre la definicin de la funcin (), como se
describe ms adelante, se espera que +1 se aproxime ms a la raz con cada
Pgina 8 de 91
iteracin. En la Figura 1.1 se presenta el algoritmo correspondiente. A continuacin
se presentan algunos conceptos importantes sobre este mtodo.
|( ) ( )| | | , | < 1 ,
donde recibe el nombre de factor de contractividad.
|()| < 1 ,
+1 = ( ), = 1, 2 ,
Aceleracin de la convergencia
+1 + +1 = + ( ) ,
Pgina 9 de 91
+ ( )
+1 = = ( ) .
1+
2. Calcular +1 = ( )
3. Si = +1
100% < tol., entonces el
procedimiento termina exitosamente.
Interpretacin geomtrica
= () ,
Pgina 10 de 91
1 = ,
2 = ( ) .
Pgina 11 de 91
< .
El mtodo diverge porque > 1.
< < .
< 1 el mtodo converge montonamente.
< < .
< 1 el mtodo converge de forma oscilatoria.
> .
El mtodo diverge porque > 1.
Teorema de Bolzano
Pgina 12 de 91
signo sobre el intervalo, se evala el valor de la funcin en el punto medio. La
posicin de la raz se determina situndola en el punto medio del nuevo sub-
intervalo, dentro del cual se mantiene el cambio de signo; de esta forma se asegura
que la raz quede encerrada en cada nuevo subintervalo. El proceso se repite hasta
obtener una aproximacin a la raz bajo la tolerancia prestablecida en lo clculos.
El algoritmo correspondiente se presenta en la Figura 1.5.
Ventajas y desventajas
Otra ventaja adicional del mtodo de biseccin es que permite calcular a priori el
nmero de iteraciones requeridas en funcin de la tolerancia prestablecida en los
clculos, como se describe a continuacin.
Sea:
0 = 0 0 = 0 ,
Pgina 13 de 91
0
1 = .
2
+
1. Calcular = .
2
3. Si > 0 : = ; =
.
En caso contrario: = ; = .
Regresar al punto 1.
0
= .
2
log( 0 /, ) 0 (1.3)
= = log 2 .
log 2 ,
Pgina 14 de 91
1.2.3 Mtodo de la falsa posicin
Un inconveniente del mtodo de biseccin es que al dividir siempre el intervalo
a la mitad, no se consideran las magnitudes de ( ) y ( ) para mejorar la
aproximacin en la siguiente iteracin. Por ejemplo, si ( ) est ms prxima a
cero que ( ), entonces la raz se encuentra ms cerca de . Esta informacin se
ignora en el mtodo de biseccin, de tal manera que la nueva estimacin de la raz
en algunas iteraciones puede aproximarse ms a la solucin, y en otras alejarse.
Esta es una caracterstica por la cual el mtodo de biseccin converge lentamente
hacia la solucin.
( ) ( )
= .
( )( ) (1.4 )
= .
( ) ( )
Otra forma de llegar a la formula anterior, es a partir de la definicin de la pendiente
de la recta:
( ) ( ) 0 ( )
= = .
Pgina 15 de 91
F IGURA 1.6 REPRESENTACIN GRFICA DEL MTODO DE LA FALSA POSICIN
Ventajas y desventajas
Ahora bien, una desventaja del mtodo de la falsa posicin es que no puede
estimarse a priori el nmero de iteraciones necesarias para satisfacer la tolerancia
en los clculos. Sin embargo, puede utilizarse la magnitud de la pendiente de la
funcin como un indicador para saber qu tan alejada se encuentra la raz de la
()
aproximacin actual. Si se cumple que () es pequea comparada con el valor
Pgina 16 de 91
Si en el intervalo , , se cumple que
< 0 , entonces hay una raiz en el
mismo.
( )( )
1. Calcular = .
( )
3. Si > 0 entonces: = ; = .
En caso contrario: = ; = .
Regresar al punto 1
Otra desventaja del mtodo de la falsa posicin es que en algunos casos puede
presentar problemas de convergencia. Dependiendo de las caractersticas de la
ecuacin a resolver y del intervalo inicial seleccionado, puede ocurrir que uno de los
valores iniciales permanezca fijo o estancado durante los clculos, mientras que
el otro converja lentamente (de manera lineal) hacia la raz
Pgina 17 de 91
F IGURA 1.8 C OMPARACIN DEL ERROR ENTRE EL
MTODO DE BISECCIN Y FALSA POSICIN
Pgina 18 de 91
F IGURA 1.9 R EPRESENTACIN GRFICA DEL
MTODO DE LA REGLA FALSA ESTANCADO
( )( ) ( 1.5 )
= [ ].
( ) ( )
Una vez que se ha resuelto el problema de estancamiento, se retoma el mtodo
original de la falsa posicin en las iteraciones siguientes.
Con la introduccin del factor es de esperar que el mtodo sea ms eficiente que
el de biseccin y el de la falsa posicin original.
Ahora bien, se han propuesto diferentes alternativas para establecer el valor de alfa,
las ms comunes son (Garca, 2004):
( )
= .
= 0.5. ( ) + ( +1 )
Pgina 19 de 91
Una vez identificado un extremo estancado:
1. Calcular = , donde
( )
= 0.5 (Illinois) o = ( )+(+1 ) (Pegasus).
4. Si > 0 entonces: = ; = .
En caso contrario: = ; = .
Regresar al punto 1
Pgina 20 de 91
() ( ) + ( ) ( ) .
( )
,
( )
( ) ( 1.6)
+1 = .
( )
Interpretacin geomtrica
Si el valor inicial para la raz es , entonces se puede trazar una tangente desde el
punto [ , ( )] de la curva, como se muestra en la Figura 1.9. Comnmente, el
punto donde esta tangente cruza al eje representa una aproximacin mejorada de
la raz (Chapra & Canale, 1999).
Pgina 21 de 91
El mtodo de Newton-Raphson puede deducirse geomtricamente, al considerar
que la primera derivada en puede aproximarse como la pendiente:
( ) 0
( ) .
+1
( )
+1 = ,
( )
1. Calcular +1 =
Pgina 22 de 91
Ventajas y desventajas
Ahora bien, el xito del mtodo depende de que la aproximacin inicial est lo
suficientemente cerca a la raz que se busca. Esto constituye una de sus
principales limitantes. En algunos casos, dependiendo de las caractersticas de la
funcin y de la aproximacin inicial, puede ocurrir que el mtodo diverja
dramticamente en slo unas cuantas iteraciones. En la Figura 1.13 se
esquematizan casos en que el mtodo presenta problemas de convergencia. Ms
adelante se presentan algunas recomendaciones para elegir una buena
aproximacin inicial.
Es importante notar que no siempre es posible obtener una expresin analtica para
la funcin derivada, por lo que sta tiene que ser calculada numricamente. Con
ello, el orden de convergencia tambin se reduce en mayor o menor grado,
dependiendo del esquema de diferencias finitas implementado. Ahora bien,
independientemente de cmo se obtenga, el clculo de la deriva implica un costo
computacional que debe tomarse en cuenta al evaluar este mtodo.
Pgina 23 de 91
Cuando hay un punto de inflexin en la vecindad de una raz,
las iteraciones que empiezan con x0 divergen progresivamente
de la raz.
Pgina 24 de 91
Eleccin del valor inicial
Teorema de Fourier
Pgina 25 de 91
Modificacin para funciones con races mltiples
( ) (1.7)
+1 = .
( )
( ) ( )( ) ( 1.8)
+1 = = .
( ) [( )]2 ( )( )
( )
+1 = .
( )
Pgina 26 de 91
F IGURA 1.15 MTODO DE VON MISES
Modificacin de Whittaker
( )
+1 =
( )
+1 = donde
( )
( ) ( )
=
Pgina 27 de 91
F IGURA 1.16 MTODO DE W HITTAKER
( ) (1 )
( ) .
1
( )
+1 = .
( ) (1 )
1
( )( 1 ) ( 1.9)
+1 = .
( ) (1 )
Pgina 28 de 91
Como puede observarse, para obtener una nueva aproximacin a la raz, se
requieren dos valores iniciales de (Figura 1.7). Debido a que no se necesita que
() cambie de signo entre los valores dados, este mtodo se clasifica como un
mtodo abierto.
Por otra parte, el mtodo de la secante reemplaza los valores en secuencia estricta:
con el nuevo valor + 1 se reemplaza a , y a 1 . As, algunas veces los dos
valores estn en el mismo lado de la raz y el mtodo diverge; sin embargo, cuando
el mtodo de la secante converge lo hace ms rpido que el mtodo de la falsa
posicin. En la Figura 1.18 se muestra el algoritmo del mtodo.
Pgina 29 de 91
Sea la funcin () y, y 1 valores iniciales.
(1 )
1. Calcular +1 = 1
( + )( )
( ) = ,
( ) (1.10)
+1 = .
( + ) ( )
Pgina 30 de 91
La eleccin de un valor adecuado para no es automtica. Si es muy pequeo,
el mtodo puede no tener xito debido a errores de los redondeo causados por la
resta de nmeros cercanos en el denominador de la ecuacin. Por otra parte, si es
muy grande, puede ocasionar que el mtodo diverja. Una vez que se ha
seleccionado un valor adecuado de , el mtodo de la secante modificado
constituye una alternativa excelente cuando la evaluacin de la derivada se dificulta
y el uso de dos valores iniciales es inconveniente.
() = (()()) = 0 ,
()() + 2()() = 0 ,
de donde:
1
() = .
()
Pgina 31 de 91
()
() = .
()
Interpretacin geomtrica
En 1952 Salehov sugiere que el mtodo de Halley puede obtenerse aproximando
una funcin por medio de hiprbolas (Ezquerro et al., 2001). A partir de un valor
inicial 0 , se busca una hiprbola de la forma:
( 0 ) +
() = ,
( 0 ) +
con (0 ) = (0 ), (0 ) = (0 ), y (0 ) = (0 ) .
Pgina 32 de 91
(0 )
= ,
)2
2(0 (0 )(0 )
2(0 )
= 2
,
2(0 ) (0 )(0 )
2(0 )(0 )
= .
{ 2(0 )2 (0 )(0 )
2(0 )(0 )
1 = 0 = 0 .
2(0 )2 (0 )(0 )
() = ( 0 )2 + ( 0 ) + ,
en cuyo caso se habla del mtodo de Euler. Por otra parte, si las parbolas son de
la forma:
()2 + () + ( 0 ) + = 0 ,
Pgina 33 de 91
Sea la funcin () y un valor inicial.
2
1. Calcular +1 = 2
Hay diferentes formas de obtener tal aproximacin, una de las cuales es mediante
la expansin de la funcin () en una serie de Taylor conservando los trminos
hasta de segundo orden. Esta idea se atribuye al matemtico ruso Pafnuty Lvovich
Chebyshev, quien present el mtodo que lleva su nombre en un concurso
estudiantil celebrado entre 1840 y 1841, ganando la medalla de plata. Sin embargo,
hay quienes se lo atribuyen a Leonhard Euler (Garca, 2013).
Pgina 34 de 91
Considerando que 0 es una aproximacin inicial de la solucin de () = 0, y sea
0 = (0 ), entonces de acuerdo a Chebyshev:
1
(0) (0 ) (0 )0 + (0 )02 ,
2
(0 ) 1 [(0 )]2 (0 )
= 0 ,
(0 ) 2 [(0 )]3
1 ( )( ) ( )
+1 = [1 + ][ ], (1.12 )
2 [( )]2 ( )
1. Calcular +1 = 1 + 2 ( ) 2
Pgina 35 de 91
1.2.8 Aceleracin de la convergencia: mtodo 2 de Aitken y
mtodo de Steffensen
Mtodo 2 de Aitken
( )2
= ,
2
(+1 )2 (1.13 )
= .
+2 2+1 +
| |
lim =0,
| |
Mtodo de Steffensen
(1 0 )2 (1.14 )
1 = 0 .
2 21 + 0
Pgina 36 de 91
En la Tabla 1.2 se ejemplifica la secuencia de clculos para tres iteraciones, y en la
Figura 1.21 se presenta el algoritmo del mtodo.
T ABLA 1.2 E JEMPLO DEL PROCESO ITERATIVO DEL MTODO DE STEFFENSEN ( SUPOSICIN
INICIAL ,
)
Iteracin
Iteraciones de punto fijo Aceleracin 2 de Aitken
de Steffensen
(01 0 )2
1 01 = (0 ) 02 = (01 ) 1 = 0
02 201 + 0
(11 1 )2
2 11 = (1 ) 12 = (01 ) 2 = 1
12 211 + 1
(21 2 )2
3 21 = (2 ) 22 = (21 ) 3 = 0
22 221 + 2
1. Calcular 1 = ( ) y 2 = (1 )
1 0 2
2. Calcular 1 = 0 .
2 21 +0
Pgina 37 de 91
1.2.9 Resumen de los mtodos iterativos
En la Tabla 1.3 se presenta un resumen de las caractersticas principales de los
mtodos iterativos, as como de sus ventajas y desventajas.
Velocidad de
Caracteristicas Valores inciales Converge Exactitud Aplicacin Ventajas Desventajas
convergencia
Pgina 38 de 91
1.3 Mtodos para calcular races de polinomios
En esta seccin se presentan algunos mtodos para encontrar las races reales y/o
complejas de polinomios de grado y coeficientes reales, con la forma general:
(1.15 )
() = 0 + 1 + 2 2 +. . . + = 0 .
2 + + = 0 . ( 2.16 )
Los pasos fundamentales para resolverla son los siguientes.
1. Calcular el discriminante:
= 2 4
Pgina 39 de 91
(1.17 )
1,2 = .
2 2
b. Si = 0, las races son reales y repetidas:
( 1.18 )
1,2 = .
2
c. Si < 0, las races son complejas:
|| ( 1.19 )
1,2 = .
2 2
3 + 2 + + = 0 . (1.20 )
1. Calcular el discriminante:
= 2 + 3 , (1.21 )
donde
3 2
= ,
9
9 27 23
= ,
54
1
i. 1 = 2 cos 3 ,
3
Pgina 40 de 91
1
ii. 2 = 2 cos ( 3 + 120) ,
3
1
iii. 3 = 2 cos ( 3 + 240) ,
3
donde
= 1 .
3
donde
3
= + ,
3
= ,
4 + 3 + 2 + + = 0 . (1.22 )
Pgina 41 de 91
1. Calcular:
8 32
= ,
8
8 4 + 3
= ,
8
256 64 + 162 34
= .
256
2. Resolver la ecuacin cbica para la variable U (se obtiene solo una raz real):
2
3
4 2
+ =0 .
2 8
= 2 2 ,
= 2
= 2 2
+ 2 4()
a. = 4 ,
2
2 4()
b. = 4 ,
2
+ 2 4()
c. = 4 ,
2
2 4()
d. = 4 .
2
Pgina 42 de 91
Races de polinomios de grado mayor a cuatro
Pgina 43 de 91
F IGURA1.22 M TODO DE M LLER
2 () = ( 2 )2 + ( 2 ) + . (1.23 )
(0 ) = (0 2 )2 + (0 2 ) + ,
(1 ) = (1 2 )2 + (1 2 ) + ,
(2 ) = (2 2 )2 + (2 2 ) + .
(0 ) (2 ) = (0 2 )2 + (0 2 ) + ,
(1 ) (2 ) = (1 2 )2 + (1 2 ) + .
1 0 (1.24 )
= ,
1 0
= 1 + 1 , (1.25 )
Pgina 44 de 91
= (2 ). ( 13.26 )
donde
0 = 1 2 ,
1 = 2 1 ,
(1 ) (0 )
0 = ,
1 0
(2 ) (1 )
1 = .
2 1
Ahora bien, una vez que se han obtenido los coeficientes de la parbola, 2 (), la
aproximacin, 3 , a la raz verdadera se calcula a partir de la solucin de la ecuacin
cuadrtica:
2
3 2 = ,
2 4
de donde:
2 (1.27 )
3 = 2 + .
2 4
Es importante notar que pueden obtenerse races reales o complejas al usar la
frmula cuadrtica. Por otra parte, debido a que se tienen dos opciones de signo en
el denominador de la ecuacin 1.22, debe escogerse aquel que coincida con el de
.
Pgina 45 de 91
Sean los puntos de la funcin f(x); 0 , 0 ,
1 , 1 , 2 , 2
3. Si 100% < tol., entonces el
procedimiento termina exitosamente.
Pgina 46 de 91
( )
+1 = ; 0.
( )
Una vez que se ha encontrado una raz, , el proceso puede repetirse para buscar
otra ms, pero sobre el polinomio de grado 1, (), que se obtiene mediante
divisin sinttica a partir de () = ( ) 1 () (Cobos, 2004).
1. Calcular +1 =
Pgina 47 de 91
1.3.4 Mtodo de Bairstow
El mtodo de Bairstow se relaciona con el de Mller y el de Newton-Raphson.
Trabaja con aritmtica real y permite calcular pares de races reales o complejas. El
punto de partida en su desarrollo es expresar el polinomio de grado n:
() = + 2 2 + + 1 + 0 ,
() = ( 2 + + )( 2 + + 2 ) + 1 ( + ) + (1.28 )
1 (, ) = 0,
(, ) = 0.
( + , + ) = + + ,
1 1
1 ( + , + ) = 1 + + .
Los valores del lado derecho se evalan en y . Ahora bien, los incrementos, y
se estiman igualando las ecuaciones a cero:
1 1
+ = ,
Pgina 48 de 91
0 0
+ = 1 .
+1 = + ,
+1 = + ,
Bairstow demostr que las derivadas parciales se obtienen con una doble divisin
sinttica, por lo que:
0 1 2 2 1
) 0 1 3 2 1
) 0 4 3 2
0 1 2 2 1
y:
0 1 2 2 1
) 0 1 3 2 1
) 0 4 3 2
0 1 2 2 1
| 1 |
3 2 (1.29 )
= ,
2 1
| |
1 (1.30 )
= ,
con:
2 1
= | 2 | . (1.31 )
3
Pgina 49 de 91
Para iniciar el mtodo es necesario suponer un par de valores iniciales 0 y 0 .
Dependiendo de qu tan prximos se encuentren a la raz, el mtodo puede o no
converger. Una vez obtenidos, dos races del polinomio original se calculan a partir
de:
2 + 4 (1.32 )
= .
2
Para obtener otras races del polinomio (), se aplica el mismo mtodo sobre el
nuevo polinomio de grado 2 referido en la ecuacin 1.28. Para este nuevo
proceso, los valores de y calculados al final de la primera etapa pueden servir
como valores iniciales. Cabe resaltar que si el polinomio resultante en alguna de las
etapas del proceso es de primero o segundo grado, las races correspondientes se
calculan directamente de manera analtica.
2 +4
2. Calcular dos racez: 1,2 = 2
Pgina 50 de 91
1.3.5 Mtodo de Laguerre
+1
( ) (1.33)
= ,
( ) ( )
donde
2
( ) = ( 1) [( 1)(( )) ( ) ( )] .
Para evitar la inestabilidad del mtodo, el signo que debe utilizarse en la definicin
del denominador en la ecuacin 1.32, es el que corresponde con el signo la primera
derivada del polinomio, , evaulada en .
1. Calcular +1 =
( )
Pgina 51 de 91
Captulo 2
2.1 Generalidades
El problema a resolver consiste en encontrar los valores 1 , 2 , , , tales que
satisfacen el sistema de n ecuaciones no lineales de la forma:
1 (1 ) = 0
,
(1 ) = 0
( ) = 0 . (2.1 )
donde : , con = (1 , 2 , , ) .
En semejanza a los mtodos para resolver una ecuacin no lineal de una sola
variable independiente, existen diferentes extensiones al caso de los SENL.
Aquellos que se abordan en el presente trabajo pueden agruparse en las categoras
indicadas en la Figura. 2.1 (Garca, 2004). Otros mtodos, como por ejemplo el de
los gradientes conjungados, se describen en el captulo cuatro ya que son aplicados
tambin en la resolucin de problemas de optimizacin multivariable.
Pgina 52 de 91
Iteracin de punto jo Mtodo de Newton Mtodos cuasi-
para SENL Multivariable Newton
1+1 = 1 (1 , 2 , , )
2+1 = 2 (1 , 2 , , ) (2.2 )
= (1 , 2 , , ).
+1
0
En la primera iteracin deber suponerse el vector inicial . El proceso contina
hasta que se satisface el criterio de convergencia estipulado, como por ejemplo:
+1
< tol , (2.3 )
donde es una norma vectorial elegida. El algoritmo del mtodo se presenta en
la Figura 2.2
Pgina 53 de 91
( ) < 1, ,
donde
1 1 1
1 1
2 2 2
( ) = 1
2 .
( 1 2 )
| | , ; , = 1, 2, . .
Pgina 54 de 91
1.- Reescribir el SENL en la forma = 0, y
definir el vector inicial, 0 .
3.- Resolver +1 = ( ).
+1
4.- Si < el proceso termina
exitosamente.
1+1 = 1 (1 , 2 , , 1
, )
2+1 = 2 (1+1 , 2 , , 1
, )
3+1 = 3 (1+1 , 2+1 , , 1
, ) (2.4 )
+1 = (1+1 , 2+1 , , 1
+1
, ) .
Pgina 55 de 91
2.3 Mtodo de Newton multivariable
) = 0, se obtiene a partir de
La extensin del mtodo de Newton para un SENL, (
la linealizacin de en torno a un vector (0) :
( ) (
(0) ) + 0 ( (0) ),
1 1 1
1 1
2 2 2
= 1
2 .
(1 2 )
( ) (
(0) ) + 0 ( (0) ) = 0 ,
por lo que:
= (0) 01 (0) ,
(+1) = () 1 () (2.5 )
o bien:
= () (2.6)
donde
= (+1) ()
y se evala en () .
Pgina 56 de 91
Es claro que una restriccin del mtodo es que la matriz jacobiana exista y sea
invertible en los puntos de inters. Debe observarse que el SENL original ha sido
transformado en un sistema de ecuaciones lineales con el vector como
incgnita. Por lo tanto, el problema se ha reducido a resolver un sistema de
ecuaciones lineales un cierto nmero de veces, hasta que 0 bajo cierto
criterio de tolerancia. El algoritmo correspondiente a este mtodo se resume en la
Figura 2.3.
Pgina 57 de 91
1. Reescribir el SENL en la forma = 0, y
definir el vector inicial, =0 .
3. Calcular +1 = +
+1
4. Si < el proceso termina
exitosamente.
Pgina 58 de 91
Evaluar la matriz jacobiana una sola vez y mantenerla constante en el
proceso iterativo.
(+1) = () =0
1
() (2.7)
(1 , . . , + , . . , ) (1 , . . , , . . , ) (2.8)
(+1) = () 1 () (2.9)
Pgina 59 de 91
2.4 Mtodos cuasi-Newton
+1 () = () , (2.11)
donde
(+1) ) (
() = ( () ) ,
() = ( (+1) () ) .
(+1) = () 1
() , (2.12)
o
() = () , (2.13)
El proceso iterativo puede iniciarse tomando 0 = 0 , o incluso la matriz identidad
de orden , 0 = . Ahora bien, la actualizacin de la matriz A puede realizarse de
diversas formas, con la nica restriccin de que se satisfaga la ecuacin 2.7. Sin
embargo, se buscan mtodos que permitan definir de manera nica a la matriz A,
con ciertos atributos que faciliten el proceso de resolucin del SENL, reduzcan el
nmero de operaciones a realizar, y cuya actualizacin en el proceso iterativo se lo
ms sencilla posible. Con base en esto, pueden mencionarse los mtodos de
Broyden (1960); Broyden-Fletcher-Goldfarb-Shanno (1965); y Davidon-Fletcher-
Powell (1979). Tales mtodos tienen un orden de convergencia superlineal (Burden
& Faires, 2011), y se caracterizan porque no es necesario calcular en cada iteracin
Pgina 60 de 91
las n2 derivadas parciales requeridas en la matriz jacobiana. A continuacin se
presentan las expresiones para actualizar la matriz A segn tales mtodos.
(+1) = () + ()
()
< ,
()
el proceso termina exitosamente.
5. Actualizar la matriz A para la siguiente iteracin:
( () () ) ()
+1 = + .
() ()
Pgina 61 de 91
6. Calcular (+1) y regresar al punto dos.
Pgina 62 de 91
() 1 () () () (2.17)
1
+1 = 1
+ (1 + )
() () () ()
1 () ()
() () 1
+
.
() ()
Pgina 63 de 91
Captulo 3
OPTIMIZACIN UNIDIMENSIONAL
En este captulo se exponen mtodos numricos para calcular los valores extremos
de funciones no lineales de una sola variable independiente. Se describe el mtodo
de la seccin dorada, el mtodo de interpolacin cuadrtica y el mtodo de Newton.
3.1 Generalidades
Pgina 64 de 91
Figura 3.1 Races, mximos y mnimos Figura 3.2 Mximo local
Pgina 65 de 91
Ahora bien, para saber si se trata de un mximo, un mnimo, o un punto de inflexin,
debe analizarse cmo cambia la derivada en los alrededores del punto analizado.
Para tal efecto, se verifican los criterios siguientes:
Mtodo de la Interpolacin
Mtodo de Newton
seccin dorada cuadrtica
Cabe sealar que los mtodos descritos en las secciones siguientes se formulan
para buscar un valor mximo, sin embargo, son aplicables tambin al caso de los
valores mnimos si se trabaja sobre ().
Pgina 66 de 91
Si el intervalo que contiene el mximo es [ , ], la eleccin de los dos puntos
interiores requeridos podra ser arbitraria. Sin embargo, puede establecerse una
regla que permita hacer ms eficiente el proceso de bsqueda. Esto se logra en el
presente mtodo como se indica a continuacin.
0 = 1 + 2 ,
con la restriccin:
1 2
= .
0 1
Por lo tanto:
1 2
= .
1 + 2 1
Definiendo = 2 , la ecuacin anterior puede expresarse como:
1
2 + 1 = 0 ,
Pgina 67 de 91
cuya solucin es:
1 + 1 4(1) 5 1 (3.1)
= = = 0.61803 .
2 2
,
El valor obtenido se denomina razn dorada o razn urea.
3. Si = (1 ) | | < , el proceso termina exitosamente. En caso
Pgina 68 de 91
F IGURA 3.7 C LCULO DE LOS PUNTOS INTERNOS
Pgina 69 de 91
3.2.2 Interpolacin cuadrtica
Si se tienen tres puntos que contienen un punto ptimo, se puede ajustar una
parbola a los puntos. Despus se puede derivar e igualar el resultado a cero, y
obtener una estimacin de la ptima.
Donde
Pgina 70 de 91
3 es el valor de que corresponde al valor mximo del ajuste cuadrtico
para los valores iniciales.
Puede ocurrir que slo se retenga un extremo del intervalo, y que la convergencia
sea lenta. El mtodo se puede formular como parte de los algoritmos que contienen
pruebas de convergencia y cuidadosas estrategias de seleccin para los puntos que
habrn de retenerse en cada iteracin, y formas para minimizar la acumulacin del
error de redondeo.
( ) ( 3.3)
+1 = .
( )
Se puede llegar a esta frmula, escribiendo una serie de Taylor de segundo orden
para () e igualando la derivada de la serie a cero.
Pgina 71 de 91
Captulo 4
OPTIMIZACIN MULTIDIMENSIONAL
4.1 Generalidades
El problema general de la optimizacin multidimensional consiste en:
Pgina 72 de 91
variables. Dependiendo de tales caractersticas se formulan diferentes mtodos
para resolverlos.
Pgina 73 de 91
recordar que se utilizan diferencias cuadrticas para evitar la cancelacin de errores
al momento de sumarlos.
2
minimizar (, ( , 1 , 2 , . , ) , ) .
1 ,2 ,.,
=1
() = , ( , 1 , 2 , . , ) ,
= (1 , 2 , . , )
Pgina 74 de 91
Mtodos de descenso Gauss-Newton Levenberg-Marquardt
: ,
con
1 (4.2)
( ) = ,
2
1 (4.3)
( ) = ( ) = ,
2
Pgina 75 de 91
Como se explic en el captulo tres, una condicin necesaria para identificar un
punto crtico de una funcin es que la derivada sea cero; por lo tanto, en el caso
multidimensional , tiene un punto crtico en si se cumple que:
( ) = 0 = .
2
() = ( ()) = ( ) = ,
Si se define el residual:
= ,
entonces un mtodo de solucin consiste en hacer que ste tienda a cero. As:
+1 = + ,
= + .
Como = { + } entonces:
1 1
( + ) = [ , , ] + , + , 2 ,
2 2
Por lo tanto:
,
( + ) = 0 = = ,
,
Pgina 76 de 91
donde
= .
= ( ) = = .
Direcciones conjugadas
, = , , ,
, 1 = 0 ,
Pgina 77 de 91
son referidas como direcciones conjugadas, y constituyen la base del Mtodo del
Gradiente Conjugado.
La idea bsica del mtodo del gradiente conjugado consiste en construir una base
de vectores ortogonales y utilizarla para realizar la bsqueda de la solucin en forma
ms eficiente (Figura 4.4). La gran ventaja del mtodo radica en que cuando se
utiliza este procedimiento, basta con asegurar la ortogonalidad de un nuevo
miembro con respecto al ltimo que se ha construido.
= 1 1 + 2 2 +. . . + .
= 1 1 + 2 2 +. . . + = .
= .
+1 = + ,
donde
= .
Pgina 78 de 91
Generalmente no es necesario realizar las n iteraciones, si se establece cierto
criterio de tolerancia, . Por otra parte, la convergencia del mtodo depender
principalmente de las propiedades espectrales de la matriz de coeficientes. Un mal
condicionamiento de la matriz provoca que converja lentamente (Vargas, 2013).
Modicacin de Hestenes-Stiefel
( 1 )
= .
( 1 ) 1
Modicacin de Fletcher-Reeves
22
= .
1 22
Modicacin de Polak-Ribire
( 1 )
= .
1 22
Otras modificaciones han dado lugar a los siguientes mtodos (Gonzlez, 2007):
Gradiente Bi-conjugado (BiCG) No es necesario que A sea simtrica, y
reemplaza las secuencias ortogonales de residuos por dos secuencias
mutuamente ortogonales. La actualizacin de relaciones para los
residuos son aumentadas por relaciones que son similares pero basadas
en en lugar de . Su convergencia para sistemas simtricos y definidos
positivos obtiene los mismos resultados que el mtodo de Gradiente
Conjugado.
Pgina 79 de 91
Gradiente Conjugado Cuadrtico (CGS) Es una variante del Gradiente
Bi-Conjugado; requiere una cantidad de operaciones por la iteracin casi
igual al BiCG pero no es necesario usar . Es ms irregular que el BiCG.
1 = 1 ,
1 = [ ( )( )]1 (1 )( ) ,
con la condicin de que () siempre tenga rango columna completo para obtener
la direccin de descenso, y sea invertible.
Pgina 80 de 91
Otra forma de obtener la iteracin de Gauss-Newton es con una aproximacin lineal
de los componentes de la funcin en la proximidad de , para pequeos aumentos
; de esta forma, desarrollando una serie de Taylor se tiene que:
( + ) () = ( ) + ( ) , ( 4.4)
1
Si se busca que ( ) = 2 , sustituyendo se llega a:
1
( + ) () = () () ,
2
1 1
( + ) = ( ) ( ) + ( ) ( ) + ( ) ( ) ,
2 2
1
( + ) = ( ) + ( ) ( ) + ( ) ( ) .
2
() = ( ) ( ) + ( ) ( ) .
() = ( ) ( ) .
(( ) ( ) ) = ( ) ( ) .
= [( ) ( ) ]1 ( ) ( ) ,
donde
Pgina 81 de 91
4.4 Mtodo de Levenberg-Marquardt
El algoritmo de optimizacin de Levenberg-Marquardt es uno de los ms utilizados
en la prctica. Supera al de descenso del gradiente simple y otros mtodos de
gradiente conjugado en una amplia variedad de problemas (Manolis, 2005).
El algoritmo LM es el primero que muestra ser una mezcla del mtodo de descenso
de gradiente y el mtodo de Gauss-Newton; cuando la solucin actual est lejos de
ser la correcta, el algoritmo se comporta como un mtodo de descenso ms agudo:
lento, pero garantiza su convergencia. Cuando la solucin actual est cerca de la
solucin correcta, se convierte en un mtodo de Gauss- Newton.
1
min () = ( ) + ( ) + 2 ( ) ,
2
restringiendo a 2 .
Pgina 82 de 91
[ ( )( ) + ] = ( )( )
con
( 2 ) = 0
y ( )( ) + es semidefinida positiva.
() = 2 = 0 ,
con () = ( ( )( ) + )1 ( )( ) .
()2 ( )
c) Se obtiene +1 = y se regresa al paso 2.
( )
6) Si (+1 ) < ( )
Pgina 83 de 91
7) Se evala si ( ) < , de ser as se termina exitosamente el
mtodo.
8) De lo contrario se regresa a 1, con +1 = y +1 = .
Pgina 84 de 91
Temple Simulado (S.A)
El mtodo de temple o recocido simulado (Simulated Annealin) est inspirado
en el proceso de templado de metales, y es de naturaleza estocstica. La
esencia del mtodo es la bsqueda de un estado de mnima energa. Se
propone un estado inicial, y otro en su vecindario. Se evala el estado
energtico en el segundo estado, y se compara con el primero. Este segundo
estado se descarta de la bsqueda si tiene un mayor nivel de energa; en
caso contrario, se toma como un nuevo estado en la siguiente iteracin del
proceso (Vzquez, 1994).
Pgina 85 de 91
los algoritmos evolutivos. Entre ellos, destacan los denominados Algoritmos
Genticos (AG), propuestos por Holland (1975).
Pgina 86 de 91
influyen en la toma de decisin de un agente que forma parte de un conjunto
de agentes similares. La toma de decisin por parte de cada agente se realiza
conforme a una componente social y una componente individual, mediante
las que determina su direccin de movimiento para alcanzar una nueva
posicin en el espacio de soluciones. Simulando este modelo de
comportamiento se obtiene un mtodo para resolver problemas de
optimizacin (Garca et al., 2006).
Redes neuronales
Como su nombre lo indica, este mtodo est inspirado en el proceso de
aprendizaje a travs de las redes neuronales del cerebro humano, y
constituyen un campo de la Inteligencia Artificial. Consiste en un procesador
masivo paralelo distribuido, formado por unidades simples o neuronas, con
una propensin natural a almacenar conocimiento experimental y hacerlo
disponible para ser usado. Se asemeja al cerebro humano en dos aspectos:
la red adquiere el conocimiento del entorno a travs de un proceso de
aprendizaje; por otra parte, la intensidad de las conexiones inter-neuronales
o pesos sinpticos, se emplea para almacenar el conocimiento adquirido. De
esta manera, la red va aprendiendo en su bsqueda de la solucin del
problema (Rubio, 2004).
Pgina 87 de 91
Conclusiones
Pgina 88 de 91
Recomendaciones
Pgina 89 de 91
Referencias
Pgina 90 de 91
Manolis I. , A. L. (2005). A brief description of the Levenberg-Marquardt
algorithm implemened. Fuondation for research and technology- Hellas
(FORTH), 1-3.
Oostra, A. (2008). Sobre la solucin de ecuaciones de tercer y cuarto grado.
Tumbaga, 174-186.
Rubio Jos, A. (2004). Modelacin y optimizacin del mezclado de petrleo
crudo con redes neuronales. Mxico, IPN
Tllez Enrquez, E. (2007). Uso de una colonia de hormigas para resolver
problemas de programacin de horarios. Veracruz: Laboratorio nacional de
informtica avanzada A.C.
Vargas Flix, M. (2013). Gradiente conjugado. CIMAT.
Vzquez Esp, M. (1994). Recocido simulado: un nuevo algoritmo para
optimizacin de estructuras. Madrid: Escuela tcnica superiro de arquitectura
de Madrid.
Pgina 91 de 91