Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes H Scaletti Libro Completo PDF
Apuntes H Scaletti Libro Completo PDF
1.1 Introduccin
En ciencia y tecnologa son comunes los problemas para los que no es posible hallar una
solucin analtica. Es frecuente entonces reducir el problema a un caso particular, o
simplificar el modelo de modo que pueda ser analizado. Hay, sin embargo, situaciones
en que un modelo simplificado no es apropiado para describir los aspectos que son
importantes en el comportamiento. Se recurre entonces a soluciones numricas. La
magnitud del trabajo es funcin de la precisin que se requiere. En los ltimos 50 aos,
gracias a las computadoras digitales, las posibilidades para utilizar eficientemente los
mtodos numricos han aumentado enormemente; y los puntos de vista con relacin a
ellos han ciertamente cambiado.
1 c
x= 2x + 2
3 x
Empezando con la aproximacin inicial x x 0 0 , se puede iterar con:
1 c
x n +1 = 2 x n + 2
3 xn
Esta es una aplicacin del conocido mtodo de Newton para hallar races de una
ecuacin no lineal. Por ejemplo, para el caso c = 2 (es decir x 3 = 2 ) y con x 0 = 1 se
obtienen:
1 2
x1 = 2 1 + 2 = 1.333 y
3 (1)
3
1 2
x2 = 2 1.333 + = 1.263 889
2 2.5
3 (1.333) y=x
2
y as sucesivamente:
x 3 = 1.259 933 493 450 1.5
y = 13 (2 x + 2 / x 2 )
x 4 = 1.259 921 050 018 1
0
Una interpretacin geomtrica de la 0 0.5 1 1.5 2 2.5 3 x
iteracin se muestra en la figura.
Puede en este caso probarse que el proceso converge siempre, para cualquier seleccin
de x0. Si xn tiene t dgitos correctos, xn+1 tendr por lo menos 2t 1 dgitos correctos.
Sin embargo, no todos los procesos iterativos funcionan. Por ejemplo, podra escribirse
x n +1 = 2 x n2 , lo que produce resultados alternados y obviamente no converge.
1 xn 1 5 x n 1 1 x n 1 ( x + 5) 1 1
y n + 5 y n 1 = 0 x+5
dx + 0 x+5
dx = 0 x+5
dx = 0
x n1 dx =
n
y por lo tanto: yn = 1/n 5yn-1. Esta expresin podra permitir determinar los sucesivos
yn a partir de un valor inicial, como y0. Sabiendo que:
xn 6
dx = [Ln(x + 5)]0 = Ln 0.182
1
y0 =
1
0 x+5 5
Se obtienen (en todos los clculos de este ejemplo se han considerado slo tres cifras
significativas):
y 0 0.182
y1 = 1 5 y 0 0.090
y 2 = 12 5 y1 0.050
y 3 = 13 5 y 2 0.083 Sorprendente que se obtenga y3 > y2 !
y 4 = 14 5 y 3 0.165 Absurdo!
y 5 = 15 5 y 4 1.03 L
Los malos resultados se deben a que las aproximaciones y el uso de un nmero finito de
dgitos introducen errores, que se propagan a etapas posteriores del clculo. La forma
y 7 = 15 (18 y 8 ) 0.021
n creciente
1
y 6 = 15 ( 17 y 7 ) 0.025 0.5
n decreciente
Y
y as sucesivamente:
0
y5 0.028 0 1 2 3 4 5
y4 0.034 -0.5
y3 0.043
-1
y2 0.058 n
y1 0.088
y0 0.182 Correcto! (a pesar de la errada informacin inicial)
Sin embargo, no debe creerse que el utilizar frmulas al revs es el remedio para todos
los problemas numricos. Cualquier proceso que se plantee no ser siempre aplicable,
ni en todos los casos el ms efectivo.
En primer lugar deben citarse errores en los datos, puesto que ellos son en general
resultado de mediciones o estimaciones imperfectas. Es de esperar que los errores
relativos en los resultados sean del mismo orden de magnitud (o menores) que aquellos
de los datos. Sin embargo, ste no siempre es el caso: se dice entonces que el
problema es mal condicionado, es decir, la solucin es muy sensible a pequeos
errores en los datos. Dificultades de este tipo pueden tambin no ser debidas a la
formulacin del problema, sino a un mal condicionamiento del mtodo numrico utilizado.
a = 0.1234567 10 0
b = 0.123567 10 4
c = b
El esquema siguiente indica como se efecta la suma en punto flotante:
b 0.1234567 10 4
a 0.0000123 10 4 (las cuatro cifras finales se recortan)
a + b 0.1234690 10 4
c 0.1234567 10 4
(a + b ) + c 0.0000123 10 4 = 0.1230000
Esto es vlido tambin para operaciones de otro tipo. Por ejemplo, las races de
x + 2bx + c = 0 podran obtenerse de: x = b b c .
2 2
Sin embargo el proceso
alternativo (y tericamente equivalente):
x1 = b ( signo b) b 2 c
c
x2 =
x1
tiene mucho menos acumulacin de error, especialmente cuando c es pequeo, porque
evita la resta de dos nmeros del mismo orden de magnitud. Considrese, por ejemplo,
la ecuacin: x 2 64 x + 1 = 0 . Trabajando con 5 cifras significativas:
2.1 Definiciones
Una matriz = (aij), de orden n x m, es un conjunto de nmeros dispuestos en n filas y m
columnas.
a11 a12 a13 .... a1 m
a 21 a 22 a 23 .... a2m
A = a 31 a 32 a 33 .... a3m
.....
a n1 an2 a n3 .... a nm
Un elemento, aij, se identifica por dos sub ndices, el primero de los cuales denota la
fila y el segundo la columna. Si m = 1 se tiene una matriz columna o "vector" de
dimensin n:
b1
b
b = 2
M
b3
1 2 + i 3 2i 0
2i 5 1 i 1+ i
H= i = 1
3 + 2i 1 + i 3 2 3i
0 +
1 i 2 3i 4
es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,
es decir a ij = a ji , se tiene una matriz simtrica.
1 1
1 2 1
B= 1 2 1
1 2 1
1 1
Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal
principal son cero se dice que sta es una matriz triangular inferior (superior):
En lo que sigue se usan letras negritas para denotar matrices. Para las matrices
columna y para las matrices filas se usan minsculas, mientras que para las matrices
rectangulares (incluyendo las matrices cuadradas) se usan maysculas. En todos los
casos, los elementos de una matriz se indican en minsculas.
Igualdad. Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es
igual al correspondiente elemento de la otra. A = B implica a ij = bij para todo i, j.
Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una
tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)
algebraicamente los correspondientes elementos de las dos matrices originales:
A aij
=B = bij
y la integral de una matriz en forma similar.
Multiplicacin por un escalar. El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el
escalar:
A = B a ij = bij
1 4
1 2 3
A = 2 5 A T =
3 6 4 5 6
La transpuesta de una matriz simtrica es obviamente la matriz original. Productos del
tipo A T A resultan siempre en matrices simtricas. Lo mismo puede decirse de
T
productos A SA si S es simtrica.
det A = A = a
n!
1i a 2 j a 3 k K a nr
Donde cada trmino de la suma incluye un solo elemento de cada fila y de cada
columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..
n, los ndices de las columnas en cada trmino de la suma pueden ser obtenidos como
permutacin del orden normal. Segn el nmero de cambios requeridos para esta
permutacin sea par o impar se asigna al producto correspondiente el signo + o -. La
suma incluye las n! permutaciones posibles.
a b a
b
det = det bc = ad bc
c d 0 d
a
En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o
proporcionales) es cero. Ms an,si dos o ms columnas (filas) de una matriz A son
linealmente dependientes, es decir 1a1+ 2a2+ 3a3+...+ n-1an-1+ nan = 0 para un
conjunto de coeficientes i de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz A es singular. Considrese por
ejemplo el caso:
1 1 0
A = 1 2 1
0 1 1
1 1 0 0
A es singular puesto que: (1)1 + ( 1)2 + (1)1 = 0
0 1 1 0
La determinante de una matriz triangular es igual al producto de los elementos de su
diagonal principal.
Para un producto matricial se cumple que:
det (A B K C ) = det( A ) det( B) K det(C)
A 1 A = AA 1 = I n (A )
1 1
=A
1
Obviamente I n = I n . La inversa de una matriz diagonal es otra matriz diagonal, cuyos
elementos son inversas de los elementos de la matriz original. La inversa de una matriz
triangular (inferior o superior) es otra matriz triangular del mismo tipo.
(AB K C)1 = C 1 K B 1 A 1
Una matriz Q se denomina ortogonal si: Q Q T = I n . Particularmente, si Q es una matriz
1
cuadrada se tiene entonces que Q = Q T . Por ejemplo:
cos sen
R =
sen cos
es ortogonal, puesto que:
cos sen
R 1 = = R T
sen cos
.
Refirindose a una matriz con coeficientes complejos, U, se dice que sta es unitaria si
U U* = I
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno
cualquiera de ellos puede expresarse como combinacin lineal de los otros:
vr = c v
i r
i i (y linealmente independientes si esto no es posible).
o bien: Ax = b
Muchos mtodos frecuentemente utilizados en ingeniera, como por ejemplo los mtodos
de elementos finitos para la solucin de ecuaciones en derivadas parciales, resultan en
n
1 bi
xi = u ik x k (2.4b)
u ii
k = i +1
Este proceso se denomina sustitucin inversa. Anlogamente, para un sistema Lx = b,
en el que L es una matriz triangular inferior no singular ( l ii 0 para todo i), puede
utilizarse una sustitucin directa o reduccin:
b1
x1 = (2.5a)
l11
i 1
1 bi
xi = l ik x k (2.5b)
lii
k =1
En ambos casos, la solucin del sistema requiere n divisiones y 1
2
n (n 1) operaciones
de multiplicacin y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).
a i(11)
li1 = (1)
(2.7a)
a11
Con ello se obtiene:
(1)
a11 x1 + a12
(1)
x 2 + a13
(1)
x3 + K + a1(n1) x n = b1(1)
( 2)
a 22 x 2 + a 23
( 2)
x3 + K + a 2( 2n) x n = b2( 2)
( 2)
a 32 x 2 + a 33
( 2)
x3 + K + a 3( 2n) x n = b3( 2) (2.7b)
KK
a n( 22) x 2 + a n( 23) x3 + K + a nn
( 2)
x n = bn( 2)
donde
a i(22)
li 2 = ( 2)
a 22
o en notacin matricial: Ux = b.
1 2 3 4 x1 2
(1) 1 4 9 16 x 2 10
=
(1) 1 8 27 64 x3 44
(1) 1 16 81 256 x 4 190
Los nmeros indicados a la izquierda (entre parntesis) son los factores li1 por los que es
necesario multiplicar la ecuacin 1 antes de restarla de la ecuacin i, para lograr el
objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.
1 2 3 4 x1 2
0 2 6 12 x 2 8
=
(3) 0 6 24 60 x 3 42
(7) 0 14 78 252 x 4 188
Anlogamente:
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 =
0 6 24 x3 18
(6) 0 0 36 168 x 4 132
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 =
0 6 24 x3 18
0 0 0 24 x 4 24
finalmente:
24 x 4 = 24 x4 = 1
6 x3 + 24 x 4 = 18 x3 = 1
2 x 2 + 6 x3 + 12 x 4 = 8 x2 = 1
x1 + 2 x 2 + 3 x3 + 4 x 4 = 2 x1 = 1
El proceso antes descrito falla cuando se presenta un pivote, a ii(i ) , igual a cero. Un
ejemplo simple de tal situacin es el siguiente:
1 1 1 x1 1
1 1 2 x 2 = 2
1 2 2 x 1
3
La matriz de coeficientes no es singular y el sistema tiene una solucin nica
x = (1 1 1) . Sin embargo, despus del primer paso (efectuado en el orden indicado
T
anteriormente), se obtiene:
1 1 1 x1 1
0 0 1 x 2 = 1
0 1 1 x 0
3
y siendo a 22 = 0 , no es posible proseguir como habitualmente. La solucin es en este
( 2)
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si a ii(i ) = 0 , algn otro
(i )
elemento de la misma columna, a ji , debe ser distinto de cero (lo contrario implicara
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reduccin. Dados los
(i )
elementos a ji de la columna i, es conveniente escoger como pivote aquel de mximo
valor absoluto, puesto que el uso de pivotes pequeos introduce fuertes errores en la
solucin. El ejemplo siguiente es ilustrativo:
3 10 11 1 x1 7
=
1 1 x 2 9
Trabajando con 10 cifras significativas se obtiene:
de donde: x2 = 7
x1 = 0
1 1 x1 9
=
3 10
11
1 x 2 7
2.5.3 Descomposicin A = LU
Supngase que A es tal que el proceso de reduccin del mtodo de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la
descomposicin A = LU donde L es una matriz triangular inferior con l ii = 1 y U es una
matriz triangular superior, es nica. Esto puede probarse fcilmente por induccin. Para
el caso del primer ejemplo:
1 2 3 4 1 0 0 0 1 2 3 4
1 4 9 16 1 1 0 0 0 2 6 12
1 8 27 64 = 1 3 1 0 0 0 6 24
1 16 81 256 1 1 0 0 24
7 6 0
1 2 3 4 1 2 3 4
1 4 9 16 1 2 6 12
1 8 27 64 1 3 6 24
1 16 81 256 1 6 24
7
En los casos en los que se efectan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A,
Todos los mtodos tratados en esta seccin pueden considerarse como variantes del
mtodo de Gauss.
1 k 1
l ik =
u kk
ai k
l ip u pk
i = k + 1, n (2.9b)
p =1
en lugar de efectuar reducciones como anteriormente. Esta modificacin (Doolitle) es
conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos
resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se
hacen con una precisin mayor que aquella con la que se almacenan los resultados.
d ii = u ii
u ij (2.10)
rij = j >i
d ii
Si durante el proceso de reduccin se usa la ecuacin i para eliminar xi, no slo de las
ecuaciones que siguen a la i sino tambin de la ecuaciones precedentes, se tiene el
mtodo de Gauss Jordan. Para el ejemplo antes considerado:
1 2 3 4 x1 2
1 4 9 16 x 2 10
1 8 27 64 x = 44
3
1 16 81 256 x 190
4
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 6 24 60 x = 42
3
0 14 78 252 x 188
4
1 0 0 4 x1 3
0 2 0 12 x 2 10
0 =
0 6 24 x3 18
0 0 0 24 x 4 24
1 0 0 0 x1 1
0 2 0 0 x 2 2
0 = de donde se obtiene fcilmente la solucin.
0 6 0 x 3 6
0 0 0 24 x 4 24
El mtodo de Gauss- Jordan es ms simple de programar, pero requiere casi 1.5 veces
el nmero de operaciones del mtodo de Gauss tradicional.
Finalmente, para concluir esta seccin, debe mencionarse que el mtodo de Gauss es
aplicable tambin a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:
2 1 i 0 x1 4 2i
1 + i 2 1 + i x 2 = 8 + 4i
0 1 i 3 x3 11 2i
2 1 i 0 x1 4 2i
0 1 1 + i x 2 = 5 + 3i
0 1 i 3 x3 11 2i
2 1 i 0 x1 4 2i
0 1 1 + i x 2 = 5 + 3i
0 0 1 x3 3
de donde:
x3 = 3
x 2 = (5 + 3i ) 3(1 + i ) = 2
x1 = 1
2
[(4 2i) 2(1 i)] = 1
2.5.5 Inversin de Matrices
-1
Si la inversa, A , de una matriz A se conoce, la solucin de un sistema Ax = b puede
-1 -1
escribirse x = A b. Podra entonces parecer conveniente determinar A , en especial si
se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin
embargo, la solucin puede ser obtenida con mucho menos operaciones y en general
con mucha ms precisin utilizando la descomposicin A = LU. La solucin de los dos
2
sistemas triangulares Ly = b y Ux = y requiere slo O(n ) operaciones (por cada
columna de b x). Por otro lado, la multiplicacin A-1b tambin demanda O(n2)
1 1 1
A = 2 1 3
3 1 4
En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la
derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:
1 1 1 1 0 0
2 1 3 0 1 0
3 1 4 0 0 1
1 1 1 1 0 0
0 1 1 2 1 0
0 2 1 3 0 1
1 0 2 1 1 0
0 1 1 2 1 0
0 0 1 1 2 1
1 0 0 1 3 2
0 1 0 1 1 1 = A 1
0 0 1 1 2 1
Alternativamente, si la descomposicin A = LU de una matriz A se conoce, la inversa
-1 -1 -1 2
puede obtenerse de A = U L , tambin en O(n ) operaciones. Si en los cmputos
-1 -1
para L y U se hacen intercambios de filas, el producto U L resulta la inversa de una
-1 -1
cierta matriz A. La matriz A puede obtenerse a partir de (A) intercambiando
columnas en secuencia inversa a los cambios de fila durante el proceso.
Para la matriz antes considerada:
1 1 1 1 0 0 1 1 1
2 1 3 = 2 1 0 0 1 1
3 1 4 3 2 1 0 0 1
A = LU
La inversa de una matriz triangular es otra matriz del mismo tipo, fcil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser
obtenida por sustitucin directa o reduccin: LY = In.
y ij = 0 i< j (2.11a)
1 0 0 1 1 2
1
1
L = 2 1 0 U = 0 1 1
1 2 1 0 0 1
1 3 2
1
1
1
A =U L = 1 1 1
1 2 1
En otras palabras, la sub matriz que debe an reducirse en un paso dado es tambin
simtrica. Esto puede probarse por induccin, teniendo en cuenta las condiciones
iniciales de simetra y adems que:
a ki(i )
a kj(i +1) = a kj(i ) l ki a ij(i ) = a kj(i ) a ij(i ) (2.13a)
a ii(i )
a (jii )
a (jki +1) = a (jki ) l ji a ik( i ) = a (jki ) a ik( i ) (2.13b)
a ii( i )
5 4 1 0 x1 0
4 6 4 1 x 2 1
1 4 6 4 x = 0
3
0 1 4 5 x 0
4
En las sucesivas etapas del proceso de eliminacin, las sub matrices que quedan por
reducir siguen siendo simtricas:
5 4 1 0 x1 0 x1 8
0 5 5
14 16
1 x 2 1 x
2 1 13
0 0 = de donde =
15
207 x3 87 x 3 5 12
7
0 0 0 5 76 x 4 7
6 x 4
La simetra de la matriz por reducirse permite hacer: l ki = a ik
(i ) (i )
a ii(i ) (utilizando a ik en
( i +1)
(i )
lugar de a ki ) y restringir los clculos de: a kj = a kj(i ) l ki a ij(i ) a las columnas k j n ,
en lugar de i j n. El nmero de operaciones para la reduccin es entonces
2
O( 1 6 n ) , aproximadamente la mitad que para el caso general.
Tambin los requerimientos de memoria pueden reducirse, almacenando los coeficientes
de la matriz en un arreglo monodimensional. Para el caso de una matriz simtrica de
alta densidad el siguiente esquema de numeracin de los coeficientes es apropiado:
1 2 4 7 11 M M
3 5 8 12 M M
6 9 13 M M
10 14 M M
15 M M
M M
1
2
n (n + 1)
aii( k ) > 0 i 1, k n
2
a ij( k ) a ii( k ) a (jjk ) k i, j n (2.14)
i 1 2
rii = a ii rpi
2
(2.15a)
p =1
1 i 1
rij = aij rpi rpj j = i + 1, i + 2,L (2.15b)
rii
p =1
Para el ejemplo anterior se obtiene:
( )
1
r22 = a 22 r122 2
= 1.6733
r23 = (a 23 r12 r13 ) r22 = -1.9123
( )
1
( )
1
0
0.5976
y=
0 . 7808
1.2781
y finalmente:
8
1 13
x=
5 12
7
Puede anotarse que R est relacionada con las L y U de Gauss mediante RT= LD;
R = D 1U; donde D = diag ( u11 u 22 L )
u nn .
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el mtodo de Gauss y otros
similares, ya que stos conservan la estructura de banda de las matrices: A = LU:
1 1 0 0 0 1 0 0 0 0 1 1 0 0 0
1 2 1 0 0 1 1 0 0 0 0 1 1 0 0
0 1 2 1 0 = 0 1 1 0 0 0 0 1 1 0
0 0 1 2 1 0 0 1 1 0 0 0 0 1 1
0 0 0 1 2 0 0 0 1 1 0 0 0 0 1
1
Ntese que A 1 = U 1L no es una matriz banda:
5 4 3 2 1
4 4 3 2 1
A 1 = 3 3 3 2 1
2 2 2 2 1
1 1 1 1 1
Particularmente simples de tratar son los sistemas con matrices banda simtricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
1 8 15
2 9 16
3 10 17
A= 4 11 18
5 12 19
6 13 ( 20)
7 (14) ( 21)
Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
nmero fijo de coeficientes en cada codiagonal, lo que facilita la programacin. Siendo
el ancho de la semibanda, m, mucho menor que el nmero de ecuaciones, n, las
posiciones de memoria perdidas son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
a1 b1 x1 c1
b1 a2 b2 x2 c2
x c
3 = 3
b2 a3 b3
(2.16)
O M M
bn 2 a n1 bn 1 x n1 c n 1
bn 1 a n x n c n
a1 b1 1 r1 b1
b1 a2 b2 q1 1 r2 b2
b2 a3 b3 q2 1 r3 b3
=
O O O r4 O
bn 2 a n 1 bn 1 q n 2 1 O bn 1
bn 1 a n q n1 1 rn
Los datos de cada bloque se almacenan en disco. stos son ledos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solucin del sistema de ecuaciones por el mtodo de Gauss (u otro similar)
requiere mantener en memoria principal la informacin de por lo menos dos bloques en
forma simultnea. As por ejemplo, durante el proceso de reduccin, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequea), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser ledos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitucin inversa.
Aunque la magnitud del vector residuo r = b A x no da una indicacin directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solucin.
Esto se discute ms adelante.
x p
= ( x1p + x 2p + K )1 / p 1 p (2.18a)
x 2
= ( x12 + x 22 + K)1 / 2 (norma Euclidiana) (2.18b)
x
= mx x i (mximo valor absoluto) (2.18c)
ax = a x (2.19)
x+y x + y
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definicin de norma de un vector:
Ax
A p
= mx
p
(x 0 ) (2.20a)
x p
mx , mx
1/ 2 T
La norma A 2
es donde es el mximo valor caracterstico de A A (ver
captulo 3). Por otro lado:
n
A
= mx
i j =1
a ij (2.20b)
AB A B (2.21)
de donde:
x = A 1 A (x + x)
tomando normas:
x A 1 A x + x
y dividiendo entre x + x :
x A
(A ) (2.23)
x + x A
donde K (A ) = A A 1 (2.24)
1 / 2
es el nmero de condicionamiento de la matriz A. Dado que A 1 = mn , donde
2
min T
es el menor valor caracterstico de la matriz A A, puede escribirse:
(
K 2 (A ) = mx / mn )1/ 2
(2.25)
de donde:
x = A 1b
x A 1 b
b
y dado que b = A x, lo que implica x
A
se obtiene:
x b
K (A ) (2.27)
x b
x 2 K (A) x (2.28)
La expresin (3) implica que si A y b estn dadas con t cifras significativas, el nmero de
cifras que puede esperarse sean correctas en la solucin, s, puede estimarse mediante:
s t log 10 [K ( A )] (2.29)
0.659 0.563
adems: A 1 = 10 6
0.913 0.780
de donde A 1 = 0.913 x 106 + 0.780 x 106 = 1.693 x 106
K (A ) = A
A 1 = 1.572 x 1.693 x 106 = 2.7 x 106
1.441969 1.0040807
A T A =
1.040807 0.751250
de donde K 2 (A ) = mx / mn( )
1/ 2
= 2.2 x 106
Ambos resultados indican un mal condicionamiento de la matriz A.
Note que en el ejemplo anterior la matriz A no era simtrica, por lo que fue necesario
evaluar los valores caractersticos de A T A . Si A fuera simtrica, los valores
T
caractersticos de A A seran exactamente los cuadrados de los valores caractersticos
de A.
l ki = a ki(i ) / aii(i )
Sin embargo, como resultado de los errores de redondeo, los valores calculados (aqu
indicados en barras) satisfacen:
(i ) (i )
l ki = ( a ki / a ii )(1 + 1 )
( i +1) (i ) (i )
a kj = ( a kj l ki a ij (1 + 2 ))(1 + 3 ) (2.31)
( i +1) (i ) (i )
bk = (b k l ki b i (1 + 4 ))(1 + 5 )
( i +1) (i ) (i )
bk = b k l ki b i + e k(i )
(i ) ( i +1)
ekj(i ) 3 .mx a kj , a kj
(2.33)
(i ) ( i +1)
c k(i ) 3 .mx b k , b k
(1)
precedentes para escribir a kj en funcin de los l ki , a ij . (es decir los elementos de las
matrices L y U). Se obtiene as:
r s
e kj(i ) = l
(i )
a kj + ki a ij (2.34a)
i =1 i =1
b k = bk , se
(1)
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que
obtiene:
k 1 k
c k(i ) = l
(i )
bk + ki b i (2.34b)
i =1 i =1
A + A = L U
b + b = L y
Los elementos de A son sumatorias de los e kj(i ) ; los elementos de b son sumatorias
(i )
de los c k . Las expresiones (4) dan una medida de estas perturbaciones. Obsrvese
que las expresiones (2.23) y (2.27) son aplicables tambin en este caso, y un valor de
K ( A ) alto indica que los errores de redondeo tendrn efectos importantes en la
solucin.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los a kj(i ) , bk(i ) . Este es el propsito al realizar intercambios de filas y/o
columnas.
mx a ij( k )
gn =
i , j ,k
(2.35)
mx a ij(1)
i, j
teniendo que:
En tal caso, es recomendable equilibrar las ecuaciones. Para las incgnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D1 tales que:
mx aij = 1 i=1,2,3,...n
1 j n
x = x ( 0 ) + x ( 0 )
y entonces:
A x (0) = r (0)
donde: r ( 0 ) = b Ax ( 0)
( )
tambin en O n 2 operaciones. Dado que L y U no son los factores exactos de A , y
adems se introducen nuevos errores de redondeo, es necesario iterar:
r (i ) = b A x (i )
L z (i ) = r ( i ) (2.36)
U x (i ) = z (i )
x ( k +1) = x ( k ) + x ( k )
Pero nada se ganara si las operaciones se hicieran siempre con el mismo nmero de
cifras significativas empleadas en los cmputos originales. Si los aij bi xi estn dados
con t dgitos, el cmputo de los residuos:
n
ri( k ) = bi a xj =1
ij
(k )
j
debe hacerse con 2 t dgitos (para minimizar errores de cancelacin). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisin simple, es decir, con t
dgitos.
1 x
(1)
(A ) (2.37)
n x ( 2 )
donde n es el orden del sistema y es el mximo error relativo de redondeo (al operar
en precisin simple). Si x (1) no es mucho menor que x (1) , o lo que es lo mismo,
si (A ) n no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la nica alternativa sera operar con mayor precisin en toda la solucin.
5 7 3 x1 0.
7 11 2 x2 = 1
3 2 6 x3 0.
y supngase que la computadora opera en base 10 con 3 cifras significativas. La
factorizacin de la matriz de coeficientes, A = L U , resulta en:
Y entonces:
(redondeado a 3 cifras significativas). Este resultado es mejor que x (1) (en este caso el
resultado es exacto, aunque debera decirse que por accidente).
Puede verificarse fcilmente que la matriz A del ejemplo anterior es bien condicionada.
se pierden cifras significativas en el elemento a22 de esta ltima matriz al restar dos
nmeros que solo difieren en la ltima cifra almacenada). De aqu resultan:
(
r (1) = 0.139 10 6 0.692 10 6 ) T
1 b
xi( k +1) = aij x (jk ) (2.38)
aii i
j i
La aproximacin es arbitraria; con frecuencia x ( 0) = 0 . Si los xi( k +1) se determinan en el
orden habitual, al determinar xr( k +1) ya se han previamente obtenido las nuevas
aproximaciones x1( k +1) , x2( k +1) L xr( k1+1) . Sin embargo, en el mtodo de Jacobi no se hace
uso de estas nuevas aproximaciones hasta la iteracin siguiente, difiriendo en esto del
mtodo de Gauss - Seidel:
i 1 n
1 b
xi( k +1) = aij x (jk +1) aij x (jk ) (2.39)
aii i
j =1 j = i +1
Ntese que slo se requiere almacenar las ltimas aproximaciones a los xi .
5 1 1 0 x1 1
1 5 0 1 x2 2.75
1 =
0 5 1 x3 1
0 1 1 5 x4 2.75
La solucin exacta es
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
3 0.242 0.508 -0.242 -0.508
4 0.2532 0.4968 -0.2532 -0.4968
5 0.24872 0.50128 -0.24872 -0.50128
6 0.250512 0.499488 -0.250512 -0.499488
7 0.249795 0.500205 -0.249795 -0.500205
8 0.250082 0.499918 -0.250082 -0.499918
9 0.249967 0.500033 -0.249967 -0.500033
10 0.250013 0.499987 -0.250013 -0.499987
11 0.249995 0.500005 -0.249995 -0.500005
12 0.250002 0.499998 -0.250002 -0.499998
0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
i 1 n
a
1 b
ri( k ) = aij x (jk +1) x (jk ) (2.40b)
aii i ij
j =1 j =i
0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
6 0.250000 0.500000 -0.250000 -0.500000
x ( k +1) = G x ( k ) + f (2.41)
2 1 2 0 0 0 1 0 0 12
= + +
1 2 0 2 12 0 0 1 0 0
y por lo tanto: G = (I + Ti )
1
Ts (2.44b)
G = (I + Ti )
1
[ (1 )I Ts ] (2.45)
Por otro lado, dado, que la solucin exacta, x , debe cumplir la ecuacin (2.41), se tiene
que:
x =G x+f (2.46)
(x ( k +1)
)
x = G x(k ) x( ) (2.47a)
de donde:
(x ( k +1)
) ( ) ( )
x = G x ( k ) x = G 2 x ( k 1) x = L = G k +1 x ( 0) x ( ) (2.47b)
(x ( 0)
)
x = 1 1 + 2 2 + 3 3 + L + n n
(x (k )
) ( )
x = G k x ( 0) x = 1 k1 1 + 2 k2 2 + 3 k3 3 + L + n kn n (2.47c)
(
Lim x (k ) x = 0 ) (2.48a)
k
(G ) = mx i 1 (2.48b)
i
g ii = 0
(G ) = mx i mx
i i
gj
ij o bien mx
j g
i
ji (2.49b)
i j j i
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el mtodo de Jacobi (aunque en general el mtodo de Gauss -Seidel converge ms
rpidamente).
Considrese la funcin:
f (x) = 12 xT A x xT b (2.51)
d
f (x ( 0) + z )
d =0
f (x ( 0) + z ) = 12 (x (0) + z )T A (x ( 0) + z ) (x ( 0) + z )T b
(2.53a)
= 12 2 z T A z z T r ( 0) + f (x (0) )
de donde:
d
f (x ( 0) + z ) = z T r (0)
d =0
x (1) = x ( 0) + 0 r ( 0)
r (k ) = b A x(k ) (2.54a)
T
r (k ) r (k )
k = T
(2.54b)
r (k ) A r (k )
x ( k +1) = x ( k ) + k r ( k ) (2.54c)
x = x ( 0 ) + x
x puede expresarse como n vectores linealmente
combinacin lineal de
independientes. En particular, si se consideran vectores s 0 , s 1 , s 2 L s n 2 , s n 1 , que
satisfacen las relaciones de ortogonalidad:
s Ti A s j = ci ij
puede escribirse:
x (1) = x (0 ) + 0 s 0
x ( 2) = x (1) + 1 s1
LL
x ( k +1) = x ( k ) + k s k
LL
x = x ( n ) = x ( n 1) + n 1 s n 1
alternativamente:
n 1
x=x (0)
+
k =0
k sk (2.55)
Suponiendo que los vectores s k son conocidos, los coeficientes k pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:
n 1
r (i ) = b A x (i ) = A x x (i ) = ( ) k A sk (2.56)
k =i
T
premultiplicando por s j se obtiene:
n 1
s Tj r (i ) =
k =i
k s Tj A s k = 0 si j < i (2.57)
= j s Tj A s j si j i
de donde puede escribirse:
s Tj r ( j )
j = (2.58a)
s Tj A s j
s k +1 = r ( k +1) k s k (2.59)
donde:
s Tk A r ( k +1)
k = (2.60)
s Tk A s k
s Tk A r (+1)
( )
s Tk +1 A s k = s Tk A r ( k +1) k s k = s Tk A r ( k +1) (s T
k )
A sk = 0
s Tk A s k
As j =
1
j
(
r ( j 1) r ( j ) )
y por lo tanto, para j < k :
1 ( k ) T ( j 1) 1 ( k ) T ( j )
s Tk +1 A s j = r r r r =0
j j
Dado x ( 0 ) , determinar r ( 0) = s 0 = b A x ( 0)
Y luego para k = 0, 1, 2 L n 1 :
r ( k +1) = r ( k ) k q k
T
r ( k +1) q k
T
r ( k +1) r ( k +1)
k = =
s Tk q k T
r (k ) r (k )
2 1 0 0
A = 1 2 1 b = 0
0 1 2 4
Con la aproximacin inicial x ( 0) = 0 se obtienen
:
r ( 0) = s 0 = b A x (0) (0 0 4)
T
q0 = A s0 (0 4 8)
T
T
0 = (r ( 0 ) r ( 0 ) ) (s T0 q 0 ) 1
/2
x (1) = x ( 0 ) + 0 s 0 (0 0 2)
T
r (1) = r (0 ) 0 q 0 (0 2 0)
T
T
0 = (r (1) q 0 ) (s T0 q 0 )
1
/4
s1 = r (1) 0 s 0 (0 2 1)
T
q1 = A s1 (2 3 0)
T
T 2
1 = (r (1) r (1) ) (s1T q 1 ) /3
x ( 2 ) = x (1) + 1 s 1 (0 43 8 3)
T
r ( 2 ) = r (1) 1 q 1 (4 3 0 0)
T
T
1 = (r ( 2 ) q 1 ) (s1T q 1 ) 4
/9
s 2 = r ( 2 ) 1 s 1 (4 3 89 4 9)
T
q2 = A s2 ( 16 9 0 0)
T
T
2 = (r ( 2 ) r ( 2 ) ) (s T2 q 2 ) 3
/4
x ( 3) = x ( 2 ) + 2 s 2 (1 2 3)
T
Y luego para k = 0, 1, 2 L n 1 :
que:
f = r T r = bT b 2xT A T b + xT A T A x (2.63)
y por lo tanto:
f
= 2 AT b + 2 AT A x = 0
x
el mtodo de mnimos cuadrados puede formularse como la solucin del sistema de
ecuaciones normales:
(A A ) x = A b
T T
(2.64)
1 0 0 1
2
0 1 0
0 1
x
0 1 3
x2 =
1 1 0 1
x3
0 1 1 2
1
0 1 1
las ecuaciones normales son en este caso:
x = ( 1.25 3)
T
1.75
Un mtodo alternativo (y numricamente mejor condicionado) se basa en al
descomposicin de la matriz de coeficientes, A , en el producto de una matriz ortogonal,
Q , y una matriz triangular superior, R (en el captulo relativo a valores y vectores
caractersticos se describen procedimientos que pueden ser empleados para esto).
Al tenerse A = Q R (2.65)
( )
las ecuaciones normales A A x = A b pueden rescribirse:
T T
A T ( b Ax ) = 0
R T QT ( b Q R x ) = 0
(
R T QT b R x = 0 )
La matriz R no es singular y por tanto:
R x = QT b (2.66)
de donde:
0 0 1.4142 x3 4.2426
y finalmente: x = ( 1.25 3)
T
1.75
3.1. Introduccin
El producto de una matriz cuadrada, A, por un vector (matriz columna), x, es otro vector,
cuyas componentes son habitualmente no proporcionales a x. Sin embargo, puede
existir un vector no nulo tal que:
A= (3.1a)
Por ejemplo,
2 1 1 1
= 1
1 2 1 1
2 1 1 1
= 3
1 2 1 1
1 1
en este caso 1 = y 2 = son vectores caractersticos, a los que corresponden
1 1
los valores propios 1 y 3, respectivamente. Otros vectores, no paralelos a los dos antes
mencionados, no cumplen la condicin (3.1a):
2 11 0
=
1 2 2 3
0 1
El vector no puede expresarse como un mltiplo de .
3 2
El problema clsico de valores y vectores caractersticos consiste en la determinacin de
los vectores y los correspondientes escalares para los que se cumple (3.1a). Con
frecuencia se presenta el problema general:
A=B (3.1b)
B-1 A = (3.2)
= R-1 z (3.3b)
(R ) A R z = z
-1 T -1
(3.3c)
B AB z=Hz=z
- -
a ij
Donde hij = .
bi b j
Ntese que los valores caractersticos son los mismos que los del problema original; los
correspondientes vectores caractersticos se relacionan mediante (3.4b).
(A - B ) = 0 (3.5a)
p( ) = det ( A B ) = 0 (3.5b)
Y entonces:
j
Restando (3.6b) de (3.6c) se obtiene: c (
i =1
i s i ) i = 0
A ( c1 1 + c2 2 + c3 3 + ) = i B ( c1 1 + c2 2 + c3 3 + )
Tenindose n vectores caractersticos linealmente independientes de dimensin n, estos
constituyen una base completa. Cualquier otro vector de tal dimensin puede
expresarse como combinacin lineal de los vectores caractersticos:
v = 1 1 + 2 2 + 3 3 + + n n (3.8)
1 3 1 1 1
= 2 2
2 1 1
s* r = r s* B r (3.9a)
r* s = s r* B s (3.9b)
*s r = *s *s B r (3.9c)
( r )
*s *s B r = 0 (3.9d)
Si r=s, al ser B una matriz definida positiva se tendra *r B r > 0 . Por lo tanto, siendo
r = s , se tendra r *r = 0 lo que implica que todos los son nmeros reales. Si
*s A r = a r rs (3.10b)
2 1 1
(1 1) =2
1 2 1
2 1 1
(1 1) =6
1 2 1
2 1 1
(1 1) =0
1 2 1
*s B r = rs (3.11a)
Se dice entonces que los vectores estn normalizados respecto a la matriz B. En tal
caso se tiene tambin:
*s A r = r rs (3.11b)
Ti i
( i ) = (3.12)
Ti B i
Esta expresin puede aplicarse tambin con aproximaciones a los vectores propios. Si x
es una aproximacin a un vector caracterstico con un error de orden , el cociente de
Rayleigh, (x), aproxima el correspondiente valor caracterstico con un error de orden .
2
v v v
i = a s1 1 + a s 2 2 + L + a ss + L + a sn n (3.13b)
vs vs vs
y por lo tanto:
i a ss = a s1 + a s 2 + L + 0 + L + a sn
(3.13c)
En consecuencia, cada valor caracterstico i est dentro de por lo menos uno de los
crculos con centro en a ss y radio igual a la suma de los valores absolutos de la
correspondiente fila s.
2 1
A =
1 4
que es definida positiva, puede asegurarse que sus valores caractersticos (que son
nmeros reales) estn dentro de los intervalos (1,3) y (3,5). Efectivamente, en este caso
=3 2 .
A= (3.14a)
2
Cules son los valores caractersticos de la matriz A = A A?
(AA) = A (A ) = A ( ) = (A )= 2
k
Este resultado puede extenderse para la matriz A (siendo k un exponente). Los
vectores caractersticos son los mismos que los de la matriz A, mientras que los
correspondientes valores caractersticos son k:
Ak = k (3.14b)
Esto es incluso vlido para exponentes negativos. Por ejemplo, multiplicando ambos
miembros de (3.15a) por A se obtiene:
-1 -1
A-1 = -1 (3.14c)
2 1
A =
1 2
5 4
A 2 = AA =
4 5
Los mtodos que se presentan en esta seccin son los ms eficientes cuando slo se
requieren un valor caracterstico y su vector asociado, o en todo caso cuando el nmero
de valores y vectores caractersticos por determinar es pequeo.
B x j +1 = A x j (3.15a)
x j +1
x j +1 = (3.15b)
r j +1
donde rj+1 es un escalar que normaliza el vector utilizado en la iteracin. Lo habitual es
tomar rj+1 como el elemento de mximo valor absoluto en x j +1 , lo que significa escalar el
vector de aproximacin de modo que la mayor componente sea igual a 1..
A x0 = A = B
i i i i i (3.16b)
x1 = B 1 Ax 0 = (1 1) 1 + (2 2) 2 + + (n n) n (3.16c)
y por lo tanto:
( )
1
x1 = i i i (3.16d)
r1 n
Lim x k = n (3.17a)
k
Lim rk = n (3.17b)
k
Esto es vlido an cuando n = 0 puesto que, por lo menos al tratar con grandes
matrices, los errores de redondeo (debidos a la aritmtica imperfecta del computador)
introducen siempre una componente segn n. La convergencia es muy rpida si
5 2 0 1 0 0
A = 2 3 1 B = 0 2 0
0 1 1 0 0 3
An cuando en este caso se tienen matrices simtricas, el procedimiento descrito se
aplica a matrices cuadradas cualesquiera.
k xk Ax k x k +1 r k+1 (xk+1)
1.00000
El procedimiento converge al valor caracterstico: 3 = 0.25180
0.01623
que corresponde al valor caracterstico de mayor mdulo, 3 = 5.503605.
Para determinar el vector caracterstico asociado al valor propio de menor mdulo (el
modo fundamental) puede usarse una "iteracin inversa":
A x j +1 = B x j (3.18a)
x j +1
x j +1 = (3.18b)
r j +1
Lim x k = 1 (3.20a)
k
1
Lim rk = (3.20b)
k 1
Para las matrices del caso anterior y considerando, por ejemplo, el vector inicial:
0
x 0 = 1
2
se obtiene el vector asociado al valor caracterstico de menor mdulo, es decir, 1.
3.2.3 Traslacin
(A - B) = () B (3.21b)
Ntese que el nuevo sistema (3.21b) tiene los mismos vectores caractersticos que el
sistema original (3.21a) y valores caractersticos i - . Desde el punto de vista del
polinomio caracterstico, se ha trasladado el origen:
p( ) 150
100
50
0
0 1 2 3 4 5 6 7
-50
1 1
Si 1 puede lograrse que: 1 >> 2 y por tanto: <<
1 2 ,
con lo que la convergencia mejora en forma apreciable.
4.846 2 0
A 0.154 B = 2 2.692 1
0 1 0.538
y por iteracin inversa:
k xk Bx k x k +1 r k+1 (xk+1)
0.22129
Se obtienen: 1 = 0.154 + 0.000624 = 0.154624 y 1 = 0.53613 .
1.00000
x Tk +1 y k
k +1 = k + (3.22)
x Tk +1 y k +1
(
y k +1 = x Tk +1 y k +1 )1
2 y k +1
Lim y k = B 1 (3.23a)
k
Lim k = 1 (3.23b)
k
La convergencia es cbica.
v = 1 1 + 2 2 + 3 3 + ... + n n (3.24a)
iT B v = 1 iT B 1 + 2 iT B 2 + ... + n iT B n
iT B v = i iT B i (3.24b)
es decir:
i = ( iT B v ) / ( iT B i ) (3.24c)
Luego es suficiente restar de v los i i para obtener un vector que (salvo por la
imprecisin en la aritmtica no tiene componentes segn los vectores caractersticos
previamente hallados.
Para el ejemplo antes tratado, suponiendo que se haya obtenido el primer vector
caracterstico:
0.221295029
1 = 0.536128843
1.000000000
k xk Bx k x k +1 r k+1 (xk+1)
k 1
0 -1.565 x 10-6
1 -1.580 x 10-5
2 -0.000123
3 -0.000941
4 -0.007188
5 -0.056063
7 0.52288
1.00000
-0.39599
0.52288
1
se obtienen: 2 = = 1.17511 y 2 = 1.00000
0.85098 0.39599
3.2.5 Deflacin
~ ~
Otra alternativa es hacer una deflacin, obteniendo un nuevo sistema A = B , de
orden menor, con los mismos valores caractersticos del problema original, excepto los
previamente determinados. En lo que sigue se aplica esta idea a un problema de la
forma clsica H = .
P = ( p1 p 2 L p n 1 1 ) (3.26)
Esta matriz tiene los mismos valores caractersticos que la matriz original, H . Lo mismo
~
se puede decir de H , excepto por 1 .
( )
Ntese que P T H P = J Tn 1 L J T2 J 1T H J 1 J 2 L J n 1 , pudindose evaluar fcilmente los
sucesivos productos, ya que en cada caso slo se alteran dos filas y dos columnas.
se tiene:
qk
sk =
q k +1
(3.28c)
x
c k = k +1
q k +1
5 1.414214 0
1 1
H= B 2 AB 2 = 1.414214 1 .5 0.408248
0 0.408248 0.333333
Y para H = pueden obtenerse (por iteracin inversa):
Para H = pueden obtenerse (por iteracin inversa):
0.11625
1 = 0.39827
0.90987
Luego:
q1 = 0.11625 s1 = 0.28019 c1 = 0.95994
q 2 = 0.41489 s 2 = 0.41489 c 2 = 0.90987
q 3 = 1.00000
0.95994 0.28019 0 1 0 0
P = 0.28019 0.95994 0 0 0.90987 0.41489
0 0 1 0 0.414898 0.90987
es decir:
5.48594 0.27561 0
P H P = 0.27561
T
1.19271 0
0 0 0.15462
Ntese el 1 en la esquina inferior derecha. Los valores caractersticos de
~ 5.48594 0.27561
H = son 2 = 1.1751 y 3 = 5.5036 , es decir, iguales a los
0.27561 1.19271
restantes valores caractersticos del problema original. Los correspondientes vectores
resultan:
0.0638 0.9980
z2 = y z3 =
0.9980 0.0638
de donde:
1 z k
k = B 2P
0
1
El factor B 2 se requiere para obtener los vectores del problema general en su forma
original.
Los mtodos de este grupo son eficientes slo si se requieren todos o una alta
proporcin de los valores y vectores caractersticos. La idea bsica de estos procesos
consiste en hacer un cambio de variables:
=Pz (3.29a)
(P AP)z=(P BP)z
-1 -1
(3.29b)
Este sistema tiene los mismos valores caractersticos que el sistema original y vectores
propios relacionados por (3.29a). Si las transformaciones son tales que las nuevas
matrices tienen valores y vectores caractersticos fciles de determinar, se ha resuelto
indirectamente el problema original.
a1 z1 b1 z1
a2 b2
z2 = z2 (3.30)
O M O M
a n z n bn z n
( Pk A Pk ) =
T (k) (k+1) (k+1)
Siendo:
A(k+1) = PkTA(k) Pk (3.32c)
y por tanto:
2 a ij( k )
tg 2 k = 0 k (3.34b)
a ii( k ) a (jjk ) 4
Slo los elementos de dos filas y de dos columnas (i, j ) se alteran en cada paso.
En un cierto paso se hacen cero los elementos aij y aji. Sin embargo, las sucesivas
rotaciones reintroducen valores significativos en estas posiciones, por lo que es
necesario repetir el proceso en varios "ciclos" para todos los elementos de fuera de la
diagonal principal. El proceso es convergente. Si en un ciclo dado los cocientes
ij =
[a ] (k ) 2
ij
(3.36)
a ii( k ) a (jjk )
Desde un punto de vista terico sera ms eficiente hacer cero los elementos aij en
orden decreciente de los ij , definidos por (3.36), pero las comparaciones necesarias
son relativamente lentas. Por eso se prefiere seguir un orden fijo en la seleccin de los
elementos y efectuar las rotaciones slo si ij es mayor que una tolerancia, variable en
funcin del nmero de ciclo, m (por ejemplo 10-2m). La convergencia del proceso se
puede verificar con una medida similar.
Para determinar los vectores caractersticos es suficiente efectuar el producto de las
matrices Pk ya que:
2 -3 1 0
- 3 6 -3 1
A ( 0) =
1 -3 6 3
0 3 4
1
En el primer paso se hacen cero los coeficientes a12 y a21. En las expresiones
precedentes:
(0)
a11 = 2 a 22
(0)
= 6 a12
(0)
= a 21
(0)
= 3
0.995574 0 - 0.0939783 0
0 1 0 0
P2 =
0.0939783 0 0.995574 0
1
0 0 0
0.317644
11.0269
A (18) =
5.08272
1.57279
-6
No se muestran los coeficientes con valor absoluto menor que 10 . Los coeficientes
(18)
de la diagonal de A son (aproximaciones a) los valores caractersticos de la matriz
A. Ntese que no se obtienen en orden ascendente o descendente. Las columnas del
producto P1 P2 L P18 son los correspondientes vectores, que se obtienen normalizados:
= I. Esto se comprueba fcilmente, ya que las matrices Pk son todas
T
ortogonales.
El mtodo de Jacobi puede tambin emplearse para hallar los valores y vectores
caractersticos de una matriz Hermitiana, H , cuyos coeficientes (en general complejos)
tienen simetra conjugada. En este caso se hacen productos de la forma:
H ( k +1) = U *k H ( k ) U k (3.38)
en los que U k es una matriz unitaria, es decir, tal que U k 1 = U *k (el superndice *
denota en este caso la conjugada traspuesta). Para hacer cero el coeficiente hij se
utiliza:
col i col j
1
O
cos e i sen
Uk =
fila i (3.39)
i
e sen cos fila j
O
1
Suponiendo que:
En lo que sigue se supone que A y B son simtricas y que esta ltima es definida
positiva (y posiblemente no diagonal). Debe anotarse que si B fuera diagonal sera
ms eficiente transformar el problema a la forma clsica.
B(k+1) = PkTB(k) Pk
donde Pk es una matriz similar a la utilizada para el proceso clsico:
col i col j
1
O
k
Pk = 1
fila i (3.42)
k 1 fila j
O
1
y se determinan de:
a ij(k +1 ) = a (kji +1 ) = k a ii(k) + (1 + k k ) a ij( k ) + k a (k)
jj = 0
a ij(k)
en el que puede considerase, por ejemplo: k = 0 k = (3.44b)
a (k)
jj
Definiendo:
c3 = 1
2
(a (k )
ii b (jjk ) bii( k ) a (jjk ) )
d = c3 + ( signo c 3 ) c 32 + c1c 2
se obtienen:
c2 c1
k = k = (3.45b)
d d
El radical en la expresin de d es siempre positivo si B es una matriz definida positiva.
Puede observarse que si B fuera la matriz identidad se obtendran: k = k = tg .
1 1 2 1
A =
B =
1 1 1 2
Para estas pequeas matrices con un paso es suficiente:
i=1, j=2
a11 = 1 a22 = 1 a12 = a21 = -1
b11 = 2 b22 = 2 b12 = b21 = 1
c1 = 3 c2 = 3 c3 = 0
d=3 = - k =1
1 1 1 1 1 1 4 0
A(1) = P1TA(0) P1 = =
1 1 1 1 1 1 0 0
1 1 2 1 1 1 2 0
B(1) = P1TB(0) P1 = =
1 1 1 2 1 1 0 6
de donde:
2 = 4/2 = 2
1 = 0/6 = 0
1 1 1 2 0 0.7071 0.4082
= P1 diag (bi ) =
-
=
1 1 0 1 6 0.7071 0.4082
La post multiplicacin de P1 slo es necesaria para escalar los vectores de modo que
Ti B j = ij . Al igual que en el procedimiento clsico los valores caractersticos (y los
correspondientes vectores) no quedan necesariamente ordenados.
3.3.4 El Mtodo QR
es decir si es casi triangular superior, excepto por una codiagonal inferior. Para el caso
particular en que la matriz A es adems simtrica (y por lo tanto tridiagonal):
a1 b1
b1 a2 b2
A= b2 a3 b3 (3.47)
b3 a 4 O
O O
el mtodo QR es an ms eficiente, requiriendo tan solo O(12n) por paso.
Debe anotarse adems que, a diferencia del mtodo de Jacobi, el mtodo QR mantiene
la posible configuracin banda de la matriz y permite efectuar traslaciones (anlogas a
las de una iteracin inversa), tanto para acelerar la convergencia como para mejorar la
precisin en los valores caractersticos de inters. El objetivo del proceso conocido
como QR es la determinacin de los valores caractersticos; conocidos estos, los
correspondientes vectores pueden obtenerse por iteracin inversa con traslacin.
(0)
Considerando A = A, el paso bsico del mtodo QR consiste en hacer la
descomposicin:
A (k ) = Q k R k (3.48a)
A ( k +1) = R k Q k (3.48b)
Q Tk A ( k ) = R k (3.48c)
y por lo tanto:
A ( k +1) = R k Q k = Q Tk A ( k ) Q k (3.48d)
A (k ) (k ) = (k ) (3.49a)
al efectuar el cambio de variables:
( k ) = Q k ( k +1) (3.49b)
se obtiene:
(Q T
kA
(k )
Qk ) ( k +1)
= ( k +1) (3.49d)
Ambas matrices tienen los mismos valores caractersticos (que en consecuencia son
los de la matriz original) y vectores caractersticos relacionados por (3.49b).
A medida que k crece A ( k ) converge a una matriz triangular superior (cuyos valores
caractersticos son los elementos de la diagonal principal); para el caso simtrico A ( k )
converge a una matriz diagonal. Los valores caractersticos se obtienen en orden
descendente; as la aproximacin al valor caracterstico de menor mdulo se obtiene en
la posicin nn de la matriz.
La convergencia del proceso es anloga a la de la iteracin inversa. Cuando en pasos
sucesivos se obtienen valores similares en el extremo inferior de la diagonal principal,
puede afirmarse que se tiene una aproximacin al primer valor caracterstico. La
convergencia puede acelerarse efectuando traslaciones:
k = a nn
(k )
(3.50a)
A ( k +1) = R k Q k k I (3.50b)
Ntese que los valores caractersticos de esta nueva matriz son iguales a los de la
(k )
matriz original menos la translacin. Cuando se logra que a nn = 0 puede hacerse una
traslacin:
k = a n( k1) ,n 1 (3.50c)
( 0 ) = Q 1Q 2 Q 3 L (3.51)
pero este proceso es poco eficiente, siendo ms conveniente obtener estos vectores
por iteraciones inversas con traslaciones iguales a los valores caractersticos ya
determinados. Esto permite tambin mejorar la precisin en los .
y por lo tanto:
Q = P21 P31 L Pn ,n 1 (3.52b)
a ii( k )
cos =
d
a (jik )
sen = (3.53b)
d
d= (a ) + (a )
(k ) 2
ji
(k ) 2
ii
.894427 - .447214 0
P21 = .447214 .894427 0
0 0 1
1 0 0
P32 = 0 .952579 - .304290
0 .304290 .952579
2.236068 2.683281 0.447214
R1 = T T
P32 P21 A ( 0) = 0 3.286332 1.460532
0 0 1.632993
3.200000 1.469694 0
A (1)
= R 1Q1 = R 1 P21 P32 = 1.469694 3.244444 .496904
0 .496904 1.555556
.908739 - .417365 0
P21 = .417365 .908739 0
0 0 1
1 0 0
P32 = 0 .978097 - .208150
0 .208150 .978097
3.521363 2.689686 L
R2 = T T
P32 P21 A (1) = 0 2.387242 .765454
0 0 1.427490
4.322580 .996351 0
A (2)
= R 2 Q 2 = R 2 P21 P32 = .996351 2.281193 .297132
0 .297132 1.396226
Y en el tercer paso:
.974449 - .224610 0
P21 = .224610 .974449 0
0 0 1
1 0 0
P32 = 0 .989134 - .147017
0 .147017 .989134
4.435924 1.483271 .066739
R3 = T T
P32 P21 A ( 2 ) = 0 2.021076 .491663
0 0 1.33850
3.331794 .453953 0
A (3)
1.323944 I = .453953 .696375 .196780
0 .196780 0
3.405209 .088938 0
A (4)
= .088938 .678541 - .017396
0 - .017396 - .055581
Se hace entonces una nueva traslacin:
4 = -.055581 = k = 1.268362
obtenindose:
3.463559 .018800 0
A (5)
= .018800 .731767 .000010
0 .000010 - .000413
y nuevamente:
5 = -.000413 = k = 1.267949
obtenindose:
3.464096 .003973 0
A (6)
= .003973 .732056 0
0 0 0
Se observa ahora que el coeficiente a33 es menor que 10-6, lo que implica que 1 es
aproximadamente igual a la suma de las traslaciones previamente realizadas.
Conviene luego hacer una traslacin igual al resultado obtenido para a22 a fin de
mejorar la precisin para el segundo valor caracterstico:
6 = .732051 = k =2
2.732050 .003973 0
A (6)
0.732051 I = .003973 0 0
0 0 - .732051
2.732050 .003973
A (6) =
.003973 0
1.000000 - .000307
P21 = Q 7 =
.000307 1.000000
2.732051 .000840
R 7 = P21
T
A ( 6) =
0 .000001
2.73205 0
A ( 7 ) =
0 0
Los coeficientes indicados como 0 son menores que 10-6. Los valores caractersticos
de esta matriz son 0 y 2.732051. Para obtener aquellos de la matriz original deben
sumarse las traslaciones:
1 = -0.732051 + 2 = 1.267949
2 = 0 + 2 = 2
3 = 2.732051 + 2 = 4.732051
La transformacin a la forma Hessemberg slo requiere hacerse una vez. Por lo tanto
las O ( 5
3 )
n 3 que se gastan en la transformacin estn plenamente justificadas.
Entre los procedimientos que se encuentran en la literatura para efectuar la
transformacin, se propone el cambio de variables = B , con lo que el problema
original = se reescribira como B 1 B = o bien H = . En este
caso B 1 B = H o, lo que es lo mismo, B = B H . En el proceso original de
Hessemberg se usa una matriz B de la forma:
n r
b
1 a ir +
bi ,r +1 = a ik bkr ik hkr i = r + 2, L n (3.55c)
hr +1,r
k = r +1 k =1
Este procedimiento podra fallar si en algn paso hr +1, r = 0 . El proceso podra
recomenzarse con una primera columna de B diferente, lo que en general evitara el
error, aunque esto no puede garantizarse. Por otro lado, el procedimiento antes
expuesto no mantiene la posible simetra de la matriz A .
P = I 2 w wT (3.56)
A ( k +1) = Pk A ( k ) Pk (3.57a)
donde:
Pk = I k w k w Tk
2
k = (3.57b)
w Tk w k
w k = v k + signo a k( k+)1,k ( )v k e k +1
siendo:
0
M
e k +1 = 1 la columna k + 1 de la matriz identidad (de orden n ).
M
0
Para que el proceso sea ms eficiente, debe observarse que al premultiplicar A , cuyas
columnas son a1 a 2 a 3 L , por la matriz P , cada columna se modifica en forma
independiente. Las columnas de A = PA resultan:
( ) (
a j = I k w k w Tk a j = a j k w Tk a j w k ) (3.58a)
( )
ai = a i I k w k w Tk = a i k ( a i w k ) w Tk (3.58b)
4 3 2 1
3 4 3 2
A= =A
(1)
2 3 4 3
1 2 3 4
Transformacin de la primera columna a la forma Hessemberg:
0
3
v1 = v1 = 3.74166
2
1
0 0 0
3 1 6.74166
w 1 = v 1 + v 1 e 2 = + 3.74166 = 1 = 0.03964
2 0 2
1 0 1
1.00000
2.02190
1 P1 A w 1 =
(1)
0.22681
0.42543
4.00000 - 3.74166 0 0
- 3.74166 8.28571 - 1.30143 - 2.25428
A (2) = P1 A P1 =
(1)
0 - 1.30143 1.07067 0.91128
0 - 2.25428 0.91128 2.64362
Transformacin de la segunda columna a la forma Hessemberg:
0
0
v2 = v 2 = 2.60298
1.30143
2.25428
0 0 0
0 0 0
w 2 = v 2 + v 2 e3 = 2.60298 = 2 = 0.09840
1.30143 1 3.90441
2.25428 0 2.25428
4.00000 - 3.74166 0 0
- 3.74166 8.28571 - 1.30143 - 2.25428
P2 A ( 2) =
0 2.60298 - 1.32452 - 2.74510
0 0 - 0.47162 0.53254
0
1
2 P2 A w 2 =
( 2)
1.11774
0.06306
4.00000 - 3.74166 0 0
- 3.74166 8.28571 2.60298 0
H = A ( 3) = P2 A ( 2) P2 =
0 2.60298 3.03959 - 0.22540
0 0 - 0.22540 0.67470
Los dos procesos que se describen en lo que sigue son adecuados para sistemas de
orden grande en el caso en que se requieran muchos vectores caractersticos.
4 2 0 0
2 8 2 2 0
p( ) = det
0 2 8 2 2
0 0 2 4
= 4 64 + 364 864 + 720 = 0
4 3 2
k k 1
k +1 = k p ( k ) 1 2 (3.59)
p ( k ) p( k 1 )
La evaluacin de p ( ) no requiere tener el polinomio p ( ) en forma explcita.
donde:
det (L ) = l11 l 22 l 33 l 44 L = 1
det (U ) = u11 u 22 u 33 u 44 L
(3.60b)
2 .5 2 0 0 1 0 0 0 2 .5 2 0 0
2 5 2 0 .800 1 0 0 0 3.4 2 0
A 1 .5 B = =
0 2 5 2 0 .588 1 0 0 0 3.824 2
0 0 2 2.5 0 0 .523 1 0 0 0 1.454
p (1.5) = 2.5 3.4 3.824 1.454 = 47.25
Anlogamente se obtienen:
k p ( k ) Nmero de coeficientes negativos
en la diagonal principal de U
1.5 47.25 0
1 2.0 0 0
2.5 -8.75 1
2 3.0 0 1
3.5 11.25 2
4.0 16.00 2
4.5 11.25 2
3 5.0 0 2
5.5 -8.75 3
4 6.0 0 3
6.5 47.25 4
a. Iteracin inversa:
AX k +1 = BX k
La matriz A debe factorizarse antes de iniciar las iteraciones. Los vectores X k +1
son ms paralelos a los primeros p vectores caractersticos.
A ( k +1) = X Tk +1 A X k +1
B ( k +1) = X Tk +1 B X k +1
Las matrices A ( k +1) y B ( k +1) son cuadradas, simtricas, de orden q .
A ( k +1) Q k +1 = B ( k +1) Q k +1 k +1
k +1 es una matriz diagonal, cuyos coeficientes son los valores caractersticos del
problema proyectado. Si los X k +1 definen un subespacio que contiene a los p
primeros vectores propios, los p menores valores en k +1 son parte de la solucin
buscada.
X k +1 = X k +1 Q k +1
( )
X Tk +1 A X k +1 = Q Tk +1 X Tk +1 A X k +1 Q k +1 = Q Tk +1 A ( k +1) Q k +1 = q
X Tk +1 B X k +1 = Q Tk +1 (X T
k +1 B X k +1 )Q k +1 = Q Tk +1 B ( k +1) Q k +1 = I q
Lim k = diag 1 ( 2 L p L )
k
Lim X k = diag 1 ( 2 L p L )
k
( k +1)
Habindose obtenido en dos ciclos sucesivos los estimados p y p
(k )
para el mayor
de los valores caractersticos requeridos, el cociente (pk +1) (pk ) (pk +1) da una
Aproximacin Inicial
b. Iteracin inversa:
Yk +1 = B X k
L U Z k +1 = Yk +1
A ( k +1) = Z Tk +1 Yk +1
B ( k +1) = Z Tk +1 B Z k +1
Las matrices A ( k +1) y B ( k +1) son cuadradas, simtricas, de orden q .
(A ( k +1)
)
+ B ( k +1) Q k +1 = B ( k +1) Q k +1 k +1
X k +1 = Z k +1 Q k +1
f. Verificacin de la convergencia
Ejemplo simple
2 1 0 0 0
1 2 1 0 1
A= B=
0 1 2 1 0
0 0 1 2 2
En este caso particular la iteracin inversa produce en un solo paso el subespacio que
incluye a los dos primeros vectores caractersticos, ya que dos de los valores
caractersticos son infinitos. Para hacer ms eficiente el proceso debe factorizarse
primero la matriz A :
0 0
0 1
Con la aproximacin inicial: X 0 =
0 0
1 0
Se obtiene por iteracin inversa:
0 0 0.4 0.6
0 1 0.8 1.2
B X0 = L U X1 = B X 0 X1 =
0 0 1.2 0.8
2 0 1.6 0.4
Proyectando las matrices A y B en el subespacio definido por los vectores X1 :
3 .2 0 .8 5.76 2.24
A (1) = X1T A X1 = B (1) = X1T B X1 =
0 .8 1.2 2.24 1.76
1 1 0.5
P = =
1 1 1
6.00 0 12 0
P T A P = P T B P =
0 1.20 0 0.96
de donde:
a b 0 0.50 0
= 11 11 =
0 a 22 b2 0 1.25
4.1 Introduccin
La primera parte de este captulo considera el caso en que la raz, x , es una raz simple,
es decir, f ( x ) 0 . Las dificultades que se presentan en el caso de races mltiples se
discuten en la seccin 4.6. La seccin 4.7 revisa mtodos especficos para extraer
ceros" (races) de polinomios.
( x i , bi ) si f ( x i ) f (bi ) < 0
(a i +1 , bi +1 ) =
(a i , x i ) f (a i ) f ( x i ) < 0
b0 = 2 -0.5
obtenindose:
-1
Se han subrayado las cifras correctas. Puede observarse que la convergencia es lenta.
f ( x ) = f ( x 0 ) + ( x x 0 ) f ( x 0 ) + 12 ( x x 0 ) f ( x 0 ) + L = 0
2
f(x)
0.5
0.25
0 x
1.75 x i +1 2 xi 2.25
-0.25
f ( x) = x p c = 0
f ' ( x) = p x p 1
Con el mtodo de Newton:
1 2
Para obtener la raz cbica de 2 se tendra: xi +1 =
2 x i + 2
3 xi
e iniciando los clculos con x 0 = 1 :
i xi i = xi x
0 1 -0.259921
1 1.333 0.073412
2 1.2638889 0.003968
3 1.2599334934 1.244 10 5
4 1.25992105001778 1.229 10 10
Puede observarse que la convergencia es muy rpida. Sin embargo este no siempre es
el caso. Considrese, por ejemplo, la ecuacin:
f ( x ) = 2 x ctg ( x ) = 0
para la que f ( x) = 1 + cos ec 2 (x )
0 = f ( x ) = f ( x n ) + ( x x n ) f ( x n ) +
1
(x x n )2 f ( ) en intervalo ( x, x )
2
Dividiendo entre f ( x n ) (que se supone distinto de cero):
f (x n ) 2 f ( )
+ ( x x n ) = x x n+1 = 12 (x x n )
f ( x n ) f ( x n )
1 f ( ) 2
n +1 = n
2 f (x n )
Con el mtodo de Newton pueden tambin obtenerse races complejas. Esto requiere
que la aproximacin inicial sea un nmero complejo. Por ejemplo, si:
f ( x) = x 2 + 1 = 0
se tendra:
f (xi ) 1 1
xi +1 = xi = xi .
f ( xi ) 2 xi
i xi
0 1+ i
1 0.25 + 0.75 i
2 0.075 + 0.975 i
3 0.0017 + 0.9968 i
4 0.000005 + 1.000004 i
Si en x n +1 = x n
f ( xn )
la derivada f ( x n ) se aproxima por
( f n f n1 ) , donde
fn
f ( x n ) (xn x n1 )
denota f ( x n ) , se tiene el mtodo de la Secante:
x n +1 = x n + hn
(xn x n1 )
hn = f n Se supone que f n f n 1
( f n f n1 )
Para cada punto, n, solo debe evaluarse una funcin, f n , mientras que el mtodo de
Newton requiere tambin la evaluacin de f n .
Es importante hacer notar que NO es conveniente rescribir estas expresiones en la
forma:
(xn1 f n x n f n1 )
xn+1 =
( f n f n1 )
ya que con esta ltima expresin pueden introducirse fuertes errores numricos cuando
x n x n 1 y f n f n 1 > 0 .
1 2. 0.090703 0.066
n +1 = n +
( n )
f ( x ) + 12 n2 f ( x ) + K ( n n 1 )
=
( n n 1 ) f ( x ) + 12 ( n n 1 )2 f ( x ) + L
( )
= n + n f ( x ) + 12 n2 f ( x ) + K ( f ( x ) + 1
2
( n + n1 ) f ( x ) + K)
1
2
f ( x )
n +1 12 n n 1
f ( x )
donde se obtiene:
2
= +1 = 1
2
(1 + 5 ) = 1.618K Es decir, la convergencia del
mtodo de la secante es entre lineal y cuadrtica.
f ( x) = (2 x) tg x 1 = 0
es equivalente a ctg x = ( 2 x) . En este caso podra iterarse con ctg x n +1 = 2 x n o, lo
que es lo mismo, x n +1 = arc ctg (2 x n ) . Sin embargo, la iteracin escrita al revs, es
decir x n +1 = 2 ctg x n , no funciona.
y(x)
n xn
0. 2
0
1 0.464
1.5
2 0.577
3 0.6125
1
4 0.6245
5 0.6286
2-x
0.5
6 0.6301 ctg x
...
0 x
10 0.6308017
-0.5 0 0.5 1 1.5 2 2.5
...
-0.5
20 0.630812760
ctg x
n +1
( )
+ O 2n +1 = (2 x ) n
sen 2 x
y siendo x la solucin exacta, sta satisface idnticamente la ecuacin: ctg x = ( 2 x ) ;
de donde se concluye que:
( )
n +1 sen 2 x n 13 n
n xn
0 0.6
1 0.538
2 0.325
3 0.965
4 2.69
5 4.01
f (x n ) = f (x ) + (x n x ) f (x ) + 1
2
(xn x )2 f (x ) + K
Para x n x puede escribirse:
f (x n )
xn x
f (x )
Si el error en la evaluacin de f ( x n ) es de O( ) ( depende de la precisin de la
computadora y es independiente de x ) el error en la aproximacin de la raz x n x es
de O . Entonces, si f (x ) es muy pequeo se tiene que >> y se dice
f (x ) f (x )
que la raz x est mal condicionada.
f ( x ) = f ( x ) = K f (m 1) ( x ) = 0 .
En tal caso:
1
m! m
x n x = O (m )
f (x )
El exponente 1 m implica que las races mltiples son en general mal condicionadas.
( )
1 2
x n x = O 12 10 8 22 2 = 10 4 = 0.7071K10 4
2
es decir, cualquier valor en el rango: 0,99992929 x 1,00007071 sera aceptado como
exacto, pudindose tener un error relativo de orden 10 5 .
p(x)
1
Raz bien
condicionada
0.5
0 x
0 1 2 3 4 5
-1
1 a 10 1 a 10
11 10.85
12 12.38 0.11i
13
14 14.37 0.72i
15
16 16.57 0.88i
17
18 18.67 0.35i
19
20 20
Este ejemplo es particularmente mal condicionado, pero son frecuentes las dificultades
anlogas al evaluar los ceros (es decir, las races) de polinomios. La evaluacin de las
races de un polinomio es un problema numrico que debe evitarse, a menos que los
datos iniciales hayan sido los coeficientes del polinomio en forma explcita.
1 f (x ) 2
n+1 = n
2 f (x )
tiene convergencia lineal cuando la raz es mltiple. Para una raz de multiplicidad m :
n +1 = (1 1
m
) n + O ( 2n )
El mtodo de Newton modificado:
f (x n )
x n +1 = x n m
f ( x n )
f ( x n )
u ( x n ) = 1 u (x n )
f (x n )
u (x n )
x n +1 = x n
u (x n )
Pero ntese que esto es poco efectivo cuando la raz es simple, puesto que se requiere
evaluar una funcin adicional, f ( x n ) .
En esta seccin se revisan algunos de los muchos mtodos especficos para evaluar las
races (ceros) de polinomios: (x ) = x n + a1 x n 1 + a 2 x n 2 + K + a n 1 x + a n = 0
(x 1 )(x 2 )(x 3 )K (x n ) = 0
Es frecuente subestimar las dificultades que se presentan en problemas de este tipo.
Los mtodos mencionados en los acpites anteriores (Newton, secante y otros) son
tambin aqu aplicables, aunque pueden ser poco eficientes.
Este es un proceso "clsico", que en general resulta poco apropiado, porque se obtiene
primero la raz de mayor mdulo.
Por tanto:
t p = c1 1p + c 2 2p + K + c n np
t
Lim = n
t 1
.
Esto es anlogo a una iteracin directa para determinar un valor propio de una matriz.
Tambin aqu la convergencia es lenta cuando n n 1 . El proceso converge a n,
an cuando c n = 0 (gracias a los errores de redondeo). El inconveniente principal de
este mtodo es que extrae primero la raz de mayor mdulo y la "deflacin" con esta raz
(que no es exacta) puede introducir errores importantes en las otras races.
Con t 0 = t1 = t 2 = 0 y t 3 = 1 se obtienen:
tk
k tk n
t k 1
4 2.0 2.0
5 2.75 1.375
6 3.25 1.1818
7 4.3125 1.3269
8 6.7500 1.5652
9 10.9844 1.6273
10 17.0469 1.5519
...
15 125.113 1.5104
16 188.240 1.5046
...
19 632.809 1.4986
20 949497 1.5004
Este es un proceso que puede ser empleado para mejorar el condicionamiento de las
races, pero es inadecuado para completar la extraccin de las mismas.
Dado: p1 ( x ) = x n + a1 x n 1 + a 2 x n 2 + K + a n 1 x + a n = 0
O bien: p1 ( x) = ( x 1 )(x 2 )(x 3 )K ( x n ) = 0 .
Puede formarse un nuevo polinomio
(x ) = ( 1)n p1 ( x ) p1 ( x ) = ( x 2 1 2 ) ( x 2 2 2 ) ( x 2 3 2 ) L ( x 2 n 2 ) .
Como (x ) solo contiene potencias pares de x , se puede definir:
p 2 (x ) = ( x )= (x 1
2
) (x 2 ) (x 3 )K( x n )
2 2 2
los coeficientes a1
(r+1) ( r +1)
, a2 , a 3( r +1) L de p 2 m (x ) resultan:
min(n i ,i )
( )
a i( r +1) = (1) n i a i(r )
2
+2 ( 1) j
a i(+r )j a i(r )j
j =1
Y para m (o r ) suficientemente grande, puede escribirse:
(r ) a 2(r ) a k(r )
a1
m
m
K m
a1(r ) a k( r)1
1 2 k
Estas expresiones permiten, en teora, determinar los valores absolutos de las races.
Los signos deben obtenerse por sustitucin en el polinomio original p ( x ) = 0 .
r m a1 a2 a3
0 1 -6. 11. -6.
1 2 -14. 49. -36.
2 4 -98. 1393. -1296.
3 8 -6818.2 1.6864 x 106 -1.6796 x 106
4 16 -4.3112 x 107 2.8212 x 1012 -2.8212 x 1012
....
2.8212 1012
216 = 6.5438 10 4
4.3112 10 7
[
H ( x k ) = (n 1) (n 1)( p ( x k ) ) n p ( x k ) p ( x k )
2
]
Como en otros casos, debe considerarse el signo que evita la cancelacin, es decir,
aquel para el que x k +1 x k resulta lo ms pequeo posible.
xk p (x k ) p (x k ) p ( x k ) H (x k )
0 40320 -109584 236248 5.499492E+10
0.937418 369.916 -6836.714 31394.812 1.639940E+09
0.999940 0.302 -5041.569 26140.729 1.245010E+09
1.000000
Aunque este mtodo puede ser usado tambin para extraer races complejas, en ese
caso no puede garantizarse la convergencia. Si se tuvieran pares de races complejas,
( )
( x ) = x 2 + rx + s q(x , r , s ) + xF (r , s ) + G (r , s ) .
dF dG
de donde, con la notacin Fr = L Gs = , se tiene:
dr ds
G Fs F G s
rn +1 = rn
Fr G s Fs G r rn , sn
G Fr F G r
s n +1 = s n
Fr G s Fs G r rn , sn
( )
q + x 2 + rx + s q s + ( xFs + G s ) = 0
El siguiente ejemplo ilustra un paso del proceso. Supngase que se tiene el polinomio:
p( x ) = x 4 5 x 3 + 14 x 2 25 x + 25 = 0
y un factor aproximado x 2 4 x + 4 (es decir ro = 4 , s 0 = +4 ). Dividiendo p ( x ) entre
este factor (utilizando el procedimiento de Ruffini) se obtiene:
p (x ) 1 -5 14 -25 25
r0 = 4 4 -4 24
s 0 = 4 -4 4 -24
q(x) 1 -1 6 3 1
-xq(x) -1 1 -6 0
4 -4 -12
-4 4 12
-1 -3 -14 12
-q(x) -1 1 -6
4 -4
-4 4
-1 -3 -2
y de estos resultados:
F =3 F,r = 14 F,r = 3
G =1 G,r = 12 G,r = 2
w = Fr G s Fs G r = 64
r1 = 4
(1)( 3) (3)( 2) = 4.0469
64
s1 = 4
(1)( 14) (3)(12) = 4.7813
64
es decir: x 2 + r1 x + s1 = x 2 4.0469 x + 4.7813
Fs = 3.0938 G s = 0.5803
Este proceso tiene algunas similitudes con el mtodo de iteracin inversa para hallar
vectores caractersticos. Converge a la raz de menor mdulo (lo que es beneficioso
para una "deflacin" adecuada; vase la seccin 4.7.6) y permite efectuar translaciones
para acelerar la convergencia. Es probablemente el mejor de los mtodos para extraer
races de polinomios (pero en algunos casos no es el ms eficiente). El algoritmo tiene 3
etapas:
n
a. Dado el polinomio p ( x) = ax
i =0
i
n i
con a o = 1, a n 0 , se determina:
n
(0 )
h ( x) = p ( x) = (n i ) a x
i =0
i
n i 1
1 (k ) h ( k ) ( 0)
h (k +1) ( x) = h ( x) p ( x) k = 0, 1, 2 L
x p ( 0)
A medida que k crece, las razones entre los coeficientes de h (k ) ( x) y aquellos de
h (k +1) ( x) tienden a hacerse constantes e iguales a la raz de menor mdulo:
h ( k ) ( 0)
1 (k +1)
h ( 0)
b. En una segunda etapa, con una translacin fija s 0 r1 , se determinan:
1 (k ) h (k ) ( s 0 )
h (k +1) ( x) = h ( x) p( x)
(x s 0 ) p(s 0 )
c. Y finalmente se refina la aproximacin con translaciones variables en cada paso:
h (k 1) (s k )
s k +1 = s k + r1
h (k ) (s k )
1 (k ) h (k ) ( s k +1 )
h (k +1) ( x) = h ( x) p ( x)
(x s k +1 ) p( s k +1 )
p(x ) = ( x 1 ) ( x 2 )m 2 ( x 3 )m 3 K = 0
m1
c ( ) (x )
p ( x)
h (0 ) ( x ) = i
0
donde ci(0 ) = mi . Puede probarse por induccin que los sucesivos polinomios
h (1) ( x ) h ( 2) (x ) h (3) (x )L son tambin polinomios de grado n 1 . Supngase que:
c(
p ( x)
h (k 1) ( x) = k 1)
i
(x i )
(k 1) h (k 1) ( s k )
Entonces: h (k ) ( x) =
1
h ( x) p ( x )
(x s k ) p(s k )
p( s k )
c( k 1)
c( k 1)
1 p( x) p( x)
=
(x s k ) i
(x i ) p( s k ) i
(s k i )
ci(k 1)
( c ( ) (x )
p( x) p( x)
= = k
i s k ) ( x i )
i
i
Esta expresin puede tambin usarse para determinar las translaciones ms adecuadas:
h (k 1) ( s k )
w (k ) ( s k )
s k +1 = s k + (k ) = s k (k )
h (s k ) w ( s k )
donde:
p ( x)
w (k ) ( x) = (k )
h ( x)
1 (k 1) h (k 1) ( s k )
h (k ) ( s k ) = h ( x ) p ( x)
(x s k ) p( s k ) x = sk
w (k ) ( s k )
s k +1 = s k
w ( k ) ( s k )
w (k ) ( 1 ) 2
k +1 1
k
w ( k ) ( 1 )
2
p ( x)
w (k ) ( x) =
h ( k ) ( x)
p ( x)
h (k ) ( x) = ci(k ) + g ( x) p ( x)
(x 1 )
1
Para x 1 se tiene: >> g ( x) y por lo tanto:
( x 1 )
p ( x) (x 1 )
w (k ) ( x) = (k ) = (k )
h ( x) c1 + g ( x)( x 1 )
puede aproximarse por:
[
w ( k ) ( x) = ( x 1 ) (c1( k ) ) 1 g ( x) (x 1 ) (c1( k ) ) 2 K ]
de donde:
c1( k 1) c ( k 1) c ( k 2)
pero c1( k ) = = 1 = 1 K
(1 s k ) k ( k k 1 )
y entonces:
k +1 = ( k k 1 L ) k2
k = ( k 1 K) 2k 1
de donde k +1 = 3k k 11 y considerando k +1 = C k se obtiene finalmente = 2.62 .
El orden de convergencia es superior al del mtodo de Newton.
h (0 ) ( x) = p ( x) = 2 x 2
1 (0 ) h ( 0 ) ( 0)
h (1) ( x) = h ( x ) p ( x) = 2 x 2
x p ( 0)
y es evidente que, si se continuara con el proceso, h (n ) ( x ) = 2 x 2 Es decir, en un paso
se tiene convergencia. Esto se debe a que en realidad se tiene una sola raz con
multiplicidad 2.
h (k 1) ( s ) 2
1 = s + (k ) = 0+ =1
h ( s) 2
x2 x1 x0 h( s k 1 ) sk h( s k ) p( s k )
1 p ( x) 1. -3. 2.
2 h (0 ) ( x) = p ( x) 2. -3. 0. -3. 2.
Sin embargo, a medida que se calculan las races stas no pueden obtenerse en forma
exacta y la deflacin con una raz que es solo aproximada produce un polinomio q(x) que
est afectado por esos errores.
Considrese, por ejemplo, x 2 101x + 100 = 0 , cuyas races exactas son 1 = 1, 2 = 100.
Si se obtiene primero la raz 2 (aquella de mayor mdulo) con un 0,1% de error:
2 100.1, la deflacin produce:
En conclusin, los errores introducidos por la deflacin son menores si las races se
determinan en orden ascendente de valores absolutos.
Sin embargo, en la mayor parte de los casos prcticos ser necesario iterar. Muchos de
los mtodos antes descritos para resolver una ecuacin no lineal pueden generalizarse
para resolver sistemas de ecuaciones no lineales:
f i ( x1 , x2 , x3 , K xn ) = 0 i = 1,2,3, K n
f (x) = 0
Iteracin directa
xi
(k +1)
( (k ) (k )
= g i x1 , x 2 , x3 , K x n
(k ) (k )
)
o bien con
xi
(k +1)
(
= g i x1
(k +1)
, x2
(k +1)
, K x i(+k1) , K x n
(k )
)
Estos son los equivalentes no lineales de los mtodos de Jacobi y Gauss Seidel.
x = 12 sen ( x + y )
y = 12 cos ( x y )
Puede iterarse con:
x ( k +1) = 12 sen ( x ( k ) + y ( k ) )
y ( k +1) = 12 cos ( x ( k +1) y ( k ) )
Obtenindose (con la aproximacin inicial x ( 0 ) = y ( 0 ) = 0 ):
k x (k ) y (k )
1 0 0.5
2 0.239 712 729 0.483 158 048
3 0.330 770 125 0.494 205 706
4 0.367 265 691 0.495 976 965
5 0.379 977 102 0.496 639 778
...
10 0.386 424 387 0.496 949 307
...
20 0.386 450 795 0.496 950 555
Mtodo de Newton
(
f (x (k +1) ) f (x (k ) ) + D (x (k ) ) x (k +1) x (k ) = 0 )
En la seccin 4.7.4 se present una aplicacin de estas ideas. El proceso converge si
x (k ) es suficientemente cercano a la solucin exacta x , lo que es relativamente fcil
f 1 ( x, y ) = 0
f 2 ( x, y ) = 0
puede escribirse:
f 1 f 1
f 1 x y
x ( k +1) x ( k ) 0
+ f f 2 ( k +1) =
f 2 2 y 0
(k )
y
x y
expresin en la que f 1 , f 2 y sus derivadas se calculan con la aproximacin x ( k ) , y ( k ) .
Luego se obtienen:
f 2 f
x ( k +1) x ( k ) 1 f 1 f2 1
y y
( k +1) = ( k )
y y d f f f 1
2
+ f
1 x 2
x
f 1 f 2 f1 f 2
siendo d = det ( D) = .
x y y x
Considrese, por ejemplo:
f 1 ( x, y ) = x 2 + y 1 = 0
f 2 ( x, y ) = ( x 1) 2 + ( y 0.5) 2 1 = 0
Estas ecuaciones tienen dos soluciones:
r1 = (0.125 122 549 762, 0.984 344 347 550)
r2 = (1.215 146 790 092, 0.476 581 721 472)
k x (k ) y (k ) f1 f2
0 0.000000 0.000000 -1.000000 0.250000
1 -0.375000 1.000000 0.140625 1.140625
2 0.125000 1.234375 0.250000 0.304932
3 0.095595 0.991726 0.000865 0.059743
4 0.125088 0.985223 0.000870 0.000912
5 0.125122 0.984344 0.000000 0.000001
6 0.125123 0.984344 0.000000 0.000000
Con otras aproximaciones iniciales, como por ejemplo (1,0) (1,1) , se obtiene r2
x ( k +1) = x ( k ) k F = x ( k ) 2 k D T f
Aproximaciones
La evaluacin de los n 2 coeficientes de la matriz D ( x (k ) ) , es decir:
d ij = f i x j
puede requerir demasiadas operaciones, por lo que es comn volver a evaluar D solo
cada cierto nmero, m , de pasos (y no en cada paso). Se tiene as el mtodo de
Newton - Raphson modificado:
( )
f (x (k ) ) + D (x ( p ) ) x (k +1) x (k ) = 0 k = p, p + 1, K p + m .
fi f i ( x + h j e j ) f i ( x)
d ij = ( x)
xj hj
donde e j es la columna j de la matriz identidad de orden n , y los h j 0 son
(k 1) x (k ) (esto es el mtodo de la secante, que da un
arbitrarios, por ejemplo: h j = x j j
orden de convergencia de aproximadamente 1.6). Si en cambio se toma h j = f j ( x (k ) )
se obtiene una generalizacin del mtodo de Steffensen.
lo que permite utilizar muchos de los procesos para resolver sistemas de ecuaciones
diferenciales ordinarias descritos en el captulo 6. Por ejemplo, pueden considerarse
f x f
=D = x = f
x
y entonces:
D( x ( k ) ) x ( k ) = f ( k )
x (k +1) = x (k ) + x (k )
Este es el mtodo de Euler, un proceso simple pero no siempre adecuado.
2 f k = f k +1 f k = f k + 2 2 f k +1 + f k
n f k = n 1 f k +1 n 1 f k
n
i n
n f k = ( 1) i f
i =0
k + n i
n n!
donde: =
i i!(n i )!
Una tabla de diferencias es un arreglo de la forma:
k fk f k 2 f k 3 f k 4 f k 5 f k 6 f k 7 f k
0 0 0 0 0 1 -5 15 -35
1 0 0 0 1 -4 10 -20 35
2 0 0 1 -3 6 -10 15
3 0 1 -2 3 -4 5
4 1 -1 1 -1 1
5 0 0 0 0
6 0 0 0
7 0 0
8 0
Las diferencias finitas tienen ciertas propiedades anlogas a las derivadas. As por
ejemplo:
(c1u k + c 2 v k ) = c1 u k + c 2 v k
(u k v k ) = u k v k + v k +1 u k
u v k u k u k v k
k =
vk v k v k +1
n 1 n 1
u i v i = ( u n v n u 0 v 0 ) (u v i i +1 )
i =0 i =0
n f k = n 1 f k n 1 f k 1
y diferencias centrales:
f k = f k+ 1 f k 1
2 2
f k = f k + 1 f k 1 = f k +1 2 f k + f k 1
2
2 2
.....
n f k = n 1 f k + 1 n 1 f k 1
2 2
Y en general:
n f k = n f k + n = n f k + n
2
[ x0 , x1 ] [ x1 , x 2 ]
[ x 0 , x1 , x 2 ] =
x0 x 2
...
[ x 0 , x1 , L x n 1 ] [ x1 , x 2 , L x n ]
[ x 0 , x1 , x 2 , L x n ] =
x0 x n
Por ejemplo:
k xk fk [x k , x k +1 ] L
0 0 -5 6 2 1 0 0
1 1 1 12 6 1 0
2 3 25 30 11 1
3 4 55 63 15
4 6 181 108
5 7 289
Para el caso de puntos con espaciamiento uniforme, h , las diferencias divididas pueden
relacionarse con diferencias finitas hacia delante:
n f i
[ x i , xi +1 , x i + 2 , L x i + n ] =
n! h n
Si f (x) es un polinomio de grado n , las diferencias finitas (de cualquier tipo) de orden
n + 1 o superior obtenidas con los f k = f ( x k ) son cero. En el ejemplo anterior f ( x) es
un polinomio de tercer grado.
xn f ( xk )
0 1.000 000
0.1 0.995 004
0.2 0.980 067
0.3 0.955 336
0.4 0.921 061
0.5 0.877 582
Y se requiere calcular f (0.25) . Para ello, f ( x) puede aproximarse localmente por una
funcin ms simple, g ( x) , tal que g ( x k ) = f ( x k ) . El caso ms comn es aquel en que
g ( x) es un polinomio, pero tambin son frecuentes las aproximaciones con funciones
trigonomtricas, por ejemplo:
f ( x k + h) f k + f k + 12 ( 1) 2 f k =
( 1) ( 2) ( 1)
= f k + (2 ) f k +1 + f k +2
2 2
f ( x) = f 0 + [x 0 , x1 ]( x x 0 ) + [x 0 , x1 , x 2 ]( x x 0 ) ( x x1 ) +
+ [x 0 , x1 , x 2 , x3 ] ( x x 0 ) ( x x1 ) ( x x 2 ) + L
Esta ltima expresin es vlida tambin para puntos con espaciamiento no uniforme.
f (0.25) = 0.980067 + (0.247301) (0.25 0.2) + (0.477270) (0.25 0.2) (0.25 0.3) +
+ (0.060908) (0.25 0.2) (0.25 0.3) (0.25 0.4) + L = 0.968914
f ( x k + h) = f k + f k + 1 + 12 ( 1) 2 f k + 16 ( 1) ( + 1) 3 f k + 1 + L
2 2
f ( x k + h) = f k + f k 1 + 12 ( + 1) 2 f k + 16 ( 1) ( + 1) 3 f k 1 + L
2 2
Estas son las frmulas de Gauss. Promediando las dos expresiones se obtiene la
frmula de Stirling:
+ 2 f + ( 1) 3 f
2 2
f ( x k + h ) = f k +
k+1
f + f k1 k k+1
+ 3 f k 1 + L
2 2 2 2 12 2 2
Esta frmula es ms adecuada para anlisis tericos que para el cmputo prctico. El
polinomio de interpolacin se obtiene como:
m
p( x) = g ( x) f
i =0
i i
j =0 i x ) j
j i
Ntese que g i ( x j ) = ij .
( x 0) ( x 3) 1
g 1 ( x) = = 2 ( x 2 + 3 x)
(1 0) (1 3)
( x 0) ( x 1) 1 2
g 2 ( x) = = ( x x)
(3 0) (3 1) 6
2
p( x) = g ( x) f
i =0
i i = 2x 2 + 4x 5
p (i ) ( x j ) = f (i ) ( x j ) i = 0,1, K m
j = 0,1, K n 1
v v 2(v A v B ) A + B
p (x ) = v A + A (x 0 ) + B 2 A A ( x 0 ) + + (x 0 ) (x L )
2 2
3 2
L L L L
( ) ( )
p( x) = 1 3 2 + 2 3 v A + 3 2 2 3 v B + (1 ) A L 2 (1 ) B L donde =
2 x
L
.
1. 1.76
2. 0.41
3. -0.16
4. -0.32
x 2.37
n
(x x r )
donde g xi ( x) = (x
r =0 i xr )
y expresiones similares en las direcciones y, z .
r i
D C B
P
y
E O A
x
y
F G H
donde:
a1 = 12 ( 1) b1 = 12 ( 1)
a2 = 1 2 b2 = 1 2
a 3 = 12 ( + 1) b3 = 12 ( + 1)
Sin embargo, en muchos casos es necesario trabajar con mallas no regulares, como la
mostrada en la figura siguiente. Las diferencias finitas no son entonces la herramienta
ms adecuada. El concepto de elementos finitos es til y permite un tratamiento ms
simple. La regin en estudio se divide en subregiones o elementos, conectados en un
nmero finito de nudos con los elementos adyacentes.
N ( x, y , z ) = 1
i =0
i
1 x x y y
N i ( x, y ) = 1 + i 1 + i
i = 1,2,3,4
4 a a b b
Y Y
4 3 4 7 3
b b
8 6
X X
b b
1 2 1 5 2
a a a a
1 x x y y x x y y
Ni = 1 + i 1 + i i + i 1 i = 1,2,3,4
4 a a b b a a b b
Ni = 1 1 + y i y i = 5,7
2 a b b
xi x y
2
1
Ni = 1 + 1 i = 6,8
2 a a b
L1 + L2 + L3 = 1 .
i =1
Li x i = x L y
i =1
j j =y
Para un elemento con 3 nudos, el valor de una funcin, f ( x, y ) , puede obtenerse por
interpolacin lineal de los tres valores nodales f 1 , f 2 , f 3 :
3
f ( x, y ) = L f
i =1
i i 3
es decir, N i ( x, y ) = Li ( x, y ) .
En forma similar, para un elemento con 6 nudos 2
(nudos adicionales al centro de cada lado), f ( x, y )
puede obtenerse por interpolacin cuadrtica de
los valores nodales. 1
N i = Li (2 Li 1) i = 1,2,3
N 4 = 4 L1 L2 3
N 5 = 4 L2 L3
5
N 6 = 4 L3 L1
6
(Los elementos triangulares de mayor orden son en 2
general poco tiles). Pueden escribirse fcilmente
expresiones anlogas para los correspondientes 4
elementos tridimensionales. 1
Ni = 1
8
( 1 + i )( 1 + i )( 1 + i )( i + i + i 2 ) i = 1, L8
N i = g ( , i ) g ( , i ) g ( , i ) i = 9, L 20
donde: g( ,i ) = 1
2
(1 + i ) si i = 1
g( ,i ) = 1 ( 2
) si i = 0 .
Las coordenadas x, y, z pueden asociarse con las , , usando las mismas funciones
de interpolacin:
20
x= N ( , , ) x
i =1
i i
20
y= N ( , , ) y
i =1
i i
20
z= N ( , , ) z
i =1
i i
Ntese que tambin es posible hacer mapeos con las coordenadas de rea.
5.3. Derivacin
Dados f 1 f ( x1 ), f 2 f ( x 2 ) K f n f ( x n ) puede obtenerse una aproximacin, g (x) , a la
funcin f (x) , tal que g ( x i ) = f ( x i ) para i = 1,2, K n . Este es el problema de interpolacin
considerado en la seccin 5.2. Entonces, las derivadas de f (x) podran aproximarse,
localmente, por aquellas de g (x) . Sin embargo, debe tenerse presente que pequeos
errores en los valores de la funcin pueden amplificarse enormemente al calcular las
derivadas. A mayor orden de la derivada, mayores son las probabilidades de errores de
cancelacin.
f ( x i h) = f ( x i ) h f ( x i ) + 12 h 2 f ( x i ) 16 h 3 f ( x i ) + K
hf ( x i ) = f ( x i + h) f ( x i ) 12 h 2 f ( x i ) K
f ( x i ) = f i=
f i +1 2 f i + f i 1
h2
( )
+ O h2 = 2 fi + O h2 ( )
Por ejemplo, para la funcin de la tabla precedente:
0.995004 2 (0.980067) + 0.955336
f (0.2) 0.97925
(0.1) 2
y las derivadas de orden superior pueden ser aproximadas por las correspondientes
diferencias finitas.
m f i
(m)
Por ejemplo: fi
hm
mf
mi
(m)
fi
h
2u 2u
2u = +
x2 y2
en un punto de coordenadas xi , y j puede aproximarse por:
ui +1, j 2ui , j + ui 1, j ui , j +1 2u , j + ui , j +1
52uij = +
h2 h2
con un error de O h 2 ( )
Ntese que en 2 u y 52 u ij el smbolo no es el operador para
diferencias hacia atrs.
f x y z f
x
f x y z f
= y
f x y z f
z
f f f
O en notacin ms compacta: =J . Los elementos de la matriz J y de se
x r r
obtienen con expresiones e la forma:
x
n
Ni
=
i =1
xi
M
z n
Ni
=
i =1
zi
dx dy dz = det( J ) d d d
lo que facilita enormemente las integrales, ya que los lmites de integracin son en cada
caso 1 y +1 .
y n + k + a1 y n + k 1 + K + a j y n + k j + K + a k y n = 0
p(r ) = r k + a1 r k 1 + a 2 r k 2 + K + a k 1 r + a k = 0 .
y j = c1 r1 j + c 2 r2 j + c3 r3 j + K c k rk j
Lo cual puede probarse por simple sustitucin. Si en cambio se tiene una raz de
j
multiplicidad m , deben considerarse trminos q ( j ) r , donde q ( j ) es un polinomio de
orden m 1 . En cualquier caso la solucin tiene k constantes independientes.
( )
Tn = c1 e +i
n
( )
+ c 2 e i
n
= c1 e in + c 2 e in . Con las condiciones iniciales T0 ( x ) = 1 ,
T1 ( x ) = x = cos se obtienen c1 = c 2 = 1
2
y finalmente Tn ( x) = 12 e in + 12 e in = cos n ,
donde = arc cos x .
a
f ( x) dx
(x1 x0 ) [ f ( x0 ) + f ( x1 )]
x1
x0
f ( x) dx 1
2
f ( x) dx = ( x1 ) + K
IV
x0 3 90
x0
f ( x) dx =
3
1 x
1
2
y en forma similar
h T (h )
0.5 1.610846
0.25 1.609552
0.125 1.609446
( f 0 + 3 f1 + 3 f 2 + f 3 ) + O h 7( )
x3 3h
x0
f ( x) dx =
8
y la regla de Bode:
(7 f 0 + 32 f1 + 12 f 2 + 32 f 3 + 7 f 4 ) + O h 9 ( )
x4 2h
x0
f ( x) dx =
45
Tambin pueden obtenerse frmulas que utilizan puntos uniformemente espaciados pero
no incluyen los valores de la funcin en uno o en los dos lmites de la integral. Estas son
las frmulas de Newton - Cotes de intervalo abierto. Por ejemplo:
3h
( f1 + f 2 ) + O h 3 ( )
x3
x0
f ( x) dx =
2
4h
(2 f1 f 2 + 2 f 3 ) + O h 5 ( )
x4
x0
f ( x) dx =
3
Si T (h ) es la aproximacin de
b
a
f ( x) dx obtenida de la aplicacin de la regla de los
y entonces:
4T (h) T (2h) b
3
= a
f ( x) dx + a 2 h 4 + a 3 h 6 + K
( )
O h 4 , menor que el de T (h ) o T (2h ) . En forma similar, para la regla de Simpson:
b
S ( h) = a
f ( x) dx + a 2 h 4 + a 3 h 6 + a 4 h 8 + K
b
S ( 2h) = a
f ( x) dx + a 2 (2h) 4 + a 3 (2h) 6 + a 4 (2h) 8 + K
y entonces:
Obsrvese que estos resultados coinciden con los obtenidos de la regla de Simpson.
i = 2
2 j 1
j
2
4
hj = j f (a + i h )
i =1
j T1, j
i = 2
0 4. 2.4
1 2. 0.333 333 1.866 667
2 1. 0.75 1.683 333
3 0.5 1.574 603 1.628 968
4 0.25 3.199 689 1.614 406
5 0.125 6.427 862 1.610 686
f (x )dx c f (x ) + c f (x 2 ) + c 3 f (x 3 ) + L + c m f (x m )
b
1 1 2
a
f (x ) dx w1 f (x1 ) + w2 f (x 2 ) + w3 f (x 3 )
b
Esta expresin ser exacta si f ( x) es un polinomio de grado igual o menor que 5 (es
decir, 2(3)-1) Cules deben ser las abscisas x1 , x 2 , x 3 ? Esto se considera brevemente
en lo que sigue. g ( x ) = (x x1 )(x x 2 )( x x3 ) , cuyas races son
El polinomio
precisamente las abscisas de integracin, es de tercer grado. En consecuencia la
integracin:
b
a
g ( x) dx = w1 g ( x1 ) + w2 g ( x 2 ) + w3 g ( x3 ) = 0
a
x g ( x) d x = w1 x1 g ( x1 ) + w2 x 2 g ( x 2 ) + w3 x 3 g ( x 3 ) = 0
a
x 2 g ( x) d x = w1 x12 g ( x1 ) + w2 x 22 g ( x 2 ) + w3 x32 g ( x3 ) = 0
Es decir, x1 , x 2 , x 3 son los 3 ceros del polinomio g ( x ) que satisface las condiciones de
ortogonalidad:
b
g ( x) dx = 0
a
b
x g ( x) dx = 0
a
b
x g ( x) dx = 0
2
a
a 1
y en tal caso las abscisas z i son los ceros del polinomio que satisface las condiciones:
1
P3 ( z ) dz = 0
+1
1
z P3 ( z ) dz = 0
+1
1
z 2 P3 ( z ) dz = 0
1 z 0.
2 1
2
(3z 1)
2 0.57735 K
3 1
2
(5z 3z )
3 0., 0.77459 K
4 1
8
(35z 30 z
4 2
+3 ) 0.33998 K , 0.86113K
5 1
8
(63z 70 z
5 3
+ 15 z ) 0., 0.53846 K , 0.90617 K
F ( z)dz = w F ( z ) + w F ( z ) + K + w
1
1 1 2 2 m F (zm ) = 0
zi wi
0. 0.56888 88888 88889
0.53846 93101 05683K 0.47862 86704 99366
0.90617 98459 38664 K 0.23692 68850 56189
[ ]
b
f ( x) dx =
a
1
2 (b a) w1 f ( x1 ) + w2 f ( x 2 ) + K + wm f ( x m )
donde:
xi = 12 (b a) z i + 12 (b + a)
x i = ( z i + 3) / 2 y se tiene:
1
Vase: "Handbook of Mathematical Functions".- M. Abramowitz e I.A. Segun, editores. Dover Publications
Inc., N.Y. 1965
w f ( x ) = 0.6931474 .
2
y finalmente 1
1
x
dx 12 (2 1)
i =1
i i
Frmula de Radau:
n 1
+1
2
1
f ( x)dx 2 f (1) +
n
w f (x )
i =1
i i
(Pn1 ( x) + Pn ( x)) (1 xi )
Las abscisas son los ceros de y los pesos: wi =
(1 + x ) (nPn 1 ( xi )) 2
Frmula de Lobatto:
+1 n 1
f ( x)dx
2
[ f (1) + f ( 1)] + w f (x )
n(n 1)
i i
1
i =1
0
e x f ( x)dx w f (x )
i =1
i i
f (x )
f ( x)
1
1 x2
dx
n i =1
i
f ( x, y ) dx dy
i =1
wi f ( x i , y ) dy w w
i =1 j =1
i j f ( xi , y j )
6.1. Introduccin
En muchos problemas de ciencia e ingeniera se plantean ecuaciones diferenciales
ordinarias (EDO). Por ejemplo, y = f ( x, y ) con la condicin inicial y (a ) = c . No
siempre es factible hallar una solucin analtica de tales ecuaciones. En este captulo se
revisan procedimientos numricos de solucin de EDO basados en la aproximacin de
los operadores de derivacin por diferencias finitas. Tales procedimientos son tambin
aplicables cuando se tienen sistemas de ecuaciones diferenciales de primer orden, como
por ejemplo:
y& = f (t , y ) (6.1a)
y = x 2 y z 2 y (0 ) = 0 y (0) = 1
con condiciones iniciales y
z = x + z + y 3 z (0 ) = 1 z (0 ) = 0
es equivalente a:
u = x 2 u z 2 y (0 ) = 0
v = x + v + y 3 z (0 ) = 1
con condiciones iniciales
y = u u (0 ) = 1
z = v v(0 ) = 0
Este mtodo es aplicable en situaciones en las que f podra ser una funcin bastante
complicada, o podra ser el resultado de operaciones y decisiones no expresables por
una simple frmula, pero se presenta aqu un caso muy simple, con propsitos
didcticos.
y ( x) [2 y ( x, h) y ( x,2h)] + O h 2 ( )
Esta expresin sera correcta para una extrapolacin pasiva, es decir la que se hace
para mejorar algunos resultados y tpicamente no en cada paso. En cambio, una
extrapolacin activa, sera aquella que se realiza en cada paso, utilizndose los valores
as mejorados en los sucesivos pasos del proceso. En ciertos casos la extrapolacin
pasiva puede ser ms conveniente, por ser numricamente ms estable. Para el
ejemplo anterior, con extrapolacin pasiva se obtiene:
y ( x n +1 ) = y ( x n ) + h y ( x n ) + 12 h 2 y ( x n ) + L
Se tiene que:
y ( x n +1 ) y ( x n ) = h f ( x n , y ( x n )) + O h 2 ( )
Remplazando en la primera expresin:
n +1 n = h [ f ( x n , y n ) f ( x n , y ( x n ))] + O h 2 ( )
f
Pero: f ( x n , y n ) = f ( x n , y ( x n )) + ( y n y ( x n )) +L
y x = xn
y = y ( xn )
De donde:
f
n+1 n 1 + h
y x = xn
y =
f
Si h es suficientemente pequeo y es negativa el mtodo de Euler es adecuado.
y x = xn
y =
k xk y( xk ) yk k
0 0 0 0 0
1 0.01 0.0001 0 -0.0001
2 0.02 0.0004 0.0012 0.0008
3 0.03 0.0009 -0.0064 -0.0073
4 0.04 0.0016 0.0672 0.0656
5 0.05 0.0025 -0.5880 -0.5905
Estos mtodos son, como el mtodo de Euler, de paso simple. Es decir, slo se requiere
conocer y n para determinar y n +1 . Las frmulas de Runge Kutta requieren evaluar
f ( x, y ) en diversos puntos apropiadamente ubicados en el intervalo [xn , xn +1 = xn + h ] ,
ponderndose los resultados de modo de obtener un error de truncacin del mayor orden
posible.
y = y n + h f ( x n , y n )
y n +1 = y n + h f ( x n , y n ) + h f ( x n + h, y )
Siendo
f ( x n + h, y ) = f ( x n , y n ) + h
f
x x = xn
+ ( y y n )
f
y x = xn
+ O h2( )
y = yn y = yn
y n +1 = y n +
h
[ f ( x n , y n ) + f ( x n + h, y )]
2
Puede anotarse que si f no fuera funcin de y este mtodo equivale a evaluar la
integral:
xn +1
y n +1 = y n + xn
y ( x) dx
El mtodo de Ralston:
k1 = f ( x n , y n )
k 2 = f (x n + 34 h, y n + 34 k1 h )
y n +1 = y n + h ( 13 k1 + 23 k 2 )
[ f ( xn ) + 4 f ( xn + 12 h) + f ( xn + h)]
xn +1 h
y n +1 y n = xn
y ( x) dx
6
Como ejemplo de aplicacin de este mtodo, considrese la ecuacin diferencial:
1
y = ( x + y) 2
y n +1 = y n + h ( 378
37
k1 + 250
621
k3 + 125
594
k 4 + 1771
512
k6 )
y n +1 = y n + h ( 272825 k +
648 1
18 575
48 384
k3 + 13525
55 296
k 4 + 14277 k + 14 k 6 )
336 5
Este es el mtodo explcito del punto medio (en ingls conocido como leapfrog), un
mtodo de doble paso, puesto que la expresin para obtener y n +1 requiere y n 1 e y n .
Algunas ventajas y desventajas de los mtodos de pasos mltiples con relacin a los
mtodos de un solo paso pueden citarse:
Entre los mtodos de paso mltiple que se encuentran en la literatura estn los mtodos
explcitos de Adams Bashfort:
y n +1 = y n + h (1 f n + 2 f n 1 + 3 f n 2 + L + k +1 f n k )
y n +1 y n = h ( f n + 12 f n + 125 2 f n + 83 3 f n + L) (A-B)
y n +1 y n = h ( f n +1 12 f n +1 121 2 f n +1 1
24
3 f n +1 + L) (A-M)
Por otro lado, pueden escribirse expansiones en series de Taylor, obtenindose las
por identificacin de coeficientes. As, para la expresin explcita con k = 1 :
y n +1 = y n + h (1 f n + 2 f n 1 )
y ( x n + h) y ( x n ) + h (1 y ( x n ) + 2 y ( x n h))
y ( x n + h) y ( x n ) + h 1 y ( x n ) +
(
+ h 2 y ( x n ) h y ( x n ) + 12 h 2 y ( x n ) L )
y ( x n + h) y ( x n ) + h (1 + 2 ) y ( x n ) + h 2 ( 2 ) y ( x n ) + O h 3 ( )
Comparando con:
y ( x n + h) = y ( x n ) + h y ( x n ) + 12 h 2 y ( x n ) + O h 3 ( )
Se tiene que: 1 + 2 = 1 y 2 = 12 , de donde: 1 = 3
2
y 2 = 12 , es decir:
h
y n +1 = y n + ( 3 f n f n 1 )
2
Algunos resultados similares se listan a continuacin. El error de truncacin local es de
( )
O h k + 2 y el global de O h k +1 : ( )
Mtodos de Adams Bashfort (explcitos):
k y n +1 = y n + h (1 f n + 2 f n 1 + 3 f n 2 + L + k +1 f n k )
0 y n +1 = y n + h f n Euler
y n +1 = y n + h ( 3 f n f n 1 )
1
2
1
3 y n +1 = y n + 1
24
h ( 55 f n 59 f n 1 + 37 f n 2 9 f n 3 )
k y n +1 = y n + h ( 0 f n +1 + 1 f n + 2 f n 1 + 3 f n 2 + L + k f n k +1 )
0 y n +1 = y n + h f n +1 Euler inverso
El error de truncacin de una frmula implcita de este tipo es siempre menor que el error
del correspondiente proceso explcito del mismo orden. Excepto en el caso trivial en que
la funcin f ( x, y ) es lineal, la solucin de la(s) ecuacin(es) que definen el proceso
implcito requiere iterar. Con tal fin, se utiliza como primera aproximacin el resultado
obtenido con la frmula explcita (predictor). Esta aproximacin se refina utilizando
repetidamente la correspondiente frmula implcita (que en este contexto se denomina
corrector). Por ejemplo:
y n(0+)1 = y n + h f ( x n , y n )
y n(i++11) = y n + h f ( x n +1 , y n(i+)1 )
Predictor: y n(0+)1 = y n 3 + 43 h ( 2 f n f n 1 + 2 f n 2 ) O ( h y ( ) )
14
45
5 v
[
y 2( 0 ) = y1 + 0.05 3 x1 ( y1 ) 2 + x 0 ( y 0 ) 2 = ]
[
= 1.980 198 + 0.05 0.3 (1.980 198) 2 0 = 1.921 380 ]
y luego con el corrector (en este caso la regla trapezoidal, tambin conocida como
mtodo de Crank Nicholson):
y n+1 = y n + 12 h ( f n +1 + f n )
se tiene:
[
y 2(1) = y1 + 0.05 x 2 ( y 2( 0 ) ) 2 + x1 ( y1 ) 2 = ]
[
= 1.980 198 + 0.05 0.2 (1.921 380) 2 0.1 (1.980198) 2 = 1.923 675 ]
Y en forma similar:
y 2( 2 ) = 1.923 587
y 2(3) = 1.923 590
y 2( 4 ) = 1.923 590
h2
y ( x + h) = y ( x) + h y ( x) + y ( x) + L
2
se remplaza por:
y n +1 = y n + h f ( x n , y n )
Al emplear un mtodo numrico para resolver EDO, se espera que ste sea
convergente, lo que significa que al trabajar con intervalos, h , cada vez ms pequeos,
las soluciones deben aproximar cada vez ms a la solucin exacta. Para que el
procedimiento numrico sea convergente debe ser consistente y estable.
Alternativamente, podra decirse que un mtodo es estable si, para condiciones iniciales
tpicas y siempre que los errores de truncacin y de redondeo sean pequeos, se tiene
convergencia.
i xi y (xi ) yi ei = y i y (x i )
2.0
1.5
1.0
0.5
y(x)
0.0
0 2 4 6 8 10 12
x
-0.5
-1.0
-1.5
-2.0
r 2 = 1+ 2 r
( ) ( )
1
r1 = + 1 + 2 2 = 1 + + 12 2 + O 4
1
r2 =
r1
e = 1 + + 12 2 + 16 3 + O 4 ( )
se concluye que:
r1 = e 16 3 + O 4 ( )
r1n e n = e n h = e xn
r2n = ( 1) r1 n ( 1) e xn
n n
y en consecuencia:
(
C 2 = e 0.1 r1 ) (r 2 r1 ) 7.469 947 10 5
Para h 0 se requiere que una de las races sea igual a 1 (esto es un requisito para
que el mtodo sea consistente). Sin embargo, si dos o ms races tienen mdulo igual a
1 el mtodo es dbilmente estable y con frecuencia tiene problemas numricos. Este es
el caso del mtodo explcito del punto medio, del que se trat en el acpite anterior.
Im h
2
0 Re h
-3 -2 -1 0 1 2
-1
-2
Regin de estabilidad absoluta - Euler
Puede concluirse que el mtodo de Euler es apropiado para integrar ecuaciones cuya
solucin es exponencialmente decreciente ( < 0 ), pero no para el caso en que la
solucin es oscilatoria y no amortiguada ( imaginaria pura).
Re h
0
-2 -1 0 1 2 3
-1
-2
Todos los procesos de Runge Kutta del mismo orden tienen la misma regin de
estabilidad absoluta. Por ejemplo, considrese un proceso de segundo orden, mtodo
de Heun, tambin llamado Euler modificado:
y = y n + h f ( x n , y n )
y n +1 = y n +
h
[ f (x n , y n ) + f (x n +1 , y )]
2
que aplicado a la ecuacin y = y resulta:
y = y n + h y n = (1 + h ) y n
y n +1 = y n +
h
2
[ y n + ( y n + h y n )] = 1 + h + [ 1
2
( h )2 ] y n
y por lo tanto : r = 1 + h + 1
2
( h )2 . La condicin r 1 es satisfecha por todos los
puntos dentro del elipsoide que se muestra en la figura siguiente:
2 Im h
Re h
0
-3 -2 -1 0 1
-1
-2
Regin de estabilidad absoluta
Runge Kutta - Segundo Orden
k1 = h y n
k 2 = h (1 + 12 h ) y n
(
k 3 = h 1 + 12 h + (h ) ) y1
4
2
n
= h (1 + h + (h ) + (h ) ) y
1 2 1 3
k4 2 4 n
= (1 + h + (h ) + (h ) + (h ) ) y
1 2 1 3 1 4
y n +1 2 6 24 n
Y resulta:
r = 1 + h + 1
2
(h )2 + 16 (h )3 + 241 (h )4
La expresin es la misma para cualquier otro mtodo de Runge Kutta de cuarto orden
(global): La regin de estabilidad absoluta es aquella dentro del lmite indicado en la
figura siguiente:
4 Im ( h)
1
Re ( h)
0
-3 -2 -1 0 1
-1
-2
-3
-4
Regin de estabilidad absoluta
Runge - Kutta 4o Orden
Las mismas ideas pueden tambin aplicarse a mtodos de pasos mltiples. Por
ejemplo, para la regla explcita del punto medio, a la que se hizo referencia al inicio de
esta seccin:
y n +1 = y n 1 + 2 h f (x n , y n ) = y n 1 + 2 h y n
y n +1 = y n + 12 h [ f ( x n , y n ) + f ( x n +1 , y n +1 )]
y n +1 = y n + 12 h ( y n + y n +1 )
de donde:
(1 12 h) r = (1 + 12 h )
1 + 12 h
y por lo tanto se requiere que: r = 1 , es decir Re( h ) 0 .
1 12 h
y n +1 = y n + h [y n + 16 (k1 + k 2 + k 3 )]
Este procedimiento se basa en sustituir las derivadas por sus aproximaciones con
diferencias centrales. As al resolver:
mu&& + ku = f (t )
u 2 u n + u n +1
se puede aproximar la segunda derivada con: u&&n = n 1
(t ) 2
(t ) 2
de donde resulta: u n +1 = 2 u n u n 1 + ( f (t ) k u n ) .
m
u n +1 = u n + u& n + 1 t
2
m c m c
(t ) 2 + 2 t u n +1 = f (t n ) k (t ) 2
2m
un
(t ) 2 2 t u n 1
[
u n +1 = u n + t u& n + (t ) u&&n + ( 12 )u&&n +1
2
]
El caso con = 12 y = 16 corresponde a suponer que u&& (la aceleracin) vara
linealmente en el intervalo. Aparentemente esa eleccin sera mejor que = 12 y = 14
(lo que fsicamente se interpretara como suponer una aceleracin constante promedio).
Sin embargo, esta ltima eleccin es ms apropiada, tambin por consideraciones de
estabilidad, a las que se hace referencia ms adelante.
Al remplazar las aproximaciones en:
m u&&n +1 + c u& n +1 + k u n +1 = f (t n +1 )
se obtiene: k u n +1 = f n +1
donde:
k = k + a 0 m + a1 c
f n +1 = f n +1 + m (a 0 u n + a 2 u& n + a 3 u&& n ) + c (a1u n + a 4 u& n + a 5 u&& n )
1 t
a3 = 1 a4 = 1 a5 = 2
2 2
a 6 = t (1 ) a 7 = t
Todos los mtodos para resolver EDO de segundo orden pueden ser escritos en la
forma:
u n +1 = A u n + b f n
donde u n representa ahora el conjunto de resultados que describen la respuesta en el
paso n . Por ejemplo, para el mtodo de diferencia central:
u n +1 2 ( t ) 1 t u n ( t ) 2
2
= 1 + t 1 + t + 1 + t f n
u n u
1 0 n 1 0
Los errores se comportan en forma anloga, pudiendo demostrarse que:
n +1 = A n
y por lo tanto, para que los errores se reduzcan (es decir, para que el mtodo sea
estable) se requiere que:
( A) = mx i 1
Dos procesos a los que tambin se hace referencia en la literatura son los mtodos de
Houbolt y de Wilson. Ambos mtodos son tambin (para una seleccin apropiada de sus
parmetros) incondicionalmente estables, pero acumulan mucho ms errores que el de
Newmark de aceleracin constante y por tanto no son tan convenientes.
u n +1 = u n + u& n + 1 t
2
K =K + a M + a C =LU
0 1
f
n +1 = f n +1 + M (a 0 u n + a 2 u n + a 3 u n ) + C (a1u n + a 4 u n + a 5 u n )
& && & &&
y luego:
&& t + t = a 0 (u t + t u t ) a 2 u& t a 3 u
u && t
u& t + t = u& t + a 6 u
&& t + a 7 u
&& t + t
Estos vectores constituyen una base completa, y por lo tanto la solucin x(t ) puede
siempre expresarse como una combinacin lineal de los referidos vectores:
x (t ) = a j j
x& (t ) = a& j (t ) j
a& j Bj + a j A j = f (t )
*s B r = rs
*s A r = r rs
a& j B j + a j A j = f (t )
Se observa que la mayor parte de los productos que se tienen en cada suma son cero.
Slo son distintos de cero aquellos en los que los dos ndices i,j son iguales. En
consecuencia se obtienen ecuaciones desacopladas, independientes para cada
componente a j (t ) :
a& i + i ai = f (t )
x 0 = x ( 0) = a (0) j j
a i (0) = B x 0
x (t ) = a j j
a& i + i a i = f 0 (a t + b)
Nuevamente, la solucin puede escribirse como una combinacin lineal de los vectores
caractersticos (que en lo que sigue se han supuesto normalizados respecto a M ):
u(t ) = a j (t ) j
*s M r = rs
*s K r = 2r rs
Pero, salvo en algunos casos particulares, no podra afirmarse algo similar con la matriz
C . Sin embargo, hay aplicaciones en que la inclusin del trmino C u& es slo un
artificio para introducir disipacin en las ecuaciones lineales, que realmente podra
haberse considerado con una K variable, dependiente de u . En este contexto, podra
introducirse directamente la disipacin en las ecuaciones desacopladas, no siendo
necesario determinar la matriz C :
2 Tmn
t =
mx
1 2 L << mx
T1 T2 L >> Tmn
200.5 199.5
A =
199.5 200.5
Los valores caractersticos de la matriz A son 1 = 12 = 1 y 2 = 22 = 400 .
Supngase que las condiciones iniciales son:
1 1
u = cos t + 0.01 cos 20 t
1 1
El primer modo, con 1 = 1 y T1 = 2 es el importante en la solucin. La contribucin
del segundo modo, con 2 = 20 y T2 = / 10 es comparativamente pequea.
1.01 0
con condiciones iniciales u 0 = y u& 12 = u& (0) + 2 t u
1 && 0 =
0.99 0
Para integrar apropiadamente el primer modo sera suficiente considerar un t del
orden de T1 / 20 0.3 . Sin embargo, es el segundo modo, poco importante en la
respuesta, el que en este caso controla la estabilidad. Se requiere reducir el intervalo,
de modo que: t < 2 / 2 = T2 / = 0.1 lo que indirectamente hace que se obtenga
precisin en la integracin de la componente significativa. En las figuras siguientes se
muestran resultados obtenidos con t = 0.1001 (el procedimiento es inestable) y con
t = 0.09 (procedimiento estable). Los resultados seran an ms precisos si T1 >> Tn ,
como ocurre tpicamente al resolver grandes sistemas de ecuaciones diferenciales.
1000
500
0
u
0 2 4 6 8 10
-500
-1000
t
Resultados obtenidos con t = 0.1001
2
1
1
0
u
-1 0 2 4 6 8 10
-1
-2
t
Resultados obtenidos con t = 0.09
8.1 Introduccin
(a ) c i jt
f (t ) = 12 a 0 + j cos ( j t ) + b j sen( j t ) = j e (8.1)
j =1 j =
siendo i = 1 .
1.5
0.5
0
-6 -4 -2 0 2 4 6
-0.5
-1
-1.5
1
Jean Baptiste Joseph Fourier (1768-1830), ingeniero francs. En 1807 present a la Academia Francesa su
teorema relativo a las series de F., que public posteriormente como parte de su Teora Analtica del Calor.
c
i j tn
f n = f (t n ) = j e (8.3)
j =
j+ N j
( )e
2i n t 2i n t
i j + N tn N t 2i n N t i j tn
Ntese que e =e = e =e , por lo que factorizando
se puede escribir:
N 1
c
i jtn
fn = j e (8.4)
j =0
Caso continuo
T si j = k (8.6)
( j , k ) =
0 si j k
Para j k :
T i jt T e 2i ( j k ) e 0
( j , k ) = e e i k t dt = e 2i ( j k ) t / T dt = =0
0 0 2i ( j k ) / T
Caso discreto
En este caso el producto interno de dos funciones con igual perodo, T , cada una
expresada por una coleccin de N valores numricos, se define como:
N 1
( f , g) = f
n =0
n gn
jk
Si j k es un mltiplo de N se tiene que es un entero y por lo tanto:
N
N 1
( j , k ) = 1 = N
m =0
j k
2i
donde q = e N
. Esta es la suma de N trminos de una progresin geomtrica, con
valor inicial 1 y razn q , que resulta:
qN 1 11
( j , k ) = = =0
q 1 q 1
Excepto para el caso antes mencionado, en que j k es un mltiplo de N , para el que
se tiene q = 1 . Resumiendo, para el caso discreto:
N si j k es mltiplo de N (8.7)
( j , k ) =
0 en otros casos
2 i +
jt
f (t ) = c
j =
j e T
= c
j =
j j (t )
N 1 2i N 1
jn
O en el caso discreto f n = j =0
c j e N
= c
j =0
j j (t n )
( f ,k ) = c
j
j ( j , k )
N 1 2i
1 jn
cj =
N
n =0
fn e N
en el caso discreto (8.9)
Las funciones de varias variables se tratan en forma anloga, considerando una variable
a la vez. Supngase que se conocen los valores de la funcin peridica (en ambas
direcciones) f ( x p , y q ) que corresponden a abscisas x p = p x y ordenadas y q = q y
siendo p = 0, 1, 2, K M 1 y q = 0, 1, 2, K N 1 :
M 1 N 1 2i
kq
2i
jp
c e N e M
f pq = f ( x p , y q ) =
j =0
jk
(8.10)
k =0
M 1 1 N 1 kq
2i 2i jp
1 e M
c jk =
M
p=0
N f
q =0
pq e N
(8.11)
Supngase una funcin f (t ) no peridica, definida para < t < y tal que tiende a
cero cuando t tiende a ms infinito o a menos infinito. En tal caso, puede obtenerse el
lmite de (8.8) para T :
F ( ) =
f (t ) e i t dt (8.12)
1
f (t ) =
2
F ( ) e i t d (8.13)
f (t ) real F ( ) = F ( )
f (t ) imaginaria F ( ) = F ( )
f (t ) simtrica F ( ) = F ( )
f (t ) antisimtrica F ( ) = F ( )
Llamando F () a la transformada de f (t ) , es decir: F ( ) =
f (t ) e i t dt
y U () a la transformada de Fourier de u (t ) : U ( ) = u (t ) e i t dt
se obtiene:
( m + i c + k ) U () = F ()
2
o bien:
U ( ) = H ( ) F ( )
(
donde H () = 2 m + i c + k )
1
es una funcin de transferencia. Luego se obtiene
la funcin u (t ) con la transformada inversa:
1
u (t ) =
2
U ( ) e i t d
Au + Bu = c f ( x) (A + i B ) U() = c F ()
En este caso U () denota una matriz columna que agrupa las transformadas de las
funciones agrupadas en u(t ) . Luego:
1
u (t ) =
2
U ( ) e i t d
2
Cooley, J.W. y Tukey, J.W. An algorithm for machine calculation of complex Fourier series. Math.Comp.,
19:297-201, 1965.
Para empezar, puede observarse que, dejando de lado el factor 1 / N , las expresiones
(8.14) y (8.15) son ambas de la forma:
N 1 2i
cj = f
n =0
n u jn
u=e N
(8.16)
Ntese que u N
= 1 . Los prrafos siguientes se refieren a (8.16), y son igualmente
aplicables a la determinacin de los c j (anlisis de Fourier) o a la de los f n (sntesis de
Fourier). Se presenta el algoritmo FFT en su forma ms simple, suponiendo que N es
una potencia exacta de 2 , es decir, N = 2 m . Sin embargo, pueden aplicarse ideas
similares cuando N es arbitrario.
Los valores f n pueden separarse en dos grupos, aquellos que ocupan las posiciones
pares: n = 2 p y aquellos que ocupan las posiciones impares: n = 2 p + 1 . Luego:
N N
1 1
2 2
cj = f
p=0
2p (u 2 ) jp + u j f
p=0
2 p +1 (u 2 ) jp
cq = q + u q q (8.17a)
cN = q + u q q (8.17b)
+q
2
N N
1 1
2 2
siendo q = f
p =0
2p (u 2 ) pq y q = f
p =0
2 p +1 (u 2 ) pq transformadas con N / 2 puntos.
2i
Ntese que u 2 = e N /2 , expresin anloga a la de u pero con N / 2 puntos.
0000 0 0 0 0 0 0000
0001 1 2 4 8 8 1000
0010 2 4 8 4 4 0100
0011 3 6 12 12 12 1100
0100 4 8 2 2 2 0010
0101 5 10 6 10 10 1010
0110 6 12 10 6 6 0110
0111 7 14 14 14 14 1110
1000 8 1 1 1 1 0001
1001 9 3 5 9 9 1001
1010 10 5 9 5 5 0101
1011 11 7 13 13 13 1101
1100 12 9 3 3 3 0011
1101 13 11 7 11 11 1011
1110 14 13 11 7 7 0111
1111 15 15 15 15 15 1111
u = e 2i / 2 = 1 c0 = 0 + 0
c1 = 0 0
u = e 2i / 4 = i c0 = 0 + 0
c2 = 0 0
c1 = 1 i 1
c3 = 1 m i 1
Para una funcin no peridica, como podra ser el registro de una componente de
aceleracin ssmica, estrictamente no podra emplearse el algoritmo FFT, puesto que se
obtienen los coeficientes de una serie de Fourier y no propiamente la transformada. Sin
embargo, puede considerarse a la funcin como si fuera peridica agregndole
suficientes ceros como para asegurar que, dada la disipacin existente en todos los
sistemas reales, no haya influencia significativa de un perodo sobre el siguiente.
200 f (t)
100
0 t
0 20 40 60 80 100 120 140 160
-100
-200
4.0E-05 |F( )|
3.0E-05
2.0E-05
1.0E-05
0.0E+00
0 20 40 60 80